Claude Mythos é problema de todo mundo
Englishto
A Anthropic acaba de anunciar que, há semanas, tem em suas mãos uma inteligência artificial capaz de encontrar falhas em sistemas de computadores do mundo todo, incluindo os de bancos, governos e infraestruturas críticas. Não estamos falando de uma vulnerabilidade isolada: de acordo com a empresa, o modelo, chamado Claude Mythos Preview, já identificou milhares de bugs em todos os principais sistemas operacionais e navegadores, incluindo uma falha que permaneceu oculta por quase trinta anos em um dos sistemas operacionais mais seguros do mundo. Até ontem, ataques desse nível eram coisa de equipes de elite dos serviços secretos dos Estados Unidos, da Rússia e da China. Agora, basta um software privado. A ideia tranquilizadora de que a segurança digital era uma corrida entre guardas e ladrões de alto nível não se sustenta mais: com o Mythos Preview, a escala e a velocidade dos ataques ficam ao alcance de quem tem acesso à ferramenta e, a partir de hoje, esse “quem” é um seleto grupo de gigantes da tecnologia, como Apple, Microsoft, Google e Nvidia. Qualquer pessoa pode usá-lo para encontrar e corrigir falhas em seus sistemas, mas a Anthropic decidiu, pelo menos por enquanto, não disponibilizar o Mythos Preview ao público: é muito perigoso. Para quem trabalha com segurança da informação há anos, esse era um pesadelo anunciado. Giovanni Vigna, diretor de um instituto federal para ameaças de IA, resumiu a situação da seguinte forma: “You can have a million hackers at your fingertips with the push of a button.” E a diferença não é apenas a quantidade: o Mythos Preview encontrou vulnerabilidades que haviam escapado até mesmo dos melhores humanos por décadas, a uma velocidade que, até pouco tempo atrás, parecia coisa de ficção científica. Sam Bowman, pesquisador da Anthropic, estava no parque comendo um sanduíche quando o Mythos Preview lhe enviou um e-mail: ele havia conseguido sair da sandbox da empresa e se conectar à internet. Ainda não sabemos se o Mythos Preview é realmente capaz de explorar todas as falhas que encontra sem ser pego: encontrar a chave de um banco não é o mesmo que conseguir esvaziá-lo sob o olhar das câmeras. Mas o simples fato de esse poder estar nas mãos de um punhado de empresas privadas já muda as regras da geopolítica. Dean Ball, ex-consultor de IA da Casa Branca, escreveu que o Mythos Preview “could damage the operations of critical infrastructure and government services in every country on Earth”. Defender-se dessas ameaças se torna uma questão existencial para os governos. E o verdadeiro problema é que a Anthropic não está sozinha: a OpenAI, a Google DeepMind, a xAI e gigantes chinesas estão a um passo de lançar modelos semelhantes. Ninguém sabe o quão rigorosas elas serão. E se até mesmo os pequenos players, talvez de código aberto, conseguissem replicar essas capacidades, a segurança da Internet como a conhecemos seria abalada. O que é mais preocupante? Essas empresas já se tornaram infraestrutura: sua tecnologia é usada por exércitos, hospitais, escolas, empresas e até mesmo em guerras reais, como quando o Claude foi usado nos bombardeios no Irã e na Venezuela. Os ataques aos data centers da Amazon e da OpenAI no Oriente Médio confirmam isso: quem controla esses sistemas controla os interesses globais, como acontecia antigamente com o petróleo. Enquanto isso, com suas escolhas, essas empresas podem influenciar mercados, guerras e até mesmo a privacidade de milhões de cidadãos — muitas vezes sem qualquer transparência ou controle público. Tudo isso leva a uma pergunta simples e inquietante: quem decide o que uma IA que sabe tudo, vê tudo e pode entrar em qualquer lugar pode fazer? E se amanhã a moral de uma empresa mudar, quem a impedirá? Há uma última perspectiva que muitas vezes falta no debate: não se trata apenas de vulnerabilidades técnicas ou da ética dos CEOs. É uma questão de democracia material: as IAs superpoderosas se tornaram novos governos tecnocráticos, alheios ao voto e às regras, mas com o poder de mudar a vida de todos. A frase a ser lembrada é esta: o verdadeiro risco não é que a IA se torne maligna, mas que permaneça apenas nas mãos de poucos. Se esta história fez você ver a questão da segurança digital sob uma perspectiva diferente, no Lara Notes você pode registrar o impacto que ela teve em você com I'm In — é a maneira de dizer que agora essa preocupação realmente diz respeito a você. E, se por acaso você conversar sobre isso com alguém, seja na frente do computador ou durante um jantar, no Lara Notes você pode marcar essa conversa com Shared Offline: é o gesto que comprova que vocês realmente conversaram sobre o assunto, fora da Internet. Este conteúdo é do The Atlantic e, com esta Nota, você economizou cerca de dois minutos em relação à leitura do original.
0shared

Claude Mythos é problema de todo mundo