Após um impasse entre a Anthropic e o Pentágono — no qual a empresa teria se recusado a conceder controle total do modelo Claude para uso das Forças Armadas Americanas — a OpenAI tomou o lugar da concorrente e firmou um acordo com o Departamento de Defesa dos Estados Unidos, para disponibilizar seus modelos de inteligência artificial.
O movimento ocorreu poucas horas depois de Donald Trump determinar que o governo interrompesse definitivamente a utilização da tecnologia da Anthropic.
Segundo Sam Altman, o acordo firmado permite que as ferramentas sejam usadas de forma confidencial, contanto que cumpra com algumas ressalvas — aparentemente iguais às que a Anthropic vinha exigindo.
“Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância em massa doméstica e a responsabilidade humana pelo uso da força, inclusive para sistemas de armas autônomas. O Departamento de Guerra concorda com esses princípios, os reflete em leis e políticas, e nós os incluímos em nosso acordo”, escreveu Altman no X.
A recusa da Anthropic
Na última quinta-feira, 26, Dario Amodei assinou uma declaração oficial onde se recusava a ceder o acesso irrestrito de suas ferramentas de inteligência artificial devido à preocupações com armas autônomas e vigilância doméstica em massa. Segundo o executivo, “em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos. Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade”, reforçando que os modelos atuais ainda não estão prontos para operar de forma independente.
A recusa foi respondida com ameaças por parte do Departamento de Defesa, que designou a Anthropic como um “risco na cadeia de suprimentos”, termo normalmente atribuído a empresas com ligações diretas a adversários estrangeiros.
“Eles ameaçaram nos designar como um “risco à cadeia de suprimentos” e invocar a Lei de Produção de Defesa para forçar a remoção das salvaguardas. Essas duas últimas ameaças são inerentemente contraditórias: uma nos rotula como um risco à segurança; a outra rotula Claude como essencial para a segurança nacional”, provocou Amodei na declaração. A Anthropic afirmou que irá contestar a classifcação na justiça.
Em sua plataforma Truth Social, Trump escreveu: “Os lunáticos de esquerda da Anthropic cometeram um ERRO DESASTROSO ao tentar COLOCAR O [Pentágono] à FORÇA e obrigá-los a obedecer aos seus Termos de Serviço em vez da nossa Constituição.” Em consonância, Pete Hegseth, secretário de Guerra, publicou no X: “Como afirmou o Presidente Trump no Truth Social, somente o Comandante-em-Chefe e o povo americano determinarão o destino de nossas Forças Armadas, e não executivos de tecnologia não eleitos. Os combatentes americanos jamais serão reféns dos caprichos ideológicos das grandes empresas de tecnologia. Esta decisão é definitiva”.
A declaração de Amodei gerou repercussão também entre funcionários da Google e da própria OpenAI, que se uniram para pedir abertamente que suas empresas não fechassem um acordo com o Pentágono. O abaixo-assinado reuniu 96 assinaturas de funcionários da OpenAI, e mais de 700 do Google.
A Anthropic vinha colaborando com o governo desde 2024, tendo sido a primeira empresa de IA a implantar modelos de IA nas redes classificadas do Governo, atuando inclusive na interrupção de ataques cibernéticos de facções. Porém, segundo Amodei, ceder às novas exigências do Pentágono seria “incompatível com os valores democráticos”.
O que esse acordo significa?
A premissa inicial da integração da IA com sistemas de defesa nacional é a aceleração de operações estratégicas, melhorando a tomada de decisões militares com base em dados de inteligência e prevenção de ameaças.
Porém forma como o Governo dos EUA vinha exigindo o uso da IA poderia oferecê-lo uma rede imensa de dados, com uma vigilância detalhada sem precedentes. O acesso à dados de geolocalização, informações de navegação na web e imagens de câmeras de segurança seriam a ponta do iceberg: o acesso à tecnologia seria capaz de identificar falhas em softwares, mapeando redes e examinando infraestruturas (como energia e telecomunicações) de países rivais.
A questão, portanto, levanta debates a respeito não só do limite ético no uso da IA, mas também a forma como a tecnologia poderá ser usada por países para equilibrar conceitos de segurança nacional e direitos civis.
Apesar de Sam Altman ter declarado que o uso das tecnologias da OpenAI por parte das forças armadas seriam restritos a “aspectos tecnicamente legais”, o governo dos EUA tem, repetidamente, ampliado a essa definição para abranger seus interesses. Portanto, a garantia do acordo engloba leis e políticas vigentes, mas não necessariamente futuras alterações ou republicações.
Altman citou partes do acordo firmado para argumentar que a empresa manteve seus limites. Ele afirmou que alguns funcionários teriam autorização para monitorar sistemas, impedindo-os de executar certas ações. Em postagem oficial da OpenAI, a empresa escreve que a implementação do acordo “permitirá verificar de forma independente se esses limites não estão sendo ultrapassados, incluindo a execução e atualização de classificadores”.
A Reuters publicou, nesta segunda-feira, que os EUA lançaram um arsenal contra alvos iranianos neste fim de semana, incluindo míseeis, caças e drones de ataque unidirecional. Segundo o veículo, o Pentágono utilizou serviços de IA da Anthropic para realizar o ataque — mesmo tendo encerrado o acordo com a bigtech momentos antes.
O acontecimento tira a utilização da IA para ataques do campo teórico e a coloca como uma realidade concreta. Entre os possíveis desdobramentos — entre os que podem ser previstos — estão a escalada do conflito, com respostas militares e ofensivas em alta velocidade, além de um efeito de retaliação por parte de outros países, que podem optar por adotar a mesma tecnologia.