Uma empresa de IA americana se recusou a entregar sua tecnologia para armas autônomas e vigilância em massa. A resposta do governo? Classificá-la como ameaça à segurança nacional.
Essa é a história mais surreal que aconteceu no mundo da inteligência artificial em 2026. O Pentágono declarou guerra à Anthropic, criadora do Claude, e o que veio depois ninguém esperava. Neste artigo, você confere o resumo da timeline completa. Para a cobertura detalhada com todas as fontes, assista ao vídeo no canal.
O contrato de US$200 milhões
Em julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o Pentágono. O Claude se tornou o primeiro modelo de IA de fronteira aprovado para uso em redes classificadas do governo americano.
Mas o contrato tinha duas linhas vermelhas. Primeira: o Claude não poderia ser usado para vigilância em massa de cidadãos americanos. Segunda: não poderia controlar armas letais autônomas, ou seja, armas que decidem sozinhas quem matar, sem humano no loop.
A Anthropic não era contra o uso militar em geral. O CEO Dario Amodei deixou claro que armas parcialmente autônomas são essenciais para defesa. A questão é que a IA atual não é confiável o suficiente para tomar decisões de vida ou morte sozinha.
O ultimato e o “ban”
Em setembro de 2025, as negociações travaram. O Pentágono queria que a Anthropic removesse as duas cláusulas. A empresa disse não.
Em fevereiro de 2026, o Secretário de Defesa Pete Hegseth deu um ultimato ao Amodei: ceda até sexta-feira às 17h01, ou a Anthropic seria classificada como risco para a cadeia de suprimentos. A Anthropic não cedeu.
No dia 27 de fevereiro, Trump ordenou que todas as agências federais parassem de usar qualquer produto da Anthropic. Um rótulo que até então só tinha sido usado para empresas ligadas a adversários estrangeiros, como a Huawei. Horas depois, a OpenAI anunciou que tinha fechado acordo com o Pentágono.

A reação que ninguém esperava
O público e a indústria reagiram com força. Usuários revoltados com a OpenAI iniciaram o movimento QuitGPT. As desinstalações do ChatGPT subiram 295% em um único dia. Em março, 1,5 milhão de pessoas tinham cancelado a assinatura ou deletado o app.
O Claude foi de 131 para primeiro lugar na App Store americana, ultrapassando o ChatGPT. Os assinantes pagos da Anthropic mais que dobraram.
Mais de 300 funcionários do Google e 60 da OpenAI assinaram uma carta aberta pedindo que suas próprias empresas apoiassem a Anthropic. Funcionários da concorrência se posicionando contra o governo e a favor da rival.
A Justiça chamou de “orwelliano”
Em março, a Anthropic processou o governo federal. A Senadora Elizabeth Warren abriu investigação dizendo que a designação “parece ser retaliação”.
No dia 26 de março, a juíza federal Rita Lin bloqueou a designação da Anthropic como risco de segurança e barrou a ordem de Trump. A frase da sentença de 43 páginas foi devastadora:
“Nada no estatuto sustenta a noção orwelliana de que uma empresa americana pode ser rotulada como adversária potencial e sabotadora dos Estados Unidos por expressar discordância com o governo.”
A juíza classificou como retaliação da Primeira Emenda, ou seja, retaliação contra a liberdade de expressão. O governo tem até 6 de abril para dizer como vai cumprir a decisão.
O que fica dessa história
A Anthropic apostou que princípios valiam mais que 200 milhões de dólares. O mercado recompensou. Funcionários da concorrência apoiaram publicamente. E uma juíza federal criou precedente: empresa de tecnologia tem direito de impor limites éticos sobre como seu produto é usado, mesmo quando o cliente é o governo dos Estados Unidos.
Essa história ainda não acabou. Para a cobertura completa com todos os detalhes e bastidores, assista ao vídeo no canal.
















