A dependência do Departamento de Defesa da inteligência artificial da Anthropic desencadeou uma revelação surpreendente que resultou em uma divisão dramática, segundo um alto oficial do Pentágono.
Emil Michael, subsecretário do departamento para pesquisa e engenharia e também seu diretor de tecnologia, detalhou os eventos que levaram ao conflito público em um episódio da All-In podcast na sexta-feira.
Após a operação militar dos EUA na Venezuela no início de janeiro que capturou o ditador Nicolás Maduro, a Anthropic questionou a Palantir se sua inteligência artificial havia sido utilizada na operação. Embora a Anthropic tenha caracterizado a consulta como rotineira, o Pentágono e a Palantir interpretaram como uma ameaça potencial ao seu acesso.
“Eu pensei, caramba, e se esse software falhar, se algum tipo de limitação ocorrer para a próxima luta como esta e deixarmos nossos soldados em risco?” Michael se lembrou. “Então fui até o Secretário Hegseth, eu disse que isso poderia acontecer e esse foi um momento que deixou toda a liderança do Pentágono em choque, percebendo que estávamos potencialmente tão dependentes de um fornecedor de software sem outra alternativa.”
Até recentemente, Claude da Anthropic era o único modelo de IA autorizado em ambientes classificados. A startup com sede em São Francisco declarou que é patriótica e busca defender os EUA, mas não permitirá que sua IA seja utilizada em vigilância maciça de cidadãos ou em armas autônomas.
O Pentágono insistiu que usaria a IA em cenários legais e se recusou a aceitar quaisquer limites da empresa que ultrapassassem essas restrições.
Após não conseguir chegar a um compromisso na semana passada, o presidente Donald Trump ordenou que o governo federal interrompesse o uso da Anthropic, concedendo ao Pentágono um prazo de seis meses para eliminá-la. O Secretário de Defesa Pete Hegseth também designou a empresa como um risco na cadeia de suprimentos, o que significa que os contratantes não podem usá-la para trabalhos militares.
Por enquanto, o exército continua a utilizar a Anthropic durante a guerra dos EUA contra o Irã, já que a IA ajuda os combatentes a identificar alvos potenciais rapidamente.
Durante sua participação no podcast, Michael levantou a preocupação de que um desenvolvedor rebelde poderia “contaminar o modelo” tornando-o ineficaz para o exército, treiná-lo para alucinar intencionalmente ou instruí-lo a não seguir ordens.
Ele então contatou a OpenAI, que acabou fechando um acordo semelhante ao que a Anthropic havia feito. A xAI de Elon Musk também foi inserida em configurações classificadas, enquanto o Pentágono tentava liberar a IA do Google para ambientes classificados também.
“Não sou tendencioso,” disse Michael. “Eu só quero todos eles. Quero dar a todos exatamente os mesmos termos porque preciso de redundância.”
Ele reconheceu que a Anthropic havia se tornado “profundamente enraizada” no departamento, enquanto outras empresas de IA não haviam buscado clientes empresariais com a mesma agressividade, oferecendo engenheiros em campo.
A ruptura entre o Pentágono e a Anthropic destacou o choque de culturas entre o estabelecimento de defesa e o Vale do Silício, que tem raízes em inovações militares, mas se tornou relutante em ver sua tecnologia utilizada para a guerra.
Na verdade, um engenheiro-chefe de robótica da OpenAI anunciou sua renúncia da empresa no sábado, citando as mesmas preocupações levantadas pela Anthropic.
“Essa não foi uma decisão fácil. A IA desempenha um papel importante na segurança nacional. Mas a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são limites que mereciam mais deliberação do que receberam,” Caitlin Kalinowski postou no X e LinkedIn.


