A empresa de IA Anthropic está enfrentando uma de suas maiores crises em seus cinco anos de existência, à medida que se aproxima de um prazo na sexta-feira para remover as restrições sobre como o Departamento de Defesa dos EUA pode usar sua tecnologia, sob a ameaça de que o Pentágono tome ações que podem prejudicar seriamente seus negócios.
O secretário de Defesa dos EUA, Pete Hegseth, exigiu que a Anthropic eliminasse as restrições que atualmente estão estipuladas em seus contratos, que proíbem o uso de seus modelos de IA para vigilância em massa ou para serem incorporados em armas autônomas letais, que podem tomar decisões de ataque sem a intervenção humana. Em vez disso, Hegseth deseja que a Anthropic estipule que sua tecnologia pode ser utilizada para “qualquer propósito legal” que o Departamento de Defesa desejar perseguir.
Se a empresa não cumprir até sexta-feira, Hegseth ameaçou não apenas cancelar o contrato existente de 200 milhões de dólares da Anthropic com seu departamento, mas também rotulá-la como um “risco à cadeia de suprimentos”, o que significaria que nenhuma empresa que faz negócios com o Departamento de Defesa estaria autorizada a usar os modelos da Anthropic. Isso poderia devastar o crescimento da Anthropic—justo quando a empresa, atualmente avaliada em 380 bilhões de dólares, tem visto uma tração comercial significativa e está considerando uma oferta pública inicial tão logo ano que vem.
Uma reunião na terça-feira entre Hegseth e o CEO da Anthropic, Dario Amodei, em Washington, D.C., não conseguiu resolver o conflito e terminou com Hegseth reiterando seu ultimato.
O confronto ocorre em um contexto de hostilidade, às vezes explícita, em relação à Anthropic por parte de outros funcionários da administração Trump. O czar da IA, David Sacks, em particular, tem atacado publicamente a empresa nas redes sociais, chamando-a de “IA woke” e parte do “complexo industrial do desespero”. Sacks acusou a empresa de adotar uma “estratégia sofisticada de captura regulatória baseada no alarmismo”. Seus argumentos indicam, basicamente, que os executivos da Anthropic alertam desonestamente para riscos extremos de sistemas de IA a fim de justificar regulações com as quais apenas a Anthropic e algumas outras empresas de IA podem facilmente se adequar.
O CEO da Anthropic, Dario Amodei, chamou essas visões de “imprecisas” e insistiu que a empresa compartilha muitos objetivos de política com a administração Trump, incluindo o desejo de ver os EUA na vanguarda do desenvolvimento da tecnologia de IA.
No entanto, Sacks e outros dentro da administração podem estar esperando que Hegseth cumpra suas promessas de colocar a Anthropic na lista negra da cadeia de suprimentos de segurança nacional.
Outras empresas de IA, como OpenAI e Google, aparentemente não impuseram restrições sobre como o exército dos EUA usa suas tecnologias.
Princípios versus pragmatismo
Colaborar com o exército tem sido controverso entre alguns trabalhadores do setor tecnológico. Em 2018, o Google enfrentou uma rebelião vocal de funcionários por sua decisão de ajudar o Pentágono com o “Projeto Maven”, uma iniciativa para usar IA na análise de imagens de vigilância aérea. A revolta dos empregados obrigou o Google a desistir de sua proposta para renovar o contrato no projeto. No entanto, nos anos seguintes, a gigante da internet silenciosamente renovou seus laços com a defesa, e em dezembro, o Departamento de Defesa anunciou que implantaria os modelos de IA Gemini do Google para uma série de casos de uso.
Owen Daniels, diretor associado de análise no Centro de Segurança e Tecnologia Emergentes (CSET) da Universidade de Georgetown, disse à Associated Press que “os colegas da Anthropic, incluindo Meta, Google e xAI, têm estado dispostos a cumprir com a política do departamento sobre o uso de modelos para todas as aplicações legais. Portanto, o poder de negociação da empresa aqui é limitado, e ela corre o risco de perder influência na pressão do departamento para adotar a IA.”
Entretanto, os princípios podem ser um motivador poderosamente incomum para os funcionários da Anthropic. A empresa foi fundada por um grupo de pesquisadores que se separaram da OpenAI, em parte porque estavam preocupados com o fato de que o laboratório estava permitindo que pressões comerciais desviassem sua missão original de garantir que a IA poderosa fosse desenvolvida para o benefício da humanidade. Mais recentemente, a Anthropic adotou posições firmes, como não incorporar publicidade em seus produtos Claude e não desenvolver chatbots especificamente projetados para serem companheiros românticos ou eróticos.
Dada a cultura da empresa, alguns comentaristas externos especularam que pelo menos alguns funcionários da Anthropic irão pedir demissão se a empresa ceder às exigências de Hegseth e remover as limitações atualmente incorporadas em seus contratos com o governo.
Hegseth também afirmou que existe uma outra opção disponível ao Pentágono caso a Anthropic não cumpra seu pedido voluntariamente. Isso envolvia usar a Lei de Produção de Defesa de 1950 para obrigar a Anthropic a oferecer ao exército uma versão de seu modelo Claude sem nenhuma restrição.
A DPA, que foi originalmente projetada para permitir que o governo assumisse o controle da fabricação civil em caso de guerra, foi invocada durante a pandemia de Covid-19 para obrigar empresas a produzir equipamentos de proteção e vacinas. Desde então, ela tem sido usada numerosas vezes, principalmente pela administração Biden, mesmo na ausência de uma emergência nacional clara. Por exemplo, em 2023, a Casa Branca Biden invocou a DPA para forçar empresas de tecnologia a compartilhar informações sobre os testes de segurança de seus modelos avançados de IA com o governo.
Katie Sweeten, que serviu até setembro de 2025 como liaisão do Departamento de Justiça com o Departamento de Defesa e agora é uma sócia no escritório de advocacia Scale, disse à CNN que a posição de Hegseth não faz sentido do ponto de vista político. “Eu presumiria que não queremos utilizar a tecnologia que é o risco à cadeia de suprimentos, certo? Então, eu não sei como você pode conciliar isso”, afirmou.
Dean Ball, que trabalhou como consultor de política de IA na administração Trump, ajudando a redigir seu plano de ação de IA, e agora é um membro sênior da Fundação para a Inovação Americana, também chamou a posição do Pentágono de “incoerente” em um post no X. “Como pode uma opção de política ser ‘risco à cadeia de suprimentos’ (usualmente usada contra adversários estrangeiros) e a outra ser a DPA (comandar de emergência ativos críticos)?”, perguntou.
Ball disse ao Tech Crunch que impor o rótulo de risco à cadeia de suprimentos enviaria uma mensagem terrível para qualquer empresa que faz negócios com o governo. “Isso basicamente seria o governo dizendo: ‘Se você discordar de nós politicamente, tentaremos colocar você fora do negócio'”, declarou.
Alguns comentaristas legais observaram que ambos os lados da disputa têm argumentos legítimos. “Não quereríamos que Lockheed Martin vendesse ao exército um F-35 e depois dissesse ao Pentágono quais missões ele poderia realizar”, disse Alan Rozenshtein, professor associado de direito na Universidade de Minnesota e membro da Brookings, em uma coluna publicada no site Lawfare.
Entretanto, Rozenshtein também argumentou que o Congresso, e não o Pentágono, deve estabelecer as regras sobre como o exército dos EUA utiliza a IA. “Os termos que regem como o exército utiliza a tecnologia mais transformadora do século estão sendo definidos através de negociações bilaterais entre um secretário de defesa e um CEO de startup, sem nenhuma entrada democrática e sem restrições duráveis”, escreveu.
Até o meio da semana, a Anthropic não demonstrou sinais de recuar de sua posição.
Futuro do Claude em jogo
Helen Toner, diretora executiva interina do CSET da Georgetown e ex-membro do conselho da OpenAI, postou no X que o Pentágono provavelmente está subestimando a disposição da Anthropic em abandonar sua posição, porque—por mais estranho que isso pareça—fazer isso poderia dar um exemplo negativo para futuras versões do Claude. Pesquisadores da Anthropic têm manifestado preocupações crescentes sobre o que cada nova versão do Claude aprende sobre seu próprio caráter com base em dados de treinamento que agora incluem artigos de notícias e comentários nas redes sociais sobre o Claude.
No entanto, a empresa já se comprometeu em outras ocasiões quando estava encurralada. Em junho de 2025, a Anthropic enfrentou uma ameaça potencialmente existencial quando um juiz federal decidiu que seu uso de bibliotecas de livros pirateados para treinar seus modelos de IA Claude provavelmente violava a legislação de direitos autorais. Isso deixou a empresa enfrentando dezenas de bilhões de dólares em possíveis responsabilidades se levasse o caso a um julgamento total e perdesse. Em vez de continuar a luta, a Anthropic anunciou um acordo de 1,5 bilhão de dólares com os titulares dos direitos autorais.
E apenas na semana passada, a Anthropic mostrou mais uma vez, em um contexto diferente, que às vezes está disposta a colocar o pragmatismo e imperativos comerciais à frente de princípios elevados. A empresa atualizou sua Política de Escala Responsável (RSP), abandonando um compromisso anterior de nunca treinar um modelo de IA, a menos que pudesse garantir que tinha controles de segurança adequados em vigor. A nova RSP agora se compromete simplesmente a igualar ou superar os esforços de segurança realizados pelos concorrentes. Ela também afirma que a Anthropic irá adiar o desenvolvimento de modelos se a empresa acreditar que possui uma vantagem clara sobre a concorrência e também pensa que o treinamento do modelo apresenta um risco catastrófico significativo. Jared Kaplan, chefe de pesquisa da Anthropic, disse à Time que “compromissos unilaterais” não faziam mais sentido se “os concorrentes estão avançando rapidamente”.
Se a Anthropic fará uma concessão semelhante às pressões comerciais em sua disputa com o Departamento de Defesa ainda está por ser visto.






