A administração Trump tem criticado repetidamente as medidas de segurança em inteligência artificial como “IA woke.” Durante um discurso na SpaceX em janeiro, o Secretário de Defesa Pete Hegseth expressou sua indignação contra sistemas de IA com restrições ideológicas. “A IA do Departamento de Guerra não será woke,” ele afirmou. “Ela trabalhará para nós. Estamos construindo armamentos e sistemas prontos para a guerra, não chatbots para um lounge de facultades da Ivy League.”
Com apenas alguns dias restantes antes do prazo reportado de Hegseth para que a Anthropic abrisse mão de suas demandas aparentemente woke em relação à segurança da IA e garantias de uso não militar, a empresa disse à Fortune que manteve “conversas de boa-fé” com o Pentágono.
A Anthropic enfrenta um prazo até as 17h01 de sexta-feira para conceder ao Pentágono acesso irrestrito à sua tecnologia de IA ou ficará de fora da cadeia de suprimentos militar, conforme relatado pela Axios, confirmado pela Associated Press.
O impasse segue meses de negociações entre o Departamento de Defesa e a Anthropic sobre como o exército pode utilizar a tecnologia da empresa. Como relatado pela Axios, Hegseth alertou a Anthropic de que o Pentágono poderia classificar a empresa como um “risco à cadeia de suprimentos,” uma designação reservada a empresas adversárias estrangeiras, como a chinesa Huawei, caso a companhia não cumprisse, forçando os contratantes militares a romperem laços com a Anthropic. Ele também ameaçou invocar a Lei de Produção de Defesa, uma lei que a administração Trump implementou durante a pandemia de COVID para incentivar as empresas a expandir a produção de suprimentos médicos, uma ameaça que Hegseth teria reiterado na terça-feira.
Um porta-voz da Anthropic acrescentou que a empresa apoiará as funções do governo de acordo com os princípios de IA responsável da companhia, afirmando que continuará a “apoiar a missão de segurança nacional do governo, alinhando-se ao que nossos modelos podem fazer de maneira confiável e responsável.”
O conflito se transformou em uma guerra por procuração no contexto de um debate mais amplo sobre quem deve definir os termos de uso da IA: as empresas de tecnologia ou o governo dos EUA. O Pentágono concedeu à Anthropic, juntamente com Google, OpenAI e xAI, contratos que totalizam até US$ 200 milhões no ano passado. Embora, até recentemente, a Anthropic tenha sido a única empresa de IA aprovada para uso pelo Pentágono, a startup adotou uma posição firme contra aplicações militares de sua IA, proibindo seu uso em armas totalmente autônomas e vigilância doméstica. Porém, a xAI de Elon Musk alcançou um acordo esta semana para permitir que o Pentágono utilize sua IA em sistemas classificados, adicionando competição à parceria anteriormente exclusiva da Anthropic.
O Pentágono utilizou o modelo de IA Claude da Anthropic por meio da parceria da empresa com a Palantir durante a operação dos EUA na Venezuela, que culminou na captura do ex-presidente venezuelano Nicolás Maduro. A Anthropic entrou em contato com a Palantir, perguntando como a IA da empresa foi utilizada durante a operação, que a Palantir subsequentemente sinalizou ao Pentágono, de acordo com a The Hill.
Afrouxando compromissos de segurança
No entanto, a Anthropic está lentamente desfazendo seu rígido compromisso com a segurança. A empresa de IA lançou na terça-feira uma versão atualizada de sua Política de Escala Responsável (RSP), originalmente publicada em setembro de 2023, para permanecer competitiva, afirmando que a nova política é uma reação a mudanças no ambiente de mercado. “O ambiente político tem mudado para priorizar a competitividade em IA e o crescimento econômico, enquanto discussões voltadas para a segurança ainda não ganharam tração significativa a nível federal,” afirmou o anúncio da Anthropic.
O CEO Dario Amodei sugeriu um possível afrouxamento dos compromissos de segurança, dizendo em uma entrevista ao apresentador do podcast Dwarkesh Patel que a empresa enfrenta “pressão comercial” e que suas rigorosas medidas de segurança têm limitado sua capacidade de competir com rivais que operam sob regras menos rigorosas.
Em uma entrevista exclusiva com a Time, Jared Kaplan, diretor científico da Anthropic, disse que as mudanças na RSP foram feitas por preocupação com a segurança, e não por temores de competição. “Achamos que não ajudaria ninguém se parássemos de treinar modelos de IA,” disse Kaplan. “Não sentimos, com o rápido avanço da IA, que fizesse sentido para nós fazer compromissos unilaterais … se os concorrentes estão avançando rapidamente.”


