A decisão foi anunciada após a empresa se recusar a liberar o uso irrestrito de seus sistemas de IA para fins militares, incluindo vigilância em massa de cidadãos e o desenvolvimento de armamentos totalmente autônomos. Em publicação nas redes sociais, Trump afirmou que não permitirá que uma companhia privada dite como as Forças Armadas americanas devem atuar.
“O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”, escreveu o presidente. Segundo ele, a determinação vale para todos os níveis do governo federal e inclui um período de transição de seis meses para a substituição dos sistemas atualmente utilizados.
O ultimato do governo havia sido anunciado dias antes, após reunião entre o CEO da Anthropic, Dario Amodei, e o secretário de Guerra, Pete Hegseth. O Departamento de Guerra, antigo Departamento de Defesa, exigiu que a empresa aceitasse as condições impostas pelo Pentágono ou poderia ser alvo de medidas com base na Lei de Produção de Defesa, legislação que autoriza o governo a obrigar empresas a priorizar demandas ligadas à segurança nacional.
Além disso, autoridades sinalizaram que a Anthropic poderia ser classificada como risco à cadeia de suprimentos, uma designação que costuma ser aplicada a empresas de países considerados adversários e que poderia comprometer contratos e a reputação da companhia.
Apesar da pressão, a empresa manteve sua posição. Em nota divulgada na quinta-feira, afirmou que não permitiria o uso irrestrito de seus modelos pelo Departamento de Guerra. “Essas ameaças não mudam nossa posição. Não podemos, em consciência, atender à solicitação”, declarou.
Desde 2025, a Anthropic mantém um contrato de US$ 200 milhões com o Pentágono para fornecer modelos de inteligência artificial voltados a diferentes aplicações militares. Segundo o jornal The Wall Street Journal, o modelo Claude chegou a ser utilizado pelo Exército americano na operação que resultou na deposição do ditador venezuelano Nicolás Maduro, no início deste ano.
A companhia, no entanto, estabelece limites claros para o uso de sua tecnologia. A Anthropic proíbe aplicações relacionadas à violência direta e tem reiterado preocupações éticas sobre o uso irrestrito de IA por governos. Amodei afirmou que o emprego desses sistemas para vigilância doméstica em massa é incompatível com valores democráticos e alertou que modelos de ponta ainda não são confiáveis o suficiente para controlar armas letais sem supervisão humana.