Governo Trump dá ultimato para empresa liberar ferramenta de IA para uso irrestrito do Exército
O secretário de Defesa dos EUA, Pete Hegseth, discursa ao lado do presidente Donald Trump durante uma reunião de gabinete na Casa Branca, em 29 de janeiro de ...
O secretário de Defesa dos EUA, Pete Hegseth, discursa ao lado do presidente Donald Trump durante uma reunião de gabinete na Casa Branca, em 29 de janeiro de 2026 REUTERS/Evelyn Hockstein O governo Trump deu um ultimato à Anthropic para liberar sua tecnologia de Inteligência Artificial para uso irrestrito pelo Exército dos Estados Unidos, segundo a agência de notícias Associated Press. O secretário de Guerra, Pete Hegseth, deu ao CEO da empresa até esta sexta-feira (27) para isso, sob ameaças de romper contratos da Anthropic com o governo dos EUA e classificá-la como um "risco da cadeia de suprimentos", medida de amplo boicote do governo norte-americano aplicada geralmente a empresas chinesas. ✅ Siga o canal de notícias internacionais do g1 no WhatsApp A Anthropic é dona do Claude, uma ferramenta de IA especializada em segurança, e a empresa é a última entre suas concorrentes a resistir à pressão de fornecer sua tecnologia para uma nova rede interna das Forças Armadas dos EUA. O Claude, inclusive, foi utilizado pelo Exército norte-americano na operação que resultou na deposição do ditador venezuelano Nicolás Maduro, no início do ano, segundo o "The Wall Street Journal". A empresa proíbe o uso da IA para fins de violência, e o CEO Dario Amodei disse diversas vezes ter preocupações éticas com o uso governamental irrestrito de IA, incluindo os perigos de drones armados totalmente autônomos e de vigilância em massa assistida por IA capaz de monitorar dissidências. Veja os vídeos que estão em alta no g1 "Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam", escreveu Amodei em um ensaio no mês passado. Diante da resistência, Hegseth alertou que poderia classificar a Anthropic como "risco à cadeia de suprimentos" ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês) para forçar com que os militares consigam mais autoridade para usar os produtos da Anthropic, mesmo sem aprovação da empresa quanto à forma de uso, segundo fontes do Pentágono ouvidas pela AP. Essa classificação faria com que a Anthropic passasse a ser considerada um risco à segurança nacional dos EUA e sofreria amplas restrições de importação, seria impedida de conseguir licitações e seria excluída de determinados setores considerados vitais ao país. Já a DPA concede ao presidente dos EUA poderes emergenciais para intervir na economia e indústria do país em prol da defesa nacional. Empresas que recebem ordens sob a DPA devem cumpri-la sob pena de multas, sanções criminais, perda de contratos governamentais ou apreensão de bens e até intervenção federal direta. Em troca, ganham proteção antitruste para colaborações e acesso prioritário a suprimentos. O impasse entre o governo Trump e a Anthropic ressalta o debate sobre o papel da IA na segurança nacional e as preocupações sobre seu uso em situações críticas envolvendo força letal, informações sensíveis ou vigilância governamental. Também ocorre no momento em que Hegseth promete eliminar o que chama de “cultura woke” nas Forças Armadas. Hegseth convocou Amodei para uma reunião no Pentágono na semana passada. Segundo uma autoridade ouvida pela AP, o tom da reunião foi cordial, mas o CEO não recuou em dois pontos considerados linhas vermelhas para a Anthropic: operações militares de mira totalmente autônomas e vigilância doméstica de cidadãos americanos. O Pentágono se opõe às restrições éticas da empresa porque operações militares precisam de ferramentas sem limitações embutidas, afirmou o alto funcionário. Ele argumentou que o Pentágono emite apenas ordens legais e que o uso legal das ferramentas seria responsabilidade dos militares. Segundo a rede norte-americana "CBS", o Pentágono enviou à Anthropic nesta quinta-feira (26) o que chamou de "oferta final" para o uso do Claude pelo Exército para evitar as sanções à empresa. Jato F-35 (à direita) estacionado no deque do porta-aviões USS Abraham Lincoln enquanto jato F-18 decola (ao fundo) para voo de monitoramento em 23 de janeiro de 2026. Daniel Kimmelman/Marinha dos Estados Unidos Anthropic deixará de ser a única aprovada para redes classificadas O Pentágono anunciou no ano passado contratos com quatro empresas de IA —Anthropic, Google, OpenAI e xAI, de Elon Musk— cada um no valor de até US$ 200 milhões (cerca de R$ 1 trilhão). A Anthropic foi a primeira empresa de IA aprovada para redes militares classificadas, onde trabalha com parceiros como a Palantir. Em discurso em janeiro, Hegseth afirmou que descartaria modelos de IA “que não permitam lutar guerras”. Disse ainda que sua visão para sistemas militares de IA é que operem “sem restrições ideológicas que limitem aplicações militares legais” e acrescentou que a IA do Pentágono “não será woke”. Anthropic se define como mais focada em segurança Desde sua fundação, em 2021, após seus criadores deixarem a OpenAI, a empresa se apresenta como mais responsável e focada em segurança. O atual impasse com o Pentágono coloca essa postura à prova, segundo Owen Daniels, do Centro para Segurança e Tecnologia Emergente da Universidade Georgetown. “Os concorrentes da Anthropic, incluindo Meta, Google e xAI, aceitaram a política do departamento de permitir o uso dos modelos para todas as aplicações legais”, afirmou. “Assim, o poder de barganha da empresa é limitado, e ela corre o risco de perder influência na adoção de IA pelo departamento.” Durante o governo Joe Biden, a Anthropic se alinhou ao governo democrata ao se voluntariar para submeter seus sistemas a avaliações externas, visando mitigar riscos à segurança nacional. Amodei tem alertado para os riscos potencialmente catastróficos da IA, mas rejeita o rótulo de "alarmista". Em ensaio recente, o CEO da Anthropic escreveu que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”. Tensões com o governo Trump Esta não é a primeira vez que as normas éticas mais rígidas da Anthropic a colocam em rota de colisão com o governo Trump. A empresa criticou publicamente propostas de flexibilização de controles de exportação que permitiriam vender chips de IA para a China — embora mantenha parceria com a Nvidia. O governo Trump e a Anthropic também estiveram em lados opostos em debates sobre regulamentação estadual de IA. Para Amos Toh, do Brennan Center da Universidade de Nova York, a adoção acelerada de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa, especialmente se a tecnologia for usada para vigilância de americanos. “A lei não acompanha a velocidade da evolução tecnológica”, escreveu Toh. “Mas isso não significa que o Departamento de Defesa tenha carta branca.”