cover
Tocando Agora:

Sala de Bate-Papo

EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal

Entenda o que levou Israel e EUA a atacarem o Irã Os Estados Unidos usaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irã no...

EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal
EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal (Foto: Reprodução)

Entenda o que levou Israel e EUA a atacarem o Irã Os Estados Unidos usaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irã no último sábado (28), revelou o jornal The Wall Street Journal. A informação foi confirmada pelo site Axios e pela agência de notícias Reuters. 💡 O Claude é um aplicativo parecido com o ChatGPT que responde a perguntas e comandos feitos por usuários. Para funções mais complexas, é possível conectar os sistemas que "raciocinam", chamados de modelos de linguagem, a outros programas. O Comando Central dos EUA no Oriente Médio (Centcom), principal base do Exército americano na região, utiliza o Claude, mas se recusou a comentar como o assistente foi usado no ataque ao Irã, segundo o Wall Street Journal. Ainda de acordo com a reportagem, o Centcom integrou inteligência artificial em suas operações e costuma usar o Claude para fazer avaliações de inteligência, identificar alvos e simular cenários de batalha. Ataque ao Irã: entenda o que aconteceu e o que pode vir agora Irã tem novo apagão de internet em meio a conflito com EUA e Israel Ataques dos EUA e Israel contra o Irã AP O Claude foi usado na operação contra o território iraniano enquanto os EUA travam há meses uma batalha contra a Anthropic, empresa americana que criou a ferramenta. O presidente Donald Trump ordenou na última sexta-feira (27) que órgãos federais dos EUA deixassem de usar programas da Anthropic imediatamente. "O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça", afirmou Trump na sexta, em sua rede social. O governo americano está insatisfeito com a decisão da empresa de impedir o uso irrestrito de seus modelos de IA pelo Departamento de Guerra, também conhecido como Pentágono. A Anthropic tem desde 2025 um contrato de US$ 200 milhões (cerca de R$ 1 bilhão) com o Pentágono para fornecer modelos de IA para aplicações militares. Mas há limites: eles não podem ser usados na vigilância em massa de cidadãos e em sistemas de armamento autônomos, por exemplo. Entenda como EUA e Israel infiltraram o espaço aéreo do Irã e neutralizaram as defesas do país em poucas horas A empresa disse na quinta-feira (26) que, apesar da pressão, não permitiria o uso irrestrito de suas ferramentas pelo Departamento de Guerra. "Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação". O diretor-executivo da Anthropic, Dario Amodei, disse que os modelos foram usados pelos órgãos federais para defender o país, mas que a companhia estabelece uma linha ética em relação ao uso para a vigilância em massa de cidadãos americanos e para armas totalmente autônomas. Ele afirmou ainda que os sistemas de IA de vanguarda ainda não são confiáveis o bastante para lidar com armas letais sem haver um ser humano com o controle final. O Pentágono também usou o Claude na operação que capturou o então presidente da Venezuela, Nicolás Maduro, informou em fevereiro o Wall Street Journal. A reportagem não detalhou como a inteligência artificial foi utilizada, mas disse que ela foi adotada em uma parceria do Pentágono com a empresa de dados americana Palantir Technologies. LEIA TAMBÉM: Data center da Amazon é atingido nos Emirados Árabes, e serviços ficam instáveis no Oriente Médio 'Não dá pra viver sem VPN': como brasileiros na Rússia driblam restrições às redes sociais 'Crise da memória' deve fazer venda de celulares ter maior queda da história em 2026