
O mesmo modelo de inteligência artificial que pode ajudar a criar um e-mail de marketing ou uma receita de jantar rápido também foi usado para atacar o Irã. De acordo com uma reportagem do Wall Street Journal, o Comando Central dos EUA usou a Cloud AI da Anthropic para “avaliação de inteligência, identificação de alvos e simulação de cenários de combate” durante o ataque ao país.
Horas antes, o presidente Donald Trump havia ordenado que as agências federais parassem de usar o Clod após uma disputa com seu fabricante, mas a ferramenta estava tão profundamente enraizada nos sistemas do Pentágono que levaria meses para resolvê-la em favor de um rival mais leal. Também foi utilizado na operação de Janeiro que levou à captura de Nicolás Maduro.
Mas o que significam na prática “avaliação de inteligência” e “detecção de alvos”? Claude sinalizou posições para estimar ataques ou baixas? Ninguém publicou isso e, preocupantemente, ninguém é obrigado a fazê-lo.
A inteligência artificial tem sido usada há muito tempo na guerra para coisas como análise de imagens de satélite, detecção de ameaças cibernéticas e operação de sistemas de defesa antimísseis. Mas a utilização de chatbots – a mesma tecnologia subjacente que milhares de milhões de pessoas utilizam para tarefas mundanas como escrever e-mails – está agora a ser utilizada no campo de batalha.
Em novembro passado, a Anthropic Palantir Technologies Inc. fez parceria com uma empresa de análise de dados que faz muito trabalho para o Pentágono, transformando seu grande modelo de nuvem de linguagem em um mecanismo de raciocínio dentro de sistemas militares de apoio à decisão.
Então, em janeiro, a Anthropic apresentou uma proposta de US$ 100 milhões ao Pentágono para desenvolver tecnologia de enxame de drones autônomos controlados por voz, informou a Bloomberg News. A proposta da empresa: usar Claude para traduzir a intenção de um comandante em instruções digitais para coordenar uma frota de drones.
Sua proposta foi rejeitada, mas a concorrência exigia mais do que um resumo de relatórios de inteligência, como seria de esperar que um chatbot fizesse. O acordo era desenvolver “conscientização e compartilhamento relacionados ao alvo” e “lançamento até a terminação” para enxames de drones potencialmente letais.
Terra de ninguém
Surpreendentemente, tudo isto está a acontecer num vácuo regulamentar e com tecnologia que é conhecida por funcionar mal. As alucinações provocadas por grandes modelos linguísticos são o resultado do seu treino, quando são recompensados por procurarem uma resposta em vez de admitirem a incerteza. Alguns cientistas dizem que o desafio contínuo da confabulação da IA pode nunca ser resolvido.
Esta não é a primeira vez que um incrível sistema de IA é usado em batalha. Lavender era um banco de dados alimentado por IA que ajudou a identificar alvos militares ligados ao Hamas em Gaza. Não era um grande modelo de linguagem, mas analisava grandes quantidades de dados de vigilância, como conexões sociais e histórico de localização, para atribuir a cada pessoa uma pontuação de 1 a 100. Quando a pontuação de alguém excede um determinado limite, Lavender o marca como alvo militar.
De acordo com um relatório investigativo publicado pelo veículo israelense-palestino +972, o problema era que Lavender estava errada em 10% das vezes. “Cerca de 3.600 pessoas foram alvejadas por engano”, disse-me Mariarosaria Tadeo, professora de ética digital e tecnologia de defesa no Oxford Internet Institute.
“Estes sistemas têm uma vulnerabilidade incrível e uma falta de fiabilidade extrema… para algo tão dinâmico, sensível e humano como a guerra”, diz LK Schwarz, professor de teoria política na Universidade Queen Mary de Londres e autor de Death Machines: The Ethics of Violent Technologies.
Schwarz observa que a IA é frequentemente usada para acelerar as coisas em combate, uma receita para consequências indesejadas. Decisões mais rápidas são tomadas em maior escala e com menos escrutínio humano. O uso militar da IA tornou-se mais opaco na última década e meia, diz ele.
E o sigilo está presente na forma como os laboratórios de IA funcionam, mesmo antes das aplicações de combate. Essas empresas se recusam a divulgar em quais dados seus modelos são treinados ou como seus sistemas chegam às conclusões.
É claro que as operações militares muitas vezes têm de ser camufladas para proteger os combatentes e mantê-los longe do cheiro do inimigo. Mas a defesa é em grande parte regida pelo direito humanitário internacional e pelas normas de teste de armas, que, em teoria, também deveriam abordar a utilização da inteligência artificial. No entanto, tais padrões estão ausentes ou são lamentavelmente inadequados.
As regras são antigas
Taddeo observou que o Artigo 36 da Convenção de Genebra exige que novos sistemas de armas sejam testados antes da implantação, mas um sistema de IA que aprende com o seu ambiente torna-se um novo sistema sempre que é atualizado. Isso torna quase impossível fazer cumprir as regras.
Num mundo ideal, governos como os dos EUA divulgariam a forma como estes sistemas são utilizados no campo de batalha e teriam um precedente. Os americanos começaram a usar drones armados depois do 11 de Setembro e expandiram a sua utilização sob a administração de Barack Obama, recusando-se a reconhecer que tal programa existia.
Foram necessários quase 15 anos de fuga de documentos, pressão contínua da imprensa e ações judiciais da União Americana pelas Liberdades Civis antes de a Casa Branca de Obama finalmente divulgar o número de vítimas dos ataques de drones em 2016. Foram amplamente vistos como subcontados, mas permitiram que o público, o Congresso e os meios de comunicação responsabilizassem o governo pela primeira vez.
Policiar a IA será ainda mais difícil, exigindo mais pressão pública e legislativa para obrigar uma administração inflexível de Trump a criar um quadro de relatórios semelhante.
Segundo Schwarz, o objetivo não seria revelar como Claude foi usado em algo como a Operação Epic Fury, mas revelar o amplo espectro. E, principalmente, para revelar quando algo dá errado.
O actual debate público sobre o conflito antropomórfico-Pentágono – sobre o que é legal e ético para a IA conduzir vigilância em massa dos americanos ou desenvolver armas totalmente autónomas – ignora a questão mais ampla da falta de visibilidade sobre como a tecnologia já está a ser utilizada na guerra. Com um sistema tão novo e não testado, sujeito a erros, isso é muito necessário. “Nós não decidimos como sociedade se estamos bem com uma máquina decidindo se as pessoas devem ser mortas”, disse Tadeo.
É importante pressionar por essa transparência antes que a IA na guerra se torne tão rotineira que ninguém pense mais em perguntar. Caso contrário, poderemos esperar por um erro catastrófico e impor transparência apenas depois de o dano ter sido feito.
Permi Olson é colunista de opinião da Bloomberg que cobre tecnologia. Ex-repórter do Wall Street Journal e da Forbes, ele é autor de “Dominance: AI, ChatGPT, and the Race That Will Change the World”. ©2026 Bloomberg LP Visite bloomberg.com/opinion. Distribuído pela Agência de Conteúdo Tribune.

