À medida que os militares dos EUA expandem a sua utilização de ferramentas de IA para identificar alvos para ataques aéreos no Irão, os membros do Congresso apelam a uma maior supervisão da utilização da tecnologia na guerra e à criação de barreiras de proteção.

Duas pessoas com conhecimento do assunto, que solicitaram anonimato para discutir assuntos delicados, confirmaram que os militares estão usando sistemas de IA da empresa de análise de dados Palantir para identificar alvos potenciais em ataques em andamento. O uso do software pela Palantir, que depende em parte do sistema de IA em nuvem da Anthropic, vem como o secretário de Defesa Pete Hegseth Objetivo de colocar inteligência artificial no coração do esforço de guerra da América – e enquanto entra em conflito com a liderança humana sobre as limitações do uso da IA.

Ainda assim, à medida que a IA assume um papel mais amplo no campo de batalha, os legisladores exigem um maior foco nas salvaguardas que devem reger a sua utilização e uma maior transparência sobre quanto controlo é concedido sobre a tecnologia.

“Precisamos de uma revisão completa e imparcial para determinar se a IA já prejudicou ou colocou vidas em perigo na guerra com o Irão”, disse a deputada Jill Tokuda, democrata do Havai, membro do Comité dos Serviços Armados da Câmara, à NBC News em resposta a questões sobre a utilização e fiabilidade da IA ​​no contexto militar. “O julgamento humano deve estar no centro das decisões de vida ou morte.”

O Departamento de Defesa e as principais empresas de IA, como a OpenAI e a Antrópica, declararam publicamente que os atuais sistemas de IA não seriam capazes de matar sem a aprovação humana. Mas permanece a preocupação de que confiar na IA para as suas operações ou tomada de decisões possa correr mal nas operações militares.

O porta-voz do Pentágono, Sean Parnell, disse Em uma postagem de X 26 de Fevereiro que os militares “não querem usar a IA para desenvolver armas autónomas que operem sem envolvimento humano”.

O Departamento de Defesa não respondeu a perguntas sobre como equilibra o uso da IA ​​para reduzir as cargas de trabalho humanas e, ao mesmo tempo, verifica se as análises e as sugestões de direcionamento são precisas.

Legisladores e especialistas independentes que falaram com a NBC News levantaram preocupações sobre o uso de tais equipamentos pelos militares, apelando a salvaguardas claras para garantir que as pessoas estejam envolvidas em decisões de vida ou morte no campo de batalha.

“As ferramentas de IA não são 100% confiáveis ​​– elas podem falhar de maneiras sutis e ainda assim os operadores depositam muita confiança nelas”, disse a deputada Sarah Jacobs, D-Calif., é membro do Comitê de Serviços Armados da Câmara.

“Temos a responsabilidade de proteger rigorosamente o uso da IA ​​pelos militares e garantir que um ser humano esteja no comando de cada decisão de uso de força letal, porque o custo de errar pode ser devastador para os civis e militares que conduzem essas missões”, disse ele.

A Anthropics tornou-se um componente-chave do programa de análise de inteligência Maven de Claude Palantir, que também foi usado na operação dos EUA para capturar o presidente venezuelano Nicolas O papel de Maduro Claude em operações militares recentes foi relatado pela primeira vez O Wall Street Journal E O Washington Post.

Mas esse papel é complicado pelo confronto da Anthropic com Hegseth após procurar companhia Impedir que os militares utilizem a sua IA para vigilância interna e armas letais autónomas. Na semana passada, o Departamento de Defesa rotulou Antrópico Uma ameaça à segurança nacionalUma medida que ameaça retirá-lo do uso militar no próximo mês. antropológico entrou com uma ação judicial Lute contra essa designação.

A Antrópico não quis comentar. Palantir não respondeu a um pedido de comentário.

UM Postado em Vídeo X Na quarta-feira, o líder do Comando Central dos EUA, almirante Brad Cooper, reconheceu que a IA se tornou uma ferramenta fundamental para ajudar os EUA a selecionar alvos no Irão.

“Nossos combatentes estão usando uma variedade de ferramentas avançadas de IA. Esses sistemas nos ajudam a extrair grandes quantidades de dados em segundos para que nossos líderes possam eliminar o ruído e tomar decisões mais rápido do que o inimigo pode reagir”, disse ele.

“Os humanos sempre tomarão as decisões finais sobre o que atirar, o que não atirar e quando atirar, mas ferramentas avançadas de IA podem transformar processos que costumavam levar horas e às vezes até dias em segundos.”

A administração Trump abraçou abertamente o uso de ambas as tecnologias Para os militares E em todo o governo.

Deputado Pat Harrigan, RN.C. Afirma que a IA já se tornou crítica para o processamento rápido de inteligência militar, inclusive sobre o Irã.

“A IA é uma ferramenta que ajuda os nossos combatentes a processar enormes quantidades de dados mais rapidamente do que qualquer ser humano, e o que vimos na Operação Epic Fury, com mais de 2.000 alvos atingidos com extraordinária precisão, demonstra como estas capacidades podem ser usadas de forma responsável e eficaz”, disse Harrigan, que trabalha no serviço NBC, num comunicado.

“Mas nenhum sistema de IA substitui o julgamento, o treinamento e a experiência do combatente americano. A participação humana não é uma formalidade, é uma necessidade, e nada na forma como nossos militares operam sugere o contrário”, disse ele.

Embora nenhum legislador contatado pela NBC News tenha dito que a IA deveria ser totalmente removida do uso militar, alguns disseram que é necessária mais supervisão.

A senadora Elisa Slotkin, democrata de Michigan, membro do Comitê de Serviços Armados do Senado, disse que o Departamento de Defesa não fez o suficiente para esclarecer até que ponto os humanos estão desenvolvendo inteligência militar ou assistida por IA.

“Cabe realmente ao povo, e neste caso ao secretário de defesa, garantir que haja redundância humana no futuro próximo, e é nisso que não temos confiança”, disse ele.

Senador Mark Warner, D-Va., o principal democrata no Comitê de Inteligência do Senado. Diz que está preocupado com o uso da IA ​​pelos militares para ajudar a identificar alvos e tem perguntas sem resposta sobre como a nova tecnologia está sendo usada. “Isso precisa ser resolvido”, disse ele à NBC News.

OpenAI e Anthropic, que trabalharam com os militares dos EUA, dizem que até os seus sistemas mais avançados são propensos a erros, e os principais pesquisadores de IA do mundo Admita que eles não entendem completamente como funcionam os principais sistemas de IA.

em um Entrevista com NBC No mês passado, o CEO da Anthropic, Dario Amodei, disse: “Não posso dizer que há 100% de chance de que mesmo os sistemas que construímos sejam totalmente confiáveis”.

Um grande estudo OpenAI Publicado em setembro Descobriu-se que todos os principais chatbots de IA, que dependem de sistemas conhecidos como grandes modelos de linguagem, “alucinam” ou geram respostas em etapas.

A senadora Kirsten Gillibrand, DN.Y., pediu regras claras sobre como os militares podem usar a IA.

“A administração Trump já demonstrou que está disposta a subverter a lei americana para levar a cabo uma guerra impopular”, disse ele à NBC News. “Há poucas razões para acreditar que o DOD será mais responsável com o uso da IA ​​sem salvaguardas claras”.

Mark Bell, chefe de assuntos governamentais da AI Policy Network, um think tank de Washington D.C., e diretor de estratégia e política de IA no Pentágono de 2018 a 2020, disse que embora a IA possa agilizar o processo de decisão de onde atacar, está claro que os humanos ainda precisam examinar minuciosamente os alvos.

“Há muitos passos antes de puxar o gatilho. Os sistemas de IA estão a ser implementados de forma muito eficaz para acelerar os fluxos de trabalho existentes e capacitar comandantes, analistas e planeadores para tomarem decisões melhores e mais rápidas”, acrescentou. “Mas quando se trata de implantar um sistema de armas, esta tecnologia ainda não está pronta.”

“Esses sistemas serão muito, muito bons e, à medida que outros adversários começarem a usá-los, haverá mais pressão para encurtar a revisão dos resultados da IA ​​para funcionar em velocidades úteis e eficazes”, disse Bell. “Temos que descobrir como resolver este problema de confiabilidade antes de chegarmos lá. Independentemente do que você pense sobre armas autônomas letais, é do interesse de todo o mundo mantê-las seguras e eficazes.”

Heidi Khalaf, cientista-chefe do AI Now Institute, uma organização sem fins lucrativos que defende o uso ético da tecnologia, disse temer que confiar na IA para processar rapidamente informações para decisões de vida ou morte possa ser uma forma de os militares evitarem a responsabilização por erros.

“É muito perigoso que a ‘velocidade’ esteja sendo vendida como estratégica para nós aqui, quando se considera o quão imprecisos são esses modelos como uma cobertura para a segmentação indiscriminada.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui