novoVocê pode ouvir os artigos da Fox News agora!
O Pentágono deu à empresa de inteligência artificial Anthropic até sexta-feira para suspender as restrições sobre como seu sistema de IA em nuvem pode ser usado pelos militares, alertando que poderia cancelar um contrato de US$ 200 milhões ou tomar outras medidas punitivas se a empresa se recusar, de acordo com várias fontes familiarizadas com as negociações.
O conflito começou depois de o Pentágono ter alegado que a Anthropic tinha perguntado se o seu produto tinha sido utilizado numa operação militar em janeiro para capturar o líder venezuelano Nicolás Maduro, sugerindo que a empresa poderia não o ter aprovado. O Pentágono insiste que as empresas de IA devem permitir que os produtos sejam utilizados em todos os usos militares legítimos – sem supervisão ou aprovação da empresa.
A Anthropologie recusou-se a discutir a utilização de Claude para operações específicas e sugeriu que as suas linhas vermelhas não permitem que os seus produtos sejam armas totalmente autónomas ou utilizados para vigilância em massa dos americanos.
Secretário da Guerra Pete Hegseth Ao entregar um ultimato durante uma reunião com o CEO da Anthropic, Dario Amody, no Pentágono, na terça-feira, Hegseth até elogiou a tecnologia da empresa e disse que o departamento queria continuar trabalhando com a empresa, disseram fontes.
Hegseth disse a Amodei que se a empresa não permitir que Claude seja usado para todos os fins legítimos, poderá enfrentar a rescisão do seu contrato com o Pentágono, a designação como um risco na cadeia de abastecimento – potencialmente limitando a sua capacidade de trabalhar com fornecedores de defesa – ou a possível invocação da Lei de Produção de Defesa para obrigar o acesso à tecnologia, de acordo com fontes familiarizadas com a reunião.
A nuvem é atualmente o único modelo comercial avançado de IA deste tipo dentro da rede secreta do Pentágono, o que, ao abrigo de um contrato de 200 milhões de dólares concedido no verão de 2025, aumenta significativamente o risco de conflito.
Funcionários do Pentágono argumentam que o Departamento de Defesa não pode confiar numa empresa privada para manter restrições específicas sobre certas utilizações da sua tecnologia, mesmo que essas utilizações sejam legais. Durante a reunião, Hegseth comparou a situação com a impossibilidade de os militares usarem uma aeronave específica para a missão, disse uma fonte familiarizada com a bolsa.
A disputa representa o seu primeiro teste às rédeas da IA avançada dentro do sistema de defesa dos EUA – empresas privadas ou o Pentágono. O resultado poderá moldar parcerias militares com os principais desenvolvedores de IA à medida que se avança para integrar ferramentas de aprendizagem automática mais poderosas nas operações de segurança nacional.
A Anthropic, que se autodenomina uma empresa de IA voltada para a segurança, disse que suas políticas visam reduzir o risco de abuso à medida que os sistemas avançados de IA se tornam mais poderosos.

Os militares dos EUA supostamente usaram a ferramenta de IA da Anthropic, Claude, durante a operação para capturar o líder venezuelano Nicolas Maduro. (Kurt “Cyberguy” Knutson)
Durante a reunião, Amodi examinou essas restrições e argumentou que as restrições não interfeririam nas operações legítimas e legítimas do departamento de guerra, de acordo com uma fonte familiarizada com a reunião.
Um alto funcionário do Pentágono afirmou que a sua posição “não tem nada a ver com vigilância em massa ou seleção de alvos autónomos” porque “há sempre um ser humano envolvido e o departamento segue sempre a lei”.
Mesmo com o aumento das tensões, responsáveis de ambos os lados indicaram que as armas totalmente autónomas não são actualmente consideradas no âmbito do quadro de utilização legal do departamento, sugerindo que o conflito tem tanto a ver com controlo como com aplicações no campo de batalha.

O secretário da Guerra, Pete Hegseth, é citado junto com outros réus no caso. (Julia DeMarie Nichinson/AP)
Durante a reunião de terça-feira, Hegseth mencionou explicitamente o uso potencial da Lei de Produção de Defesa, a rescisão do contrato existente da Antrópico e a possibilidade de designar a empresa como um risco na cadeia de abastecimento se ela não concordar em permitir que seus produtos sejam usados para todos os fins legítimos, disseram fontes.
Tais ações refletem duas formas diferentes de influência federal.
Uma designação de risco na cadeia de abastecimento poderia limitar a capacidade da Anthropic de trabalhar com fornecedores e empreiteiros federais, sinalizando preocupações sobre a fiabilidade ou governação da empresa, enquanto a Lei de Produção de Defesa representaria uma tentativa rara de usar autoridades de segurança nacional para obrigar o acesso a sistemas de IA fronteiriços considerados críticos para as necessidades de defesa.
A rescisão do contrato terá consequências que vão além da rescisão de um relacionamento com o fornecedor. porque Claude está atualmente incorporado Entre as redes secretas do Pentágono num contrato de 200 milhões de dólares, o cancelamento poderia perturbar os fluxos de trabalho existentes e exigir que o departamento transferisse sistemas sensíveis para um fornecedor alternativo.

O Pentágono está a rever a antropologia como um “risco da cadeia de abastecimento”, liderado por Dario Amoudi acima. (Priyanshu Singh/Reuters)
Clique aqui para baixar o aplicativo Fox News
Funcionários do Pentágono também disseram que o chatbot Grok AI de Elon Musk concordou em permitir que seus produtos sejam usados para todos os fins legítimos, incluindo potencial integração em sistemas classificados, e que outras empresas fronteiriças de IA estão “mais próximas” de acordos semelhantes.
Grok não respondeu imediatamente a um pedido de comentário.
A Anthropic, em comunicado atribuído a um porta-voz da empresa, disse: “O CEO da Anthropic, Dario Amodei, encontrou-se com a secretária Hegseth no Pentágono esta manhã. Durante a conversa, Dario expressou apreço pelo trabalho do departamento e agradeceu à secretária por seu serviço. Sempre tivemos uma conversa de boa fé sobre nossa política de uso para garantir que a Anthropic possa apoiar nosso modelo de segurança nacional e o que a política governamental pode fazer. Faça-o com responsabilidade”.


