Na semana passada, as tensões entre o Pentágono e o gigante da inteligência artificial Antrópico atingiram um ponto de ebulição.

Anthropic, criadora de sistemas de chatbot em nuvem e uma empresa pioneira de IA com até US$ 200 milhões em contratos de defesa Sua marca gira em torno da promoção da segurança de IAA empresa está divulgando a linha vermelha que não ultrapassará.

Agora, o Pentágono parece estar a ultrapassar esses limites.

Os indícios de uma possível ruptura entre o Departamento de Antropologia e o Departamento de Defesa, agora denominado Departamento de Guerra, começaram a se intensificar a partir de então. O Wall Street Journal E Eixos A operação para capturar o presidente venezuelano Nicolás Maduro denunciou o uso de produtos artificiais.

Não está claro como o torrão da Antrópico foi usado.

A Antrópico não levantou nem encontrou quaisquer violações de suas políticas após a operação de Maduro, de acordo com duas pessoas familiarizadas com o assunto, que pediram anonimato para discutir o assunto delicado. Eles disseram que a empresa tem alta visibilidade sobre como as ferramentas de IA são usadas na nuvem, como em operações de análise de dados.

A Anthropic é a primeira empresa de IA a permitir serviços em redes hierárquicas por meio de sua parceria com a Palantir em 2024. Em um anúncio de Palanti, Dr. A parceria esclarece que pode ser usada para “apoiar operações governamentais, como o processamento rápido de grandes quantidades de dados complexos” e “ajudar as autoridades dos EUA a tomar decisões mais informadas em situações urgentes”.

Um dos palantis Favorecido pelo exército Dados e software Colete informações de empreiteiros, por exemplo Sensores espaciais para fornecer melhor direcionamento de ataque Para os soldados. Também atraiu o escrutínio pelo seu trabalho sob a administração Trump e as agências de aplicação da lei.

Embora existam antropólogos Afirmou que não permite e não permitirá que seu sistema de IA Armas autônomas diretamente letais ou Para vigilância domésticaO uso de sua tecnologia foi relatado em conexão com operações na Venezuela Através de um acordo com a Palantir Reclamações levantaram preocupações De um funcionário etnográfico.

O CEO da Anthropologie, Dario Amodi, à direita, e o diretor de produtos Mike Krieger falam após revelar o Cloud 4 durante a conferência Code with Cloud na quinta-feira, 22 de maio de 2025, em São Francisco.
O CEO da Anthropologie, Dario Amodi, à direita, e o diretor de produtos Mike Krieger falam após o lançamento do Cloud 4 durante a Cloud Conference em 22 de maio de 2025, em São Francisco.Serviço de conteúdo Don Feria/AP para antropólogos

Semáforo informou na terça-feira que, durante uma reunião de rotina entre a Anthropic e a Palantir, um executivo da Palantir estava preocupado com o fato de um funcionário da Anthropic não parecer concordar com a forma como seus sistemas poderiam ser usados ​​nas operações, levando a “um rompimento do relacionamento da Antrópico com o Pentágono”.

Um alto funcionário do Pentágono disse à NBC News que “um alto executivo da Antrópico contatou um alto executivo da Palantir, perguntando se o software deles foi usado para a operação de Maduro”.

De acordo com o funcionário do Pentágono, o executivo da Palanti estava “preocupado com o fato de a questão ter sido levantada de tal forma que implicava que a Anthropic pudesse negar o uso de seu software durante aquela operação”.

Citando a natureza confidencial da operação militar, um porta-voz da Antropologia não confirmou nem negou que os seus sistemas de chatbot na nuvem foram usados ​​na operação de Maduro: “Não podemos comentar se a nuvem, ou qualquer outro modelo de IA, foi usado para uma operação específica, confidencial ou não”, disse o porta-voz à NBC News num comunicado.

A porta-voz rejeitou a ideia de que o incidente causou consequências significativas, dizendo à NBC News que a empresa não teve discussões gerais com parceiros sobre o uso de clados ou compartilhou quaisquer divergências relacionadas à missão com os militares.

“A Antrópico não discutiu o uso de Claude para operações específicas com o Departamento de Guerra”, disse o porta-voz. “Não discutimos ou levantamos preocupações sobre isso com nenhum parceiro da indústria fora das discussões rotineiras sobre questões estritamente técnicas”.

Palantir não respondeu a um pedido de comentário.

A principal tensão entre os antropólogos e o Departamento de Defesa parece estar enraizada num conflito mais amplo sobre a utilização futura de sistemas antropogénicos pelos militares. O Departamento de Defesa enfatizou recentemente o seu desejo de poder usar todos Sistemas de IA disponíveis para qualquer finalidade permitida por leiEnquanto a Anthropic diz que quer manter sua própria cerca.

O porta-voz-chefe do Pentágono, Sean Parnell, disse à NBC News que “o relacionamento do Departamento de Guerra com a Anthropic está sob revisão”.

“A nossa nação precisa que os nossos parceiros estejam dispostos a ajudar os nossos combatentes a vencer qualquer luta”, disse ele num comunicado.

“Em última análise, trata-se da segurança das nossas tropas e do povo americano”. Na terça-feira, o subsecretário de Defesa, Emil Michael, disse que as negociações do departamento com a Anthropic encontraram um obstáculo devido a divergências sobre o uso potencial de seus sistemas. De acordo com a CNBC.

Secretário de Defesa Pete Hegseth no início de janeiro Um novo documento de estratégia de IA foi publicado Isso exige quaisquer contratos com empresas de IA para remover barreiras às ferrovias específicas da empresa ou como os militares podem usar os sistemas de IA da empresa, permitindo recentemente “qualquer uso legal” de IA para fins do Departamento de Defesa.

O documento apela aos responsáveis ​​da defesa para que incluam esta linguagem a cada 180 dias em qualquer contrato de IA do Departamento de Defesa que envolva transações antropogénicas com os militares.

Embora a Anthropic tenha apoiado fortemente os seus serviços para fins de segurança nacional, Foi mantido Que os seus sistemas não podem ser utilizados para vigilância doméstica ou para armas totalmente autónomas.

O Departamento de Defesa recusou a insistência da Anthropic nessas duas questões e aplicou pressão crescente sobre a empresa.

“O CLODE é usado para uma variedade de usos relacionados à inteligência em todo o governo, incluindo o Departamento de Guerra, consistente com nossas políticas de uso”, disse um porta-voz da Anthropic. “Estamos tendo conversas produtivas, de boa fé, com o Departamento de Guerra sobre como podemos continuar esse trabalho e resolver essas questões complexas”.

Em relação a outras empresas de IA, a Anthropic priorizou aplicações empresariais e de segurança nacional de seus sistemas de IA. Em agosto de 2025, a Anthropic formou um Conselho Consultivo de Segurança Nacional e do Setor Público composto por ex-altos funcionários de defesa e inteligência. Adicionado Chris Liddell na semana passadaEx-vice-chefe de gabinete do presidente Donald Trump, ao seu conselho de administração.

antropológico Parceria com Palantir Para dar às agências de defesa e inteligência dos EUA acesso a vários sistemas em nuvem a partir do final de 2024. Na época, a chefe de vendas e parcerias da Anthropic, Kate Earle Jensen, disse: “A empresa tem orgulho de estar na vanguarda em trazer soluções responsáveis ​​de IA para o ambiente classificado dos EUA, aprimorando as capacidades analíticas e a eficiência operacional em operações governamentais críticas”.

A Antropologia, juntamente com outras empresas americanas líderes em IA, como OpenAI e Google, Assinou contrato individual de dois anos Com o Departamento de Defesa em julho de 2025, cada um foi avaliado em até US$ 200 milhões para “protótipos de capacidades de IA de fronteira que promovam a segurança nacional dos EUA”.

“A Enthropic está comprometida em usar a Frontier AI em apoio à segurança nacional dos EUA”, disse um porta-voz da Anthropic à NBC News em um comunicado. “Fomos a primeira empresa de IA de ponta a colocar nossos modelos em redes classificadas e a fornecer modelos personalizados para clientes de segurança nacional.”

O CEO da Anthropic, Dario Amodei, enfatizou regularmente o compromisso da Anthropic em usar seus serviços de IA para fins de segurança nacional. em um Artigo publicado no final de janeiroAmodei escreveu que “as democracias têm um interesse legítimo em algumas ferramentas militares e geopolíticas alimentadas pela IA” e que “devemos equipar as nossas democracias com IA, mas devemos fazê-lo com cuidado e dentro dos limites”.

Michael Horowitz, que liderou a política de IA e tecnologias emergentes do Pentágono e é agora professor de ciência política na Universidade da Pensilvânia, disse que quaisquer preocupações sobre o uso de sistemas antrópicos para envolvimento activo em armas autónomas letais são provavelmente irrelevantes para a discussão actual, dados os tipos de sistemas que a Antrópico está a desenvolver.

“Eu ficaria surpreso se os modelos antropomórficos fossem corretos para uso em sistemas de armas autônomas letais neste momento, já que os algoritmos para isso seriam preferíveis a Claude”, disse Horowitz à NBC News.

“Minha sensação é que a Anthropic deseja aumentar a profundidade e o escopo de seu trabalho com o Pentágono. Com base no que sabemos, parece mais uma disputa sobre possibilidades teóricas do que um caso de uso do mundo real sobre a mesa.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui