
Quinta-feira em nome do Departamento de Defesa Identificou-o como uma ameaça à segurança nacionalUma medida interessante que proíbe fazer negócios com os militares dos EUA e pode enviar ondas de choque pela indústria de IA dos EUA.
A designação, que a empresa disse ter recebido na quarta-feira e identificou especificamente a Antrópico como um “risco da cadeia de abastecimento para a segurança nacional”, exige que o Pentágono e seus contratantes parem de usar os serviços de IA da Antrópico para todos os negócios de defesa.
Secretário de Defesa Pete Hegseth Ação telegrafada na noite de sexta-feira em x.
isso é O mês chega depois de negociações cada vez mais tensas Sobre como os militares poderão usar os sistemas de IA em nuvem da Anthropic. Embora seja uma tecnologia relativamente nova, modelos generativos de IA como o de Claude foram rapidamente adotados pela administração Trump, inclusive para uso militar.
Nos últimos meses o Pentágono tem negociado os termos de um novo contrato com a Anthropic Juntamente com outras empresas americanas líderes em IAPara permitir um uso militar mais extenso da IA. Embora exista o Pentágono Tentativas de usar sistemas poderosos de IA “para qualquer uso legítimo”. O CEO antropólogo Dario Amodei queria garantias mais fortes de que o Pentágono não utilizaria a sua tecnologia de IA para armas autónomas mortais ou vigilância doméstica em massa.
Amodei confirmou o rótulo de risco da cadeia de suprimentos em um comunicado na noite de quinta-feira e disse que a empresa discordava dele, escrevendo: “Não acreditamos que esta ação seja legalmente correta e não vemos outra opção a não ser contestá-la em tribunal”.
“A antropologia tem mais em comum com o Departamento de Guerra do que diferenças”, ele escreveu na declaração. “Ambos estamos empenhados em promover a segurança nacional dos EUA e em proteger o povo americano, e concordamos com a urgência de aplicar a IA em todo o governo. Todas as nossas decisões futuras fluirão dessa base partilhada.”
Outros sistemas de IA entram
Até a semana passada, a Anthropic era a única empresa de IA cujos serviços foram liberados para uso em redes secretas do Departamento de Defesa. Algumas horas depois de Hegseth anunciou que buscaria o rótulo Antrópico como um risco na cadeia de suprimentos Na semana passada, o CEO da OpenAI, Sam Altman, anunciou que sua empresa havia chegado a um novo acordo com o Pentágono para usar os serviços da OpenAI em ambientes confidenciais, o que poderia permitir que a OpenAI substituísse grande parte dos negócios atuais da Antrópico pelo Pentágono.
XAI de Elon Musk e seu sistema Grok AI Também fez um acordo com o Pentágono A ser liberado para uso em redes classificadas na semana passada.
em declaração em seu site na noite de quinta-feiraAmodei enfatizou que a proibição de negócios da Anthropic com militares não se aplica a contratos com fornecedores militares para fins não relacionados à defesa. A Anthropic tem extensos acordos comerciais com muitas das principais empresas de tecnologia da América, incluindo a amazona E MicrosoftO que é muito Grande negócio com o Pentágono.
Um alto funcionário da Defesa confirmou que a avaliação de risco da cadeia de abastecimento foi implementada imediatamente. “Desde o início”, disse o funcionário à NBC News na quinta-feira, “era um princípio básico: os militares são capazes de usar a tecnologia para todos os fins legítimos”. Os militares não permitirão que um fornecedor se insira na cadeia de comando, limitando o uso legítimo de uma capacidade crítica e colocando os nossos combatentes em risco.”
Em sua postagem anunciando a mudança na sexta-feira passada, Hegseth escreveu que a Anthropic “continuará a fornecer serviços do Departamento de Guerra por mais de seis meses para permitir uma transição perfeita para um serviço melhor e mais patriótico”.
“A Anthropic deu uma aula magistral sobre arrogância e traição, bem como um caso clássico de como não fazer negócios com o governo dos Estados Unidos ou o Pentágono”, disse ele no post. “Nossa posição nunca vacilou e nunca vacilará: o Departamento de Guerra deve ter acesso total e irrestrito aos modelos antropogênicos para todos os fins legítimos em defesa da República”.
Preocupações da indústria com rótulos
UM declaração na semana passada Durante as tensas negociações do acordo e antes de Hegseth anunciar a mudança, Amodei observou que o rótulo de risco da cadeia de abastecimento, normalmente reservado a contrapartes estrangeiras e empresas relacionadas, “nunca antes foi aplicado a empresas americanas”.
Vários observadores jurídicos relataram esta informação A designação não pode ser mantida legalmente E, em vez disso, alertar outras empresas para seguirem a linha do Pentágono.
A mera ameaça de tal designação já abalou Washington e a indústria tecnológica. Risco de consequências de possíveis decisões de risco na cadeia de abastecimento, Especialistas em defesa, Rival antropológico OpenAI E Membros do Congresso Ao longo desta semana, a Anthropic e o Pentágono tentaram acalmar a tensão.
Um influente grupo de defesa da tecnologia, cujos membros incluem Nvidia e Apple, Enviou uma carta para Hegseth na quarta-feira Solicita-se que se abstenha de aplicar o rótulo oficial de risco da cadeia de abastecimento.
Muitos investidores industriais temem que a América seja um dos alvos A maior e mais bem-sucedida empresa de IAO Departamento de Defesa está a estabelecer um precedente perigoso que afastará o investimento e esfriará a indústria americana de IA.
Sexta-feira passada, apenas uma hora antes do prazo final das 17h ET para chegar a um acordo Hegseth definido no início da semanaPresidente Donald Trump Disse que iria se mudar para o Anthropic Bar de outras agências federais.
“Os malucos esquerdistas da Anthropic cometeram um erro catastrófico ao tentar capacitar o Departamento de Guerra e forçá-los a obedecer aos seus termos de serviço em vez da nossa Constituição”, escreveu Trump.
O Pentágono já usa o sistema de nuvem da Anthropic como parte de um acordo com a empresa de análise de dados Palantir. De acordo com relatórios recentes de O Washington Post E O Wall Street JournalO sistema de IA da Enthropic tem sido usado para ajudar as forças a avaliar a inteligência e identificar alvos na guerra em curso no Irão. A NBC News não confirmou esses relatórios.
antropológico Primeiro acordo com Palantir em 2024Permite que o Departamento de Defesa utilize seus serviços em redes classificadas e é recompensado Outro negócio de US$ 200 milhões em julho Mais “protótipos de capacidades de IA de fronteira que promovam a segurança nacional dos EUA”.
Numa rodada anterior de negociações, a Anthropic concordou em deixar o Pentágono usar seus sistemas de IA Para fins de defesa cibernética e antimísseis.
‘Basicamente não adianta’
Alguns especialistas notaram uma aparente desconexão entre rotular uma das maiores empresas de IA dos Estados Unidos como um risco da cadeia de abastecimento para a segurança nacional e abster-se de aplicar o mesmo rótulo à DeepSeek, uma importante empresa chinesa de IA acusada de práticas injustas. Dipsic não respondeu aos pedidos de comentários de várias agências de notícias em questão.
“Estamos tratando uma empresa americana de IA pior do que tratamos uma empresa de IA controlada pelo Partido Comunista Chinês”, disse Michael Sobolik, especialista em IA e China e pesquisador sênior do Instituto Hudson. “Não podemos impedir que as empresas americanas mais inovadoras e bem-sucedidas façam as melhores perguntas americanas sobre o uso militar e a privacidade.
“O governo dos EUA arriscou-se a cortar as pernas de uma das nossas melhores empresas de IA no início desta corrida pela IA”, continuou Sobolik. “Se fizermos isso, onde os modelos fronteiriços da América são qualitativa e quantitativamente melhores que os da China, será como cortar-nos o nariz para ofender a nossa própria cara.”
Tim Feist, diretor de tecnologias emergentes do think tank Institute for Progress, com sede em Washington, disse que a nova designação seria contraproducente para as aspirações de IA dos EUA.
“A designação de risco da cadeia de abastecimento, comumente usada em adversários estrangeiros, está prejudicando uma das principais empresas de IA dos Estados Unidos e tornando outras empresas mais hesitantes em trabalhar com o governo federal”, disse Feist em comentários por escrito. “Esta designação prejudica a indústria de IA e, portanto, a segurança nacional dos EUA, essencialmente sem lucro.”