Um juiz federal na Califórnia bloqueou a administração Trump Designar a Antrópica como um risco da cadeia de abastecimento para a segurança nacional e cessar todo o trabalho com a empresa de IA.

antropológico Abriu um processo contra o Departamento de Defesa E outras agências federais são uma delas depois que o Pentágono a rotulou este mês “Riscos da cadeia de abastecimento para a segurança nacional.” O presidente Donald Trump disse que proibiria o uso de produtos da Antrópico em outras agências federais.

“A designação de Antrópico pelos réus como um ‘risco da cadeia de abastecimento’ é indiscutivelmente inconstitucional, arbitrária e caprichosa”, escreveu a juíza Rita Lynn, juíza distrital dos EUA na Califórnia, em seu despacho na noite de quinta-feira. “O Departamento de Guerra não fornece nenhuma base legítima para inferir da clara insistência da Antrópico nas restrições de uso que poderia ser um destruidor.”

Lin suspendeu sua própria ordem por uma semana para dar tempo ao governo para apelar.

O Departamento de Defesa e a Casa Branca não responderam imediatamente aos pedidos de comentários na noite de quinta-feira.

A designação de riscos da cadeia de abastecimento exige que o Pentágono e os seus contratantes parem de utilizar os serviços comerciais de IA da Anthropic para todos os negócios de defesa.

O secretário de Defesa, Pete Hegseth, disse em uma postagem no X no final de fevereiro que estava Criação de uma diretriz para rotular as empresas de “Risco da Cadeia de Abastecimento”. Trunfo Também disse Ele tinha o comando de todas as agências federais, incluindo Tesouraria E Departamento de Estado, Parar de usar a tecnologia de IA da Antrópica.

“O registro reflete que as ações contestadas foram tomadas sem aviso prévio significativo ou processo de pré-privação (e, no caso da Diretiva do Presidente e da Diretiva Hegseth, sem processo pós-privação)”, escreveu Lynn em seu pedido.

A ordem do juiz de quinta-feira impediu que outras empresas encerrassem seus trabalhos com a Anthropic. Nele, Lin escreveu que a ordem restaura o status quo.

“Esta ordem não exige que o Departamento de Guerra use os produtos ou serviços da Antrópico e não impede que o Departamento de Guerra mude para outros fornecedores de inteligência artificial, desde que essas ações sejam consistentes com os regulamentos, leis e disposições constitucionais aplicáveis”, disse a ordem.

A Anthropic entrou com duas ações judiciais contra o Departamento de Defesa – uma no Tribunal Distrital dos EUA Norte da Califórnia E outro no Tribunal de Apelações do Circuito dos EUA de Washington, D.C. alega que as ações do governo federal foram além de uma simples disputa contratual e, em vez disso, equivaleram a uma “campanha ilegal de retaliação” que se seguiu. Um mês de discussões acaloradas Sobre como os militares poderão usar os sistemas de IA da Antrópico.

A Antrópico queria garantias mais fortes de que o Pentágono não utilizaria os seus sistemas de IA para armas autónomas ou vigilância doméstica em massa.

A Anthropic é a criadora do sistema chatbot em nuvem e a única empresa de IA cujos serviços foram liberados para uso em redes classificadas do Departamento de Defesa.

Horas depois do anúncio de Hegseth no mês passado, o CEO da OpenAI, Sam Altman, disse que sua empresa havia chegado a um acordo com o Pentágono para usar seus serviços em ambientes confidenciais.

“Embora a Anthropic tenha sido informada de que o governo se opôs aos termos do seu contrato, não teve aviso ou oportunidade de se opor antes que os manifestantes a barrassem publicamente de todo o trabalho do governo federal e a colocassem na lista negra de empresas privadas que trabalham com os militares dos EUA”, escreveu Lin. “Não teve aviso ou oportunidade de se opor com base factual à sua designação como um risco da cadeia de abastecimento, o que tomou conhecimento neste caso.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui