A Anthropic entrou com uma ação para impedir o Pentágono de colocá-la na segurança nacional dos EUA lista negraintensificando a batalha de alto risco do laboratório de inteligência artificial com a administração do presidente dos Estados Unidos, Donald Trump, sobre as restrições de uso de sua tecnologia.

A Antrópico disse em seu processo na segunda-feira que a designação era ilegal e violava sua liberdade de expressão e direitos ao devido processo. O processo no tribunal federal do estado da Califórnia, nos EUA, pediu a um juiz que desfizesse a designação e impedisse que as agências federais a aplicassem.

Histórias recomendadas

lista de 4 itensfim da lista

“Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por seu discurso protegido”, disse a Anthropic.

O Pentágono atribuiu na quinta-feira uma designação formal de risco à cadeia de abastecimento da Antrópico, limitando o uso de uma tecnologia que a agência de notícias Reuters informou, citando uma fonte não identificada, estar sendo usada para operações militares no Irã.

O secretário de Defesa dos EUA, Pete Hegseth, designou a Anthropic depois que a startup se recusou a remover as barreiras contra o uso de sua IA para armas autônomas ou vigilância doméstica. Os dois lados estiveram em negociações cada vez mais controversas sobre essas limitações durante meses.

Trump e Hegseth disseram que haveria uma eliminação progressiva de seis meses.

A empresa também busca desfazer A ordem de Trump orientando os funcionários federais a pararem de usar seu chatbot de IA, Claude.

O desafio legal intensifica uma disputa pública incomum sobre como a IA pode ser usada na guerra e na vigilância em massa – uma disputa que também arrastou os rivais da indústria tecnológica da Antrópico, especialmente a OpenAI, que fez o seu próprio acordo para trabalhar com o Pentágono poucas horas depois de o governo ter punido a Antrópico pela sua posição.

A Anthropic entrou com duas ações judiciais separadas na segunda-feira, uma no tribunal federal da Califórnia e outra no tribunal federal de apelações em Washington, DC, cada uma desafiando diferentes aspectos das ações do governo contra a empresa.

Autoridades da Antrópica disseram que o processo não impede a reabertura das negociações com o governo dos EUA e a obtenção de um acordo. A empresa disse que não quer brigar com o governo dos EUA. O Pentágono disse que não comentaria litígios. Na semana passada, um funcionário do Pentágono disse que os dois lados não estavam mais em negociações ativas.

Ameaça aos negócios

A designação representa uma grande ameaça aos negócios da Anthropic com o governo, e o resultado pode moldar a forma como outras empresas de IA negociam restrições ao uso militar da sua tecnologia, embora o CEO da empresa, Dario Amodei, tenha esclarecido na quinta-feira que a designação tinha “um âmbito estreito” e as empresas ainda poderiam utilizar as suas ferramentas em projectos não relacionados com o Pentágono.

As ações de Trump e Hegseth em 27 de fevereiro ocorreram após meses de negociações com a Anthropic sobre se as políticas da empresa poderiam restringir a ação militar e pouco depois de Amodei se reunir com Hegseth na esperança de chegar a um acordo.

A Anthropic disse que procurou restringir o uso de sua tecnologia para dois usos de alto nível: vigilância em massa de americanos e armas totalmente autônomas. Hegseth e outros funcionários insistiram publicamente que a empresa deveria aceitar “todos os usos legais” de Claude e ameaçaram puni-la se a Anthropic não cumprisse.

Designar a empresa como um risco na cadeia de suprimentos interrompe o trabalho de defesa da Anthropic usando uma autoridade que foi projetada para evitar que adversários estrangeiros prejudiquem os sistemas de segurança nacional. Foi a primeira vez que se soube que o governo federal usou a designação contra uma empresa norte-americana.

O Pentágono disse que a lei dos EUA, e não uma empresa privada, determinaria como defender o país, e insistiu em ter total flexibilidade no uso da IA ​​para “qualquer uso legal”, afirmando que as restrições da Antrópica poderiam pôr em perigo vidas americanas.

A Anthropic disse que mesmo os melhores modelos de IA não eram confiáveis ​​o suficiente para armas totalmente autônomas e que usá-los para esse fim seria perigoso.

Após o anúncio de Hegseth, a Anthropic disse em comunicado que a designação seria legalmente inadequada e estabeleceria um precedente perigoso para empresas que negociam com o governo. A empresa disse que não se deixaria influenciar por “intimidação ou punição”.

Na semana passada, Amodei também pediu desculpas por um memorando interno publicado na quarta-feira pelo site de notícias de tecnologia The Information. No memorando, publicado em 27 de fevereiro, Amodei disse que os funcionários do Pentágono não gostavam da empresa, em parte porque “não elogiamos Trump ao estilo de um ditador”.

Ao mesmo tempo que combate as acções do Pentágono, a Anthropic tem procurado convencer as empresas e outras agências governamentais de que a pena da administração Trump é estreita e só afecta os empreiteiros militares quando estes utilizam Claude no trabalho para o Departamento de Defesa.

Tornar clara essa distinção é crucial para a Anthropic, uma empresa privada, porque a maior parte da sua receita projetada de 14 mil milhões de dólares para este ano provém de empresas e agências governamentais que utilizam Claude para codificação informática e outras tarefas. Mais de 500 clientes estão pagando à Anthropic pelo menos US$ 1 milhão anualmente por Claude, de acordo com um recente anúncio de investimento que avaliou a empresa em US$ 380 bilhões.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui