A empresa de IA Antrópico disse na quinta-feira que não daria ao Departamento de Defesa dos EUA o uso irrestrito de sua tecnologia, apesar de ter sido pressionada pelo Pentágono a obedecer.

“Estas ameaças não mudam a nossa posição: não podemos, em sã consciência, aceder ao seu pedido”, disse o presidente-executivo da Anthropic, Dario Amodei, num comunicado.

Washington deu à startup de inteligência artificial até sexta-feira para concordar com o uso militar incondicional de sua tecnologia, mesmo que isso viole os padrões éticos da empresa, ou seja forçado a cumpri-los sob poderes federais de emergência.

Amodei disse que modelos antrópicos foram implantados pelo Pentágono e pelas agências de inteligência para defender o país, mas que traça uma linha ética em relação ao seu uso para vigilância em massa de cidadãos dos EUA e armas totalmente autônomas.

“Usar estes sistemas para vigilância doméstica em massa é incompatível com os valores democráticos”, disse Amodei.

E os principais sistemas de IA ainda não são confiáveis ​​para alimentar armas mortais sem um ser humano no controle final, acrescentou.

“Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis dos EUA.”

Depois de se reunir com a Anthropic no início desta semana, o Pentágono apresentou um ultimato severo: concordar com o uso militar irrestrito de sua tecnologia até às 17h01 (22h01 GMT) de sexta-feira ou enfrentará ser forçado a cumprir a Lei de Produção de Defesa.

A lei da era da Guerra Fria, utilizada pela última vez durante a pandemia de Covid, concede ao governo federal amplos poderes para obrigar a indústria privada a dar prioridade às necessidades de segurança nacional.

O Pentágono também ameaçou rotular a Anthropic como um risco para a cadeia de abastecimento, uma designação normalmente reservada a empresas de países adversários que poderiam prejudicar gravemente a capacidade da empresa de trabalhar com o governo e a reputação dos EUA.

Na época, um alto funcionário do Pentágono rejeitou as preocupações da empresa, insistindo que o Departamento de Defesa sempre atuou dentro da lei.

“A legalidade é responsabilidade do Pentágono como usuário final”, disse o funcionário, acrescentando que o departamento “apenas emitiu ordens legais”.

As autoridades também confirmaram que ocorreu uma troca de mísseis balísticos intercontinentais entre a Antrópico e o Pentágono, sublinhando a sensibilidade das aplicações no centro da disputa.

O Pentágono confirmou que o sistema Grok de Elon Musk foi autorizado para uso em um ambiente classificado, enquanto outras empresas contratadas – OpenAI e Google – foram descritas como próximas de autorizações semelhantes, aumentando a pressão competitiva sobre a Anthropic para que se alinhe.

A Anthropic foi contratada juntamente com essas empresas no ano passado para fornecer modelos de IA para uma série de aplicações militares sob um acordo de US$ 200 milhões.

Ex-funcionários da OpenAI fundaram a Anthropic em 2021 com a premissa de que o desenvolvimento da IA ​​deve priorizar a segurança – uma filosofia que agora a coloca em rota de colisão com o Pentágono e a Casa Branca.

“A Antrópica entende que o Departamento de Guerra, e não as empresas privadas, toma as decisões militares”, disse Amodei.

“No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui