A empresa de IA Antrópico disse na quinta-feira que não daria ao Departamento de Defesa dos EUA o uso irrestrito de sua tecnologia, apesar de ter sido pressionada pelo Pentágono a obedecer.
“Estas ameaças não mudam a nossa posição: não podemos, em sã consciência, aceder ao seu pedido”, disse o presidente-executivo da Anthropic, Dario Amodei, num comunicado.
Washington deu à startup de inteligência artificial até sexta-feira para concordar com o uso militar incondicional de sua tecnologia, mesmo que isso viole os padrões éticos da empresa, ou seja forçado a cumpri-los sob poderes federais de emergência.
Amodei disse que modelos antrópicos foram implantados pelo Pentágono e pelas agências de inteligência para defender o país, mas que traça uma linha ética em relação ao seu uso para vigilância em massa de cidadãos dos EUA e armas totalmente autônomas.
“Usar estes sistemas para vigilância doméstica em massa é incompatível com os valores democráticos”, disse Amodei.
E os principais sistemas de IA ainda não são confiáveis para alimentar armas mortais sem um ser humano no controle final, acrescentou.
“Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis dos EUA.”
Depois de se reunir com a Anthropic no início desta semana, o Pentágono apresentou um ultimato severo: concordar com o uso militar irrestrito de sua tecnologia até às 17h01 (22h01 GMT) de sexta-feira ou enfrentará ser forçado a cumprir a Lei de Produção de Defesa.
A lei da era da Guerra Fria, utilizada pela última vez durante a pandemia de Covid, concede ao governo federal amplos poderes para obrigar a indústria privada a dar prioridade às necessidades de segurança nacional.
O Pentágono também ameaçou rotular a Anthropic como um risco para a cadeia de abastecimento, uma designação normalmente reservada a empresas de países adversários que poderiam prejudicar gravemente a capacidade da empresa de trabalhar com o governo e a reputação dos EUA.
Na época, um alto funcionário do Pentágono rejeitou as preocupações da empresa, insistindo que o Departamento de Defesa sempre atuou dentro da lei.
“A legalidade é responsabilidade do Pentágono como usuário final”, disse o funcionário, acrescentando que o departamento “apenas emitiu ordens legais”.
As autoridades também confirmaram que ocorreu uma troca de mísseis balísticos intercontinentais entre a Antrópico e o Pentágono, sublinhando a sensibilidade das aplicações no centro da disputa.
O Pentágono confirmou que o sistema Grok de Elon Musk foi autorizado para uso em um ambiente classificado, enquanto outras empresas contratadas – OpenAI e Google – foram descritas como próximas de autorizações semelhantes, aumentando a pressão competitiva sobre a Anthropic para que se alinhe.
A Anthropic foi contratada juntamente com essas empresas no ano passado para fornecer modelos de IA para uma série de aplicações militares sob um acordo de US$ 200 milhões.
Ex-funcionários da OpenAI fundaram a Anthropic em 2021 com a premissa de que o desenvolvimento da IA deve priorizar a segurança – uma filosofia que agora a coloca em rota de colisão com o Pentágono e a Casa Branca.
“A Antrópica entende que o Departamento de Guerra, e não as empresas privadas, toma as decisões militares”, disse Amodei.
“No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”.
