O CEO da OpenAI, Sam Altman, revelou na noite de segunda-feira um contrato reestruturado com o Pentágono que rege o uso de serviços de IA pelo Departamento de Defesa, que ele disse fornecer fortes garantias de que os militares não usarão os sistemas da OpenAI para vigilância doméstica.
O novo acordo afirma que “o sistema de IA não será usado intencionalmente para vigilância doméstica de indivíduos e cidadãos dos EUA”. De acordo com uma postagem no site da OpenAI. Limites OpenAI Algumas reações são encontradas Como notícia Um acordo preliminar entre as principais empresas de IA e o Pentágono apareceu na sexta-feira. Muitos observadores alegaram que o idioma original compartilhado no site da OpenAI fornecia brechas suficientes para o governo monitorar os americanos.
A mudança segue semanas de acalorado debate entre a empresa rival de IA Antrópico e o Pentágono sobre como os militares podem usar sistemas avançados de IA. Embora o Departamento de Defesa quisesse que a Anthropic concordasse em usar os seus sistemas para “qualquer propósito legítimo”, a Anthropic sustentou que os seus sistemas não poderiam ser usados para vigilância doméstica ou controlo de armas autónomas mortais. Até semana passadaA Anthropic era a única grande empresa de IA que tinha o serviço Usado ativamente em redes classificadas.
Os pesquisadores argumentam Sem essa proteção, a IA Autoridade pode conceder permissão de Monitoramento de indivíduos Vasculhando montanhas de dados digitais, com velocidade e precisão sem precedentes Acompanhe os movimentos das pessoas e comportamento.
“É importante proteger as liberdades civis dos americanos”, Altman X escreveu em uma postagem Ao anunciar o texto do novo acordo na noite de segunda-feira, ele disse que ele limita a vigilância doméstica. “O departamento confirmou que nossos serviços não serão usados por agências de inteligência militar (por exemplo, a NSA).”
Katrina Mulligan, Chefe de Parcerias de Segurança Nacional da OpenAI, Adicionado à outra postagem de X Na manhã de terça-feira que “elementos da inteligência de defesa foram excluídos do acordo”, Ele estipulou que estaria aberto a trabalhos futuros Com a NSA “se as salvaguardas adequadas estiverem em vigor”.
OpenAI não respondeu a um pedido de comentário.
Muitos observadores ficaram preocupados na terça-feira, preocupados com o fato de trechos do contrato da OpenAI com o Pentágono divulgados pela empresa permanecerem propositalmente vagos e terem sido reservados para vigilância doméstica pelas várias agências de inteligência do Departamento de Defesa. O texto completo do acordo não foi divulgado.
“A OpenAI disse que o Departamento de Guerra concordou contratualmente em não usar o ChatGPT em agências que monitoram o público dos EUA”, disse Brad Carson, ex-congressista e conselheiro geral do Exército que agora lidera o grupo político Americanos pela Inovação Responsável, em Washington DC. “Eles ficam felizes em mostrar a linguagem contratual quando isso os beneficia, mas se recusam a divulgar as disposições do contrato ao público”.
“Cheguei relutantemente à conclusão de que esta disposição realmente não existe e eles estão tentando falsificá-la”, disse Carson à NBC News. Carson Fundou recentemente um super PAC focado em IA que recebeu US$ 20 milhões do concorrente da OpenAI, Antrópico.
Vários especialistas jurídicos concordo que Maior transparência Todo o contrato e quaisquer outras cláusulas importantes são necessários para avaliar adequadamente a reivindicação da empresa.
“Ainda precisamos ver todo o acordo para dizer qualquer coisa com um nível razoável de confiança”, disse Brian McGrail, conselheiro sênior do Center for AI Safety, um grupo sem fins lucrativos de pesquisa e defesa. “É definitivamente um passo na direção certa e quero dar algum crédito à OpenAI.”
O contrato da OpenAI com o Pentágono foi anunciado logo após o secretário de Defesa Pete Hegseth Ele disse que o rótulo seria A empresa rival de IA Anthropic, que há muito está em negociações contratuais com o Pentágono, é um risco da cadeia de abastecimento para a segurança nacional. A Antrópico disse que a designação, que forçaria o Pentágono e os empreiteiros a parar de usar os serviços da Antrópico para fins de defesa, Nunca foi implementado publicamente antes para uma empresa americana.
Em um evento em Sausalito, Califórnia, na segunda-feira, o general aposentado Paul Nakasone, ex-diretor da Agência de Segurança Nacional e do Comando Cibernético dos EUA, disse que o Pentágono deveria trabalhar para incorporar a tecnologia de todas as principais empresas americanas de IA na defesa nacional.
“Precisamos da Anthropic, precisamos da OpenAI, precisamos que todas as grandes empresas de modelos de linguagem façam parceria com nosso governo”, disse Nakasone, que é membro do conselho de administração da OpenAI, em uma conferência patrocinada pelo Aspen Institute. “Acho que a parte da cadeia de abastecimento não é boa. Foi difícil para mim ouvir a discussão no fim de semana e a duração dessa discussão. Como cidadão americano, alguém que trabalhou no governo, acho que isso não está certo, ok? Não é um risco da cadeia de abastecimento.”

A Anthropic há muito que afirma que o Departamento de Defesa não pode utilizar os seus sistemas de IA para vigilância doméstica em massa ou para utilização directa em armas autónomas, embora tenha acrescentado isenções para os militares. Use seus sistemas para defesa cibernética e antimísseis Apontar para dezembro. Após uma reunião entre o CEO da Anthropic Dario Amodei e Hegseth na última terça-feira, o Departamento de Defesa Emita um ultimato Antrópico chegará a um acordo até as 17h de sexta-feira.
No entanto, na quinta-feira, um porta-voz da Antropologia disse à NBC News que a mais recente “linguagem comprometida do Departamento de Defesa foi adicionada à legalidade que permitiria que essas proteções fossem ignoradas à vontade”.
Mas à medida que o relacionamento da Anthropic com o Departamento de Defesa azedou, a OpenAI se aprofundou, com o anúncio do acordo de sexta-feira adicionando nova intriga a uma história que já cativou grande parte da comunidade de tecnologia e defesa. Em sua postagem na noite de segunda-feira, Altman disse que a pressa para assinar um acordo fez com que as negociações parecessem “oportunistas e confusas”, embora a OpenAI estivesse “genuinamente tentando desacelerar as coisas e evitar um resultado pior”.
No fim de semana e no início desta semana, um exército de especialistas jurídicos examinou a linguagem mais recente do contrato público da OpenAI, tentando determinar se os termos da empresa realmente adicionavam alguma proteção substantiva além do padrão de “qualquer uso legal” do Departamento de Defesa.
“Estou confuso sobre por que o Pentágono adotaria esta linguagem quando tentou bombardear antropólogos para pedir algo semelhante”, disse Charlie Bullock, pesquisador sênior do Institute for Law and AI think tank. Escreveu em X Depois que o idioma atualizado apareceu.
Muitos juristas argumentam que cada palavra num contrato é importante, porque afirmam que o governo fará a leitura mais ampla possível dos termos do contrato.
“O padrão que temos visto repetidas vezes neste debate sobre vigilância é que as comunidades de inteligência e de segurança nacional interpretam as exceções de uma forma muito ampla, muito mais ampla do que qualquer pessoa comum e razoável faria”, disse McGrail. “E porque grande parte disso é secreto, o público tem visibilidade limitada para recorrer.”
“Então pode haver algumas novas lacunas que não estamos prevendo? É inteiramente possível”, acrescentou McGrail.
Os especialistas também prestaram atenção Se o contrato está permanentemente ancorado No conceito actual de legalidade, é porque estão preocupados que o governo possa alterar os limites de “qualquer utilização legal” através da emissão de novas ordens executivas ou pareceres jurídicos.
O debate recente sobre a utilização da IA pelos militares para a vigilância doméstica centrou-se particularmente na capacidade do governo de utilizar dados comercialmente disponíveis nas suas operações, uma vez que outros métodos de monitorização dos americanos podem revelar-se mais difíceis de obter aprovação legal.
Ao longo dos anos, as empresas que veiculam ou exibem anúncios em telefones ou laptops têm conseguido compilar dados de segmentação sobre os usuários, incluindo dados de localização precisos, e Venda essas informações para várias agências governamentais Identificar os padrões de viagem e de comportamento dos indivíduos.
Mulligan, líder de segurança nacional da OpenAI, O X-Post disse na noite de segunda-feira que o negócio acabou “A nova redação enfatiza que a vigilância doméstica é proibida sob este acordo, incluindo informações adquiridas comercialmente”.
O senador Ron Wyden, D-Ore., que nos últimos anos foi repetidamente avisado O Pentágono criticou a Anthropic por não reconhecer as preocupações de privacidade da Anthropic, de que o governo federal compra dados disponíveis comercialmente para fins de monitorar os americanos.
“O Departamento de Defesa está atacando a Anthropic, pedindo salvaguardas éticas mínimas na forma como o DOD usa seus produtos”, disse Wyden em um comunicado enviado por e-mail. “É um sério motivo de alarme a capacidade da IA de transformar dados públicos ou comerciais díspares em perfis altamente reveladores de americanos. Dados de localização, registros de navegação na web e informações sobre saúde mental, atividade política e afiliação religiosa estão todos disponíveis no mercado aberto por centavos e podem atingir os americanos por coisas que são completamente legais.”
“Criar perfis de IA de americanos com base nesses dados representa uma extensão assustadora da vigilância em massa que não deveria ser permitida, independentemente do que dizem as leis atuais e desatualizadas.”
CEO da Antrópico é Amodei Repetidamente aquele comentário de compromisso firme O Departamento de Defesa é obrigado a não usar IA para monitorar os americanos porque a lei não captura a capacidade cada vez mais poderosa da IA para analisar ou analisar dados. Pesquisas recentes também mostraram Indivíduos que podem ser identificados pelos sistemas de IA atuais, mesmo que os dados subjacentes sejam supostamente anonimizados.
Os manifestantes do acordo inicial da OpenAI com o Pentágono cercaram a sede da OpenAI em São Francisco com mensagens de giz neste fim de semana. Incentivar os funcionários a serem céticos em relação aos termos da empresaquando A desinstalação do aplicativo ChatGPT da OpenAI aumentou Seguem notícias do acordo.
Michael Horowitz, ex-secretário adjunto de defesa para potências emergentes e atual professor de ciência política na Universidade da Pensilvânia, disse à NBC News que a disputa entre o Pentágono e a Antrópico vai além dos simples termos contratuais.
“Esta disputa reflete uma quebra de confiança entre a Anthropic e o Pentágono, onde a Anthropic não acredita que o Pentágono usará sua tecnologia de forma responsável e que o Pentágono não acredita que a Anthropic permitirá que a Anthropic use sua tecnologia para o que o Pentágono considera importantes para a segurança nacional”, disse Horowitz. “Parte disso são diferenças culturais, parte é política, parte é personalidade.”