novoVocê pode ouvir os artigos da Fox News agora!

Depois de um mês, o presidente Donald Trump Depois de um confronto com o Pentágono ter ordenado o encerramento em todo o governo da tecnologia da empresa de inteligência artificial Antrópico, o CEO da empresa regressou à Casa Branca para conversações de alto nível – enquanto as autoridades reconsideram se podem ser demasiado importantes para ignorar a segurança nacional e as preocupações políticas.

A chefe de gabinete da Casa Branca, Susie Wiles, se encontrou com o CEO da Anthropic, Dario Amody, na sexta-feira, disse uma fonte familiarizada com a reunião à Fox News.

O novo modelo de inteligência artificial da Anthropic, Mythos Preview, é considerado tão avançado que a empresa limitou seu lançamento, restringindo o acesso a um pequeno grupo de parceiros devido a preocupações com possíveis abusos.

A reunião sinaliza uma rápida mudança dentro da administração Trump, à medida que as autoridades examinam se um sistema foi previamente identificado como um Risco de segurança nacional Pode também ser importante para proteger a infra-estrutura dos EUA – revelando tensões internas crescentes sobre como lidar com poderosas ferramentas de IA com potencial tanto defensivo como ofensivo.

Perguntas sobre invasão de Maduro desencadeiam revisão do Pentágono da principal empresa de IA como potencial ‘risco da cadeia de suprimentos’

As negociações ocorrem apesar dos recentes confrontos dentro da administração Trump, enquanto as autoridades reavaliam uma agência que o Pentágono identificou como um risco para a cadeia de abastecimento. Os seus laços com antigos funcionários de Biden e as críticas anteriores a Trump por parte do seu CEO acrescentaram uma dimensão política ao debate sobre se a tecnologia deveria regressar ao uso governamental.

CEO da Antropologia, Dario Amodei

A chefe de gabinete da Casa Branca, Susie Wiles, se encontrou com o CEO da Anthropic, Dario Amody, na sexta-feira, disse uma fonte familiarizada com a reunião à Fox News. (Chance Ye/Getty Images para HubSpot)

Essa possibilidade e os riscos que a acompanha já causaram tensão dentro do governo dos EUA.

Escaramuças no Pentágono, batalhas legais e reversões colocam a Anthropic de volta no jogo

A reunião ocorre após uma rixa amarga entre a Anthropic e o Pentágono no início de 2026.

Secretário de Defesa Pete Hegseth Designou a empresa como um “risco da cadeia de suprimentos” para a segurança nacional, expulsando-a efetivamente do sistema militar e impedindo os empreiteiros de usar a tecnologia.

Depois de apresentar vários processos judiciais contra o Pentágono e outras agências federais, a Anthropologie está agora a contestar a designação em tribunal, argumentando que o rótulo de “risco da cadeia de abastecimento” é ilegal e retaliatório.

A designação, que proíbe efectivamente os empreiteiros de utilizarem a tecnologia da Anthropic e tem sido comparada a medidas normalmente reservadas a congéneres estrangeiros, já enfrentou decisões contraditórias em tribunais federais, com um juiz a bloquear temporariamente partes da política enquanto um tribunal de recurso se recusou a bloquear a sua aplicação. À medida que as batalhas jurídicas se intensificam, os empreiteiros e as agências enfrentam incertezas sobre se e como os sistemas antrópicos podem ser usados.

A mudança ocorre após uma disputa sobre como o Pentágono poderia usar a IA da Antrópica.

A empresa recusou-se a abrir a aprovação para “todos os fins legais”, insistindo, em vez disso, que os seus sistemas não seriam utilizados para vigilância doméstica em massa ou para armas totalmente autónomas. Embora os responsáveis ​​do Pentágono tenham afirmado que não dependem da IA ​​para nenhum dos fins, rejeitaram ser limitados pelas restrições de uma empresa privada.

Trump então ordenou que as agências federais parassem totalmente de usar os modelos da Antrópico, exacerbando a paralisação de todo o governo fora do Departamento de Defesa.

Agora, poucas semanas depois, a empresa está de volta às negociações de alto nível com a Casa Branca, enquanto as autoridades consideram se o seu novo sistema Mythos – apesar das proibições anteriores – poderia mudar o equilíbrio entre defesa e ataque cibernéticos.

Laços políticos e críticas anteriores podem complicar as negociações na Casa Branca

O conflito também assumiu dimensões políticas.

Amodei já havia chamado a atenção por suas críticas a Trump, a certa altura comparando-o a um “senhor da guerra feudal” em uma postagem no Facebook antes das eleições de 2024, de acordo com uma reportagem do Wall Street Journal.

Em uma mensagem interna postada na plataforma Slack da Anthropic e posteriormente vazada para The Information, Amodei sugeriu que a disputa do governo Trump com a empresa foi motivada por sua recusa em oferecer o que descreveu como “elogios ao estilo ditador”.

A mensagem, escrita durante um período de rápida escalada no início de março, foi posteriormente citada pelo The Wall Street Journal e outros meios de comunicação. Mais tarde, Amodei pediu desculpas pelo tom, dizendo que a postagem não refletia sua opinião ponderada.

Tribunal federal de apelações rejeita oferta do antropólogo para bloquear lista negra do Pentágono sobre controvérsia sobre IA

Quando questionado sobre a governança, contratações e laços políticos mais amplos da Anthropic, um funcionário da Casa Branca disse que o governo está “ativamente engajado no governo e na indústria para proteger os Estados Unidos e os americanos”, incluindo “trabalhar com laboratórios de IA fronteiriços para ajudar seus modelos a proteger vulnerabilidades críticas de software”.

O funcionário acrescentou que “qualquer nova tecnologia que será potencialmente usada ou implantada pelo governo federal Período técnico de avaliação para confiabilidade e segurança”, e disse que “os esforços combinados de todos acabarão por beneficiar a indústria e nosso país como um todo”.

Tela de computador exibindo a página do site da Anthropologie e o logotipo da empresa

Amodei já havia chamado a atenção por suas críticas a Trump, a certa altura comparando-o a um “senhor da guerra feudal” em uma postagem no Facebook antes das eleições de 2024, de acordo com uma reportagem do Wall Street Journal. (Patrick Sisson/Foto AP)

Além da controvérsia imediata, o relacionamento mais amplo da empresa com Washington também chamou a atenção.

A estrutura de governação da antropologia também atraiu a atenção devido ao intenso envolvimento da administração. A empresa é parcialmente supervisionada por um “truste de benefícios de longo prazo” independente, um mecanismo incomum concebido para dar influência às partes interessadas não financeiras sobre as decisões corporativas.

O trust possui ações de voto especiais que lhe permitem nomear e controlar a maioria do conselho da empresa, cujos membros são oriundos de segurança nacional, políticas públicas e desenvolvimento global.

Os atuais curadores incluem o CEO da Clinton Health Access Initiative, Neal Buddy Shah, o presidente do Carnegie Endowment, Mariano-Florentino Cuellar, um democrata que foi nomeado para a Suprema Corte da Califórnia em 2014 pelo ex-governador Jerry Brown, e o CEO do Center for a New American Security, Richard Fontaine – que aconselhou o presidente do Mac208. O grupo é uma mistura de líderes políticos e de segurança nacional que sublinha os laços profundos da empresa com Washington e os círculos políticos globais.

Os proponentes do Antrópico também o colocam no centro da sobreposição de tecnologias, políticas e redes políticas.

O financiamento inicial para a empresa incluiu investimentos de pessoas como o cofundador do Facebook, Dustin Moskowitz, e o ex-CEO do Google, Eric Schmidt, ambos doadores democratas de longa data, e um grande investimento inicial da FTX de Sam Bankman-Fried.

Ao mesmo tempo, a empresa atraiu desde então uma vasta gama de investidores institucionais – incluindo Amazon, Google e Microsoft – refletindo o seu papel crescente na corrida global à IA e complicando os esforços para a definir em linhas puramente políticas.

A agência contratou vários funcionários do governo Biden para funções políticas importantes, incorporando ainda mais a Antrópica no ecossistema político de IA de Washington. Eles incluem Tarun Chhabra, um ex-funcionário do Conselho de Segurança Nacional que agora lidera o trabalho de política de segurança nacional da empresa, bem como outros conselheiros e funcionários com experiência no desenvolvimento de estratégias federais de IA e tecnologia.

A Anthropic também procurou construir relacionamentos além das linhas partidárias à medida que expande sua presença em Washington.

A agência emprega pessoal político com formação republicana, incluindo o analista legislativo Benjamin Markle e a lobista Mary Croghan, e em fevereiro adicionou Chris Liddell – um ex-vice-chefe de gabinete da Casa Branca no governo de Trump – ao seu conselho. Contribuiu com US$ 20 milhões para a Public First Action, um grupo bipartidário que apoia candidatos de ambos os partidos que apoiam a regulamentação da IA.

O CEO da Anthropologie, Dario Amodi, e o Departamento de Guerra Pete Hegseth estão juntos

A decisão de um juiz federal de impedir a administração Trump de proibir o uso da empresa de IA Antrópico pelo Departamento de Guerra está alimentando o debate sobre se a decisão leva o tribunal a tomar uma decisão de segurança nacional. (Samukta Lakshmi/Bloomberg via Getty Images; Eugene Hoshiko/Pool/Reuters)

A empresa também enfrentou críticas dentro da administração Trump.

O conselheiro de IA da Casa Branca, David Sachs, acusou a Anthropic de seguir uma estratégia de “captura regulatória”, argumentando que a empresa está usando preocupações sobre a segurança da IA ​​para aprovar regulamentações que poderiam beneficiar sua posição e, ao mesmo tempo, desacelerar os concorrentes.

A Anthropic rejeitou essas afirmações, dizendo que a sua abordagem reflete uma preocupação genuína sobre os riscos representados pelos sistemas avançados de IA.

A Anthropic se recusou a comentar questões sobre a reunião na Casa Branca e seus laços políticos.

Ação da administração Trump contra empresa de IA por juiz, alimentando batalha contra autoridades de segurança

Novos sistemas de IA podem remodelar a guerra cibernética, aumentando o alarme no governo dos EUA

A nova tecnologia poderia ajudar os desenvolvedores a identificar e corrigir falhas crônicas de segurança, mas também poderia dar aos hackers uma nova ferramenta poderosa para atingir empresas e sistemas governamentais dos EUA.

“Dada a taxa de progresso da IA, não demorará muito para que essas capacidades se expandam, além dos potenciais atores que estão comprometidos em implantá-las com segurança”, disse a Anthropic em seu anúncio. “As consequências – para a economia, a segurança pública e a segurança nacional – podem ser graves.”

A Anthropic não divulgou publicamente o Mythos, em vez disso limitou o acesso por meio de um programa chamado Projeto GlassWing, no qual um grupo seleto de empresas usa o modelo para verificar vulnerabilidades em sistemas críticos.

Tela de computador exibindo a página do site da Anthropologie e o logotipo da empresa

Páginas do site da Anthropologie e logotipos de empresas são exibidos na tela de um computador em Nova York na quinta-feira, 26 de fevereiro de 2026. (Patrick Sisson/Foto AP)

Clique aqui para baixar o aplicativo Fox News

A agência disse que o sistema já descobriu milhares de falhas anteriormente desconhecidas – com décadas de existência – sublinhando tanto o seu valor defensivo como o risco de poder ser usado para acelerar ataques cibernéticos se a tecnologia se espalhar.

Edward Lawrence, da Fox Business, contribuiu para este relatório.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui