novoVocê pode ouvir os artigos da Fox News agora!
Primeiro na Fox: Enquanto Washington aperta os controles de exportação para proteger a América Inteligência artificial Edge, principal empresa de IA da Anthropic, disse que três laboratórios de IA baseados na China encontraram outra maneira de acessar capacidades avançadas dos EUA.
A empresa norte-americana alega que Dipsik, Moonshot AI e Minimax usaram cerca de 24.000 contas fraudulentas para criar mais de 16 milhões de trocas com o chatbot Claude da Anthropic em uma campanha coordenada de “destilação” projetada para extrair resultados de modelos de alto valor, de acordo com um relatório obtido pela Digital News First News.
A ameaça vai além de roubar empresas dos EUA, diz o relatório. A Anthropic argumenta que é pouco provável que os modelos construídos através da destilação em grande escala resistam às salvaguardas incorporadas no sistema fronteiriço dos EUA.
“Laboratórios estrangeiros que destilam modelos americanos podem então alimentar essas capacidades desprotegidas em sistemas militares, de inteligência e de vigilância – permitindo que governos autoritários implantem IA de fronteira para operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa”, disse a Anthropic.

Os militares dos EUA supostamente usaram a ferramenta de IA da Anthropic, Claude, durante a operação para capturar o líder venezuelano Nicolas Maduro. (Kurt “Cyberguy” Knutson)
A Anthropic disse que usou correlação de endereços IP, solicitou metadados e indicadores de infraestrutura para identificar campanhas que diferiam acentuadamente do tráfego normal de clientes. A atividade, disse a empresa, concentrava-se nas habilidades mais avançadas de Claude – incluindo raciocínio complexo, codificação e uso de ferramentas – em vez de instruções casuais ao consumidor.
“Temos grande confiança de que esses laboratórios estão conduzindo ataques de destilação em grande escala”, disse Jacob Klein, chefe de inteligência de ameaças da Anthropic, à Fox News Digital.
A destilação é uma técnica comum de treinamento de IA em que um modelo menor ou menos capaz é treinado nos resultados de um modelo mais forte.
A Frontier Labs costuma usá-lo internamente para criar versões mais baratas de seus próprios sistemas. Mas a Anthropic diz que as campanhas que descobriu não são autorizadas e foram concebidas para encurtar anos de investigação e trabalho de aprendizagem por reforço.
Nas três operações, mais de 16 milhões de trocas foram geradas ao longo de semanas ou meses, segundo Klein. Após detectar atividade antrópica, ele interveio, embora reconhecesse que o desafio maior ainda estava em andamento.
“Não existe uma solução mágica imediata para impedir tudo isso”, disse Klein. “Vemos isso como maior que o antrópico”.
Embora a empresa não tenha conseguido medir com precisão o quanto os laboratórios chineses melhoraram os seus sistemas, Klein disse que os ganhos de capacidade foram “significativos” e “significativos”.
“O que podemos dizer com confiança é que eles atingiram a nossa escala”, disse ele.
O relatório levanta novas questões sobre a eficácia dos actuais controlos de exportação dos EUA, que se concentraram em grande parte na limitação do acesso da China a chips avançados de IA e na mudança directa dos pesos dos modelos.
Klein argumentou que a destilação visa um nível diferente de vantagem competitiva – processos de aprendizagem por reforço que refinam e aprimoram os modelos de fronteira depois de terem sido treinados.
“Se você pensa em ficar à frente na corrida da IA, a computação faz parte disso”, disse Klein. “Mas o aprendizado por reforço incremental é importante. A destilação permite que você realce essas habilidades.”

China acusada de roubar tecnologia de IA dos EUA. (Kritsapong Jientaratip via Getty Images)
Ele enfatizou que os chips avançados ainda são “muito importantes”, mas disse que os legisladores devem pensar sobre a questão “holisticamente”.
A Anthropic disse que compartilhou suas descobertas com agências governamentais relevantes dos EUA e parceiros da indústria. Klein sugeriu que nomear publicamente os laboratórios poderia envolver “ações criteriosas do governo” ou pelo menos das organizações envolvidas.
Ao mesmo tempo, a agência afirmou não haver provas de que o governo chinês coordenou diretamente a campanha. Mas os serviços de proxy utilizados para revender o acesso aos modelos de IA da fronteira dos EUA operam abertamente na China.
Washington tentou retardar o progresso da IA da China, limitando o acesso aos chips de computador mais avançados usados para treinar sistemas poderosos. Mas a Anthropic argumenta que mesmo sem acesso direto a esses chips, os laboratórios estrangeiros ainda podem copiar partes da inteligência de um modelo, perguntando repetidamente e treinando os seus próprios sistemas com base nas respostas.

A Anthropologie tem estado sob os holofotes nas últimas semanas, com o Pentágono num frenesim sobre como os seus modelos de IA poderiam ser usados em operações militares. O secretário da Guerra, Pete Hegseth, está se reunindo com o CEO Dario Amodei para discutir os termos que regem o uso militar da nuvem. (istoque)
Em 12 de fevereiro, a OpenAI enviou um memorando ao Comitê Seleto da Câmara do Partido Comunista Chinês alegando que a startup chinesa de IA Dipsik sistematicamente “roubou” sua propriedade intelectual por meio de destilação em grande escala. De acordo com a OpenAI, os agentes da Dipsic usaram roteadores de terceiros e técnicas de mascaramento para restringir geograficamente o acesso e a coleta. Saída do ChatGPT.
Clique aqui para baixar o aplicativo Fox News
naquele dia, Grupo de inteligência de ameaças do Google Alertou sobre o que descreveu como um “ataque de destilação” visando seu modelo Gemini. O Google disse que monitorou campanhas usando mais de 100 mil prompts destinados a replicar as habilidades de raciocínio do Gemini. A agência culpou “organizações do sector privado”, bem como actores ligados ao Estado, por esta actividade.
Juntos, os relatórios sugerem que a destilação emergiu como um ponto de conflito crescente na corrida entre EUA e China pela IA, levantando questões sobre como proteger os sistemas americanos transfronteiriços, apesar das restrições aos pesos dos modelos e à transferência direta de chips sofisticados.
A Anthropologie tem estado sob os holofotes nas últimas semanas, com o Pentágono num frenesim sobre como os seus modelos de IA poderiam ser usados em operações militares. O secretário da Guerra, Pete Hegseth, está se reunindo com o CEO Dario Amodei para discutir os termos que regem o uso militar da nuvem. Autoridades do governo disseram que a Anthropic levantou questões sobre o papel do modelo em uma operação dos EUA contra o líder venezuelano Nicolas Maduro, sugerindo que a empresa não autorizaria o uso de seus produtos, enquanto a Anthropic insistiu que havia divergências sobre vigilância em massa e armas totalmente autônomas.

