O Google disse que seu principal chatbot de inteligência artificial, o Gemini, foi inundado por atores “com motivação comercial” que tentaram cloná-lo, solicitando-o repetidamente, às vezes com milhares de perguntas diferentes – incluindo uma campanha que incitou o Gemini mais de 100.000 vezes.

Em um relatório divulgado na quinta-feira, o Google disse que tem sofrido cada vez mais “ataques de destilação”, ou repetidas perguntas destinadas a fazer com que um chatbot revele seu funcionamento interno. O Google descreve essa atividade como “extração de modelo”, na qual imitadores procuram no sistema padrões e lógica que o façam funcionar. Os invasores parecem querer usar os dados para construir ou fortalecer sua própria IA, afirmou.

A empresa acredita que os perpetradores são, em sua maioria, empresas privadas ou pesquisadores que buscam obter vantagem competitiva. Um porta-voz disse à NBC News que o Google acredita que os ataques vêm de todo o mundo, mas se recusou a compartilhar detalhes adicionais sobre o que se sabe sobre os suspeitos.

John Hultquist, analista principal do Threat Intelligence Group do Google, disse que o escopo dos ataques ao Gemini indica que eles provavelmente serão comuns ou em breve serão comuns contra ferramentas de IA personalizadas de pequenas empresas.

“Seremos o canário na mina de carvão para muitos mais incidentes”, disse Hultquist. Ele se recusou a nomear os suspeitos.

A empresa considera a destilação um roubo de propriedade intelectual, disse.

As empresas de tecnologia gastaram bilhões de dólares correndo para desenvolver seus chatbots de IA ou grandes modelos de linguagem, e consideram o funcionamento interno de seus principais modelos informações proprietárias altamente valiosas.

Embora tenham sistemas implementados para detectar ataques de destilação e tentar bloquear aqueles que estão por trás deles, grandes LLMs são inerentemente vulneráveis ​​à destilação porque estão abertos a qualquer pessoa na Internet.

OpenAI, a empresa por trás do ChatGPT, Seu rival chinês acusou Dipcic No ano passado conduziu um ataque de destilação para melhorar seu modelo.

Muitos dos ataques foram projetados para provocar os algoritmos que ajudam o Gemini a determinar o “motivo” ou como processar as informações, disse o Google.

Hultquist diz que à medida que mais empresas projetam seus próprios LLMs personalizados, treinados em dados potencialmente confidenciais, elas ficam vulneráveis ​​a ataques semelhantes.

“Digamos que seu LLM seja treinado em 100 anos de pensamento secreto na maneira como você faz negócios. Em teoria, você pode destilar um pouco disso”, disse ele.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui