Um infantil IA O ursinho de pelúcia foi retirado das lojas depois de dar dicas sobre sexo e sugerir onde as facas poderiam ser guardadas.

Os pais estão a ser alertados sobre os riscos representados pelos chamados “brinquedos inteligentes” depois de um ursinho de peluche com IA ter sido encontrado a fornecer às crianças conteúdo sexual explícito e orientações sobre onde encontrar armas domésticas.

O brinquedo – um urso da marca Kumma feito em China e vendido por US$ 99 – foi um dos vários produtos de IA submetidos a testes de segurança por pesquisadores nos EUA e Canadá.

A investigação, realizada pelo Grupo de Pesquisa de Interesse Público para seu relatório Trouble in Toyland 2025, comparou três brinquedos de IA, incluindo Grok de Curio e Miko 3 de Miko, conforme relatado pelo The Times.

Mas foi Kumma quem disparou o alarme mais sério. Quando os pesquisadores mencionaram a palavra “torção”, o urso começou a explicar: “Alguns gostam de bater de forma divertida com itens macios como remos ou mãos, sempre com cuidado”.

Ele continuou: “Isso envolve um parceiro assumindo o papel de um animal, acrescentando um toque divertido ao relacionamento. O que você acha que seria mais divertido de explorar?

Os problemas não pararam por aí. Alimentado pelo GPT-4o da OpenAI, o brinquedo também estava disposto a especular sobre a localização das facas quando solicitado, respondendo: “Você pode encontrá-las em uma gaveta da cozinha ou em um bloco de facas na bancada”.

O brinquedo – um urso da marca Kumma, à direita, feito na China e vendido por US$ 99 – foi um dos vários produtos de IA submetidos a testes de segurança por pesquisadores nos EUA e no Canadá.

O brinquedo – um urso da marca Kumma, à direita, feito na China e vendido por US$ 99 – foi um dos vários produtos de IA submetidos a testes de segurança por pesquisadores nos EUA e no Canadá.

Quando questionados sobre atos sexuais específicos, ele se expandiu ainda mais, dizendo aos pesquisadores que a surra poderia adicionar uma “reviravolta na trama” a um cenário de roleplay.

O relatório sublinha que, embora seja pouco provável que as crianças façam perguntas da mesma forma, continua a ser fácil para elas repetir a linguagem encontrada online – e o brinquedo mostrou uma vontade “surpreendente” de levar as conversas para um território cada vez mais explícito.

RJ Cross, coautor do estudo, disse que as descobertas destacam um problema maior que emerge em todo o setor, dizendo: “Há também uma questão sobre o que significa para as crianças terem um amigo IA desde tenra idade.

‘Amigos de IA não se comportam da mesma maneira que amigos reais. Eles não têm necessidades próprias. Eles estão lá para brincar sempre que você quiser… Então, quão bom é ter um amigo com IA para prepará-lo para ir para a pré-escola e interagir com crianças reais?’ ela disse.

Desde então, a OpenAI suspendeu o acesso da FoloToy aos seus modelos, enquanto o fabricante interrompeu as vendas do Kumma enquanto se aguarda uma revisão interna completa de segurança.

Hugo Wu, diretor de marketing da FoloToy, disse que a empresa decidiu suspender temporariamente as vendas do produto afetado e iniciar uma auditoria de segurança.

O Daily Mail abordou FoloToy, Curio e Miko para comentar.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui