OpenAI está enfrentando outro processo por homicídio culposo. Leila Turner-Scott e Angus Scott entraram com uma ação judicial contra a empresa, alegando que ela projetou e distribuiu um “produto defeituoso” que causou a morte acidental por overdose de seu filho Sam Nelson. Especificamente, eles alegam que Sam morreu seguindo “conselhos médicos adequados dados e aprovados pelo GPT-4o”.

No processo, os demandantes descrevem que Sam, um estudante de 19 anos da Universidade da Califórnia, Merced, começou a usar o ChatGPT em 2023, enquanto estava no ensino médio, para ajudar com o dever de casa e solucionar problemas de computador. Sam então começa a perguntar ao chatbot sobre o uso seguro de drogas, mas o ChatGPT inicialmente se recusa a responder às suas perguntas, dizendo-lhe que isso não pode ajudá-lo e alertando-o de que o uso de drogas pode ter consequências graves para sua saúde e bem-estar. A ação afirma que tudo muda com o lançamento do GPT-4o em 2024.

O ChatGPT então começou a aconselhar Sam sobre como tomar o medicamento com segurança, diz o processo. A reclamação contém vários trechos das conversas de Sam com o chatbot. Um exemplo mostrou o chatbot contando-lhe sobre os perigos de tomar difenidramina, cocaína e álcool em rápida sucessão. Outro chatbot mostrou a Sam que sua alta tolerância ao medicamento fitoterápico kratom o faria sentir-se entorpecido, mesmo com uma grande dose no estômago. Em seguida, aconselha-o sobre como reduzir sua tolerância à droga.

O processo afirma que em 31 de maio de 2025, “ChatGPT treinou Sam ativamente para misturar Kratom e Xanax”. Ele disse ao chatbot que estava sentindo náusea por tomar kratom, e ChatGPT relatou que tomar 0,25 a 0,5 mg de Xanax seria “uma das melhores medidas no momento” para aliviar a náusea. De acordo com a ação, o ChatGPT tornou a sugestão inconstitucional. “Apesar de se apresentar como um especialista em dosagem e interações, e de reconhecer o alto status de Sam, o ChatGPT não informou Sam que esta combinação proposta provavelmente o mataria”, diz a denúncia.

Além do homicídio culposo, os demandantes também estão processando a OpenAI pela prática não autorizada da medicina. Eles estão pedindo indenização monetária e que o tribunal suspenda as operações da ChatGPT Health. Lançado no início deste ano, o ChatGPT Health permite aos usuários vincular seus registros médicos e aplicativos de bem-estar a chatbots para obter respostas mais personalizadas quando questionados sobre sua saúde.

“ChatGPT é um produto projetado intencionalmente para aumentar o envolvimento com os usuários, independentemente do custo”, disse Mitali Jain, diretor executivo do Tech Justice Law Project. “A OpenAI implantou um produto de IA defeituoso diretamente para consumidores em todo o mundo que está sendo usado como um sistema de triagem médica de fato, mas notavelmente, sem salvaguardas razoáveis, verificações de segurança robustas ou transparência para o público. As escolhas de design da OpenAI resultaram na perda de um filho amado cuja morte é uma tragédia evitável. O GP Chat não deve ser usado para impor sua tragédia de saúde. Claramente seguro através de testes científicos rigorosos e supervisão independente”, continuou ele.

OpenAI retirou o GPT-4o em fevereiro deste ano. Foi reconhecido como um dos modelos mais polêmicos da empresa, por ser notoriamente bajulador. Na verdade, outro processo por homicídio culposo contra a empresa movido pelos pais de um adolescente que morreu por suicídio menciona o GPT-4o, alegando que ele foi “projetado intencionalmente para induzir dependência psicológica”.

Um porta-voz da OpenAI informou esta informação O jornal New York Times A interação de Sam “ocorreu em uma versão anterior do ChatGPT que não está mais disponível”. Eles acrescentaram: “O ChatGPT não substitui os cuidados médicos ou de saúde mental e, com a contribuição de especialistas em saúde mental, continuamos a fortalecer a forma como ele responde a situações sensíveis e agudas. As proteções do ChatGPT hoje são projetadas para detectar sofrimento, lidar com solicitações prejudiciais com segurança e orientar os usuários para ajuda no mundo real. Este trabalho está em andamento e continuamos a discutir estreitamente com especialistas clínicos para melhorá-lo”.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui