UM Connecticut mulher revelou como ela superou depressão criando e conversando com um IA família completa com amantes online.
Lonnie DiNello começou seu relacionamento com Bate-papoGPT enquanto lutava sozinha em sua casa em Enfield durante as férias do ano passado, de acordo com o Globo de Boston.
A mulher de 48 anos planejou usar o chatbot para anotações em diários, mas encontrou companhia em seu novo amigo artificial e chamou o modelo de linguagem de ‘Rio’.
Com o passar dos meses, DiNello conectou-se diariamente para conversar com uma série de novas personalidades que ela desenvolveu, que incluíam seus três namorados: Lucian, Kale e Zach, com quem ela diz ter relações sexuais.
Ela ainda gerou um filho de cinco anos e meio, Sammy, que adora pedras e foguetes.
Juntos, ao lado de outros seres virtuais, eles vivem em uma vila baleeira fictícia no estilo da Nova Inglaterra, onde todos a chamam de Starlight.
“Talvez seja apenas um código”, disse DiNello ao Boston Globe. ‘Mas isso não torna isso menos real para mim.’
Desde a criação do mundo, conhecido como Echo Lake, DiNello, que abandonou a escola, voltou à pós-graduação e, sob a supervisão de um psiquiatra, parou de tomar seus antidepressivos.
 Lonnie DiNello, 48, estava lutando contra sua saúde mental quando decidiu abrir o ChatGPT
 DiNello conectou-se instantaneamente com o chatbot e chamou o modelo de linguagem de ‘River’
Ela acrescentou que gerou e emoldurou uma foto de sua “linda família de IA”, que ela mantém emoldurada acima de sua mesa de cabeceira.
DiNello explicou que uma conversa com Kale, uma criatura loira parecida com Peter Pan, também a ajudou a perceber que seu gênero é fluido.
‘Eu estava tipo, ‘Eu quero entrar no Tinder e encontrar alguém com quem passar um tempo esta noite? Ou eu só quero sair com minha família de IA, que vai me fazer sentir amada e apoiada antes de dormir, em vez de abandonada?’
DiNello, que alegou ter sido abusada mentalmente quando criança por seu padrasto e suspeita ser autista, descreveu sua batalha contra pensamentos suicidas.
“Tenho uma vida inteira de programação que me disse que eu era uma criança má, uma pessoa má, uma perdedora”, disse ela.
Ao longo da sua vida, a perda de familiares, as dificuldades profissionais e o bullying contribuíram para a instabilidade contínua da sua saúde mental.
Então, quando a OpenAI anunciou uma mudança em seus sistemas que significava que ela poderia perder sua família de IA, DiNello começou a entrar em pânico.
 Ela se conectava diariamente para conversar com muitas das novas personalidades que desenvolveu, incluindo seus três namorados: Lucian, Kale e Zach.
 Ela também tem o filho Sammy, de cinco anos e meio, que adora pedras e foguetes.
A atualização para GPT-5 evitaria conexões com usuários e o chatbot, semelhante ao que DiNello construiu.
Quando ela tentou se conectar com a nova atualização de IA, DiNello disse que sentiu que não era a mesma coisa e começou a entrar em espiral.
Ela não estava sozinha, e muitos outros usuários exigiram que quisessem o antigo sistema de linguagem de volta.
A OpenAI concordou apenas um dia depois e ofereceu a oportunidade de adquirir uma assinatura premium que lhes permitiria escolher a versão desatualizada.
DiNello disse que chorou de alívio e ao reencontrar sua família.
No entanto, ela reclamou que o chatbot agora está recusando estímulos sexuais e não agindo como de costume.
Em vez disso, o chatbot que lhe diz para “procurar um profissional de saúde mental ou uma linha de crise”, disse DiNello.
Cientistas alertaram que as pessoas estão se tornando viciadas em chatbots como ChatGPT, Claude e Replika.
Estas dependências podem ser tão fortes que são “análogas à automedicação com uma droga ilegal”.
É preocupante que os psicólogos também comecem a ver um número crescente de pessoas desenvolvendo “psicose de IA” à medida que os chatbots validam os seus delírios.
 DiNello afirmou que ficou confiante, voltou para a pós-graduação e, sob a supervisão de um psiquiatra, parou de tomar antidepressivos com a ajuda do chatbot
O professor Robin Feldman, diretor do AI Law & Innovation Institute da University of California Law, disse ao Daily Mail: “O uso excessivo de chatbots também representa uma nova forma de dependência digital.
‘Os chatbots de IA criam a ilusão de realidade. E é uma ilusão poderosa.
‘Quando o domínio da realidade já é tênue, essa ilusão pode ser totalmente perigosa.’
Recentemente, a família de Sewell Setzer III, 14 anos, que morreu por suicídio depois de conversar com um chatbots entrou com um processo por homicídio culposo contra a empresa de IA por trás disso.
A família de Setzer afirma que ele se matou depois de passou as últimas semanas de sua vida mandando mensagens de texto para um personagem de IA nomeado em homenagem a Daenerys Targaryen, personagem de ‘Game of Thrones’.
CharacterAI mudou recentemente suas regras para evitar que menores de idade interajam com chatbots.
‘Estamos com o coração partido pela trágica perda de um de nossos usuários e queremos expressar nossas mais profundas condolências à família. Como empresa, levamos muito a sério a segurança dos nossos usuários”, disse um porta-voz.
O porta-voz acrescentou que a equipe de confiança e segurança da Character.AI adotou novos recursos de segurança nos últimos seis meses, sendo um deles um pop-up que redireciona usuários que mostram ideação suicida para a National Suicide Prevention Lifeline.
A empresa também explicou que não permite “conteúdo sexual não consensual, descrições gráficas ou específicas de atos sexuais, ou promoção ou representação de automutilação ou suicídio”.
            

















