Última atualização:
Uma empresa de energia solar dos EUA perdeu Rs 200 milhões depois que notícias falsas geradas por IA se espalharam online. Seu proprietário alertou que a empresa pode fechar se o relatório falso não for retirado logo
Em dois anos, seis ações judiciais nos EUA acusaram ferramentas de IA de espalhar informações falsas e prejudiciais. (AI gerado/News18 Hindi)
O mundo está atualmente a debater-se com a questão das notícias falsas e, embora alguns esperassem que a inteligência artificial (IA) proporcionasse uma solução, a realidade provou o contrário. Em vez disso, a IA está agora a contribuir para a criação de notícias falsas, causando danos significativos às empresas.
Nos Estados Unidos, uma empresa de energia solar foi recentemente vítima de um incidente deste tipo, resultando numa perda de 200 milhões de rupias. O proprietário da empresa alertou que se as notícias falsas não forem removidas, elas poderão ser forçadas a fechar devido à perda de confiança dos clientes.
Este não é um incidente isolado. Nos últimos dois anos, seis ações judiciais foram movidas nos EUA, acusando ferramentas de IA de espalhar informações falsas e prejudiciais.
UM New York Times O relatório destacou o caso da Wolf River Electric, uma empresa de energia solar em Minnesota, que viu contratos no valor de US$ 388.000 cancelados no ano passado, depois que uma notícia gerada por IA alegou falsamente que a empresa havia resolvido um caso de fraude com o governo.
Google enfrentou aviso de demanda de Rs 900 milhões
Apesar dos esforços para que o Google removesse as notícias falsas, a empresa não teve sucesso e acabou entrando com um processo por difamação contra o Google, exigindo Rs 900 milhões de rupias como compensação. O Google reconheceu o erro, afirmando: “Erros são possíveis com novas tecnologias. Corrigimos assim que descobrimos.” No entanto, as pesquisas ainda mostram que a empresa enfrenta um processo judicial, o que prejudicou gravemente a sua reputação.
O fundador da empresa, Justin Nielsen, disse que uma única história falsa prejudicou a reputação que ele construiu ao longo dos anos. “Se as notícias falsas não pararem, a empresa poderá ter que fechar”, alertou.
Quem deve ser responsabilizado?
Estes incidentes levantam questões jurídicas significativas sobre a responsabilização quando as ferramentas de IA divulgam informações falsas. A professora da Syracuse University, Nina Brown, observou que responsabilizar as empresas pelas imprecisões da IA poderia levar a numerosos novos casos, com as empresas possivelmente optando por um acordo para evitar riscos de julgamento.
Esses relatórios falsos geraram alvoroço
Outros casos de desinformação gerada pela IA também causaram turbulência.
Luke Littler vencendo o campeonato de dardos: Em dezembro de 2024, um recurso de IA chamado Apple Intelligence resumiu incorretamente uma notificação da BBC News, alegando que o jogador de dardos britânico Luke Littler havia vencido um campeonato antes da partida final.
Rafael Nadal é gay: No ano passado, uma notificação gerada por IA afirmava falsamente que o tenista Rafael Nadal era gay, um erro atribuído ao sistema de IA da Apple.
Suicídio de Luigi Manzone: Da mesma forma, um resumo de IA criou uma história falsa sobre Luigi Manzone, acusando-o falsamente de matar o CEO da UnitedHealthcare e de cometer suicídio. A BBC apresentou queixa à Apple, pois a história foi totalmente inventada.
Explosão do Pentágono: Além disso, uma fotografia falsa gerada por IA de fumo negro e fogo perto do Pentágono, em Washington DC, tornou-se viral nas redes sociais, levando ao pânico e à instabilidade no mercado de ações dos EUA.
Prisão de Donald Trump: Imagens geradas por IA de Donald Trump sendo preso também foram amplamente divulgadas e acreditadas por muitos, gerando debate político.
Estados Unidos da América (EUA)
13 de novembro de 2025, 13h21 IST
Leia mais


















