novoVocê pode ouvir os artigos da Fox News agora!
Inteligência artificial rapidamente se tornou parte da vida cotidiana, ajudando as pessoas a buscar informações, realizar trabalhos escolares e tomar decisões. Mas o que muitos utilizadores não percebem é que os sistemas de IA não são neutros. Eles são moldados por escolhas de design ocultas que afetam a forma como respondem – e, em última análise, como as pessoas pensam.
A preocupação não é apenas teórica. Um recente relatório da Fox News Digital Relatório A controvérsia em torno do chatbot Gemini do Google foi destacada quando o sistema identificou vários senadores republicanos como violadores de sua política de discurso de ódio – embora nenhum democrata tenha sido nomeado.
Os resultados, baseados em avaliações imediatas de todos os 100 senadores dos EUA, levantam novas questões sobre se os sistemas de IA podem refletir os pressupostos normativos incorporados nos seus dados de formação e design.

Um novo relatório da AFPI descobriu que a maioria das plataformas de inteligência artificial inclina-se para a esquerda. (Sirin Lee/Imagens SOPA/Lightrocket/Getty Images)
Esse episódio não é um incidente isolado.
Um novo relatório do America First Policy Institute (AFPI) revela que muitos sistemas de IA se inclinam consistentemente em certas direções ideológicas.
Esses preconceitos podem afetar a forma como as questões políticas, sociais e as fontes de notícias são apresentadas. Como os usuários muitas vezes confiam na IA como uma ferramenta objetiva, esses efeitos sutis podem moldar as opiniões ao longo do tempo, sem que os usuários percebam.
Matthew Bartel, analista político sênior da AFPI para IA e tecnologias emergentes, diz que o padrão aparece em todos os setores – e não apenas em casos isolados.
“O que descobrimos foi um preconceito ideológico geral, não apenas dentro de um modelo específico, mas em todo o espectro”, disse Bartel à Fox News Digital, observando que os modelos se inclinam para a esquerda do centro.
A influência vai além do preconceito apenas. A pesquisa mostra que Sistema de IA Não reflita apenas atitudes – eles podem influenciá-las ativamente.
Esta combinação — preconceito e persuasão — levanta sérias preocupações sobre o papel da IA na formação da opinião pública. “A IA é persuasiva e inclina-se para a esquerda”, disse Bartel. “Portanto, se você juntar essas duas coisas, isso certamente poderá afetar as crenças das pessoas sobre diferentes políticas”.
Exemplos recentes aumentaram essa preocupação. O ChatGPT da OpenAI tem enfrentado críticas de alguns investigadores que argumentam que as suas respostas a questões políticas e culturais podem ser distorcidas numa determinada direcção ideológica, enquanto as ferramentas de IA da Microsoft têm sido examinadas por enquadrar questões controversas e limitar certos pontos de vista.
Essas preocupações também se refletem nos testes. Em 2024, Avaliação digital da Fox News Vários chatbots de IA líderes, incluindo Gemini do Google, ChatGPT da OpenAI, Copilot da Microsoft e Meta AI para avaliar potencial preconceito racial.

Os investigadores alertam que as crianças estão a desenvolver relações inadequadas com a inteligência artificial. (Erin Clark/Boston Globe/Getty Images)
O relatório também levanta sérias preocupações de segurança.
Os sistemas de IA, em alguns casos, envolvem-se em interações prejudiciais – especialmente com utilizadores mais jovens. Sem uma transparência clara sobre a forma como estes sistemas são concebidos e quais as salvaguardas implementadas, os pais e os utilizadores não podem tomar decisões informadas sobre quais plataformas são seguras.
Para enfrentar este risco, o relatório apela a uma maior transparência Tecnologia As empresas incluem a divulgação de como os sistemas são projetados, quais padrões eles priorizam, como são testados quanto a preconceitos e segurança e o que acontece após a implantação.

Os especialistas alertam que, sem transparência, os utilizadores ficam no escuro sobre os preconceitos incorporados nestes sistemas. (Andrei Rudakov/Bloomberg)
O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informação suficiente para os avaliar criticamente.
Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta – é uma força poderosa que molda a forma como as pessoas acedem à informação e compreendem o mundo.
Clique aqui para baixar O aplicativo Fox News
Sem transparência, os utilizadores ficam no escuro sobre os preconceitos incorporados nestes sistemas. E à medida que a IA se torna mais dominante, a falta de visibilidade poderá ter consequências de longo alcance tanto para os indivíduos como para a sociedade.
Leia o relatório completo aqui:
