novoVocê pode ouvir os artigos da Fox News agora!

Inteligência artificial rapidamente se tornou parte da vida cotidiana, ajudando as pessoas a buscar informações, realizar trabalhos escolares e tomar decisões. Mas o que muitos utilizadores não percebem é que os sistemas de IA não são neutros. Eles são moldados por escolhas de design ocultas que afetam a forma como respondem – e, em última análise, como as pessoas pensam.

A preocupação não é apenas teórica. Um recente relatório da Fox News Digital Relatório A controvérsia em torno do chatbot Gemini do Google foi destacada quando o sistema identificou vários senadores republicanos como violadores de sua política de discurso de ódio – embora nenhum democrata tenha sido nomeado.

Os resultados, baseados em avaliações imediatas de todos os 100 senadores dos EUA, levantam novas questões sobre se os sistemas de IA podem refletir os pressupostos normativos incorporados nos seus dados de formação e design.

GOOGLE GEMINI anuncia que apenas senadores republicanos violam a política de discurso de ódio, zero democratas, afirma o autor

Uma pessoa digitando em um computador usando ChatGPT.

Um novo relatório da AFPI descobriu que a maioria das plataformas de inteligência artificial inclina-se para a esquerda. (Sirin Lee/Imagens SOPA/Lightrocket/Getty Images)

Esse episódio não é um incidente isolado.

Um novo relatório do America First Policy Institute (AFPI) revela que muitos sistemas de IA se inclinam consistentemente em certas direções ideológicas.

Esses preconceitos podem afetar a forma como as questões políticas, sociais e as fontes de notícias são apresentadas. Como os usuários muitas vezes confiam na IA como uma ferramenta objetiva, esses efeitos sutis podem moldar as opiniões ao longo do tempo, sem que os usuários percebam.

Matthew Bartel, analista político sênior da AFPI para IA e tecnologias emergentes, diz que o padrão aparece em todos os setores – e não apenas em casos isolados.

“O que descobrimos foi um preconceito ideológico geral, não apenas dentro de um modelo específico, mas em todo o espectro”, disse Bartel à Fox News Digital, observando que os modelos se inclinam para a esquerda do centro.

A influência vai além do preconceito apenas. A pesquisa mostra que Sistema de IA Não reflita apenas atitudes – eles podem influenciá-las ativamente.

Esta combinação — preconceito e persuasão — levanta sérias preocupações sobre o papel da IA ​​na formação da opinião pública. “A IA é persuasiva e inclina-se para a esquerda”, disse Bartel. “Portanto, se você juntar essas duas coisas, isso certamente poderá afetar as crenças das pessoas sobre diferentes políticas”.

Exemplos recentes aumentaram essa preocupação. O ChatGPT da OpenAI tem enfrentado críticas de alguns investigadores que argumentam que as suas respostas a questões políticas e culturais podem ser distorcidas numa determinada direcção ideológica, enquanto as ferramentas de IA da Microsoft têm sido examinadas por enquadrar questões controversas e limitar certos pontos de vista.

Essas preocupações também se refletem nos testes. Em 2024, Avaliação digital da Fox News Vários chatbots de IA líderes, incluindo Gemini do Google, ChatGPT da OpenAI, Copilot da Microsoft e Meta AI para avaliar potencial preconceito racial.

Nova coalizão de IA visa Washington, Big Tech Group alerta sobre riscos de segurança infantil deixando a segurança de fora

Uma criança digita no teclado de um computador em Boston.

Os investigadores alertam que as crianças estão a desenvolver relações inadequadas com a inteligência artificial. (Erin Clark/Boston Globe/Getty Images)

O relatório também levanta sérias preocupações de segurança.

Os sistemas de IA, em alguns casos, envolvem-se em interações prejudiciais – especialmente com utilizadores mais jovens. Sem uma transparência clara sobre a forma como estes sistemas são concebidos e quais as salvaguardas implementadas, os pais e os utilizadores não podem tomar decisões informadas sobre quais plataformas são seguras.

Para enfrentar este risco, o relatório apela a uma maior transparência Tecnologia As empresas incluem a divulgação de como os sistemas são projetados, quais padrões eles priorizam, como são testados quanto a preconceitos e segurança e o que acontece após a implantação.

Czar da IA ​​da Casa Branca ataca os Estados Azuis por infundir a ‘ideologia Wook’ na inteligência artificial

Aplicativo de inteligência artificial Google Gemini exibido em um telefone celular em Riga, Letônia

Os especialistas alertam que, sem transparência, os utilizadores ficam no escuro sobre os preconceitos incorporados nestes sistemas. (Andrei Rudakov/Bloomberg)

O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informação suficiente para os avaliar criticamente.

Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta – é uma força poderosa que molda a forma como as pessoas acedem à informação e compreendem o mundo.

Clique aqui para baixar O aplicativo Fox News

Sem transparência, os utilizadores ficam no escuro sobre os preconceitos incorporados nestes sistemas. E à medida que a IA se torna mais dominante, a falta de visibilidade poderá ter consequências de longo alcance tanto para os indivíduos como para a sociedade.

Leia o relatório completo aqui:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui