Vídeos criados por IA que circulam no X de Elon Musk retratam soldados americanos capturados pelo Irã, uma cidade israelense em ruínas e embaixadas dos EUA em chamas – uma onda de deepfakes realistas, apesar de uma repressão política para conter a desinformação durante a guerra.
A guerra no Médio Oriente desencadeou uma avalanche de imagens geradas pela IA, superando tudo o que foi visto em conflitos anteriores e muitas vezes deixando os utilizadores das redes sociais incapazes de distinguir a fabricação da realidade, dizem os investigadores.
Numa tentativa de proteger “informações autênticas” durante conflitos, X anunciou na semana passada que suspenderia os criadores do seu programa de partilha de receitas por 90 dias se publicassem vídeos de guerra gerados por IA sem revelar que foram feitos artificialmente.
Violações subsequentes resultarão em suspensão permanente, alertou Nikita Bier, chefe de produto de X, em um post.
A nova política é um pivô notável para uma plataforma fortemente criticada por se tornar um refúgio de desinformação desde que Musk concluiu a aquisição do site por US$ 44 bilhões em outubro de 2022.
Também recebeu elogios da funcionária sênior do Departamento de Estado, Sarah Rogers, que o chamou de “grande complemento” às Notas da Comunidade de X – um sistema de verificação de crowdsourcing – que resulta em “menor alcance (portanto, monetização)” para conteúdo impreciso.
Mas os investigadores da desinformação permanecem céticos.
“Os feeds que monitoro ainda estão inundados com conteúdo gerado por IA sobre a guerra”, disse Joe Bodnar, do Instituto para o Diálogo Estratégico, à AFP.
“Não parece que os criadores foram dissuadidos de divulgar imagens e vídeos enganosos gerados por IA sobre o conflito”, disse ele.
Bodnar apontou para uma postagem de uma conta X de “cheque azul” de primeira linha – que é elegível para monetização – que compartilhava um clipe de IA retratando um ataque iraniano com “capacidade nuclear” contra Israel.
A postagem obteve mais visualizações do que a mensagem de Bier sobre a repressão ao conteúdo de IA.
Incentivo para falsificações
X não respondeu quando a AFP perguntou quantas contas havia desmonetizado desde o anúncio de Bier.
A rede global de verificadores de factos da AFP – do Brasil à Índia – identificou uma série de falsificações de IA sobre a guerra no Médio Oriente, muitas delas provenientes de contas premium de X com marcas de verificação azuis que podem ser compradas.
Eles incluem vídeos de IA que mostram um soldado americano choroso dentro de uma embaixada bombardeada, tropas americanas capturadas de joelhos ao lado de bandeiras iranianas e uma frota da marinha americana destruída.
A enxurrada de imagens fabricadas pela IA – misturadas com imagens autênticas do Médio Oriente – continua a crescer mais rapidamente do que os verificadores de factos profissionais conseguem desmenti-las.
Grok, o chatbot de IA do próprio X, pareceu piorar o problema, informando erroneamente aos usuários que buscavam verificação de fatos que vários recursos visuais de IA da guerra eram reais.
Os pesquisadores também alertaram que o modelo de X – que permite que contas premium recebam pagamentos com base no engajamento – turbinou o incentivo financeiro para vender conteúdo falso ou sensacional.
Uma conta premium, que postou um vídeo de IA do arranha-céu Burj Khalifa de Dubai envolto em chamas, ignorou um pedido de Bier para rotular o conteúdo como IA.
A postagem permaneceu online, acumulando mais de dois milhões de visualizações.
‘Contramedida’
No mês passado, um relatório do Tech Transparency Project disse que X parecia estar lucrando com mais de duas dúzias de contas premium pertencentes a funcionários do governo iraniano e meios de comunicação controlados pelo Estado que promovem propaganda, potencialmente violando as sanções dos EUA.
Posteriormente, X removeu as marcas de seleção azuis de alguns deles, disse o relatório.
Mesmo que a política de desmonetização de X fosse rigorosamente aplicada, um grande número de utilizadores de X que vendem conteúdo de IA não fazem parte do programa de partilha de receitas, dizem os investigadores.
Esses utilizadores ainda estão sujeitos à verificação dos factos através das Community Notes, um sistema cuja eficácia tem sido repetidamente questionada pelos investigadores.
No ano passado, um estudo do Instituto de Democracia Digital das Américas descobriu que mais de 90% das Notas da Comunidade de X nunca são publicadas, destacando limites importantes.
“A política de X é uma contramedida razoável à desinformação viral sobre a guerra. Em princípio, esta política reduz a estrutura de incentivos para aqueles que espalham desinformação”, disse Alexios Mantzarlis, diretor da Iniciativa de Segurança, Confiança e Proteção da Cornell Tech.
“O diabo estará nos detalhes de implementação: os metadados sobre o conteúdo de IA podem ser removidos e as Notas da Comunidade são relativamente raras”, disse ele.
“É improvável que X consiga garantir alta precisão e alto recall para esta política.”