Pesquisar
Close this search box.
RIO BRANCO
Pesquisar
Close this search box.

POLÍTICA

Eleições: pesquisa falsa na voz de Renata Vasconcellos viraliza; veja o vídeo

Publicado em

Vídeo alterado mistura a voz de Renata Vasconcellos com os resultados de uma falsa pesquisa que traz Bolsonaro em primeiro Imagem: Reprodução

Pintou a primeira deepfake do período oficial de campanha eleitoral de 2022 (iniciado na terça-feira, dia 16/8). Desde a manhã de quarta-feira (17) circula pelo WhatsApp, Twitter e Youtube uma montagem – razoavelmente bem feita – que mistura a voz da apresentadora do Jornal Nacional Renata Vasconcellos com os resultados de uma falsa pesquisa de intenção de votos.

O vídeo é, na verdade, uma alteração da edição do dia 15 de agosto do principal telejornal da Globo. Algo perfeitamente capaz de enganar eleitores.

Primeiro a gravação apresenta Renata diante da famosa bancada, anunciando que há uma nova pesquisa de intenção de votos referente ao primeiro turno da eleição deste ano. Depois, mostra uma tela com um gráfico de barras visualmente idêntico ao usado pela emissora no mesmo programa. Mas quem acompanha pesquisas eleitorais de perto nota duas alterações. A foto do rosto do presidente Jair Bolsonaro aparece em primeiro lugar, com 44%, e a do ex-presidente Luiz Inácio Lula da Silva em segundo, com 32%. A última pesquisa divulgada pelo Ipec mostra, no entanto, exatamente o oposto: Lula em primeiro, com 44% das intenções de voto, e Bolsonaro em segundo, com 32%

Continua depois da publicidade

Monitoramento de redes realizado na tarde de ontem (17) identificou que a deepfake se espalhava pelo WhatsApp, mas que também já havia se enraizado em redes abertas. Uma das versões encontradas no Youtube teve mais de 1.400 visualizações em apenas 12 horas e já confundia eleitores.

“Essa pesquisa não é de 2018?”, perguntou um usuário num dos comentários da publicação. “As verdades começam a aparecer”, escreveu outro.

Deepfakes são montagens difíceis de ser identificadas a olho nu e que buscam enganar o espectador, amplificando uma narrativa. É uma prática que surgiu no universo da pornografia (misturando rostos de famosos com corpos de atores e atrizes pornô) mas, em pouco tempo, foi parar na política.

Em 2020, milhares de usuários de redes sociais assistiram nos Estados Unidos a um vídeo em que a deputada Nancy Pelosi, presidente da Câmara, supostamente aparecia bêbada em uma entrevista de TV. Os responsáveis pela montagem – jamais identificados – haviam desacelerado a rotação da gravação e reduzido o ritmo da voz da congressista, conseguindo que ela realmente soasse bêbada.

O truque também foi visto nas eleições mexicanas de 2018. O então candidato e hoje presidente Andrés Manuel Lopez Obrador foi fortemente criticado por militantes adversários em mais de um falso episódio de bebedeira gravado em vídeo.

Enganam-se aqueles que pensam que é sempre moleza provar que houve uma manipulação num vídeo. Nos três casos citados acima, bastou recuperar a versão original da gravação. Mas – como sabemos – as correções não são tão sexy quanto as mentiras. Não vão tão longe e não atingem um público do mesmo tamanho.

Continua depois da publicidade

Além disso, o que acontece quando a versão original não está assim tão acessível? Aí é preciso que os fact-checkers entrem em ação, usando técnicas e ferramentas que muita gente não domina ou sequer conhece. Você sabia, por exemplo, que há na internet quem negocie imagens e vídeos de âncoras de TV e outras personalidades mundiais para que justamente se produzam deepfakes? Pois é.

O caso do deepfake de Renata serve também para falarmos das mentiras que circularão em formato de áudio ao longo das próximas semanas. Eles certamente virão por aí, como humor ou como verdade. E eles são ainda mais difíceis de serem desconstruídos.

Bons imitadores – penso aqui em Marcelo Adnet, por exemplo – podem acabar dando muito trabalho. É que, até onde conheço, em toda América Latina, há apenas uma ferramenta pública (mas paga) capaz de medir a probabilidade de uma voz ser, de fato, da pessoa a quem lhe atribuem um arquivo de áudio.

O Forensia foi usado na Argentina nas eleições de 2019 (em espanhol) e, por ora, não está ao alcance dos bolsos dos checadores brasileiros.

Fica a cargo do eleitor, então, aguçar a capacidade de continuar suspeitando daquilo que lê e passar também a duvidar do ouve e do que vê. Um trabalho coletivo nada fácil.

Procurada na tarde de ontem para comentar o episódio, a TV Globo confirmou que o vídeo de Renata não é original e informou que o Ipec, instituto que faz pesquisas eleitorais e é citado na deep fake, está denunciando o material no Sistema de Alerta de Desinformação Contra as Eleições do Tribunal Superior Eleitoral (TSE) e no Ministério Público Eleitoral (MPE). Até o fechamento desta coluna, a empresa não havia esclarecido se tem ou não um sistema de monitoramento de materiais deste tipo.

 

Propaganda
Advertisement
plugins premium WordPress