TECNOLOGIA
YouTube demora em média 9 meses para punir vídeos de Bolsonaro
O YouTube demora, em média, nove meses para deletar vídeos com desinformação publicados pelo canal do presidente Jair Bolsonaro (PL). A informação é de uma análise realizada pelo portal iG com base em informações da empresa de análise de dados Novelo.
Desde o início de 2021, o canal do presidente teve 36 vídeos derrubados pelo Youtube. Em quase 70% deles, Bolsonaro aparece desinformando, sobretudo a respeito da pandemia de Covid-19. Nos outros 30%, é possível encontrar reproduções de vídeos que circularam pelo WhatsApp, recortes de reportagens ou lives transmitidas por outros canais. Nestes, aparecem desinformando personalidades como o deputado federal Eduardo Bolsonaro (PL), o ex-assessor da Presidência Arthur Weintraub e a médica Nise Yamaguchi.
Os dados fornecidos ao portal iG pela Novelo foram coletados automaticamente através da interface de programação de aplicações do próprio YouTube. Isso significa que, apesar da empresa se recusar a divulgar publicamente essas informações, elas são as mesmas que as oficiais, já que vêm diretamente da plataforma.
O YouTube tem uma regra na qual todo usuário que recebe três avisos por ferir as diretrizes da plataforma dentro de um prazo de 90 dias é banido. A exclusão de um vídeo por violação de política gera um aviso. Depois de 36 vídeos derrubados, o canal de Bolsonaro continua no ar. Tão longa quanto uma gestação, a demora do YouTube para agir é um dos motivos pelos quais a situação permanece assim.
Por que o canal de Bolsonaro não foi banido do YouTube?
Antes de entender por que o canal do presidente segue no ar mesmo após 36 vídeos ferirem as diretrizes do YouTube, é preciso compreender o funcionamento da regra dos três avisos da plataforma, a qual todos os usuários estão sujeitos.
Funciona assim: quando um canal viola as regras do YouTube pela primeira vez, ele recebe um alerta, que fica atrelado à conta para sempre. Depois disso, se as regras forem violadas novamente, o usuário recebe um aviso, que tem validade de 90 dias.
Com um aviso, o usuário fica uma semana sem poder realizar algumas ações, como publicar vídeos, transmitir ao vivo e criar ou editar playlists, entre outras limitações. Com dois avisos dentro de 90 dias, a mesma punição é aplicada, mas agora por duas semanas. Com três avisos dentro de 90 dias, o canal é removido permanentemente do YouTube.
Desde o início de 2021, 36 vídeos do casal de Bolsonaro foram punidos pela plataforma. Ao clicar em cada um deles, é possível ler a seguinte mensagem: “Este vídeo foi removido por violar as diretrizes da comunidade do YouTube”. Cada uma dessas punições, portanto, poderia gerar um aviso, já que houve infração das regras. Em ao menos duas oportunidades, três vídeos foram excluídos dentro de um período de 90 dias, o que poderia ter levado ao banimento. Mas não levou.
É que, assim como toda regra, há exceções. E uma delas está relacionada às novas políticas da plataforma. “Em caso de atualização de políticas, podemos remover vídeos postados antes da mudança ou até um mês depois da atualização sem que essa ação gere um aviso como penalidade”, informou o YouTube, em nota enviada ao portal iG (você pode ver o posicionamento completo da empresa no final desta reportagem).
Na prática, isso significa que um vídeo publicado em setembro de 2020 e derrubado em maio de 2021 pode não gerar um aviso se ele tiver sido excluído por conta de uma diretriz que entrou em vigor, por exemplo, em novembro de 2020.
Procurado pelo reportagem, o YouTube não informou qual diretriz foi violada em cada um dos vídeos derrubados do canal do presidente, tampouco confirmou quantos avisos Bolsonaro recebeu e em quais ocasiões. Segundo a empresa, esta é uma informação privada que apenas o dono do canal tem acesso. A assessoria de imprensa da Presidência da República, por sua vez, se recusou a comentar sobre o assunto. Não é possível, portanto, checar se a regra dos três avisos foi aplicada corretamente neste caso.
“Não há transparência do YouTube em relação à forma como o conteúdo é moderado, quais são os procedimentos concretos que a empresa utiliza e como se dá a implementação prática das políticas”, afirma Marcelo Alves, professor do Departamento de Comunicação da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio).
Novas regras, pouca prática
Desde outubro de 2020, o YouTube teve 15 atualizações nas diretrizes da comunidade, sendo cinco delas sobre desinformação. Algumas dessas novidades provavelmente foram responsáveis por derrubar vídeos do canal de Bolsonaro, mas com meses de atraso.
Para Paloma Rocillo, vice-diretora do Instituto de Referência em Internet e Sociedade (IRIS), o YouTube já tem “diretrizes interessantes” no que diz respeito ao combate à desinformação, mas ainda falha em executá-las e em ser transparente a respeito desta execução.
Para Marcelo, há uma “negligência em aplicar a própria política”. “É muito evidente que eles não têm nenhum tipo de intenção e incentivo econômico e político para fazer implementar a política que eles mesmos desenvolveram. A gente tem levantamentos internos de pesquisas que temos feito que mostram que há canais com centenas de vídeos que potencialmente são antidemocráticos e continuam no ar. Isso é bastante frequente e reincidente”, afirma o professor.
Um exemplo prático do que os especialistas apontam é a live realizada por Bolsonaro em 29 de julho do ano passado, na qual ele desinforma a respeito da confiabilidade das urnas eletrônicas brasileiras . O vídeo foi excluído apenas nesta semana , quase um ano depois de sua publicação.
A remoção foi baseada em uma atualização das regras feita em março deste ano, que proíbe a publicação e circulação de qualquer vídeo “com alegações falsas de que as urnas eletrônicas brasileiras foram hackeadas na eleição presidencial de 2018 e de que os votos foram adulterados”.
Mesmo depois da nova regra, passaram-se quatro meses até que o vídeo fosse derrubado, quando ele já acumulava mais de um milhão de visualizações. Guilherme Felitti, sócio da Novelo, que monitora também os 500 maiores canais da extrema-direita no YouTube, afirma que outros vídeos que repercutiam esta live foram excluídos quando a nova política foi lançada. “Ou seja, produtos da live foram punidos. Mas a razão primordial para essa punição [a live do presidente da República com desinformações] continuava lá, intocada”, diz.
Além disso, no caso desta live, o YouTube sequer precisaria ter esperado a nova política para punir o presidente por desinformação. No mesmo vídeo, Bolsonaro desinforma sobre a falsa eficácia da ivermectina e da cloroquina contra a Covid-19, o que é proibido na plataforma desde abril de 2021, antes da live acontecer.
Na visão de Marcelo, a própria publicação da política de combate à desinformação eleitoral em março deste ano foi tardia. “A política diz respeito especificamente à eleição de 2018, então há uma lacuna de mais de três anos desde a eleição. Ainda assim, essa política não diz respeito a absolutamente nada sobre 2022. Isso gera uma lacuna gigantesca que basicamente permite que a plataforma lave as mãos sobre qualquer tipo de desinformação, teoria da conspiração e discurso de ódio sobre as urnas até a certificação do resultado das eleições pelo TSE, o que não faz nenhum sentido”, analisa.
Em um cenário no qual tanto as diretrizes quanto a aplicação da moderação de conteúdo do YouTube fossem rápidas e efetivas e a desinformação fosse detectada no dia da publicação do vídeo, gerando a exclusão e a consequente punição, o canal de Bolsonaro já teria sido banido ainda no início de 2020. A demora do YouTube, portanto, é um dos motivos que permitem que o presidente continue desinformando na plataforma, sem sofrer punições mais graves.
Nunca agir, sempre reagir
A exclusão tardia da live de julho passado veio no mesmo dia em que o presidente se reuniu com embaixadores e voltou a atacar as urnas eletrônicas e o Tribunal Superior Eleitoral (TSE), fazendo o tema repercutir.
“O YouTube pune o canal do Bolsonaro sempre de uma maneira que não cruze essa linha imaginária que eles criaram. O YouTube está espremido entre dois movimentos: a pressão pública para que ele execute suas regras e o ‘medo’ de excluir o canal de uma autoridade. E é isso que rege a maneira como ele modera seus conteúdos, principalmente os políticos”, analisa Guilherme. “Na minha opinião, e baseado na experiência que a gente tem fazendo isso há quatro anos, o YouTube não vai deletar o canal do Bolsonaro enquanto ele não sair do poder”. Oficialmente, o YouTube diz que personalidades públicas como o presidente estão sujeitas às mesmas regras que qualquer usuário da plataforma.
Dayane Machado, doutoranda no Departamento de Política Científica e Tecnológica da Universidade Estadual de Campinas (Unicamp), onde pesquisa desinformação sobre saúde, afirma que o YouTube costuma ter uma postura bastante reativa na moderação de conteúdo desinformativo.
“O YouTube é uma das plataformas que sofre menor pressão em relação à regulamentação, e a empresa tem um longo histórico de políticas reativas, de modo que as poucas medidas anunciadas só surgem em resposta à pressão de investidores, a escândalos midiáticos ou como forma de promover a imagem da plataforma”, avalia.
A pesquisadora acredita ser possível que o YouTube propositalmente demore a excluir vídeos do canal de Bolsonaro a fim de evitar um banimento. “Por muito tempo, as plataformas evitaram se posicionar em relação a inúmeros tipos de conteúdo que poderiam oferecer algum risco à sociedade. Conforme esses problemas foram atraindo maior atenção da imprensa, a estratégia mudou: de tempos em tempos, o YouTube anuncia que removeu um número enorme de vídeos e canais que feriram as regras da plataforma – nós não temos acesso a esses dados, de modo que não é possível verificar se eles são verdadeiros. Quando pressionada, a empresa responde que já faz o suficiente para mitigar a circulação de desinformação – nós também não temos acesso a esses dados. E quando alguém influente é identificado usando o YouTube para disseminar conteúdo perigoso, demora muito para que alguma medida seja tomada — acontece com políticos, mas também com celebridades que vivem da desinformação sobre saúde”, afirma.
Mesmo sob pressão, o YouTube não agiu nesta semana. Na quinta-feira (21), a plataforma informou que não vai punir o vídeo que transmitiu ao vivo o encontro de Bolsonaro com embaixadores . “Após revisão, não foram encontradas violações às políticas de comunidade do YouTube no vídeo em questão”, disse a empresa. No vídeo, o presidente atacou as urnas eletrônicas, citando as eleições de 2018 diversas vezes.
O problema da demora
Com média de nove meses para serem derrubados pelo YouTube, os vídeos com desinformação publicados pelo canal de Bolsonaro acumularam milhões de visualizações enquanto ficaram no ar. O conteúdo mais visto dentre os 36 vídeos foi justamente a live sobre as urnas eletrônicas, enquanto o que ficou mais tempo no ar foi uma transmissão envolvendo Eduardo Bolsonaro e Arthur Weintraub, que demorou 437 dias para ser deletada. Ao todo, os 36 vídeos somaram mais de 7,4 milhões de visualizações.
“O prejuízo da desinformação é potencializado quando uma figura pública publica esse conteúdo. Então, a gente tem uma manipulação da opinião pública, o que prejudica a democracia”, afirma Paloma.
Dayane cita diversas pesquisas que já indicam os potenciais impactos da exposição à desinformação e a teorias da conspiração. Dentre eles, estão a diminuição do engajamento da população em relação à política e a diminuição da confiança em informações e instituições oficiais.
“No contexto da Covid-19, essa exposição pode dificultar o controle da pandemia. Por exemplo, pessoas que acreditam em teorias da conspiração sobre a Covid-19 têm menor suscetibilidade a seguir recomendações oficiais de saúde e têm menor propensão a realizar testes ou se vacinar contra o coronavírus. Percepções equivocadas sobre a Covid-19 também estão associadas a menor aderência a recomendações de distanciamento físico e ao maior engajamento em atividades de lazer consideradas inseguras”, afirma a pesquisadora. Grande parte dos vídeos derrubados do canal de Bolsonaro traziam desinformação a respeito da pandemia de Covid-19, sobretudo sugerindo que medicamentos como cloroquina e ivermectina poderiam prevenir a doença ou curar pacientes, o que não é verdade.
Guilherme, da Novelo, diz que essa demora acontece com todos, o que revela a magnitude do problema. “Isso não é exclusivo do Bolsonaro, é uma prática do YouTube de uma maneira geral. É óbvio que tem uma atenção especial para o Bolsonaro, por se tratar do presidente do Brasil, mas essa mesma demora a gente vê em todos os outros canais que já foram punidos por diferentes razões”.
Mas há uma particularidade no canal de Bolsonaro que pode torná-lo ainda mais imune à moderação de conteúdo do YouTube: a grande quantidade de lives. Dos 36 vídeos derrubados, 24 eram lives. “Para escapar da moderação de conteúdo, os canais costumam desenvolver uma série de táticas, o uso de lives é uma delas”, afirma Dayane. “Uma das principais vantagens das lives [para os disseminadores de desinformação] é a dificuldade de moderar conteúdo, já que são vídeos frequentemente mais longos e com a possibilidade de circulação de desinformação tanto em áudio e vídeo, quanto por meio do chat”, diz.
De quem é a culpa?
A pesquisadora afirma que a lentidão por parte do YouTube para aplicar as próprias regras “pode ser atribuída à falta de moderadores suficientemente treinados e dedicados à moderação de conteúdo em idiomas que não o inglês e possivelmente à falta de interesse da própria plataforma”.
Paloma parte para a mesma linha para tentar explicar a lentidão. “A moderação de conteúdo precisa ir além do software. É necessário pessoas para moderar e principalmente pessoas qualificadas. Não adianta, ou melhor, atrapalha se uma pessoa que não tem conhecimento nenhum sobre o cenário político brasileiro, a diversidade brasileira e nosso contexto histórico fizer uma moderação do conteúdo produzido aqui. A gente sabe que a linguagem é um projeto de poder. Então, se o moderador de conteúdo não for formado para entender quais são as relações de poder que orbitam dentro daquela linguagem, ele não vai conseguir fazer uma moderação de conteúdo adequada”, analisa. “A forma como nosso conteúdo é submoderado é uma afronta”.
De acordo com o último relatório de transparência do YouTube, 91% dos vídeos são excluídos por detecção automatizada. A reportagem perguntou ao YouTube se as equipes que atuam na moderação de conteúdo brasileiro são equipes locais ou internacionais. A empresa não respondeu a essa pergunta específica, dizendo que equipes “trabalham continuamente com o objetivo de antecipar e prevenir cenários de ameaças e de abuso nas nossas plataformas”. Você pode conferir o posicionamento completo da plataforma no final desta reportagem.
Outro problema apontado pelos especialistas é a falta de transparência do YouTube. “Teoricamente, todas as regras são aplicadas a todo usuário sem distinção, mas ainda há um caminho muito grande de transparência sobre as políticas e principalmente sobre a execução das políticas. Precisamos entender melhor por que em uma situação o conteúdo é moderado de uma forma e em uma situação idêntica, de outra”, diz Paloma.
“Considerando o comportamento hostil do YouTube em relação aos pesquisadores que tentam compreender as dinâmicas da desinformação na plataforma, a opacidade de seu funcionamento e a lentidão com que a moderação costuma ser aplicada, é possível dizer que falta estímulo para melhorar a moderação”, opina Dayane. “É preciso lembrar que a desinformação é lucrativa para quem produz e para quem dissemina, de modo que as próprias plataformas faturam quando deixam de combater certos tipos de movimentos e conteúdos”, afirma a pesquisadora.
Na visão de Paloma, um caminho para garantir mais transparência não só do YouTube, mas também de outras redes sociais, é através de regulação. “Hoje em dia, está quase estabelecido que as políticas das plataformas não devem ser só pautadas por interesses comerciais, afinal as plataformas já são praticamente de interesse público”, afirma.
“Eu acho que esse foco tão grande no que as empresas precisam fazer é muito por conta dessa descrença nas nossas instituições. A Justiça Eleitoral tem que ser chamada para essa discussão e exercer seu poder de fiscalização. Já o Congresso Nacional tem o poder de regulamentar e estabelecer obrigações legais para essas plataformas. As plataformas têm as responsabilidades delas e a gente precisa elevar a barreira”, opina Paloma.
Já Dayane define o YouTube como um parceiro da desinformação. “Sem a permissibilidade e o suporte contínuo do YouTube, os canais que monitoramos não teriam alcançado e fidelizado enormes audiências e, consequentemente, não teriam conseguido transformar a desinformação em um conteúdo tão lucrativo”, afirma.
“Esses influenciadores não são uma novidade para a plataforma, alguns deles possuem canais há mais de uma década e muitos abandonaram seus empregos anteriores para viver do lucro gerado pela produção de conteúdo online. O Programa de parceiros do YouTube (PPY) é o que permite que boa parte dos canais sejam financiados dentro da plataforma, então acho que podemos usar o termo adotado pela própria empresa: os produtores de desinformação e o YouTube são parceiros, eles colaboram e se beneficiam mutuamente, dividindo os lucros produzidos”.
O outro lado
A reportagem entrou em contato com a assessoria de imprensa da Presidência da República, que não quis comentar sobre o assunto. A seguir, você confere as versões completas dos dois posicionamentos enviados pelo YouTube, citados na reportagem.
Posicionamento 1:
“Todos os conteúdos no YouTube precisam seguir nossas Diretrizes de Comunidade . Contamos com uma combinação de sistemas inteligentes, revisores humanos e denúncias de usuários para identificar material suspeito e nossas equipes globais de Trust and Safety (Confiança e Segurança) trabalham continuamente com o objetivo de antecipar e prevenir cenários de ameaças e de abuso nas nossas plataformas.
A identificação desses conteúdos prejudiciais é orientada por quatro princípios, os quais denominamos os 4 Rs da Responsabilidade: removemos conteúdos que violam nossas políticas o mais rápido possível; reduzimos a disseminação de conteúdo que está no limite da conformidade com nossas políticas; recomendamos vozes confiáveis quando as pessoas buscam notícias e informações e recompensamos artistas e criadores qualificados e confiáveis.
Caso o criador não siga as diretrizes tem início o processo de alertas e avisos , independentemente de quem seja o criador do conteúdo.
Qualquer criador que receba um aviso poderá questionar a decisão tomada caso acredite que teve seu conteúdo removido erroneamente. Para isso, a primeira medida a ser tomada é seguir as etapas disponíveis em nossa página para contestar ações das diretrizes da comunidade . Caso a revisão seja favorável ao criador, o conteúdo é reestabelecido e o alerta ou aviso que seria gerado por aquela remoção é revogado.
A primeira vez que um usuário viola as políticas da plataforma ele recebe apenas um alerta, que permanece indefinidamente no canal. Caso o conteúdo viole as diretrizes da comunidade novamente, ele receberá um aviso. O aviso gera consequências, significa que o usuário não terá permissão para utilizar algumas ferramentas ou realizar certas ações em seu canal por uma semana, conforme listado em nossa central de ajuda . Um segundo aviso no período de 90 dias após a primeira ocorrência tem as mesmas punições anteriormente citadas, dessa vez por duas semanas. Em um eventual terceiro aviso dentro desse mesmo período de 90 dias, o canal é removido permanentemente.
Reforçamos que em caso de atualização de políticas, podemos remover vídeos postados antes da mudança ou até um mês depois da atualização sem que essa ação gere um aviso como penalidade. Esse período de adaptação às políticas é de um mês, os criadores que postarem novos vídeos em desacordo com a diretriz passam a receber as sanções.
O YouTube tem elaborado um sólido conjunto de políticas e sistemas — incluindo a Política de Integridade Eleitoral e Supressão de Eleitores, atualizada recentemente — para dar visibilidade a conteúdo confiável, reduzir a disseminação de informações enganosas e, ao mesmo tempo, permitir a realização do debate político.
Qualquer pessoa que acredite ter encontrado um conteúdo no YouTube em desacordo com as nossas regras pode fazer uma denúncia e, se a equipe de análise identificar violações às diretrizes de comunidade, que proíbem, por exemplo, conteúdos com desinformação eleitoral e desinformação médica sobre COVID-19 , o vídeo será removido e o canal penalizado, de acordo com a nossa política de avisos . Se um usuário encontrar um conteúdo que parece violar nossas políticas de desinformação, ele pode denunciá-lo como ‘Spam ou enganoso’. É possível encontrar mais informações sobre como denunciar um conteúdo inadequado no YouTube em nossa central de ajuda .
A avaliação de remoções é feita de forma individual para cada vídeo, e pode levar algum tempo até ser finalizado. Além do conteúdo são analisados o título, descrição e comentários. Quando não há violação à política de uso do produto, a decisão final sobre a necessidade de remoção do conteúdo cabe ao Poder Judiciário, de acordo com o que estabelece o Marco Civil da Internet”.
Posicionamento 2:
“Nossas equipes globais de Trust and Safety (Confiança e Segurança) trabalham continuamente com o objetivo de antecipar e prevenir cenários de ameaças e de abuso nas nossas plataformas.
Essas equipes desempenham diferentes funções para ajudar a desenvolver e aplicar nossas diretrizes de forma apolítica e apartidária, monitorar nossas plataformas contra abusos e proteger os usuários, desde sequestros de contas e campanhas de desinformação, até conteúdo fraudulento e atividades suspeitas.
Contamos com áreas dedicadas ao processo de revisão e construção de políticas, além de uma combinação de inteligência de máquina, revisores humanos treinados e denúncias de usuários para identificar material suspeito, seja ele um vídeo, comentário, link ou miniatura.
Em caso de violação de diretrizes da comunidade , as regras de comportamento no YouTube, fazemos a remoção e usamos essa ação para treinar nossa inteligência para uma melhor cobertura, no futuro.
Cada vídeo avaliado recebe nove ou mais opiniões diferentes e algumas áreas importantes exigem especialistas certificados. Por exemplo, médicos oferecem orientações sobre a validade de vídeos relacionados a tratamentos médicos específicos, para coibir a disseminação de desinformação médica.
Baseando-se no consenso proveniente da colaboração dos avaliadores, usamos sistemas de aprendizado de máquina testados para construir modelos que auxiliam na revisão diária de inúmeras horas de vídeos para encontrar e coibir a disseminação de conteúdos prejudiciais. Ao longo do tempo, a precisão desses sistemas fica cada vez melhor.
Dentre os esforços, o YouTube também mantém o Programa Revisor Confiável , que ajuda a fornecer ferramentas avançadas a órgãos governamentais e ONGs”.
Fonte: IG TECNOLOGIA