De acordo com o Instituto Reuters, o YouTube desempenhou um papel central na disseminação de informações durante as eleições presidenciais de 2022 no Brasil, consolidando-se como a principal plataforma digital de consumo de notícias no país. Entretanto, a remoção de vídeos políticos durante esse período levanta questões sobre a transparência e a eficácia das políticas de moderação de conteúdo da plataforma.
Em nosso laboratório no Departamento de Comunicação, da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), realizamos uma investigação sobre a remoção de 193.429 vídeos, entre julho de 2022 e o 8 de janeiro de 2023, dia das invasões e depredações em Brasília. Na pesquisa, utilizamos métodos de arquivamento dinâmico sistemático e contínuo das plataformas digitais a fim de “reconstruir as cenas” de momentos anteriores e posteriores à aplicação de medidas de moderação de conteúdo para reconstruir o status de remoção desses conteúdos.
Sem explicações claras
A pesquisa revelou que, embora o YouTube tenha removido mais de 10 mil vídeos e 2,5 mil canais por violação das políticas eleitorais brasileiras, a maioria das remoções não apresentou justificativas claras. Segundo os dados da empresa, mais de 84% foram excluídos antes de alcançarem 100 visualizações. Contudo, para além de esforços de arquivamento dinâmico como o realizado nesta pesquisa, não há como obter esse banco de dados e verificar ou avaliar de forma independente o relatório.
Encontramos 29.755 vídeos indisponíveis, representando 15,4% da amostra; totalizando 870,4 milhões de visualizações e média de 29,2 mil por unidade de análise. Os resultados mostram que 9% das remoções apresentavam apenas a mensagem “This video isn’t available anymore” (em português, este vídeo não está mais disponível) sem mais detalhamentos ou justificativas; outros 6,1% dizem respeito às ações dos próprios canais, considerando que 7.709 vídeos foram tornados privados e 4.060 foram deletados. Esses valores são importantes e apontam para a exclusão não como consequência da ação das plataformas, mas como um ato preventivo das próprias contas.
Outro achado significativo foi a remoção de conteúdos por parte dos próprios canais. Canais como TV Piauí e Patriota em Ação apagaram ou tornaram privados mais de 99% de seus vídeos, indicando uma possível autocensura ou estratégias de prevenção a sanções. Esse fenômeno dificulta a análise do impacto da moderação da plataforma e levanta questões sobre a preservação da memória digital e a acessibilidade a dados para investigações futuras.
Um outro dado interessante da análise dessa série temporal é a queda contínua e expressiva que ocorreu depois da votação de segundo turno das eleições no país. Somente 6,24% dos conteúdos estavam offline em janeiro de 2023. Para nós, três hipóteses concorrentes na interpretação deste dado: 1) com o resultado das eleições, os canais reduziram postagens de conteúdo político-eleitoral ou aprenderam a ofuscar as mensagens que questionavam mais frontalmente a vitória do candidato Luiz Inácio Lula da Silva e a lisura do processo eleitoral; 2) embora a plataforma tenha tentado remover violações rapidamente, esse procedimento é muito demorado; ou 3) o Youtube reduziu os esforços de equipe e sistemas de moderação de conteúdo que foram acionados para atuar durante os meses da campanha.
Alguns canais foram completamente apagados, o que inviabiliza o acesso a todos os vídeos produzidos. Considerando a amostra desta pesquisa, 49 contas (5,7%) tiveram 100% do conteúdo indisponível no momento da verificação. Isso quer dizer que se um estudo começasse a coletar dados de fevereiro de 2023 em diante, pelo menos 49 canais foram apagados da base de dados do YouTube e estão inacessíveis para investigação a posteriori. De forma mais geral, 116 canais (15%) têm mais de 75% dos vídeos offline.
As big techs na democracia
As plataformas digitais, como o YouTube, têm sido alvo de críticas por sua atuação na moderação de conteúdo, especialmente em contextos eleitorais. Empresas como Meta e Google, controladora do YouTube, são frequentemente acusadas de exercerem um poder significativo sobre a liberdade de expressão, decidindo o que é visível ou invisível na esfera pública digital. Essa concentração de poder levanta preocupações sobre a transparência, a imparcialidade e a responsabilidade dessas empresas na governança da informação.
A moderação de conteúdo das big techs envolve decisões complexas que equilibram a liberdade de expressão com a necessidade de combater desinformação, discurso de ódio e outras práticas prejudiciais. No entanto, a falta de transparência nas políticas de moderação e a ausência de justificativas claras para a remoção de conteúdos dificultam a avaliação da eficácia e da justiça dessas ações.
O julgamento do STF e seus impactos
A recente decisão do Supremo Tribunal Federal (STF), que no último dia 26 de julho de 2025 [julgou que as big techs são responsáveis pela remoção de conteúdos ofensivos e ilícitos publicados por terceiros em suas plataformas],(https://noticias.stf.jus.br/postsnoticias/stf-avanca-em-analise-de-recursos-sobe-normas-do-marco-civil-da-internet/ “”) é uma vitória na discussão em torno da constitucionalidade do artigo 19 do Marco Civil da Internet, que limita a responsabilização das plataformas digitais por conteúdos desse teor.
O resultado desse julgamento terá implicações diretas para a governança digital no Brasil, pois vai estabelecer precedentes para a atuação das plataformas na moderação de conteúdo e na proteção da integridade democrática. A decisão do STF poderá influenciar a forma como as plataformas abordam a remoção de conteúdos políticos e a transparência de suas políticas de moderação.
Desafios para a pesquisa e a transparência
A pesquisa sobre a moderação de conteúdo enfrenta desafios significativos devido à falta de transparência das plataformas e à dificuldade de acesso aos dados. A remoção de vídeos e canais dificulta a análise do impacto da moderação e a avaliação da eficácia das políticas implementadas. Além disso, a ausência de justificativas claras para as remoções impede a compreensão dos critérios utilizados pelas plataformas e a realização de auditorias independentes.
É fundamental que as plataformas adotem práticas mais transparentes e forneçam informações claras sobre as razões para a remoção de conteúdos. A criação de mecanismos de fiscalização e a promoção da colaboração entre sociedade civil, academia e governo são essenciais para garantir a responsabilidade das plataformas e a proteção da democracia digital.
A remoção de vídeos políticos no YouTube durante as eleições de 2022 e o 8 de janeiro de 2023 destaca a necessidade urgente de aprimorar as políticas de moderação de conteúdo e aumentar a transparência das plataformas digitais. O julgamento do STF sobre a responsabilização das big techs representa um passo importante nesse processo, sinalizando a possibilidade de uma maior responsabilização das plataformas por conteúdos prejudiciais à democracia. No entanto, é fundamental que essa responsabilização seja acompanhada de práticas transparentes e de mecanismos eficazes de fiscalização para garantir a proteção da liberdade de expressão e a integridade democrática no ambiente digital.
Esta pesquisa foi financiada pela Fundação Carlos Chagas Filho de Amparo à Pesquisa do Rio de Janeiro (Faperj).