À luz da recente decisão do Supremo Tribunal Federal (STF) – que na última quinta-feira, dia 27 de junho de 2025, decidiu que redes sociais podem ser responsabilizadas por postagens de terceiros após notificação extrajudicial – iniciamos a segunda série de artigos em parceria com a revista FCW Cultura Científica, da Fundação Conrado Wessel, com textos de especialistas que investigam os impactos das redes sociais na sociedade. Neste abaixo , a pesquisadora R. Marie Santini, fundadora e diretora do Netlab (Laboratório de Estudos de Internet e Redes Sociais/UFRJ) discute o funcionamento dos sistemas de curadoria algorítmica e seu impacto na forma de consumo de conteúdo nas redes sociais. Entre outros temas urgentes, ela aborda também a evolução da indústria de desinformação e a necessidade de regulação e transparência das plataformas digitais.
Apesar da frequência com que se fala de algoritmos, pouco se discute a lógica por trás dos sistemas de recomendação que selecionam o conteúdo que vemos ao acessar uma rede social ou plataforma. Eles fazem uma curadoria do que vemos a partir de padrões de consumo de perfis semelhantes ao nosso. A lógica por trás disso vem da identificação de comunidades de gosto, uma ideia que a sociologia já conhecia e que a computação traduziu em códigos e previsões algorítmicas.
A música foi um grande laboratório de tudo que aconteceria com o consumo cultural online e outros campos, como as questões ambientais, a comunicação e questões e campanhas políticas, por ser facilmente digitalizável e compartilhável. Foi o primeiro tipo de conteúdo a sofrer os impactos da internet — pirataria, crise da indústria fonográfica — e por isso atraiu esforços de inovação tecnológica. Assim, os primeiros sistemas de recomendação foram desenvolvidos para sugerir músicas. A partir dessa lógica de comunidades de gosto, o modelo foi sendo replicado para outros tipos de conteúdos, como vídeos, notícias, textos e anúncios, ou seja, todo tipo de conteúdo online.
Os algoritmos do gosto
Esses sistemas de recomendação trabalham a partir da análise do comportamento de grandes grupos de usuários. Quando você consome um conteúdo, o sistema cruza seus dados com os de outras pessoas que tiveram comportamentos semelhantes. Ele não prevê o seu gosto individual, mas o da comunidade de gosto à qual você pertence. Esse é o princípio da recomendação colaborativa. O sistema associa o indivíduo a um grupo com padrões de consumo parecidos e, com base nisso, sugere conteúdos de que você provavelmente vai gostar, se interessar ou achar relevante baseado no que alguém com perfil parecido com o seu consumiu ontem. Parece algo muito inteligente, mas é simplesmente uma identificação de padrões.
No começo, houve uma tentativa de analisar o conteúdo a partir de elementos da própria música — por exemplo, o timbre de bateria ou guitarra — para prever o próximo conteúdo a ser oferecido, como se houvesse um “dna” musical que determinasse a preferência dos usuários. Logo percebeu-se que era mais eficiente prever com base no comportamento de outros usuários. Isso porque a comunidade não consome um tipo de conteúdo totalmente homogêneo. Ela combina conteúdos diferentes na sua preferência, mas cria identidade a partir dos perfis. Isso muda totalmente a lógica da curadoria. Esses sistemas de recomendação algorítmica passaram então a organizar a oferta e a demanda dos conteúdos. Isso foi genial para as empresas, já que nesse sistema não há excedente: todo conteúdo chega em algum usuário, de alguma maneira.
Impacto na indústria cultural
Antes, apenas cerca de 20% dos produtos culturais geravam lucro — era a chamada cultura pop, que vendia tanto que acabava pagando os outros 80%. Por outro lado, a sociedade pressionava por mais diversidade cultural, de conteúdos, opiniões. Mas a diversidade não era viável economicamente. Com os sistemas de recomendação, mesmo os conteúdos de nicho se tornaram monetizados, porque esses conteúdos passaram a ser direcionados para o público certo. Isso salvou setores como o fonográfico e o audiovisual, que passaram a depender da recomendação de conteúdo personalizada para tornar a diversidade lucrativa.
Essa lógica, porém, beneficia muito mais as plataformas do que os criadores, que seguem sendo mal remunerados. As plataformas centralizam tudo: dados, distribuição, publicidade, e ainda definem e controlam as métricas de performance que entregam aos artistas. O criador não sabe quantas vezes sua música foi tocada e não sabe os critérios utilizados para a recomendação de conteúdo, a não ser pelos números que a própria plataforma oferece a cada um deles. Essa questão do direito autoral é muito séria. As plataformas estimulam que os artistas produzam conteúdos e os coloquem lá de graça porque concentram todo o poder de distribuição e definem os padrões de consumo. Esse material então passa a ser encarado como divulgação e o artista tem que ganhar dinheiro de outra forma.
Controle máximo, transparência mínima
Na área da comunicação, os efeitos são ainda mais preocupantes. Especialmente por conveniência, as pessoas se deixam levar e passaram a confiar na curadoria algorítmica da mesma forma que confiavam na programação de rádio ou na manchete de um jornal. Imaginavam que aquela música tinha sido selecionada por alguém porque tinha uma relevância social, e não porque alguém pagou — o chamado jabá, que inclusive é proibido no Brasil e muitos países. As pessoas seguem confiando na curadoria e, para além disso, acreditam que o que aparece nas plataformas foi selecionado de forma neutra. Mas o algoritmo é uma programação feita por humanos, com pesos baseados em interesses e ganhos econômicos. E o que vemos é que as plataformas priorizam o que gera mais atenção e lucro, não o que é mais relevante, de qualidade ou confiável. O que engaja mais, aparece mais.
A transparência sobre como as plataformas funcionam é mínima. Quando essas empresas de tecnologia surgiram, elas eram vistas como startups inovadoras, que entregavam tudo de graça para as pessoas, dando acesso à informação e fazendo uma revolução cultural. Essa visão foi cultivada durante vinte anos e teve algumas consequências. Uma delas, de ordem cultural, é essa confiança na curadoria algorítmica. E essa excessiva confiança e esperança depositada na tecnologia teve consequências econômicas e jurídicas: essas empresas cresceram muito e avançaram sem nenhuma regulamentação. Quando abrimos os olhos, elas eram as empresas mais poderosas do mundo, possuindo mais dados do que qualquer Estado (e até mesmo regimes autoritários) jamais teve sobre cada um dos cidadãos. Elas são os novos gatekeepers da informação. E trabalham para manter e aumentar esse poder, sem regulamentação, sob a bandeira de que não produzem conteúdo – fazem “apenas” curadoria – e, portanto, não têm responsabilidade sobre o que as pessoas colocam nas plataformas. A consequência disso tudo é que informações de baixa qualidade ou falsas circulam com mais intensidade que conteúdos jornalísticos sérios.
Muitos veículos jornalísticos acabaram se submetendo a essa lógica do conteúdo de baixa qualidade para aumentar engajamento, feito sem nenhum investimento. Os grandes veículos de comunicação, por sua vez, aqueles que têm poder econômico, começaram a brigar com as plataformas, porque elas não pagam o direito autoral, e porque, enfim, estão disputando o mercado publicitário. Paralelamente, há um incômodo global sobre essa quantidade de conteúdo de baixa qualidade dentro das redes sociais. As plataformas então começaram a buscar os conteúdos de empresas tradicionais de comunicação, especialmente os de menor porte, que precisam de visibilidade para sobreviver. Elas oferecem “apoio técnico” e monetário e, com isso, moldam o formato e a lógica da produção de conteúdo jornalístico. O Google, por exemplo, financia projetos jornalísticos no mundo todo, mas ensina como produzir conteúdos mais “recomendáveis” para o seu sistema. Ou seja, as plataformas criaram um modelo em que o jornalismo precisa delas para sobreviver.
A regra que vale no jornalismo, estabelecida com muita luta, é que se há dinheiro ou permuta por trás de uma recomendação, é jabá — e o público precisa saber. Nas redes sociais esse debate não avançou, deixando oculto se há pagamento nas sugestões. Isso escancara a falta de neutralidade algorítmica e a desigualdade da visibilidade: os conteúdos têm pesos diferentes.
Desinformação como mercado rentável
A desinformação sempre existiu, mas nos dias de hoje opera como uma indústria global, com escala mundial e instantaneidade. E não é mais, necessariamente, uma questão política ou ideológica. É um mercado profissionalizado que atrai interesse de diversos setores. E se antes havia grupos que atuavam como militantes ou hackers isolados, agora ela é movida por interesses políticos, econômicos e criminosos e prospera nas plataformas graças ao alcance massivo, pouca regulação e algoritmos que premiam o sensacionalismo. Vemos isso claramente na política, na saúde e no meio ambiente.
Nas eleições, por exemplo, há uso massivo de desinformação para manipular a percepção pública e interferir nos resultados. Essa indústria passa a fazer parte do conjunto de empresas que são contratadas em campanhas eleitorais para a produção de peças de propaganda para manipular o eleitor. Elas atuam disseminando informações falsas sobre candidatos, governos etc.; ou turbinando artificialmente algum assunto de interesse – dando a sensação de que a opinião pública está indo para um determinado lado, que as pessoas estão discutindo algum assunto porque o consideram relevante, quando na verdade nada disso é real. Vimos isso acontecer em 2016, na campanha eleitoral Trump, nos Estados Unidos, e no referendo do Brexit, no Reino Unido. Ali surgiu a propaganda computacional que manipula o debate público em larga escala. Bots e perfis falsos inflam engajamento, fabricam controvérsias, atacam adversários e ampliam discursos extremistas. A chegada das ferramentas da IA generativa tornam esse campo ainda mais complexo, com a possibilidade de gerar conteúdos em massa que parecem legítimos, mas foram criados para enganar, manipular ou apenas lucrar.
Especialmente nas campanhas eleitorais, é preciso garantir acesso à informação de qualidade e transparência, para que as pessoas possam tomar suas decisões com base no que é real. Se não há informação qualificada, se a população é manipulada com base em informações falsas, a democracia está realmente ameaçada.
A tempestade perfeita
Nos últimos cinco anos, a indústria da desinformação se sofisticou e cresceu sem nenhuma punição ou monitoramento. Sua atuação no campo da saúde, por exemplo, é extremamente preocupante. Nas redes, influenciadores, grupos e empresas promovem curas milagrosas e desinformação sobre vacinas, cultivando um enorme problema de saúde pública.
Na pauta ambiental, há uma guerra de desinformação para sabotar políticas públicas e desacreditar a ciência climática. São operações com objetivos claros e financiamentos diversos — de grupos políticos a setores econômicos. A desinformação virou ferramenta de lobby. E mesmo quem não acredita nela sofre os seus efeitos.
Grupos políticos que eram mais outsider, especialmente de extrema direita, usaram as plataformas para disseminar suas narrativas e conteúdos, e começaram a se estruturar no mundo digital. À margem da mídia tradicional — que tinha espaço para a direita, mas não para a extrema direita — ocuparam o novo espaço digital e passaram a defender as plataformas como aliadas estratégicas.
Ou seja, eles não estão inseridos no establishment tradicional e têm a rede como infraestrutura. Em troca da visibilidade que recebem, atuam contra qualquer tentativa de regulação. É uma relação de conveniência: as plataformas garantem espaço e alcance, e esses grupos oferecem apoio político para manter o ambiente desregulado. Com a falta de regulamentação das redes, eles próprios têm a garantia de que não serão responsabilizados pelos discursos de ódio ou pelas estratégias de comunicação baseadas em desinformação. Esses grupos de extrema direita se apropriaram da narrativa da liberdade de expressão para proteger um ambiente que lhes é extremamente favorável. Aliaram interesse econômico e o interesse político. Um casamento perfeito ou, no meu ponto de vista, uma tempestade perfeita.
Modelo centrado no lucro, mas poderia ser diferente
O enfrentamento desse problema envolve ações e soluções que passam por três camadas: cultural, política e econômica. Primeiro, precisamos entender que a desinformação não é um problema individual, mas coletivo. Não se trata, por exemplo, de ensinar o usuário a identificar fake news ou de responsabilizar pais, mães e cuidadores pelos conteúdos a que os adolescentes têm acesso hoje nas redes. A responsabilidade precisa ser das plataformas — e não do usuário. As plataformas não são apenas espaços técnicos ou neutros — elas são ambientes com implicações sociais e políticas profundas. Precisamos discutir qual modelo de comunicação digital queremos como sociedade. Hoje, o modelo é centrado na atenção e no lucro das grandes empresas. Mas poderia ser outro, baseado em direitos, diversidade e interesse público. Essa mudança exige engajamento social, mobilização e vontade política. E, principalmente, exige que deixemos de naturalizar o caos informacional em que estamos vivendo.
Do ponto de vista econômico, uma das saídas passa pela articulação social de setores da economia que percebam a gravidade e o impacto da desinformação para o seu próprio negócio. Da sua mobilizacão e força para enfrentar o interesse dessas empresas específicas, que precisam de algum limite. No campo político, não há outra saída: é necessário regulamentar. Precisamos exigir transparência nos sistemas de recomendação e responsabilização das plataformas. Isso passa por regulamentação e fiscalização, além de legitimidade e força política para aplicação de leis já existentes.