Em parceria com a revista FCW Cultura Científica, da Fundação Conrado Wessel, o The Conversation Brasil traz uma série de artigos sobre os impactos das redes sociais na sociedade. No texto abaixo, o professor Marcelo Soares, especialista em jornalismo digital e de dados, explica como as redes sociais coletam e processam dados dos usuários em diversas camadas, sem transparência e escondendo critérios e algoritmos, dificultando a fiscalização e favorecendo a disseminação de desinformação. A lógica de engajamento prioriza o conteúdo emocional e polêmico, criando bolhas personalizadas que isolam os usuários e podem levá-los ao extremismo.
Oito em cada dez usuários de internet no Brasil usam as redes sociais com frequência, de acordo com dados de 2024 do Núcleo de Informação e Coordenação do Ponto Br (NIC.Br). Silenciosamente, enquanto você navega, as redes sociais coletam muito mais informação do que aquilo que fornecemos conscientemente.
Esses dados são coletados em várias camadas. A camada “zerésima” corresponde às informações básicas que preenchemos – nome, idade, interesses, nossa rede de contatos. A partir dessa base, existem nas outras camadas um universo de dados comportamentais sendo monitorado. As redes observam o que curtimos, compartilhamos, comentamos, assistimos, o tempo que passamos em um post ou vídeo. Esses padrões são comparados estatisticamente aos de outros usuários e, a partir disso, vão inferindo com quem se parecem os nossos gostos, desejos e até aspectos da nossa personalidade.
O consultor de mídia dinamarquês Thomas Baekdal chama isso de dados de primeira ordem. São criados pelas plataformas, refinando tudo aquilo que extraem da nossa atividade e que pode permitir fazer inferências sobre o que abre nosso bolso. Esses dados são organizados em perfis vendidos para anunciantes de forma automatizada, em leilões que ocorrem em microssegundos.
Eles não precisam acertar 100%; se errarem, o pior que pode acontecer é ignorarmos algum anúncio. A segunda camada, portanto, está na relação comercial das plataformas com anunciantes a partir dos nossos dados. A partir de tudo que sabem sobre nós e mais o que inferem, as plataformas constroem perfis super detalhados. Não precisam saber necessariamente quem você é, mas sabem que, se acertarem no seu gosto e no seu momento, você pode assistir a um vídeo, clicar num anúncio ou comprar alguma coisa. É um pouco de demografia, um pouco de psicografia e um tanto de matreirice.
Cookies a serviço de terceiros
Há ainda uma terceira camada, a dos cookies de terceiros, ainda mais invasivos que os das plataformas. É assim que os anúncios perseguem você de um site a outro. Cookies são pequenos arquivos que os sites despejam no seu navegador quando você visita uma página. A finalidade é identificá-lo na próxima visita, e com isso eles viram uma espécie de diário de bordo de tudo o que você fez no site.
Eles podem ser do próprio site acessado: ao retornar a um site de noticias, os links que você já clicou aparecem roxos em vez de azuis. Mas no lucrativo negócio dos cookies de terceiros, os cookies despejados no seu computador pelo site que você visita podem vir de redes de anúncios presentes também em outros sites. A relação dessas redes não é diretamente com você, mas com os sites que acessa. Se a mesma empresa do cookie monitora um site de notícias e um site de alimentação, por exemplo, ela vê quem visita os dois ou não. Por isso é que tantos sites usem pop-ups pedindo sua autorização para cookies: se não usam cookies de terceiros, não é preciso pedir licença.
Essas empresas coletam dados da sua navegação para refinar um perfil comercializável seu. Num nível mais alto, esses dados são vendidos e cruzados com bases externas, tipo dados vazados do Serasa, histórico comercial e até dados de saúde. É assim que surgem os corretores de dados (data brokers). Eles não têm relação com o seu uso da internet e nem com os sites por onde você passa. São empresas que compilam tudo isso para vender perfis completos, muitas vezes contendo nome, CPF, telefone ou nomes de parentes. Esse mercado alimenta desde a publicidade legítima até golpes e fraudes, seja via publicidade (84% das reclamações sobre anúncios são de anúncios digitais) ou mais diretos. Pessoas que aplicam golpes no WhatsApp, por exemplo, muitas vezes compraram o perfil da vítima, com foto e tudo, num site que fornece isso.
Quem está nesses bancos de dados nem faz ideia que está sendo comercializado como produto. Parte das pessoas que faz ideia disso acaba embarcando na ideia falaciosa de que “todos os nossos dados já são públicos”. É uma falácia: nesses casos mais graves, eles foram roubados ou obtidos mediante falsas premissas.
Ilha de estímulos personalizados
O efeito mais direto é que o conteúdo que aparece para você nas redes sociais não é neutro. As plataformas têm interesse em manter você dentro delas pelo máximo de tempo possível, porque assim podem lhe mostrar mais anúncios. Você verá mais postagens dos amigos com quem interage mais, e não daqueles de quem tem mais saudade. Geralmente, interage mais com quem usa mais a plataforma, posta mais bobagem ou coisas mais engajantes. Se em vez de amigo é um assunto, a plataforma vai jogar os assuntos que fazem você dar mais sinais de que gostou – curtidas, compartilhamentos.
Se você abrir o YouTube num browser recém-instalado, sem se logar, vai ver o retrato do universo paralelo do que mais engaja no Brasil. Depois que a plataforma começa a lhe conhecer, personaliza tudo o que pode para segurar você lá dentro. Quanto mais tempo passa, mais dados ela coleta, mais sedutora fica e mais tempo você continua lá. Esse ciclo é vicioso. Essa lógica vem sendo comparada com à das máquinas caça-níqueis.
O feed infinito é uma dessas táticas. As plataformas mais agressivas também “punem” links. O Facebook, por exemplo, reduz o alcance de postagens com links porque tiram o usuário da plataforma. O Instagram nem permite link clicável em posts comuns. O Twitter, agora X, também passou a privilegiar conteúdo nativo. O objetivo é manter o usuário dentro da bolha, para poder seguir coletando dados e vendendo anúncios. Segundo a autora Shoshanna Zuboff, as plataformas transformam o comportamento do usuário para torná-lo mais previsível e definir melhor o que oferecer. O problema é que isso cria bolhas muito fechadas. É um sistema que transforma cada um de nós numa ilha de estímulos personalizados.
Algoritmos que empurram para abordagens extremas
As plataformas usam a ideia de “transparência” de forma muito elástica. Há a transparência voltada ao consumidor — a opção de ver em quais categorias de anúncios você caiu — mas é difícil de acessar, oculta nas configurações e com linguagem vaga. Já a transparência pública, sobre como as plataformas operam, está sendo sistematicamente desmontada: a API do Twitter, que permitia pesquisar quem falava com quem sobre determinados temas, foi encerrada com a compra pelo Elon Musk em 2022. O fechamento mediante cobrança de um valor abusivo foi o prego no caixão desses estudos, de modo que perdemos a capacidade de monitorar articulações de desinformação e extremismo em tempo real e de embasar demandas de responsabilização.
Ao longo da última década, as redes sociais passaram a dificultar o acesso à informação confiável. As pessoas foram perdendo o hábito de ir diretamente a quem produz notícias, esperando que as plataformas lhes entregassem o que fosse essencial. Além de prejudicar o jornalismo, isso reforçou o mito de que “se for importante vai chegar até mim” — ideia que nasceu por volta de 2012, quando estávamos todos apaixonados pelas redes sociais. Só que o que circula mais nas redes não é o essencial, mas o que for mais clicável e que causa emoções fortes.
Jonah Berger, professor de marketing na Universidade da Pensilvânia (EUA) e autor do livro “Contagious: Why Things Catch On”, mostra isso com clareza em seu estudo. Notícias com maior carga emocional são mais lidas e compartilhadas e têm mais chances de viralizar, especialmente se causam raiva. Essa mobilização permanente tem consequências políticas, sociais e até interpessoais. E, claro, o algoritmo privilegia esse tipo de conteúdo justamente porque engaja. O algoritmo não quer que você se informe; quer que você reaja curtindo, compartilhando, comentando, desde que seja tudo no jardinzinho murado das plataformas. Politicamente, isso acaba desmobilizando e mobilizando de maneira assimétrica.
Zeynep Tufekci, professora de sociologia e relações públicas na Universidade de Princeton (EUA), mostrou no YouTube que esse modelo pode conter uma trilha para o extremismo. Você começa buscando vídeos sobre alimentação saudável e, se for seguindo as indicações da plataforma, ela vai subindo o tom gradualmente até mostrar teorias conspiratórias sobre vacinas. O algoritmo empurra para o conteúdo mais extremo daquele tema porque é o que mais prende atenção. Quanto mais você acata a sugestão do algoritmo, mais o seu comportamento se torna previsível e mais fácil fica alvejá-lo com anúncios. Mesmo que sua própria família deixe de suportá-lo.
Máquinas de encher linguística
A IA já está presente há muito tempo nesses processos, especialmente na forma de aprendizado de máquina (machine learning). Ela analisa no agregado o que foi visto, clicado e ignorado, compara e usa isso para prever o que pessoas com gostos parecidos podem querer ver a seguir. Isso vale para redes sociais, para o Netflix e para qualquer plataforma que recomenda conteúdo. Na pior hipótese, você escolhe outra coisa pra ver na mesma plataforma, o que para eles é mais um sinal importante, ou desliga a TV e vai dormir.
Com a IA generativa, o cenário fica ainda mais complexo. Já tem gente usando esses modelos para produzir conteúdo em escala – vídeos, livros, podcasts –, às vezes com informações falsas. Em 2023, saíram dez “biografias” de Claudia Goldin, vencedora do Prêmio Nobel de Economia, no dia seguinte ao anúncio, algumas delas geradas por IA. Esses modelos simulam uma linguagem muito convincente, despejada na tela com base na probabilidade. Eu brinco que são “máquinas de encher linguística”, que chutam com a autoconfiança de um homem branco de meia-idade em uma mesa de bar. Quem usa a IA gerativa sem checar direito o seu resultado tem uma probabilidade alta de espalhar desinformação pelo mundo. Quem checa direito e corrige o resultado do que gera nas máquinas de encher linguística, por outro lado, corre o risco de perder todo o tempo que ganhou usando o assistente digital. Ou até mais.
Uma das grandes urgências da atualidade é garantir a transparência nas plataformas: obrigá-las a abrir o funcionamento de seus algoritmos à auditoria – para sabermos quem vê o quê, por que vê e quem pagou para aparecer – e liberar os dados das postagens. Como faz o Bluesky ou fez o falecido Twitter, algo que Facebook e Instagram nunca fizeram. Igualmente, é essencial regulamentar influenciadores, cujo poder de vender produtos, ideias e até apostas, como evidenciado na CPI das Bets, atuou sem regulação clara, explorando comercialmente a relação de confiança criada na pandemia de maneira muitas vezes abusiva, o que exige limites. Somente entender essa lógica de funcionamento das redes e legislar com base nela, e não apenas na comunicação tradicional, poderá conter essa escalada de baixaria.
Ao mesmo tempo, há redes sociais com outra dinâmica. O Bluesky, por exemplo, não exibe algoritmos de viralização: quem posta de manhã só alcança quem está online naquele momento, e repostagens são necessárias para aumentar o alcance. Não penaliza links nem privilegia conteúdo polêmico, tornando o ambiente menos tóxico. As ferramentas de automoderação permitem desconectar comentários ofensivos, seguir listas comunitárias e bloquear perfis em massa. O Mastodon tem um protocolo ainda mais aberto do que o Bluesky, e permite maneiras muito mais flexíveis de moderar, mas muitos consideraram uma rede técnica demais e acabou não pegando no Brasil fora de comunidades mais técnicas mesmo.
A esperança existe, mas depende de nós: precisamos entender melhor como essas plataformas funcionam, cobrar transparência, apoiar iniciativas de regulação e buscar ambientes mais saudáveis para o debate público. Tem muita gente boa pesquisando e propondo caminhos – como os pesquisadores Letícia Cesarino (UFSC), Rosana Pinheiro Machado, Francisco Brito Cruz (fundador do InternetLab e hoje independente), Rafael Evangelista (Labjor/Unicamp) e tantas outras vozes críticas e técnicas.
As redes sociais moldam o que vemos, o que pensamos e até como nos comportamos; não dá para deixar esse poder todo nas mãos de empresas que podem ser compradas ou implodir os mecanismos de proteção dos usuários. Precisamos pensar coletivamente em como queremos nos informar, nos comunicar e construir nossa visão de mundo, tentando cortar gradualmente a dependência de cada “big tech” e buscar alternativas. Essas alternativas existem, mas são péssimas vendedoras de si próprias.
Mais importante ainda seria desplugar com mais frequência os laços sociais, conversar olho no olho sem obrigação de viralizar e sem ser assediado por anúncios. A vida offline é o que dá sentido a qualquer coisa que ocorra na tela.
Clique aqui e leia a edição completa da Revista FCW Cultura Cientifica sobre redes sociais.