Há poucos dias, em 26 de junho, o Supremo Tribunal Federal (STF) julgou parcialmente inconstitucional o Artigo 19 do Marco Civil da Internet, permitindo a responsabilização civil de plataformas por conteúdos ilícitos postados por usuários, como discursos de ódio, racismo, pornografia infantil e ataques à democracia com base em notificaçôes extrajudiciais pelas vítimas. A decisão introduz o dever de cuidado das plataformas, cabendo a elas agir proativamente para impedir a circulação de conteúdos evidentemente ilegais. Nos casos de crimes contra a honra, como calúnia e difamação, permanece a exigência de ordem judicial.
Segundo o presidente do Supremo, Luís Roberto Barroso, há três modelos principais de responsabilidade das plataformas: o americano (imunidade ampla), o europeu (responsabilização após notificação privada) e o antigo modelo brasileiro (responsabilização após ordem judicial). A decisão do STF institui um meio termo entre os dois últimos.
O novo entendimento rompe com a neutralidade algorítmica presumida e inaugura uma fase de responsabilização ativa das plataformas, com implicações significativas para o pacto digital brasileiro.
Da neutralidade à curadoria algorítmica
Quando o Marco Civil foi sancionado, em 2014, prevalecia o ideal de uma internet aberta, descentralizada e participativa, protegida pela neutralidade de rede, princípio que impedia operadoras de telecomunicações de discriminarem pacotes de dados. Esse modelo atingiu a maturidade e saturou-se.
Com a ascensão da mineração de dados, da economia da atenção e da centralização das plataformas, emergiu um novo regime em que algoritmos de recomendação e vigilância passaram a organizar o espaço informacional por meio de uma curadoria opaca, rompendo com os ideais da web 2.0.
No novo cenário, o que era neutralidade converteu-se em curadoria algorítmica, guiada por interesses econômicos e políticos. Um exemplo emblemático foi o vídeo do deputado Nikolas Ferreira (PL), que superou 300 milhões de visualizações em poucos dias, mais do que a população brasileira, sinalizando uma amplificação artificial. O STF reconhece que os algoritmos têm agência política, moldando o debate público, e tornando a neutralidade, nesse contexto, um mito legitimador da irresponsabilidade corporativa.
As plataformas deixaram de ser infraestruturas técnicas para se tornarem atores políticos globais, com capacidade de interferir em eleições e definir o que se torna visível. Seu modelo de negócios, centrado na economia da atenção, favorece o sensacionalismo e a desinformação. O resultado é uma nova sociedade do risco informacional, nos termos de Ulrich Beck, um cenário em que decisões com impacto coletivo são tomadas por corporações privadas, fora dos canais democráticos tradicionais. Beck chamou isso de subpolítica, marcada pela ausência de controle público efetivo sobre poderes opacos, transnacionais e não eleitos.
A decisão do STF deve ser entendida como um gesto de contenção institucional frente a esse poder. Ao reconhecer o dever de cuidado, a responsabilidade por impulsionamento pago e a falácia da autorregulação, o tribunal busca reequilibrar a tensão entre viralização privada e valores públicos. Como afirmou Barroso, trata-se de preservar a liberdade de expressão “sem permitir que o mundo desabe num abismo de incivilidade”.
Essa transição não é apenas tecnológica, mas também sociológica e institucional. A neutralidade precisa ser reformulada à luz de novos arranjos tecnopolíticos que governam a mediação da informação no século XXI.
Como funcionará na prática
A nova interpretação do STF estabelece um fluxo mais direto de responsabilização: o usuário ou a vítima pode denunciar um conteúdo ilícito via notificação extrajudicial, utilizando canais que as plataformas devem manter acessíveis e amplamente divulgados. A partir dessa notificação, cabe à plataforma avaliar eagir com diligência, removendo conteúdos que violem os direitos listados. Em casos especialmente graves, como terrorismo, crimes contra crianças, mulheres ou atos antidemocráticos, a obrigação é preventiva: as plataformas devem evitar a publicação desses conteúdos, sob pena de responder por falha sistêmica. Já nos crimes contra a honra, a responsabilização continua exigindo ordem judicial, embora as empresas possam remover conteúdos mediante notificação.
A fiscalização desse sistema é híbrida, cabe às plataformas implementar mecanismos internos de moderação, transparência e recurso, mas o Judiciário permanece como instância de controle. Se a plataforma omitir-se diante da denúncia, poderá ser responsabilizada civilmente; se remover indevidamente, o autor pode recorrer à Justiça para restaurar o conteúdo. Além disso, todas as plataformas que operam no Brasil devem manter sede e representante legal no país, com poderes para cumprir decisões judiciais e prestar informações às autoridades. Trata-se de um novo modelo de corresponsabilidade, que combina denúncia individual, ação privada e controle público.
Ambiguidades jurídicas e riscos regulatórios
Apesar de necessária, a decisão traz ambiguidades jurídicas. Essas distintas modalidades de responsabilidade podem gerar insegurança jurídica, dificultando a previsibilidade e estimulando judicialização por má fé.
Outro ponto crítico é a generalidade do conceito jurídico de “plataforma digital” adotado pelo STF, aplicado indistintamente a grandes corporações como Google e Meta e a pequenos fóruns ou marketplaces, ignorando as desigualdades de escala, poder e impacto. Além disso, a decisão se projeta sobre tecnologias emergentes, como inteligência artificial generativa e chatbots, sem oferecer diretrizes sobre moderação de conteúdos automatizados, num campo em que autoria, intenção e causalidade são difusas, desafiando os marcos tradicionais da responsabilidade subjetiva.
Embora as Big Techs aleguem que o novo modelo aumente os custos de moderação, o verdadeiro impacto para elas está na perda de um regime de autorregulação praticamente impune, no qual conteúdos tóxicos geram lucro por engajamento, enquanto o ônus da contenção recai sobre vítimas e organizações civis que precisam entrar com representação jurídica. Agora, parte dessa responsabilidade e custos recaem sobre as plataformas. A efetividade da decisão, no entanto, dependerá de leis específicas, diferenciação regulatória e instrumentos institucionais para garantir sua aplicação.
Omissão legislativa, lobbies e o futuro da regulação
A decisão do STF surge como resposta à paralisia legislativa. Apesar das transformações ocorridas, o Congresso interrompeu a atualização do marco regulatório das plataformas e o PL 2630/2020 segue estagnado por disputas ideológicas e pelo lobby das Big Techs, que se escudam na liberdade de expressão para preservar modelos de negócio socialmente prejudiciais. Diante desse vácuo normativo, o STF exerceu sua função constitucional ao estabelecer um marco provisório e convocar o Legislativo à ação regulatória.
Essa atuação, embora legítima, carrega o risco de consolidar uma governança fragmentada, baseada em precedentes judiciais, e não em arcabouço participativo. A consolidação do novo pacto digital dependerá da resposta do Congresso que poderá consolidar os princípios da decisão ou ceder às pressões das Big Techs. O que está em disputa não é apenas um artigo de lei, mas a arquitetura institucional do espaço público digital no Brasil.