Nesse mês, o Supremo Tribunal Federal (STF) do Brasil escreve um capítulo decisivo na história da regulação da internet no país. Em pauta está o julgamento da constitucionalidade do Artigo 19 do Marco Civil da Internet, uma norma de 2014 que, por quase uma década, blindou as plataformas digitais de responsabilidade civil pelo conteúdo que hospedam, exceto em casos de descumprimento de ordem judicial. O debate, no entanto, já não cabe mais na internet de 2025. Estamos diante de uma estrutura digital completamente diferente daquela em que o Marco Civil nasceu, e o STF, com atraso, mas com firmeza, finalmente enfrenta esse dilema.
O Artigo 19 estabelece que plataformas só podem ser responsabilizadas por danos decorrentes de conteúdo de terceiros caso ignorem uma decisão judicial de remoção. À primeira vista, parece uma defesa prudente da liberdade de expressão, protegendo tanto o debate público quanto as empresas de se tornarem censoras preventivas. Mas, na prática, o dispositivo criou uma espécie de imunidade operacional para gigantes como Google, Meta, X (antigo Twitter), TikTok e outras.
Plataformas lucram com a desinformação
O problema central é o intervalo entre a publicação de um conteúdo ilegal e uma eventual ordem judicial determinando sua remoção. Nesse intervalo, que pode durar dias, semanas ou até meses, o estrago já foi feito: discursos de ódio viralizam, campanhas de desinformação ganham tração, golpes financeiros se espalham, ataques à democracia encontram terreno fértil. E as plataformas, paradoxalmente, lucram com esse caos.
Aqui reside o cerne da crise: o modelo de negócios das Big Techs está intrinsecamente atrelado ao engajamento. E nada engaja tanto quanto o conteúdo polarizador, sensacionalista e tóxico. O design algorítmico dessas plataformas não é neutro; ele favorece a comoção, a indignação e o conflito. Quanto mais tempo o usuário permanece na plataforma, revoltado, ansioso, com medo ou indignado, mais anúncios são exibidos, mais dados são coletados e mais receita é gerada. Ódio, portanto, virou um ativo financeiro.
Não são apenas discursos problemáticos. Práticas criminosas prosperam nesse vácuo regulatório. Levantamentos recentes do Wall Street Journal e do Tech Transparency Project expuseram centenas de anúncios promovendo drogas ilegais no Facebook e Instagram. No Brasil, plataformas digitais são terreno fértil para o crescimento exponencial de fraudes financeiras, apostas ilegais, como o famigerado “Jogo do Tigrinho”, e esquemas de pirâmide. Mesmo diante de denúncias reiteradas, as empresas frequentemente se esquivam de responsabilidade, escudadas no Artigo 19.
Plataformas devem ser tratadas como atores com responsabilidade proporcional ao poder que exercem
As Big Techs gostam de sustentar o discurso da neutralidade: seriam apenas “palcos” onde terceiros se expressam. Mas como bem destacou o ministro Gilmar Mendes em seu voto, essa retórica já não se sustenta. As plataformas não são mais meros intermediários passivos. Elas organizam, promovem, recomendam e impulsionam conteúdos com base em interesses comerciais. São curadoras algorítmicas de nossas experiências informacionais e, por isso, devem ser tratadas como atores com responsabilidade proporcional ao poder que exercem.
É justamente esse paradigma que o STF está tentando revisitar. O relator Dias Toffoli propôs uma responsabilização objetiva para determinados conteúdos gravemente ilícitos, como apologia a crimes, tráfico de pessoas e pornografia infantil. Luiz Fux defendeu que, mediante notificação extrajudicial, as plataformas devem agir prontamente para remover conteúdos ilícitos evidentes. Luís Roberto Barroso apresentou um modelo híbrido: mantém a exigência de decisão judicial para crimes contra a honra, mas admite a remoção via notificação em ilícitos manifestos e impõe às plataformas um “dever de cuidado” diante de riscos sistêmicos.
O ministro Alexandre de Moraes, em voto contundente, foi direto ao ponto: as Big Techs “tudo podem e nada respondem”. Ele propôs responsabilização ampla, sobretudo quando há impulsionamento pago, uso de robôs, discurso de ódio e conteúdos antidemocráticos. Moraes ainda argumentou que plataformas com mais de 45 milhões de usuários devem monitorar e mitigar riscos sistêmicos à democracia. Já o ministro Flávio Dino resumiu a essência do dilema: “Liberdade sem responsabilidade é tirania”.
O temor legítimo de silenciamento de vozes dissidentes não pode ser ignorado
É importante ressaltar que a flexibilização do Artigo 19 não é um ataque à liberdade de expressão, como insistem as próprias plataformas em sua campanha de desinformação preventiva. O objetivo central não é criar uma censura prévia e arbitrária, mas sim estabelecer um regime de responsabilidade proporcional. Como lembrou Gilmar Mendes, as plataformas já exercem controle editorial diariamente, com regras opacas, remoções unilaterais e moderação seletiva. O que falta é submeter esse poder privado a princípios democráticos de transparência e accountability.
O temor legítimo de remoções excessivas e silenciamento de vozes dissidentes não pode ser ignorado. É, de fato, um risco regulatório real, especialmente em contextos políticos autoritários. Muito se teme que a flexibilização do Artigo 19 leve à censura prévia pelas plataformas. No entanto, essa censura já existe, ainda que de forma opaca. As próprias plataformas já decidem, por meio de algoritmos e critérios internos pouco transparentes, quais conteúdos serão promovidos ou suprimidos, e para quais públicos.
Em outras palavras, elas já exercem um poder editorial significativo, só que sem qualquer controle democrático ou transparência. Assim, o caminho não é manter as plataformas acima da lei, e sim construir um modelo equilibrado, com salvaguardas claras, instâncias de recurso e regulação pública efetiva. Como diversos ministros reconheceram, crimes contra a honra, como calúnia e difamação, devem continuar dependendo de ordem judicial. Mas não podemos aplicar a mesma lógica a crimes como incitação à violência, exploração infantil ou campanhas golpistas.
O julgamento do STF ocorre num vácuo legislativo revelador. O Congresso Nacional, capturado por interesses econômicos e por bancadas conservadoras hostis à regulação digital, deixou morrer projetos fundamentais como o PL 2630, conhecido como o PL das Fake News. A omissão parlamentar forçou o Judiciário a assumir protagonismo nesse campo, gerando inevitáveis tensões institucionais. Mas em face da paralisia legislativa, é o Supremo quem tenta, ainda que tardiamente, adaptar o marco jurídico às complexidades da internet contemporânea.
O Artigo 19 do Marco Civil da Internet foi, em parte, inspirado na Seção 230 do Communications Decency Act dos Estados Unidos. Ambas compartilham o princípio central de limitar a responsabilidade das plataformas pelo conteúdo gerado por terceiros, partindo da ideia de que as empresas não devem ser tratadas como editoras do que os usuários publicam. A Seção 230 estabelece expressamente que “nenhum provedor ou usuário de um serviço interativo de computador será tratado como o editor ou autor de qualquer informação fornecida por outro provedor de conteúdo”, criando uma ampla imunidade judicial para as plataformas.
A principal diferença, contudo, está no fato de que o Artigo 19 brasileiro já prevê uma exceção: ele admite a responsabilização das plataformas caso estas descumpram uma ordem judicial de remoção. Ou seja, enquanto a Seção 230 oferece uma blindagem praticamente absoluta, o Artigo 19, desde sua origem, condiciona a proteção à atuação diligente da plataforma após intervenção judicial. Mas mesmo nos Estados Unidos, o modelo vem sendo crescentemente questionado, inclusive na Suprema Corte. Caso o STF consolide uma jurisprudência mais restritiva à imunidade das plataformas, o Brasil pode exercer um papel de vanguarda regulatória na América Latina, gerando um possível efeito dominó regional.
Como era de se esperar, as Big Techs acompanham o julgamento com enorme apreensão, como aponta Natália Viana em sua coluna na Agência Pública. Executivos já fazem pressão pública e privada, alertando para supostos riscos de censura e dificuldades técnicas. O Google, por exemplo, em off para a imprensa, chegou a afirmar que “definir o que é ofensivo é muito difícil” e que “transformaria as plataformas em censoras”, ignorando o fato de que já exercem esse poder discricionário diariamente, só que em função de seus próprios interesses comerciais.
A realidade é que a arquitetura do espaço público digital já está nas mãos dessas corporações. Elas decidem, hoje, quais vozes ganham alcance, quais desaparecem, quais conteúdos viralizam e quais são enterrados pelo algoritmo. Submeter esse poder à regulação pública não é criar censura, é democratizar o próprio exercício da liberdade de expressão. Não é o Estado querendo virar moderador de conteúdo, é o Estado exigindo que as plataformas não se beneficiem da destruição dos direitos fundamentais em nome do lucro.
Ao julgar o Artigo 19, o STF não apenas redefine a responsabilidade das plataformas digitais no Brasil. Ele enfrenta uma questão mais profunda: quem governa o espaço público informacional? As democracias precisam urgentemente retomar o controle sobre essas infraestruturas essenciais. Porque, no fim, liberdade de expressão e responsabilidade não são antagônicas. São indissociáveis.