Ad image

Após STF responsabilizar plataformas, o que muda com a nova interpretação do Marco Civil da Internet

8 Leitura mínima
Após STF responsabilizar plataformas, o que muda com a nova interpretação do Marco Civil da Internet

O Supremo Tribunal Federal (STF) deu um passo importante diante da inércia legislativa. Não é de hoje que os especialistas alertam para os efeitos deletérios da massificação de conteúdos inautênticos coordenados nas plataformas digitais e para o papel que a própria arquitetura, infraestrutura e algoritmos destas plataformas tem no agravamento do problema.

Nesse sentido, a decisão do Supremo Tribunal Federal (STF) de 26 de junho de 2025 marca um divisor de águas na regulação das plataformas digitais no Brasil. Pela primeira vez, as empresas provedoras de aplicações de internet — como redes sociais e serviços de mensagens — poderão ser responsabilizadas civilmente por danos causados por conteúdos gerados por usuários, inclusive sem ordem judicial prévia, em situações específicas.

Com isso, o Brasil se alinha a democracias como Alemanha, Austrália, Reino Unido e à própria União Europeia, que vêm enfrentando o desafio regulatório imposto pelas chamadas Big Techs. Essas empresas, por muito tempo, operaram como se estivessem acima das leis nacionais, alegando neutralidade tecnológica enquanto lucravam com conteúdos potencialmente nocivos, como desinformação, discurso de ódio e incitação à violência.

A decisão do STF não resolve todos os problemas, mas representa uma resposta institucional firme em um cenário de omissão legislativa. Riscos como o de overblocking, ou seja, quando as Plataformas realizam bloqueios excessivos para evitar problemas futuros, ou a autocensura por parte dos usuários por temor a serem sancionados, podem ser eventuais efeitos colaterais.

Para resolver essas e outras questões, seria fundamental o Legislativo aprovar um marco legal robusto para as plataformas digitais. Porém, mesmo após anos de debates, como no caso do PL 2630, nada foi feito. Nesse sentido, cabe destacar a determinação final do STF sobre o tema: “Apela-se ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”. A pressão de grandes empresas de tecnologia tem sido apontada como um dos principais fatores para essa paralisia legislativa.

Liberdade de expressão não é impunidade

Ao reformular a interpretação do Artigo 19 do Marco Civil da Internet, o Supremo buscou equilibrar dois princípios constitucionais fundamentais: a liberdade de expressão e a proteção de direitos fundamentais. A Corte rejeitou uma visão distorcida da liberdade, frequentemente utilizada por grupos extremistas como escudo para disseminar conteúdo ilegal ou antidemocrático.

Inspirando-se em legislações internacionais como o Digital Services Act – DAS (Ato de Serviços Digitais) da União Europeia, os ministros adotaram, possivelmente como mais inovadoras e melhores soluções os conceitos de “dever de cuidado” e “risco sistêmico”. Ou seja, em caso de circulação massiva de conteúdos ilícitos graves, a plataforma será responsabilizada quando não promover a indisponibilização imediata de conteúdos que configurem as práticas desses crime.

A decisão reconhece que as plataformas têm um papel ativo na moderação de conteúdos e que sua omissão pode resultar em danos coletivos, especialmente quando se trata de redes coordenadas de desinformação.

Além disso, a decisão afirma que liberdade exige responsabilidade. Em um ambiente digital marcado por discursos polarizados e conteúdos manipuladores, relativizar fatos e tratar mentiras deliberadas como meras “opiniões” é um risco não só para o debate público, mas para a democracia em si.

O que muda na prática

A decisão do STF traz inovações importantes. Institui a responsabilidade prévia das plataformas, sem ordem judicial, em casos envolvendo: a) contas inautênticas; b) conteúdos impulsionados (patrocinados); c) redes automatizadas de disseminação (bots, robôs). Por outro lado, obriga a remoção imediata de conteúdos relacionados a: a) ataques à democracia; b) terrorismo; c) incitação ao suicídio ou automutilação; d) discursos de ódio (por raça, religião, etnia, sexualidade, identidade de gênero); e) crimes sexuais contra vulneráveis e pornografia infantil; f) tráfico de pessoas.

O Supremo também determina: a) remoção automática de conteúdos idênticos a outros já removidos por decisão judicial, dispensando nova provocação; b) exclusão de responsabilidade quando a plataforma comprovar que agiu de forma diligente e em tempo razoável. A exceção ficou por conta dos crimes contra a honra (calúnia, injúria, difamação), que continuam exigindo ordem judicial prévia para sua remoção, mas podem ser removidos extrajudicialmente por decisão da plataforma em casos evidentes. As plataformas também passam a ter obrigações estruturais, como a criação de canais acessíveis de denúncia, relatórios de transparência e representação legal no país.

O Tribunal prevê, ainda, a necessidade das plataformas promoverem sua autorregulação, incorporando sistemas de notificações; relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos; canais de atendimento aos usuários de fácil acesso; d) constituição e manutenção de sede e representante no país.

A dúvida, não explicitada pelo Supremo, é quanto à indicação dos responsáveis por fiscalizar o cumprimento destas determinações por parte das Plataformas.

O próximo passo: literácia digital e fortalecimento institucional

A decisão do STF reconfigura a posição do Brasil no cenário internacional da regulação digital. Já reconhecido pelo protagonismo do Tribunal Superior Eleitoral (TSE) no enfrentamento à desinformação eleitoral ou de seu uso ao longo da tentativa de golpe de Estado de 08 de janeiro de 2023, o país agora avança também em direção a uma arquitetura regulatória mais robusta, especialmente com a esta atualização do Marco Civil da Internet e sua articulação com a Lei Geral de Proteção de Dados (LGPD).

Contudo, a judicialização da regulação de plataformas revela um desequilíbrio institucional preocupante. O Judiciário não deveria ocupar sozinho esse espaço. A ausência de uma legislação clara e democrática limita a previsibilidade jurídica e enfraquece o debate público sobre os limites e deveres das plataformas digitais.

Se a decisão do STF representa um avanço, o próximo desafio está na educação digital da sociedade. Promover literacia digital significa equipar cidadãos com as ferramentas necessárias para compreender, criticar e se proteger dos fluxos massivos de desinformação. Isso inclui políticas públicas de educação, apoio à pesquisa independente e regulação transparente.

O combate à desinformação exige múltiplas frentes: técnica, política, institucional e cultural. O STF deu um passo importante. Agora, cabe ao Congresso legislar com responsabilidade, ao Executivo implementar políticas públicas eficazes e à sociedade civil continuar vigilante.

Compartilhe este artigo
Sair da versão mobile