Ad image

ECA Digital: ‘Temos até março de 2026 para garantir uma internet que acolha e não explore nossas crianças’

11 Min Read
ECA Digital: ‘Temos até março de 2026 para garantir uma internet que acolha e não explore nossas crianças’

Quem cria uma conta em rede social logo clica em um botão que diz “eu confirmo ter mais de 13 anos de idade”. Isso é o que está nos termos de uso da maioria das plataformas. Mas a realidade é outra: crianças estão nessas redes, e não são poucas.

Segundo a pesquisa TIC Kids Online, 83% dos brasileiros com acesso à internet entre 9 e 17 anos têm perfil em ao menos uma plataforma, e entre 9 e 10 anos, 60% já participam ativamente desses ambientes. Isso significa que boa parte da infância brasileira convive em espaços digitais que priorizam o engajamento, não o bem-estar.

É nesse contexto que o ECA Digital (Lei 15.211/2025), sancionado em 17 de setembro de 2025 a partir do PL 2628/2022, inaugura um novo capítulo da proteção integral.

A lei reconhece o ambiente digital como parte da vida cotidiana de crianças e adolescentes e determina que, até março de 2026, o Brasil deve adequar mecanismos de verificação etária, privacidade e segurança.

Diante da contagem regressiva e da centralidade do tema, o debate sobre o ECA Digital exige mais do que soluções meramente técnicas: precisa de articulação entre academia, sociedade civil, especialistas e poder público. O desafio não é apenas implementar sistemas de verificação etária, mas definir que tipo de sociedade queremos construir no processo. Afinal, não estamos diante de um problema apenas de código, e sim de um dilema ético e democrático: como proteger sem vigiar? Como garantir direitos sem criar novos riscos?

O modelo de autodeclaração falhou

Durante anos, as plataformas pediram que os próprios usuários informassem sua idade. Esse sistema de autodeclaração foi apresentado como equilibrado e leve, mas nunca foi eficaz. No levantamento oficial da eSafety australiana, com oito serviços digitais, constatou-se que 80% das crianças de 8 a 12 anos utilizaram redes sociais em 2024, mesmo com a idade mínima geralmente fixada em 13 anos. Apenas 10% das que tinham conta relataram ter tido o perfil derrubado por idade entre janeiro e setembro de 2024, revelando a baixa efetividade dos mecanismos de controle atualmente aplicados. No Reino Unido, estudos que embasaram a lei do Online Safety Act mostraram que a maioria das crianças ignora essas restrições e navega livremente. A própria Ofcom, autoridade britânica, concluiu que autodeclarar idade não é verificação, mas ficção regulatória.

Como apresentado inicialmente, o cenário é muito similar no Brasil. O acesso precoce às redes expõe meninas e meninos a publicidade direcionada, desinformação e conteúdos inadequados. As plataformas, por sua vez, seguem se apoiando em critérios opacos de detecção de idade, baseados em linguagem ou comportamento, sem transparência ou controle público. A consequência é uma infância hiperexposta e desassistida.

É nesse contexto que o ECA Digital apresenta, dentre outros elementos, a exigência de métodos “altamente efetivos” para verificação etária no ambiente digital. Ele reconhece que a proteção da infância online deve ser política pública e não promessa privada. É o fim da ideia de que a tecnologia pode se autorregular sozinha.

Verificar idade não é vigiar identidade

Um ponto central do debate é distinguir a verificação etária de verificação de identidade. A primeira busca apenas saber se a pessoa é criança, adolescente ou adulta. A segunda revela quem ela é, com potencial de vigilância e exclusão. Quando o Estado ou as plataformas confundem essas duas coisas, abrem caminho para modelos perigosos de coleta de dados, como reconhecimento facial, CPF obrigatório ou exigência de documentos em cada site acessado.

Além do modelo de autodeclaração que já se provou falho, também temos experiências internacionais que mostram os riscos de apostar em soluções simplistas ou desproporcionais. Um exemplo é o uso de cartão de crédito como “prova de maioridade”, prática que falha especialmente no contexto do Brasil, uma vez que cerca de 60% dos brasileiros de baixa renda não possuem cartão de crédito, o que tornaria o acesso à internet desigual e discriminatório.

Sem contar que uma criança poderia pegar o cartão de crédito dos pais e utilizar secretamente para acessar sites inadequados. Além disso, esse método abre brechas para fraudes, phishing e coleta desnecessária de dados financeiros, transferindo o problema da proteção infantil para o setor bancário.

Outro equívoco seria exigir o upload de documentos de identidade em cada site acessado. Tal prática cria bases privadas de dados biográficos, suscetíveis a vazamentos e a usos indevidos, além de excluir milhões de jovens sem documentação formal. O próprio conceito de “provar ser adulto” só faz sentido em serviços 18+, e não como regra geral da internet.

Também se mostram problemáticas as propostas que recorrem à biometria facial, seja para identificar a pessoa, seja para estimar sua idade. A coleta de dados biométricos é altamente sensível, podendo gerar exclusões e vieses, especialmente contra pessoas com deficiência, tons de pele diversos ou expressões atípicas. Mesmo a estimação facial de idade, quando não vinculada à identidade, apresenta margens de erro significativas nos limiares de 12/13 e 17/18 anos, justamente as faixas mais críticas, e pode ser facilmente burlada por imagens geradas por inteligência artificial.

Outros métodos que parecem inovadores também apresentam limitações graves. A verificação comportamental, baseada em padrões de escrita, horários de acesso e redes de contato, é intrusiva por definição, pois depende do monitoramento extensivo das atividades do usuário. Já os testes de capacidade ou “maturidade” confundem idade com escolaridade, podendo excluir crianças com deficiência ou contexto educacional precário, ao mesmo tempo em que podem ser facilmente vencidos por quem for treinado.

Além disso, propostas como atrelar a verificação ao chip do celular ignoram a realidade brasileira de compartilhamento familiar de aparelhos, onde crianças muitas vezes usam o telefone dos pais, o qual poderia já estar desbloqueado para acesso de conteúdos inadequados. Esses exemplos reforçam que o desafio não é escolher uma ferramenta milagrosa, mas construir um modelo plural, proporcional ao risco e centrado na privacidade da criança, não na conveniência das plataformas.

É nesse sentido que outros países oferecem caminhos melhores. A França e a União Europeia como um todo apostam na ideia de “dupla confidencialidade”: o site não sabe quem é o usuário, e o verificador não sabe qual site ele visita. Essa arquitetura protege a privacidade e ainda permite a fiscalização. Há também os certificados efêmeros, chaves digitais descartáveis que apenas confirmam atributos, como “maior de 18”, sem armazenar dados sensíveis.

Essas experiências mostram que a proteção pode conviver com a liberdade. O Instituto Alana referência na defesa dos direitos da infância no ambiente digital, tem enfatizado que a tecnologia precisa se moldar ao interesse da criança, não o contrário. Isso significa que soluções técnicas devem ser pensadas sob a lente do cuidado, da inclusão e da equidade, evitando criar uma internet de acesso condicionado à documentação, ao consumo ou à biometria.

Proteger sem excluir, incluir sem explorar

O ECA Digital representa uma oportunidade histórica para o Brasil afirmar um novo pacto entre tecnologia e infância. Se bem regulamentado, poderá avançar no debate do ambiente digital com mais segurança, autonomia e dignidade. Se for conduzido de forma apressada ou capturada por interesses privados, corre o risco de se tornar o oposto do que pretende: um instrumento de vigilância, exclusão e desigualdade. A diferença entre esses caminhos dependerá da nossa capacidade de tratar o tema não como um ajuste técnico, mas como um compromisso civilizatório.

Além disso, é importante ressaltar que a verificação etária é apenas uma peça desse mosaico. De nada adianta restringir o acesso se as plataformas continuarem promovendo desinformação, ódio, hipersexualização ou exploração comercial da infância. As Big Techs precisam assumir responsabilidades proporcionais ao poder que detêm, revendo seus sistemas de moderação, transparência e design algorítmico. Proteger crianças não é vigiar suas telas, mas transformar o próprio modelo de negócio que lucra com a vulnerabilidade.

A infância não pode ser um dado a ser explorado, mas um direito a ser protegido. Garantir esse direito significa construir ambientes digitais que acolham, eduquem e inspirem, em vez de manipular e excluir. A pergunta que se impõe, diante do prazo de 17 de março de 2026, é direta e inevitável: teremos coragem de fomentar uma internet que cuide das crianças, cobrando mais responsabilidade das Big Techs e transparência na moderação de conteúdo e verificação etária, ou continuaremos permitindo que as crianças cresçam sob a lógica das plataformas que as exploram?

Share This Article
Sair da versão mobile