Um levantamento divulgado nesta quinta-feira (18) revela que 84% dos serviços digitais mais acessados por crianças no Brasil não realizam verificação de idade no momento da criação da conta. O percentual corresponde a 21 das 25 plataformas avaliadas no estudo “Práticas de aferição de idade em 25 serviços digitais usados por crianças no Brasil”, elaborado em 2025.

A pesquisa foi conduzida pelo Comitê Gestor da Internet no Brasil (CGI.br) em parceria com o Núcleo de Informação e Coordenação do Ponto BR (NIC.br) e foi apresentada em versão preliminar durante um seminário sobre proteção de crianças e adolescentes no ambiente digital, em Brasília.

Contexto legal

O levantamento mapeia uma situação anterior à vigência do chamado ECA Digital, que passou a valer no país na terça-feira (17) e estabelece novas exigências para a proteção de menores na internet. A nova norma proíbe que plataformas aceitem apenas a autodeclaração de idade, obrigando provedores a adotar mecanismos efetivos de verificação e a garantir supervisão parental quando necessário.

O que o estudo encontrou

Segundo o relatório preliminar, a ausência de checagem de idade no momento do cadastro é comum mesmo em serviços amplamente utilizados por crianças e adolescentes, como redes sociais, aplicativos de mensagens, jogos online e ferramentas de inteligência artificial. Entre os exemplos citados estão YouTube Kids, WhatsApp, ChatGPT e Gemini.

Na maioria das plataformas a verificação só ocorre posteriormente, quando o usuário tenta acessar recursos específicos — por exemplo, transmissões ao vivo ou ferramentas de monetização.

Métodos de verificação e lacunas

Onze das 25 plataformas recorrem a empresas terceirizadas para checar a idade em algum ponto da navegação. Os métodos mais relatados pelo estudo incluem o envio de documento oficial (13 plataformas), o uso de selfies em foto ou vídeo para estimativa etária (12 plataformas) e a utilização de cartão de crédito, e-mail ou consentimento parental.

Os autores descrevem o sistema atual como reativo e fragmentado, com práticas que variam conforme o modelo de negócio de cada serviço.

Idades mínimas, controles parentais e transparência

A análise também aponta inconsistências entre as idades mínimas informadas pelas próprias plataformas e as constantes nas lojas de aplicativos. Redes sociais como Facebook, Instagram, X, YouTube e Discord indicam 13 anos como idade mínima, mas permitem criação de conta por autodeclaração. Jogos como Minecraft e Fortnite listam 13 anos, enquanto Roblox e alguns serviços da PlayStation constam com 18 anos em determinadas modalidades.

Apenas sites de apostas exigem verificação rigorosa já no cadastro, normalmente com apoio de empresas especializadas. Embora 60% das plataformas ofereçam ferramentas de controle parental (15 serviços), em 14 desses 15 recursos não vêm ativados por padrão, exigindo ação dos responsáveis. Em termos de transparência, só seis das 25 plataformas publicaram relatórios com dados sobre o Brasil, e apenas uma divulgou informações específicas sobre a aplicação de políticas de idade mínima.

Sanções e exclusão de dados

Quando as regras de idade são descumpridas, a medida mais comum é a suspensão da conta, adotada por 17 das 25 plataformas. A exclusão definitiva dos dados do usuário não é prática corrente: apenas três empresas relataram adotar esse procedimento.

O Comitê Gestor da Internet no Brasil informou que irá divulgar em breve a versão completa do estudo, com uma análise mais aprofundada sobre as práticas de verificação etária e os desafios de implementação das novas regras previstas no ECA Digital.

Com informações de Jornaldaparaiba