Rápida transformação dos ambientes digitais desafia os parâmetros atuais de proteção, demonstrando a necessária atualização normativa
A denúncia feita por Felca contra Hytalo Santos trouxe urgência a um tema sensível que, infelizmente, não se trata de um caso isolado: os riscos que crianças e adolescentes enfrentam em ambientes digitais. Episódios como esse são mais frequentes do que pensamos: a diferença está se o algoritmo entrega a você (ou não) o conteúdo! Os sintomas da “adultização” são parte de problema mais amplo — a ausência de mecanismos regulatórios eficazes para limitar a exposição de menores a conteúdos nocivos e interações abusivas em plataformas online.
A Constituição Federal, no artigo 227, estabelece ser dever da família, da sociedade e do Estado assegurar, com absoluta prioridade, os direitos de crianças e adolescentes, protegendo-os de toda forma de negligência, violência e exploração. O Estatuto da Criança e do Adolescente (ECA) consolida esse dever, adotando a doutrina da proteção integral e o princípio do melhor interesse da criança como fundamentos jurídicos.
No entanto, a rápida transformação dos ambientes digitais desafia os parâmetros atuais de proteção, demonstrando a necessária atualização normativa, adequada à realidade social atual. No Brasil, crianças e adolescentes são parte significativa dos usuários das plataformas e é nesse contexto que surge o Projeto de Lei (PL) 2.628/2022, aprovado na Câmara dos Deputados, na quarta-feira, 21 de agosto de 2025. O próximo passo é o projeto ser votado no Senado.
Leia mais: “Estamos seguros na internet? Panorama da estratégia brasileira de cibersegurança”
O projeto propõe regras sobre moderação de conteúdo, verificação de idade e educação digital voltadas às necessidades de proteção da infância e adolescência, estabelecendo parâmetros claros para a tutela dos menores de idade em plataformas digitais. Tratam-se de medidas que, se bem implementadas, podem funcionar como instrumentos essenciais de proteção.
Plataformas digitais ainda carecem de mecanismos adequados de vigilância e controle, nesse sentido, cabe destacar os riscos atrelados às crianças e adolescentes. A ausência de verificação etária e de sistemas eficazes de moderação de conteúdo transformam não só as redes sociais, mas também aplicativos de mensagens e chats de jogos online, em espaços onde pessoas mal intencionadas facilmente se aproximar de menores e disseminar violência sexual, pornografia ou induzir comportamentos autodestrutivos.
Casos recentes confirmam os perigos da ausência desses mecanismos:
Esses exemplos deixam claro que a omissão das plataformas e a ausência de regulação não são neutras: elas produzem danos concretos e recorrentes.
O PL 2.628/2022 surge como uma oportunidade de inovação na proteção digital. Mais do que regras jurídicas, o projeto propõe uma mudança de paradigma: verificação efetiva da idade do usuário, aplicação de filtros preventivos e exigência de transparência sobre algoritmos das plataformas.
Se aprovado no Senado e sancionado pelo poder executivo, a efetividade do projeto de lei dependerá da responsabilização clara das plataformas e da exigência de mecanismos técnicos robustos, como filtros preventivos e sistemas de monitoramento contínuo. Sem isso, há risco de que os dispositivos normativos fiquem restritos ao plano formal, sem oferecer proteção real às crianças e adolescentes.
Tal questão vai além da falta de fiscalização: trata-se do próprio design de plataforma. Algoritmos que priorizam engajamento acabam promovendo conteúdos sensíveis ou de risco para públicos que não deveriam acessá-los. A tecnologia que poderia proteger os menores muitas vezes reforça o problema.
Parece redundante o subtítulo, mas é isso mesmo: tecnologias de ponta podem ser aplicadas para solucionar problemas no ambiente virtual. Um exemplo disso são os filtros preventivos, ferramentas capazes de agir de forma proativa. Diferentemente da remoção de conteúdo, após análise interna da plataforma, estes filtros funcionam como barreiras antecipadas: bloqueiam o upload de imagens pré-identificadas como abusivas, restringem a propagação de vídeos que incentivam práticas perigosas, ajustam algoritmos para impedir que menores sejam conduzidos a conteúdos impróprios e limitam contatos suspeitos em chats de jogos online.
Filtros preventivos não apenas removem conteúdos após denúncias, mas bloqueiam a circulação de materiais nocivos antes mesmo que eles cheguem às crianças, ajustando a experiência digital para que seja compatível com a faixa etária.
O caso denunciado por Felca contra Hytalo Santos expôs a vulnerabilidade estrutural de crianças e adolescentes nas redes sociais. Para a efetiva proteção de crianças e adolescentes no ambiente digital é necessário uma abordagem integrada, combinando tecnologia, educação e responsabilidade social das plataformas, do poder público, e de toda a sociedade. O PL 2.628/22 será votado no Senado e logo traremos mais atualizações sobre a sua tramitação!
________________
* Juliana Roman é mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS), em parceria com o Centro de Estudos Europeus e Alemães (CDEA/DAAD). Especialista em Compliance pela Fundação Getulio Vargas (FGV). Especialista em Direito do Consumidor pela Universidade de Coimbra (FD/UC). Especialista em Direito Digital pela Fundação Escola Superior do Ministério Público (FMP). Graduada em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).