O decreto que regulamenta o chamado ECA Digital estabelece que plataformas e fornecedores de serviços digitais deverão exigir autorização judicial prévia para permitir a monetização ou impulsionamento de conteúdos produzidos por crianças e adolescentes.
A regra também se aplica a publicações que exponham de forma recorrente imagem ou rotina de menores, mesmo quando o material for produzido ou divulgado por pais ou responsáveis. Sem a autorização judicial, as plataformas deverão suspender imediatamente a monetização ou o impulsionamento do conteúdo.
A medida faz parte da minuta do decreto que regulamenta a lei aprovada pelo Congresso Nacional para estabelecer regras de proteção de crianças e adolescentes no ambiente digital. A norma está prevista para entrar em vigor em 17 de março, mas o texto ainda pode sofrer alterações antes da publicação final.
A proposta começou a tramitar no Legislativo em 2022 e ganhou impulso após a repercussão de um vídeo do influenciador Felca que expôs situações de exploração infantil na internet. O debate passou a incluir discussões sobre o fenômeno da adultização de crianças nas redes sociais.
Classificação de conteúdos
O decreto também define categorias de conteúdos impróprios ou inadequados, diferenciando-os daqueles considerados proibidos para menores.
Conteúdos classificados como impróprios são aqueles que podem representar riscos à privacidade, segurança, saúde ou desenvolvimento psicossocial de crianças e adolescentes. Para disponibilizá-los, as plataformas deverão cumprir três exigências:
- seguir a política de classificação indicativa;
- adotar medidas técnicas de segurança de acordo com a faixa etária;
- oferecer ferramentas de supervisão e bloqueio para responsáveis.
Já conteúdos considerados proibidos por lei deverão ter acesso bloqueado para menores. Nesses casos, as plataformas terão de implementar mecanismos eficazes de verificação de idade.
A Autoridade Nacional de Proteção de Dados (ANPD) ficará responsável por definir o modelo e as etapas de implantação dessas soluções. O decreto determina que a verificação de idade deve respeitar os princípios de proporcionalidade, precisão e segurança, com uso do mínimo necessário de dados pessoais.
Produtos e serviços proibidos
O texto também lista conteúdos e serviços proibidos para crianças e adolescentes no ambiente digital. Entre eles estão:
- armas, munições e explosivos, incluindo simulacros ou brinquedos semelhantes a armas reais;
- bebidas alcoólicas;
- cigarros eletrônicos e vapes;
- substâncias que causem dependência;
- fogos de artifício de alto risco;
- jogos de azar, apostas e loterias;
- caixas de recompensa em jogos eletrônicos.
Também ficam proibidos conteúdos pornográficos, serviços de acompanhantes e aplicativos de relacionamento com finalidade sexual.
Empresas desses setores deverão impedir a criação de contas por menores e remover perfis existentes que pertençam a crianças ou adolescentes.
Regras para plataformas e jogos eletrônicos
Empresas que vendem ou intermediam produtos proibidos, como bebidas alcoólicas ou armas, deverão verificar a idade do usuário no cadastro ou no momento da compra, sendo vedada a autodeclaração.
Se uma rede social permitir anúncios ou conteúdos proibidos para menores, a plataforma deverá criar uma versão livre desse conteúdo ou adotar mecanismos de verificação de idade para restringir o acesso.
Jogos eletrônicos que utilizam mecanismos de apostas internas também deverão exigir verificação de idade. Caso exista uma versão do jogo sem essa funcionalidade voltada para menores, a verificação poderá ser dispensada nessa versão.
Comitê e centro de denúncias
O decreto também cria um Comitê Intersetorial, responsável por coordenar e monitorar a política nacional de proteção de crianças e adolescentes no ambiente digital. O grupo terá participação de ministérios, da ANPD, do Conanda (Conselho Nacional dos Direitos da Criança e do Adolescente) e de representantes da sociedade civil.
Outra medida prevista é a criação, no âmbito da Polícia Federal, de um Centro Nacional de Triagem de Notificações, responsável por processar denúncias de crimes como exploração sexual, sequestro e ameaças de violência extrema em escolas.
Até que a estrutura seja regulamentada, a Polícia Federal contará com apoio técnico e administrativo do Ministério da Justiça e Segurança Pública.
Remoção de conteúdo
O decreto também determina que provedores e plataformas deverão remover imediatamente conteúdos que violem direitos de crianças e adolescentes, sem necessidade de decisão judicial, quando a denúncia partir da vítima, do Ministério Público, de autoridades policiais ou de entidades da sociedade civil habilitadas.
Com informações da Folha de São Paulo*
Por Haliandro Furtado, da redação da Jovem Pan News Manaus






