A aprovação do ECA Digital no Brasil e decisões recentes da Justiça dos Estados Unidos ampliaram o debate sobre a responsabilização de plataformas digitais e a proteção de crianças e adolescentes na internet.
No dia 24 de março, um júri em Santa Fe decidiu que a Meta deve ser responsabilizada por não impedir a exposição de menores a conteúdos inadequados, incluindo abuso sexual. A empresa foi condenada a pagar cerca de US$ 375 milhões.
No dia seguinte, em Los Angeles, outro júri concluiu que plataformas da Meta e do Google, como o YouTube, foram projetadas para induzir uso prolongado e causar impactos à saúde mental. As empresas foram condenadas a pagar US$ 6 milhões de indenização a uma jovem identificada como Kaley.
Mecanismos digitais e impactos no comportamento
As decisões consideraram que recursos como rolagem infinita, notificações constantes e sistemas de recompensa influenciam o comportamento dos usuários. Esses mecanismos foram apontados como fatores associados a quadros de depressão e transtornos relacionados à imagem.
Especialistas afirmam que esses sistemas fazem parte da chamada economia da atenção, em que o tempo de uso se torna o principal ativo das plataformas.
“É como se colocasse um produto no mercado que em vez de ter em vista a segurança e bem-estar do usuário, tem como objetivo primordial maximizar o tempo de uso”, afirmou Ricardo Horta, diretor do Ministério da Justiça.
ECA Digital entra em vigor no Brasil
No Brasil, a Lei 15.211/2025, conhecida como ECA Digital, entrou em vigor no dia 17 de março, com regulamentação pelo Decreto 12.880, assinado pelo presidente Luiz Inácio Lula da Silva.
A norma estabelece obrigações para plataformas digitais prevenirem riscos e limitarem o acesso de crianças e adolescentes a conteúdos inadequados. A legislação também exige ferramentas de controle parental e mecanismos de verificação de idade.
Para Maria Góes de Mello, do Instituto Alana, há convergência entre as decisões dos EUA e a legislação brasileira.
“Os casos nos Estados Unidos e o ECA Digital têm uma convergência muito grande em relação a esse olhar sobre a saúde dos usuários crianças e adolescentes”, afirmou.
Mudança de entendimento jurídico
As decisões nos Estados Unidos também indicam mudança na interpretação jurídica sobre a responsabilidade das plataformas. Historicamente, empresas utilizam a Seção 230 do Communications Decency Act para evitar responsabilização por conteúdos publicados por usuários.
Nos julgamentos recentes, o foco foi deslocado do conteúdo para o funcionamento das plataformas e seus mecanismos de engajamento.
Para o pesquisador Paulo Rená Santarém, a mudança é relevante.
“A grande mudança que fica marcada é o direcionamento. A alteração de perspectiva: do conteúdo para como as redes sociais funcionam.”
Responsabilização no Brasil e atuação do STF
No Brasil, o Supremo Tribunal Federal já decidiu que plataformas podem ser responsabilizadas por conteúdos ilegais, ampliando o alcance do Marco Civil da Internet.
Com o ECA Digital, as empresas passam a ter dever de atuação preventiva, com mediação de conteúdos e proteção específica para menores.
A professora Mylena Devezas Souza, da Universidade Federal Fluminense, afirma que a lei impõe obrigação direta às plataformas.
“As plataformas devem disponibilizar configurações e ferramentas acessíveis que viabilizem e apoiem a supervisão parental.”
Papel das famílias e denúncia de violações
Especialistas apontam que a responsabilidade pela segurança digital é compartilhada entre Estado, empresas e famílias. O acompanhamento dos pais no uso das redes por crianças e adolescentes é considerado parte central dessa proteção.
O professor Wladimir Gramacho, da Universidade de Brasília, afirma que o volume de conteúdo disponível amplia a necessidade de supervisão.
Segundo a Autoridade Nacional de Proteção de Dados, qualquer pessoa pode denunciar violações de direitos por meio de canais que devem ser disponibilizados pelas plataformas.
Com informações da Agência Brasil*
Por Haliandro Furtado, da redação da Jovem Pan News Manaus






