Denúncias apontam que a Meta não remove a maioria dos conteúdos que sexualizam adolescentes, levantando preocupações sobre a segurança de menores no ambiente online.
Plataformas digitais têm enfrentado crescentes desafios na proteção de menores de idade contra conteúdos ilícitos e na prevenção de sua exploração online. Nos últimos meses, denúncias trouxeram à tona a falta de moderação eficaz em redes sociais como Instagram e Facebook, de propriedade da Meta, para combater publicações que sexualizam adolescentes.
Testes recentes revelaram que a maior parte dos conteúdos denunciados com esse tipo de abordagem não foi removida pelo sistema de moderação da empresa. A exposição de menores a conteúdos ilícitos ou sua exploração na internet representa um risco grave à segurança e ao bem-estar das vítimas, segundo especialistas.
Em resposta, a Meta afirma estar empenhada em localizar e remover rapidamente conteúdos que coloquem menores em risco, além de estimular denúncias por parte dos usuários. No Brasil, o Ministério da Justiça e Segurança Pública publicou uma portaria voltada à prevenção da disseminação de conteúdos ilícitos em redes sociais, incluindo recomendações para que as plataformas implementem mecanismos de verificação etária a fim de proteger menores.
A proteção de crianças e adolescentes no ambiente digital é considerada um tema crítico, exigindo esforços contínuos de empresas de tecnologia, órgãos reguladores e sociedade civil. Especialistas defendem que a colaboração entre todos esses agentes é fundamental para garantir um ambiente online seguro, especialmente para o público mais vulnerável.