O Brasil vive uma epidemia invisível, mas devastadora, no ambiente digital: a exploração e o abuso sexual de crianças e adolescentes. É o que revela a Nota Técnica 02/2025 , divulgada nesta quarta-feira (20) pela SaferNet Brasil , referência de organização no combate a crimes cibernéticos. Entre janeiro e julho de 2025, o Canal Nacional de Denúncias registrou 76.997 notificações , das quais 49.336 (64%) envolviam conteúdos de abuso e exploração sexual de crianças e adolescentes.
O número equivale a quase sete em cada dez denúncias recebidas — um dado que, segundo a entidade, é apenas a ponta do iceberg. “Esse percentual é alarmante e reflete uma realidade que não pode mais ser ignorada”, afirma Thiago Tavares, presidente da SaferNet. “O ambiente digital se tornou um território de predadores, e as plataformas, muitas vezes, funcionam como cúmplices passivas.”
Vídeo de Felca dispara denúncias e mobiliza o Congresso
O relatório aponta um salto drástico nas denúncias a partir de 6 de agosto , data de publicação do vídeo “Adultização” , do influenciador e humorista Felipe Bressanim (Felca) . Em pouco mais de duas semanas, o vídeo atingiu 46 milhões de visualizações e gerou mais de 270 mil comentários , expondo como criadores de conteúdo exploram crianças e adolescentes com teor sexual para obter lucro nas redes sociais.
Entre 1º e 18 de agosto, a SaferNet recebeu 6.278 denúncias anônimas , sendo que 3.246 (52%) foram recebidas após a divulgação do vídeo . Em alguns dias, o canal registrou picos de até 500 denúncias diárias .
“O impacto do vídeo foi direto e imediato”, diz Tavares. “Milhares de pessoas, antes caladas ou desinformadas, entenderam que tinham o poder de denunciar. A ‘Adultização’ não foi apenas um conteúdo viral — foi um gatilho de consciência coletiva.”
A repercussão no Congresso foi imediata. Dezenas de projetos de lei foram apresentados, mas o foco principal recaiu sobre o PL 2.628/2022 , conhecido como “ECA Digital” , aprovado nesta quarta (20), que estabelece regras rigorosas para plataformas digitais que oferecem serviços acessíveis a crianças e adolescentes.
PL 2.628/2022: como funcionaria a moderação de conteúdo?
O projeto, que volta ao Senado para revisão, prevê uma série de obrigações para as plataformas:
- Configurações padrão de privacidade e segurança mais protetivas possíveis ;
- Proibição de perfilamento para fins publicitários ;
- Limitação de sistemas de recomendação e geolocalização;
- Obrigação de oferecer ferramentas de controle parental ;
- Proibição de loot boxes (caixas de recompensa) em jogos para menores;
- Criação de mecanismos de denúncia e remoção de conteúdos sem necessidade de ordem judicial;
- Aplicação de sanções que vão de advertência a multas de até 10% do faturamento no Brasil ou suspensão de atividades.
Um dos pontos centrais do projeto é o modelo de “notificação e retirada” , já previsto no Marco Civil da Internet. Diante de uma denúncia, a plataforma deve bloquear o acesso ao conteúdo e preservar as evidências para investigações. O texto também prevê a criação de uma autoridade administrativa autônoma para fiscalizar o cumprimento das regras.
Por que a Europa adota um modelo diferente?
Enquanto o Brasil debate o modelo de “retirada”, a União Europeia já avançou com o Digital Services Act (DSA) , que adota o conceito de “notificação e ação proporcional” (notice and take action) . Nesse modelo, as plataformas podem adotar respostas graduadas, como:
- Redução de alcance (downrank) ;
- Impedimento de comentários ou compartilhamentos ;
- Inclusão de avisos ou etiquetas ;
- Suspensão de monetização ;
- Remoção apenas de buscas e algoritmos , mantendo o conteúdo acessível para investigações.
“A UE entende que nem todo conteúdo nocivo exige remoção total”, explica Juliana Cunha, diretora da SaferNet. “A proporcionalidade permite combater o crime sem prejudicar desmedidamente a liberdade de expressão. O Brasil pode aprender com esse equilíbrio.”
Inteligência artificial: a nova fronteira do abuso infantil digital
Um dos alertas mais graves do relatório é o uso crescente da inteligência artificial generativa (IA) para produzir conteúdos de abuso sexual infantil. Em 2025, a SaferNet já acordou casos envolvendo:
- Fotos reais de crianças manipuladas digitalmente para simular nudez;
- Imagens hiper-realistas geradas por IA em atos sexuais;
- Deepfakes com vozes e rostos de adolescentes em contextos pornográficos;
- Textos eróticos relacionados a personagens infantis;
- Treinamento de modelos de IA com bancos de dados ilegais contendo abuso real.
“É um erro subestimar o dano causado por conteúdos sintéticos”, alerta Cunha. “Para a vítima, seja real ou simulada, o trauma é igual. A humilhação, a revitimização e o risco de extorsão são reais e devastadores.”
A facilidade de acesso a ferramentas de “nudificação” — aplicativos que removem roupas de fotos sem verificação de idade — agrava o problema. Muitos desses aplicativos estão sendo anunciados de forma dissimulada em plataformas como Facebook e Instagram, como revelado uma ação judicial da Meta contra a desenvolvedora do CrushAI .
Caso CrushAI: anúncios camuflados e brechas na moderação
A Meta entrou com uma ação judicial contra a desenvolvedora do CrushAI , um aplicativo que oferece recursos de “nudificação” e criação de deepfakes sexuais. A empresa acusa a ferramenta de roubar os filtros de moderação ao usar anúncios com imagens neutras , que direcionam os usuários para páginas externas onde os serviços ilegais são oferecidos.
“É uma operação planejada para explorar brechas tecnológicas”, diz Tavares. “As plataformas precisam assumir responsabilidade, não apenas por conteúdos postados, mas por anúncios que promovem crimes.”
Pesquisa inédita: jovens vítimas e autores são adolescentes
Diante da gravidade do cenário, a SaferNet lançou uma pesquisa inédita com apoio do fundo internacional Safe Online , para investigar as especificidades a partir da perspectiva dos próprios jovens. O estudo busca entender como os adolescentes estão usando — e sendo usados por — uma IA generativa.
“Os riscos estão nas escolas, nos grupos de WhatsApp, nos perfis anônimos”, diz Juliana Cunha. “Muitas vezes, quem cria o conteúdo é um colega de turma. E quem sofre é alguém que confiou uma foto.”
A ONG faz um apelo público : se você é adolescente ou conhece alguém que tenha sido vítima de criação de imagens não consensuais com IA, entre em contato pelo formulário: https://forms.gle/G8QUrsHksmvTKCyK6 .
Regulamentar não é censurar — é proteger
O relatório da SaferNet deixa claro: o ambiente digital não pode continuar sendo um território de impunidade. A regulação das plataformas não é uma questão de liberdade de expressão — é uma questão de direitos humanos .
“Proteger crianças e adolescentes não é censura. É cumprir a Constituição, o ECA e a dignidade humana”, afirma Tavares. “As plataformas têm responsabilidade. E o Congresso tem o dever de agir.”
O post SaferNet alerta que quase sete em dez denúncias envolve abuso infantil online apareceu primeiro em Vermelho.