Ferramentas de inteligência artificial estão impulsionando de forma alarmante a criação de material de abuso sexual infantil na internet, segundo um novo relatório da Internet Watch Foundation (IWF), organização britânica que monitora esse tipo de conteúdo. O estudo identificou um salto recorde na produção de vídeos foto-realistas gerados por IA contendo CSAM (sigla em inglês para material de abuso sexual infantil).
De acordo com a IWF, foram detectados 3.440 vídeos desse tipo em 2025, contra apenas 13 no ano anterior — um aumento de 26.362%. Mais da metade do material analisado se enquadra na chamada “categoria A”, que inclui as formas mais graves e explícitas de abuso, podendo envolver tortura e violência extrema.
A organização alerta que a tecnologia representa um risco crescente para crianças, já que suas imagens podem ser usadas como base para conteúdos abusivos. Além disso, a sofisticação das ferramentas permite que pessoas com pouco conhecimento técnico produzam grandes volumes de material ilegal.
Os vídeos fazem parte de um conjunto ainda maior de conteúdos removidos pela entidade no último ano. Em 2025, a IWF respondeu a mais de 300 mil denúncias envolvendo CSAM. Nos Estados Unidos, a produção e a distribuição desse tipo de material são crimes federais.
O relatório surge em meio à reação negativa contra o chatbot Grok, da empresa xAI, de Elon Musk, acusado de permitir a geração de imagens sexualizadas de mulheres e menores. Após críticas e investigações, a empresa anunciou novas medidas de segurança para restringir esse tipo de uso.
Fonte: CBS

