La IA ha facilitado enormemente que los delincuentes generen y compartan material gratuito. Hoy en día, pueden producir imágenes de abuso sexual infantil (CSAM) altamente realistas con hardware asequible, a menudo sin ningún contacto físico entre el agresor y la víctima, ni material fuente auténtico.
Y las imágenes son tan realistas que la mayoría pueden ser procesadas bajo las leyes existentes como si representaran niños reales. Como tal, la legislación actual, la responsabilidad de las plataformas y las capacidades forenses están luchando por mantenerse al día.
La Internet Watch Foundation (IWF) sugiere que los videos de abuso generados por IA han “cruzado el umbral” de ser claramente distinguibles de imágenes reales, y también se han vuelto mucho más prevalentes en línea este año.
En la primera mitad de 2025, el organismo de vigilancia verificó 1,286 videos hechos por IA que presentaban CSAM que infringían la ley, en comparación con dos en el mismo período durante 2024. La IWF dice que más de 1,000 de los videos muestran abuso de categoría A, el tipo de material más severo.
Nuestro nuevo estudio examina el alarmante aumento del CSAM generado por IA y sus implicaciones para las fuerzas del orden, legisladores y profesionales de la defensa criminal.
El estudio se basa en datos verificados no solo de la IWF, sino también del Departamento de Seguridad Nacional, Thorn, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otros organismos de vigilancia.
Los hallazgos revelan que la IA generativa está acelerando exponencialmente la creación, el realismo y la accesibilidad de imágenes y videos explotadores.
CSAM Generado por IA: No un Delito Sin Víctimas
Para algunos, el CSAM sintético se considera “sin víctimas” ya que representa menores ficticios. Sin embargo, la realidad es mucho más compleja. Las herramientas de IA ahora pueden usarse para modificar y manipular imágenes reales y crear nuevo material explotador a partir de fotografías de niños conocidos, menores famosos o incluso personas privadas.
La magnitud de este problema es significativa y está empeorando. Por ejemplo, el Departamento de Seguridad Nacional reportó un aumento del 400% en páginas web de CSAM generadas por IA en la primera mitad de 2025.
En un solo mes durante 2025, la IWF encontró 20,254 imágenes de CSAM generadas por IA en un solo foro, el 90% de las cuales fueron clasificadas como lo suficientemente realistas para ser procesadas como si fueran representaciones de niños reales. Y, cada vez más, las comunidades de delincuentes comparten abiertamente técnicas de ingeniería para refinar rápidamente el realismo de las imágenes.
Incluso en casos donde no ocurre abuso físico, las víctimas pueden sufrir daños a través de la revictimización, daño reputacional y el impacto psicológico de ver su imagen profanada.
Las Herramientas de IA Se Usan Para Dañar a Niños, Sin Consecuencias
Y es más fácil que nunca crear imágenes abusivas con las herramientas modernas de generación de imágenes por IA, incluyendo las llamadas aplicaciones de “desnudo” y “quitar ropa”, que están siendo explotadas para crear CSAM a gran escala. Tales plataformas a menudo operan sin salvaguardas, restricciones de edad ni obligaciones de reporte.
Por ejemplo, solo cinco plataformas de IA están registradas para reportar CSAM al NCMEC, y muchas nunca han presentado un solo informe.
Además, los administradores de las aplicaciones de “desnudo” y “quitar ropa” aún no están legalmente obligados a reportar imágenes explotadoras y no colaboran con los organismos de vigilancia.
Y los delincuentes pueden obtener legalmente herramientas de IA y trabajar sin conexión, produciendo material ilimitado sin ser detectados.
Esta brecha regulatoria ha creado un entorno donde el contenido ilegal puede proliferar en gran medida sin control, dejando a las fuerzas del orden en una posición de ir a la zaga.
El Gran Aumento del CSAM por IA Abruma a las Fuerzas del Orden
El aumento del CSAM generado por IA ha puesto una presión sin precedentes sobre los investigadores. No solo aumentan en número estas imágenes, sino que su realismo también hace que la revisión forense sea más lenta y requiera más recursos. Las fuerzas del orden y otros interesados ahora deben enfrentar desafíos sin precedentes.
Por ejemplo, el NCMEC recibió más de 7,000 reportes de CSAM generado por IA en 2024, una pequeña fracción de los más de 36 millones de reportes CyberTipline presentados ese año.
Ese número aumentará rápidamente en los próximos años, y aun con sistemas avanzados de detección, la magnitud significa que muchos delincuentes e imágenes permanecerán sin investigar.
Las Plataformas Saben — Pero Hacen Poco o Nada al Respecto
De manera poco útil, los organismos de vigilancia han documentado una notable falta de compromiso por parte de las plataformas tecnológicas cuyas herramientas se usan para generar CSAM.
De las plataformas de IA registradas en el NCMEC, la mayoría ni siquiera ha presentado informes. Las plataformas que permiten la modificación explícita de imágenes aún no participan en discusiones sobre medidas de prevención.
Sin requisitos obligatorios de reporte, gran parte de este contenido permanecerá en circulación indefinida. Y eso significa daño y trauma prolongados para las víctimas.
1 de Cada 8 Adolescentes Conoce a una Víctima de Deepfake
El peligro de la explotación por IA va más allá de los foros de la web oscura, con plataformas convencionales y escuelas que ya ven el daño.
La investigación de Thorn en 2025 reveló que el 31% de los adolescentes están familiarizados con desnudos deepfake, 1 de cada 8 adolescentes conoce a una víctima de desnudos deepfake, 1 de cada 5 niños de 9 a 17 años ha visto imágenes sexuales compartidas sin consentimiento, y 1 de cada 10 conoce a compañeros que han creado imágenes sexuales deepfake.
Para los menores, incluso las imágenes falsas pueden crear traumas emocionales duraderos, acoso y daño reputacional.
Precedentes Legales y Procesamientos
Los casos del mundo real ya demuestran que el sistema de justicia trata el abuso generado por IA con la misma seriedad que el CSAM tradicional. En Charlotte, Carolina del Norte, David Tatum fue sentenciado por cargos de pornografía infantil tras usar aplicaciones de IA para “quitar ropa” y modificar imágenes de menores.
Una imagen alterada mostraba a una menor de 15 años esperando un autobús; la foto original fue tomada 25 años antes de ser manipulada digitalmente.
La víctima tenía más de 40 años cuando fue identificada, lo que ilustra que el CSAM generado por IA puede seguir cobrando víctimas décadas después de que se crean las imágenes originales.
El Camino a Seguir: Tecnología, Ley y Responsabilidad
El CSAM generado por IA puede crearse de muchas maneras diferentes. El contenido para adultos puede manipularse para parecer menor de edad; imágenes completamente sintéticas (y sin embargo increíblemente reales) de menores se generan fácilmente.
Cualquiera que sea el método utilizado, presenta un desafío único para los cuerpos legislativos, equipos forenses y organismos éticos de vigilancia. Abordar esta crisis requerirá lo siguiente.
- Mandatos más estrictos de reporte para las plataformas
- Herramientas mejoradas de detección de IA para ayudar a los esfuerzos de las fuerzas del orden
- Definiciones legales más claras respecto a la explotación sintética
- Educación pública continua para reducir la demanda y el mal uso
En Suzuki Law Offices, creemos que abordar la explotación impulsada por IA requiere el mismo nivel de integridad y diligencia que aportamos a cada caso.
Nuestro equipo cuenta con décadas de experiencia combinada, incluyendo la trayectoria de nuestro fundador como fiscal federal. Estamos comprometidos a entender la tecnología, la ley y el impacto humano en el corazón de estos casos.