Crisis de IA: abuso infantil digital crece 260 veces en 2026

Internet Watch Foundation (IWF) acaba de publicar un informe que grita a los cuatro vientos lo que muchos sospechaban: el contenido infantil generado por IA está explotando. En 2024 encontraron 13 videos de CSAM sintetizado. En 2025, la cifra saltó a 3.443. Eso es un aumento de 260 veces en un solo año. Y como señala el mismo reporte, esto es apenas la punta del iceberg: IWF solo revisa una fracción del contenido que realmente circula.

En 30 segundos

  • Internet Watch Foundation detectó 3.443 videos de CSAM generado con IA en 2025, comparado con 13 en 2024: un aumento de 260 veces
  • El 65% del contenido detectado es Categoría A (el más extremo). En total, 8.029 imágenes y videos fueron analizados
  • Las LoRAs (Low-Rank Adaptation) pueden crear deepfakes realistas con solo 20 imágenes existentes en 15 minutos
  • EU AI Act prohíbe desde febrero 2025 los sistemas de “riesgo inaceptable”; California y España también implementan regulaciones
  • Los sistemas de detección van muy atrás de la capacidad de generación. El desafío mayor es que cada imagen nueva es diferente al hash

¿Qué es el CSAM generado por IA y por qué debería importarte?

Child Sexual Abuse Material (CSAM) generado por IA es contenido sintético —imágenes o videos deepfake— que representa menores en situaciones de abuso sexual, creado enteramente por algoritmos sin víctimas reales fotografiadas en vivo. El punto acá es crucial: aunque no hay un menor siendo abusado en el momento de la generación, el daño es tan real como el CSAM tradicional.

Ponele que alguien toma una foto normal de un chico de 12 años de una red social, la mete en una LoRA, espera 15 minutos, y sale un deepfake sexual sintético usando la cara de ese menor. Ese pibe no fue tocado físicamente, pero su imagen está siendo explotada para normalizar su abuso. Y no es un caso teórico: IWF reporta que revictimización —cuando menores descubren que hay deepfakes sexuales de ellos en circulación— ya está pasando.

La diferencia con CSAM tradicional es técnica, no moral. En uno hay un abuso documentado. En el otro no hay ese momento, pero el resultado es casi igual de dañino en términos de normalización y del impacto psicológico en el menor.

Los números que deberían asustarte: el informe completo de IWF

internet watch foundation diagrama explicativo

Internet Watch Foundation es la línea directa de mayor volumen en Europa contra abuso infantil en línea. Cuando ellos publican cifras, no son estimaciones, son reportes de contenido real detectado y analizado.

El informe 2025 analiza 8.029 imágenes y videos evaluados manualmente. El salto de 13 a 3.443 videos no es un error de metodología. Es la aceleración real de la capacidad de generación combinada con mayor accesibilidad de herramientas. Y acá viene lo inquietante: del contenido detectado, el 65% cae en Categoría A, la clasificación más extrema. Eso significa que no es contenido levemente inapropiado —es abuso visual de los casos más duros.

¿Dónde se distribuye? Dark web, foros especializados, canales privados de Telegram, Discord, y lo peor: algunos sitios públicos donde pasa bajo el radar porque los moderadores IA no saben detectarlo. IWF dice que la distribución se expande “de forma exponencial” en redes descentralizadas. Más contexto en políticas de seguridad recomendadas para IA.

Cómo se hace: la tecnología detrás del deepfake de menores

No voy a entrar en recetas de implementación (eso cae en la línea de no ayudar a esto), pero necesitas entender por qué esto es un problema de accesibilidad brutal.

Las LoRAs son adaptaciones de bajo rango sobre modelos base como Flux o Stable Diffusion. La curva de entrada es: descargás el modelo base (acceso público), agregás 20 imágenes de referencia (sacadas de Instagram o TikTok, en muchos casos), corres el entrenamiento en 15 minutos en una GPU consumer (una RTX 4090, que cuesta 2000 dólares pero la podés alquilar por horas en Lambda Labs por 20 USD/hora), y tenés un generador customizado que crea deepfakes de esa persona.

Antes esto era cosa de laboratorios de IA con GPUs especializadas. Ahora cualquiera con conocimiento técnico básico y 50 dólares en cloud puede hacer un deepfake. La barrera de entrada se colapsó entre 2023 y 2025.

Y acá viene el punto que tranquiliza a los que piensan en regulación: los modelos ahora incluyen watermarks detectables. Pero los criminales simplemente usan versiones sin watermark o las sacan con super-resolución. Es un carrera de armamentos, y los malos van ganando.

¿Qué está haciendo la regulación?

El EU AI Act, en vigor desde febrero 2025, clasifica la generación de CSAM como “riesgo inaceptable” junto con sistemas de armas autónomas. Eso significa: prohibición total, punto. No “regulado con guardrails”, no “requiere consentimiento”. Prohibido hacer, vender, distribuir, o permitir que tu plataforma lo aloje. Las multas van hasta el 6% del revenue global de la empresa.

California accionó en 2025 contra xAI (la startup de Elon) por permitir la generación de contenido CSAM a través de su modelo. Eso fue un punto de inflexión legal: demostró que si tu modelo puede ser usado para esto, sos responsable legalmente, aunque técnicamente el usuario fue quien generó.

España implementó desde este año guías de cumplimiento del AI Act a través de AESIA (Autoridad de Supervisión de Inteligencia Artificial), con énfasis en la responsabilidad de proveedores de modelos. Pero acá entra el problema: España no puede regular lo que corre en servidores de OpenAI o Anthropic. La ley se topa con la jurisdicción. Lo explicamos a fondo en riesgos documentados en ChatGPT.

El dilema de detección: IWF trabaja con las manos atadas

Las herramientas que existen para detectar CSAM funcionan con una base de datos de hashes criptográficos. Si una imagen de abuso se reporta, se hashea y esa firma se distribuye a plataformas. Si la imagen vuelve a subirse, el sistema la detecta y la bloquea (es lo que hace NCMEC con PhotoDNA).

Pero con contenido generado, cada imagen es única. No hay un original que hashear. Cada deepfake tiene variaciones. Los sistemas basados en hash son inútiles contra esto. Los modelos de detección por visión por computadora dicen “probabilidad 78% de ser CSAM generado”, pero eso no es suficiente para un juzgado ni para una plataforma grande. Necesitás “seguro” o algo muy cercano.

IWF solo puede revisar manualmente una fracción minúscula de lo que circula. Estamos hablando de millones de imágenes diarias en redes descentralizadas. Es un Sísifo de contenido ilegal.

Las plataformas como Twitter/X, Meta y Google ahora están invirtiendo fuertemente en modelos de detección basados en clasificadores de IA (entrenan modelos en imágenes conocidas de CSAM para que aprendan patrones), pero la tasa de falsos positivos es alta, y el lag entre nuevas generaciones y detección es cada vez mayor.

¿Es lo mismo que CSAM real? El debate legal y psicológico

Acá los países divergen. Algunos dicen: “Si no revictimiza a un menor específico, técnicamente no es igual de grave.” Otros dicen: “Normaliza el abuso, entrena a los agresores, y traumatiza a cualquier menor cuya cara sea robada. Prohibición total.”

La investigación en psicología infantil apunta a que el impacto traumático en un menor que descubre un deepfake sexual de sí mismo es comparable al de un abuso documentado. El sentimiento de que tu imagen fue “robada” y “violada” virtualmente es real. Y desde la perspectiva de un groomer, el CSAM sintético es una herramienta perfecta para normalizarse: lo consume, se desensibiliza, y después toca a menores reales. Cubrimos ese tema en detalle en vulnerabilidades de modelos GPT.

IWF y el National Center for Missing & Exploited Children (NCMEC, USA) posicionan al CSAM generado como “potencialmente igual de dañino” que el abuso documentado, aunque reconocen que hay menores diferencias legales en algunas jurisdicciones.

Qué pueden hacer plataformas, gobiernos y vos

Si encontrás contenido: Reportá a Internet Watch Foundation (iwf.org.uk) si es internacional, o a la Fiscalía Especializada en Delitos Informáticos de tu país si es local. No lo compartas “para alertar”, eso es diseminación criminal.

Plataformas: Necesitan implementar guardrails en sus modelos (prohibir prompts que generen CSAM), usar clasificadores de IA para detección, y ser agresivas con takedowns. Según Euronews, las plataformas descentralizadas son casi imposibles de moderar, así que ahí el trabajo es de policías en jurisdicciones específicas.

Gobiernos: Necesitan requerir verificación de edad en servicios de generación de imágenes (cualquier modelo que permita crear personas). Eso es controvertido por privacidad, pero es la barrera de entrada más efectiva.

Investigación: Financiar investigadores que mejoren sistemas de detección adversarial (entrenar modelos para detectar deepfakes incluso si fueron manipulados después). IWF reclama inversión en esto explícitamente.

Educación: Los menores necesitan saber que sus fotos en redes pueden ser robadas para esto, y que si descubren un deepfake de ellos, deben reportar y buscar apoyo psicológico.

Errores comunes en la respuesta a este problema

Error 1: Pensar que es un problema lejano o de otros países

No. IWF reporta que la distribución es global. El contenido generado en un servidor en Rusia se distribuye a Discord servers en Argentina en horas. No hay “afuera” en Internet.

Error 2: Creer que la regulación va a resolver esto en 2026

El EU AI Act es el primero en ir duros. Pero tiene jurisdicción limitada. OpenAI, Anthropic, xAI corren desde USA. Alibaba corre desde China. La regulación de EU afecta a compañías que venden en EU, no a todas. Y luego está la dark web, completamente fuera de regulación estatal. En limitaciones de seguridad en Gemini profundizamos sobre esto.

Error 3: Pensar que es problema de los modelos generativos solos

Sí, Flux y Stable Diffusion permiten esto. Pero también es problema de distribución (redes descentralizadas), de detección (falta de herramientas), de fricciones legales (jurisdicción), y de que la barrera técnica es tan baja que cualquiera puede hacerlo. No se arregla borrando un modelo.

Preguntas Frecuentes

¿Cuánto ha aumentado exactamente el CSAM generado por IA según Internet Watch Foundation?

De 13 videos en 2024 a 3.443 videos en 2025. Eso es un aumento de 260 veces. En total, IWF evaluó 8.029 imágenes y videos, de los cuales el 65% fue clasificado como Categoría A (abuso extremo). El reporte completo está en iwf.org.uk.

¿Es legal el CSAM generado con IA en Argentina?

No. La ley argentina de protección de datos de menores (ley 26.904 de grooming, y la nueva Ley de Protección Integral de la Infancia) lo cubre bajo “explotación sexual de menores”. Aunque no hay un cuerpo específico del delito para “deepfakes sexuales”, la jurisprudencia va a acercarse a esto como explotación. Posesión, distribución y generación son criminales.

¿Cómo se puede detectar si un video es deepfake de un menor?

No hay un sistema fiable al 100%. Los deepfakes de Flux.1 son más realistas cada día. Los investigadores de IWF y de universidades usan una combinación de análisis de artefactos visuales (distorsión de bordes, inconsistencia de iluminación), metadatos de archivo, y entrenamiento manual con modelos clasificadores. Pero no es una ciencia exacta. El problema es que cada generación nueva requiere re-entrenar los detectores.

¿Qué dicen OpenAI y Anthropic sobre el CSAM generado en sus modelos?

Ambas empresas tienen políticas de prohibición explícita en sus terms of service. OpenAI usa sistemas de clasificación interna para bloquear prompts que busquen esto. Anthropic usa guardrails más estrictos en Claude. Pero como mostró la acción contra xAI, tener una política no significa que sea inviolable. Siempre hay maneras de saltarse los sistemas.

¿Cuándo entra en vigencia el EU AI Act para esto?

Ya está en vigencia desde febrero 2025. La generación de CSAM es clasificada como “riesgo inaceptable” y está prohibida. Las empresas que vendan modelos en Europa deben implementar guardrails. Las multas pueden llegar al 6% del revenue global si no lo hacen.

Conclusión

El informe de Internet Watch Foundation es un campanazo que no podés ignorar. El CSAM generado con IA no es una amenaza teórica del futuro: ya está acá, ya está creciendo exponencialmente, y ya está traumatizando a menores reales cuyas caras fueron robadas. La detección va atrás de la generación. La regulación es fragmentada y tiene límites jurisdiccionales. Y las herramientas de defensa que tenemos (hash databases, clasificadores IA básicos) son insuficientes.

Lo que cambió este 2025 es que pasamos de “esto podría ser un problema” a “esto es un problema concreto y medible”. IWF no está especulando. Encontraron 3.443 videos. Eso significa hay decenas de miles en circulación.

¿Qué hacer? Si sos desarrollador de modelos, implementá guardrails estrictos. Si sos plataforma, invierte en detección. Si sos padre, educá a tus hijos sobre no compartir fotos donde salgan solos o en contextos vulnerables. Si encontrás contenido, reportá. Y si sos investigador, este es el momento de meter presión en sistemas de detección adversarial. La batalla de 2026 es esa.

Fuentes

Desplazarse hacia arriba