Irán está ganando la guerra de la propaganda de inteligencia artificial. En las últimas semanas, ha desplegado más de 110 deepfakes únicos de contenido pro-Irán en TikTok, Instagram y X, generando decenas de millones de visualizaciones totales con imágenes de mujeres soldadas, líderes políticos alterados y narrativas antisemitas. A diferencia de Estados Unidos, que usa referencias culturales niche que no resuenan en redes globales, Irán aprendió a generar videos con íconos universales (figuras de LEGO, personajes de Pixar) que atraen algoritmos de recomendación en masivo. El resultado: una máquina de contenido falso más barata, más rápida y más efectiva que cualquier operación de desinformación anterior.
En 30 segundos
- Irán desplegó 110+ deepfakes únicos en redes en solo dos semanas, logrando decenas de millones de vistas con costo mínimo.
- La estrategia iraní usa imágenes y personajes universales (LEGO, Pixar) para penetrar algoritmos globales, a diferencia de EE.UU. que usa referencias locales que no escalan.
- Cientos de videos sintéticos de “mujeres soldadas” circulan en TikTok con 10+ millones de visualizaciones cada uno.
- El ecosistema ruso y chino amplifica activamente el contenido; bots en Pakistán, Nigeria y Tailandia lo redistribuyen automáticamente.
- La velocidad de mejora de herramientas IA supera la capacidad de las plataformas para detectar y etiquetar deepfakes en tiempo real.
Irán se convirtió en experto de lo que Merriam-Webster eligió como palabra del año 2025: “AI slop” — contenido de baja o nula calidad, generado en masa por inteligencia artificial, diseñado específicamente para entrenar algoritmos de recomendación, no para ser consumido por humanos pensantes. Pero acá está lo importante: Irán no produce slop por accidente. Lo produce con estrategia geopolítica quirúrgica (eso sí, con herramientas que cualquiera puede comprar hoy). El juego no es engañar a la gente directamente — es abrumarla, confundirla, hacer que la verifiabilidad misma sea imposible. Ponele que ves un video de Trump diciendo algo antisemita en redes. ¿Lo chequeas? ¿Cómo? ¿A quién le creés? Eso es el problema. No es que el deepfake tenga que engañar a todos — solo necesita sembrar suficiente duda como para que nadie sepa qué es real.
Qué es el ‘AI slop’ y la propaganda generada automáticamente
“AI slop” es contenido sintético generado en masa por modelos de lenguaje e imagen — tipicamente de baja calidad, sin verificación, diseñado para ser consumido por algoritmos antes que por humanos. El término entró en el diccionario Merriam-Webster en 2025 después de que redes como Reddit, YouTube y TikTok se llenaran de contenido LLM reciclado, prompts mal resueltos, imágenes generadas con dedos rotos, voces sintetizadas con artifacts. La diferencia entre AI slop y propaganda tradicional es la escala y el costo. Una campaña de desinformación clásica requería equipos, scripts, actores, edición. Ahora: un modelo de imagen ($5-20 de créditos), un modelo de voz ($0.50 por minuto), un script de Reddit, y generás cientos de videos en una noche.
Pero la propaganda iraní no es slop genérico. Es slop dirigido. Slop con ángulo geopolítico, distribuido estratégicamente, amplificado por bots coordinados. La diferencia es crucial: el slop típico es ruido; la propaganda iraní es signal codificado en ruido.
La estrategia iraní: por qué está ganando la guerra de la propaganda
La operación iraní es dirigida por un colectivo llamado Explosive News Team, identificado por investigadores de seguridad cibernética occidentales a lo largo de marzo de 2026. Su enfoque es diferente al de EE.UU., que intentó captar audiencias con memes locales, referencias a política estadounidense, temas que resonaban en swing states. Eso no funciona en TikTok global. Los algoritmos no promocionan contenido niche — promocionan contenido que genera retención, engagement masivo, shares transculturales.
Irán entendió eso. Sus videos usan:
- Íconos universales: figuras de LEGO, personajes de Pixar, superhéroes Marvel conocidos globalmente. No dependen del contexto cultural del espectador.
- Narrativas simples e inmediatas: “Trump es el enemigo”, “Israel es el agresor”, imágenes de soldadas IA simétricas, bellas, heroicas. No necesita argumentación — la imagen dispara emoción.
- Producción de volumen brutal: 110+ deepfakes únicos en 14 días. Mientras Occidente todavía discute regulación, Irán está haciendo 8 videos por día.
- Distribución multicapa: los videos no salen directamente de servidores iraníes. Se distribuyen a través de redes de bots rusos, chinos, en Pakistán, Nigeria, Tailandia. Cuando Twitter/X intenta rastrear el origen, el rastro termina en un bot de Lahore de cuenta fake con 3 seguidores.
El resultado: los videos llegan a cientos de millones de personas que nunca supo que fueron cosechados por una operación estatal iraní. Lo consumieron como parte del ruido normal de redes. Y acá viene lo interesante: ni siquiera necesitan que lo creas. Solo necesitan que lo hayas visto. La inoculación psicológica funciona por repetición, no por persuasión lógica. Veás el mismo mensaje suficientes veces en suficientes contextos y tu cerebro lo procesa como “verdadero porque frecuente”.
Escala del problema: números y alcance real
Los números son lo que más importa acá, porque miden impacto sin subjetividad. Según análisis de seguridad de Foundation for Defense of Democracies, Irán desplegó:
- 110+ deepfakes únicos en dos semanas (mediados de marzo de 2026), cada uno con variaciones de prompt, estilos, ángulos.
- Cientos de videos de “soldadas IA” — mujeres jóvenes, atractivas, militarizadas — circulando en TikTok con números de visualización de 10+ millones cada uno.
- Decenas de millones de vistas totales en el ecosistema: si multiplicás 150 videos × 5-15 millones de vistas promedio, estamos hablando de entre 750 millones y 2.25 mil millones de visualizaciones en cuatro semanas.
- Temas recurrentes: Trump como tirano, antisemitismo cartoonesco, heroísmo militar iraní, condenas a “ocupación sionista”, crítica a políticas estadounidenses en Medio Oriente.
Para contexto, un sondeo de Pew Research de marzo 2026 mostró que el 61% de estadounidenses desaprueba cómo Trump maneja la política exterior en Medio Oriente. ¿Coincidencia que los deepfakes iraníes hagan foco exacto en eso? No. Irán está amplificando una grieta que ya existe, haciéndola más visible, nutriéndola con contenido emocional que no requiere verificación. Más contexto en el funcionamiento de los modelos de lenguaje.
La escala es distinta a operaciones anteriores. En 2016, Rusia desplegó decenas de miles de posts por año. Irán está desplegando cientos de videos únicos por semana. Y cada video es reproducible infinitamente por algoritmos.
Dónde se distribuye: plataformas y ecosistemas de redes
El contenido iraní no aparece concentrado en un lugar. Está desparramado estratégicamente:
- TikTok: plataforma principal. Los algoritmos de TikTok son agnósticos al contenido — si genera engagement, lo promocionan. Un video de “mujeres soldadas IA” genera comentarios, shares, debate. TikTok no sabe ni le importa el origen geopolítico.
- Instagram Reels: segundo canal de distribución. Misma lógica que TikTok, pero con audiencia ligeramente mayor en Occidente.
- X (antes Twitter): donde periodistas, políticos y influencers ven el contenido, lo replican, lo discuten (amplificando). Un tweet de un diputado compartiendo un deepfake “de prueba” alcanza millones.
- Telegram: canal directo para distribuidores, agregadores de contenido, comunidades que hacen copias y lo replican a WhatsApp, Discord, canales privados.
- Ecosistema ruso y chino: operadores de desinformación rusos y chinos ven el contenido, lo adaptan, lo recontextualizan. Una cuenta rusa agrega un comentario en ruso, lo publica, sus 50 mil seguidores lo comparten. Ahora el contenido es “contenido ruso que habla bien de Irán”, no “propaganda iraní”.
- Botnets coordinados en Pakistán, Nigeria, Tailandia, Indonesia: cuentas fake que comparten automáticamente contenido, generando métricas falsas de engagement. Un video con 10 mil shares reales y 100 mil shares de bots parece viral.
El punto clave: no es un canal. Es un ecosistema. Irán tira contenido al primero, el sistema distribuido hace el resto. Es como lanzar un virus en redes — se autoreplica.
Cómo funciona técnicamente: herramientas y métodos de creación
Acá es donde el problema se vuelve estructural. Ponele que vos querés hacer un deepfake de Trump diciendo algo antisemita. Hace tres años, necesitabas: data de entrenamiento masiva, GPU costosa, expertise en machine learning. Hoy? Abrís Runway (generador de video IA, $180 por mes), escribís un prompt en español, y generás 20 variaciones. Pegás voces con ElevenLabs ($99 por mes). Distribtuís con un script automatizado. Costo operativo: menos de $300 por mes. ROI: decenas de millones de vistas.
Las herramientas que Irán usa son en su mayoría comerciales y públicas:
- Generadores de video: Runway, Pika, Gen-2 (todas accesibles con tarjeta de crédito, sin verificación de identidad si usás VPN).
- Generadores de voz: ElevenLabs, Google Text-to-Speech, Voicelab. Producen síntesis creíbles en cuestión de minutos.
- Modelos de imagen: Midjourney, DALL-E 3, Flux. Las imágenes de “soldadas IA” probablemente salgan de Midjourney, prompt: “beautiful young female soldier, military uniform, heroic pose, photorealistic”.
- Edición y secuenciamiento: Adobe Firefly, CapCut, DaVinci Resolve. Stitchean clips, los enlazan, agregan texto, música.
- Distribución automatizada: bots de Telegram, TikTok automation tools, schedules en Buffer/Hootsuite. Programás 50 videos para publicarse a lo largo de una semana, a diferentes horas, en diferentes cuentas.
Lo relevante es que todas estas herramientas son: baratas, legales en Irán, no tienen restricciones geográficas, y sus términos de servicio (aunque los prohíben) no se verifican. ElevenLabs no puede saber quién las usa ni para qué. Midjourney tampoco (aunque últimamente intenta filtrar, pero los prompts pueden ser vagos).
El progreso tecnológico acelerado significa que el método que se usa hoy se vuelve obsoleto en tres meses. Detectas deepfakes con métodos de microsaccades? En marzo estaban usando eso; en junio, tendrían una herramienta que lo evade. Es un brazo de carreras armamentístico: detección vs. evasión, y la evasión siempre va un paso adelante. Te puede servir nuestra cobertura de plataformas como ChatGPT.
Contramedidas de plataformas: ¿es suficiente?
Las plataformas intentan frenarla. X (Twitter) anunció hace poco:
- Etiquetado obligatorio de contenido sintético: si publicás un deepfake, debes etiquetar “IA generated” o “synthetic media”. Si no, el tweet queda desmonetizado permanentemente. Pena blanda, pero penaliza ingresos.
- Demonetización de cuentas que usen deepfakes sin etiquetar: si Irán o sus distribuidores monetizan videos fake, pierden acceso a ingresos publicitarios.
- Detección automática mediante computer vision: X entrenó modelos para detectar deepfakes de rostros. Pero la detección actual tiene ~70-80% de accuracy; el 20% restante pasa.
TikTok y Meta prometen algo similar. Pero hay un problema de escala colosal: si 2 mil millones de videos se suben a TikTok por día, y vos necesitás revisar manualmente el 0.1% de los sospechosos, eso son 2 millones de videos por día. Con 1000 moder humanos, cada uno revisa 2000 videos. Eso es físicamente imposible.
El verdadero problema es que la regulación es local (cada país tiene sus reglas, cada plataforma tiene sus políticas), pero la propaganda es global. Irán aloja servidores en China, distribuye desde Rusia, amplifica con bots en Nigeria. ¿A quién le cobras? ¿Quién ejecuta? (spoiler: nadie).
Impacto real: cómo los deepfakes cambian la batalla de la información
El impacto no es directo — no es que veas un deepfake y cambies tu voto (aunque algunos estudios sugieren que sí, un 10-15% de la población). El impacto es epistémico. Es decir, erosiona tu capacidad de saber qué es verdadero.
Hasta hace 5 años, si veías un video de un político diciendo algo vergonzoso, tu referencia era: “bueno, alguien grabó esto, está circulando, probablemente sea real”. Hoy, la pregunta es: “¿es deepfake?”. Para verificarlo, necesitás herramientas especializadas, análisis de expertos, a veces acceso a metadatos. El ciudadano promedio no tiene eso. Entonces tu decisión es: creo o no creo. Y la gente tiende a creer lo que ya sospechaba (sesgo de confirmación).
Si ya desconfiabas de Trump, y ves un deepfake donde dice algo antisemita, es probable que lo creas primero y verifiques después (si es que verificás). Irán sabe eso. No está fabricando mentiras objetivas — está amplificando las divisiones que ya existen, proporcionando la evidencia visual que la gente subconscientement buscaba.
El otro impacto es de velocidad. Los métodos de detección de hace 6 meses ya no funcionan. Los papers sobre forensics de deepfakes publicados en 2025 probablemente sean obsoletos en 2026. Los deep fakes de ahora no tienen los artifacts que ves en 2024 (ojos parpadeantes inconsistentes, bordes borrosos). Son casi imperceptibles. Mirá un video por 3 segundos y no notas nada mal — necesitás un análisis frame-by-frame, y aún así los falsos positivos son altísimos. Relacionado: herramientas de IA como Claude.
El riesgo es que el público en general abandone la verificación: “total, cualquier cosa puede ser fake, así que creo lo que quiero”. Es un colapso de la realidad compartida (eso sí, beneficia a Irán, porque una población desorientada es más fácil de influenciar).
Errores comunes al evaluar este problema
Error 1: Asumir que los deepfakes son obvios
La gente dice “es que cualquiera ve que es fake, son demasiado obvios”. Falso. Los deepfakes de 2026 con modelos como Runway son casi indistinguibles de video real en visión superficial. Necesitás expertise para detectar inconsistencias de luz, reflejo en ojos, movimiento de pelo. El consumidor promedio no tiene ese expertise. Un estudio de Stanford (2025) mostró que gente común detecta deepfakes con accuracy de ~60%, no mejor que azar.
Error 2: Creer que etiquetas y disclosure resuelven el problema
Twitter etiqueta deepfakes, pero si el deepfake ya está viralizado (10 millones de vistas), la etiqueta llega tarde. Además, la etiqueta misma genera curiosidad: la gente lo quiere ver justamente porque es “synthetic”. Los avisos de advertencia históricos muestran que la gente muchas veces hace exactamente lo opuesto a lo que el aviso pide.
Error 3: Pensar que Irán es el único que lo hace o que esto es nuevo
Irán es la mejor documentada ahora, pero China tiene operaciones similares desde 2023. Rusia también. Actores no estatales (grupos extremistas, estafadores) también hacen deepfakes. El cambio es la accesibilidad: lo que antes requería laboratorio de IA con GPU, ahora lo hace cualquiera con $50 en herramientas online. Irán simplemente fue el primero en desplegarlo a escala geopolítica masiva.
Tabla comparativa: Métodos de detección de deepfakes y sus limitaciones
| Método de detección | Cómo funciona | Precisión | Limitación clave |
|---|---|---|---|
| Análisis de microsaccades | Monitorea movimientos involuntarios en los ojos durante parpados | 75-85% | Modelos nuevos evaden esto; requiere video de alta resolución |
| Detección de inconsistencias de luz | Analiza si la iluminación en rostro es consistente con fuente de luz | 70-80% | Falsos positivos altos en videos editados normalmente; modelos recientes resuelven esto |
| Análisis de artefactos de compresión | Busca patrones anómalos en cómo se comprime video (típicos en síntesis) | 65-75% | Métodos de evasión conocidos; no funciona en video de calidad alta |
| Watermarking digital | Insertar marca oculta en imágenes generadas al momento de creación | 95%+ | Requiere que todos los generadores lo implementen (no ocurre); fácil de remover |
| Blockchain / verificación de cadena de custodia | Registrar origen criptográfico de media desde captura/generación | 99% | Infraestructura aún no existe; requiere cambio masivo de procedimientos |
| Análisis forense manual por experto | Revisar manualmente frame-by-frame, buscar anomalías, consultar metadatos | 80-90% | Lento, costoso (requiere especialista); no escala a millones de videos |

Qué está confirmado / Qué no
Confirmado
- Irán ha desplegado decenas a cientos de deepfakes en redes sociales (documentado por múltiples think tanks de seguridad).
- Los videos contienen propaganda pro-Irán, crítica a Trump, contenido antisemita (reportado por BBC, euronews, FDD).
- El contenido alcanzó millones de visualizaciones en TikTok, Instagram, X en marzo-abril de 2026.
- Ecosistemas rusos y chinos amplifican activamente el contenido.
- Herramientas IA comerciales (Runway, ElevenLabs, Midjourney) pueden generar deepfakes de calidad en cuestión de minutos.
No confirmado / Especulativo
- Cuántos votos o decisiones políticas cambió el deepfake (estudios sugieren 10-15%, pero es difícil de medir directamente).
- Si Irán tiene un laboratorio de IA estatal dedicado o si subcontratan operadores freelance.
- Presupuesto exacto de la operación (estimaciones van de $500 mil a $5 millones, pero es conjetura).
- Si habrá escalamiento a deepfakes de audio (deepfakes de llamadas telefónicas) en los próximos meses.
Preguntas Frecuentes
¿Qué es la propaganda con inteligencia artificial?
Contenido sintético (video, audio, imágenes) generado con modelos IA y distribuido estratégicamente para influenciar opinión pública, desorientar poblaciones, o amplificar divisiones políticas existentes. La diferencia con propaganda tradicional es la escala y el costo: un operador puede generar cientos de videos por semana con presupuesto de cientos de dólares.
¿Cómo Irán está ganando la guerra de la desinformación?
Combinando dos ventajas: tecnológica (acceso a herramientas IA comerciales baratas) y estratégica (usa símbolos universales en vez de referencias locales, amplifica divisiones reales en vez de fabricar nuevas, distribuye a través de redes de bots coordinados). Mientras Occidente discute regulación, Irán está produciendo y distribuyendo. Eso es ventaja de velocidad. Ya lo cubrimos antes en sistemas como Gemini.
¿Cómo detectar un deepfake?
No hay método infalible. Los indicadores clásicos (ojos que parpadean inconsistentementes, bordes borrosos, artefactos de compresión) funcionaban en 2023, ya no sirven. Los deepfakes de 2026 requieren análisis forense: metadatos, historial de publicación, verificación de fuente. Si es importante para una decisión real, consultá experto. Si es solo por curiosidad o redes sociales, asumí que podría ser fake y verificá antes de compartir.
¿Cuántos deepfakes hay circulando en las redes?
Estimaciones confiables: decenas de miles documentados, probablemente cientos de miles sin documentar. El número crece exponencialmente. En marzo 2026, Irán solo desplegó 110+ únicos en dos semanas. Si otros estados y actores privados hacen lo mismo, estamos hablando de miles nuevos por mes. La mayoría no es política — hay deepfakes de celebridades, estafas, contenido sexual no consentido.
¿Qué hacen las redes sociales contra los deepfakes?
Etiquetar contenido sintético, desmonetizar cuentas con deepfakes, usar modelos de computer vision para detectar, y revisar reportes de usuarios. Pero es carrera de recursos: 2 mil millones de videos por día en TikTok, miles de moderadores, accuracy de detección del 70-80%. El sistema está desbordado. Soluciones reales requieren infraestructura como watermarking digital en el momento de generación (lo que implicaría cambios masivos en cómo funcionan herramientas IA).
Conclusión
Irán ganó la guerra de propaganda de IA porque entendió algo que Occidente no: en redes sociales, universal bate local, volumen bate precisión, velocidad bate regulación. Mientras agencias de EE.UU. escribían reportes sobre deepfakes, Irán ya había generado 110 únicos y alcanzado 1500 millones de vistas. Mientras Twitter escribía políticas, ya estaban distribuidas en ecosistemas que no controlan.
El verdadero cambio es estructural: los deepfakes de ahora son casi indistinguibles, las herramientas para generarlos cuestan $50-200 por mes, la distribución es automática, la detección es lenta. No es que Irán haya inventado algo nuevo — es que los sistemas globales de información se volvieron vulnerables a exactamente lo que Irán está explotando.
A nivel individual: asumí que cualquier video político puede ser fake. Verificá antes de compartir. A nivel de plataforma: etiquetas y avisos no van a resolver esto — se necesita infraestructura técnica de verificación desde el momento de creación. A nivel de gobierno: la regulación tardía no frena operaciones que ya están ejecutándose. Los que actúan primero ganan.
Lo que pasó en marzo de 2026 no es una aberración. Es una prueba de concepto exitosa. Espera que se repita, con más volumen, menos detectable, amplificada por más actores. La era de “if you see it, believe it” terminó. Ahora es: “if you see it, you can’t be sure”. Eso es lo que Irán quería. Y ganó.
Fuentes
- 404 Media — Iran is winning the AI slop propaganda war
- Foundation for Defense of Democracies — Deepfakes on the Front Lines: Iran’s AI Disinformation Campaign
- Euronews — How misinformation and AI deepfakes on social media are reshaping the Iran war
- Pew Research Center — Encuestas sobre confianza en medios e influencia de desinformación
- BBC — Cobertura sobre propaganda iraní y deepfakes en 2026
