Wikipedia prohibió en marzo de 2026 todo contenido generado directamente con inteligencia artificial, tras una votación comunitaria de 44 a 2. La decisión se suma a bans parciales en Medium, restricciones en Fantia y una regulación europea que obliga a etiquetar contenido IA desde agosto. El motivo: alucinaciones que se filtran en bases de datos, desinformación que se propaga en ciclos de reentrenamiento, y la imposibilidad práctica de detectar con precisión qué es IA y qué no.
En 30 segundos
- Wikipedia votó 44-2 el 20 de marzo de 2026 para prohibir todo texto IA generado directamente en artículos (ChatGPT, Claude, Gemini). Reescribir con IA también está prohibido.
- Las únicas excepciones: correcciones gramaticales (con verificación manual) y borradores iniciales de traducciones (revisables párrafo a párrafo).
- Medium bloqueó contenido IA del Partner Program (no ganas con artículos IA). Fantia levantó parcialmente su ban: títulos y descripciones sí, contenido original no.
- La UE obliga desde agosto 2026 a etiquetar explícitamente todo contenido generado o editado con IA (EU AI Act). Multas: hasta 35 millones EUR o 7% de facturación.
- Los detectores de IA fallan 70-74% de las veces. Plataformas como curl y Stoat rechazaron miles de contribuciones IA. ICML 2026 rechaza papers donde un LLM es autor.
Qué es este ban y por qué importa
Un ban de contenido IA generado es una prohibición directa de publicar o usar texto, código o media producidos automáticamente por un modelo de lenguaje (ChatGPT, Claude, Gemini, Grok). No es lo mismo que una restricción: un ban es absoluto, una restricción da margen. Según el anuncio oficial de Wikipedia, el ban aplica incluso si vos tocás, editás o reescribís el texto después. El motivo es que una máquina participó en la creación original.
¿Por qué pasó esto en marzo 2026 y no antes? Porque empezó a quedar claro que el contenido IA fallido, una vez publicado, entra en ciclos de reentrenamiento: Google lo scrappea, alguien lo usa para entrenar un modelo nuevo, ese modelo genera más errores basados en los errores anteriores. Es un compounding risk (aunque no suele usarse ese término en este contexto). Wikipedia, como fuente autoritativa que se enseña en universidades y que otros sistemas usan para verificar hechos, no quiso ser parte de ese ciclo.
La votación de Wikipedia: 44 a 2
El 20 de marzo de 2026, los editores de la Wikipedia en inglés votaron la Política de Contenido Generado por IA. El resultado: 44 votos a favor, 2 en contra, 0 abstenciones. Eso es prácticamente unánime. La comunidad de Wikipedia (gente que edita hace años, voluntaria, sin pagarles nada) dijo: “no, esto que genera máquinas no entra acá”.
¿Qué los motivó? Tres cosas principales. Primero, la verificabilidad: Wikipedia tiene un pilar que se llama NPOV (Neutral Point of View). Cada afirmación debe citarse de una fuente confiable. Un modelo de lenguaje no tiene fuentes, tiene alucinaciones con confianza. Segundo, la cualidad del contenido: los voluntarios se dieron cuenta de que estaban dedicando tiempo a revisar, corregir y validar artículos que fueron generados en 10 segundos por IA, y luego había que invertir 2 horas en arreglarlo. Tercero, la procedencia: si alguien sacó un párrafo de ChatGPT, reescribió un poco y lo metió en Wikipedia, eso es plagio encubierto. Wikipedia lo vio así.
La política dice textualmente: “Sin ser exhaustiva, las fuentes inaceptables incluyen LLMs (large language models) como ChatGPT, Claude, Gemini, Grok.” Si la máquina escribió 70% del texto, aunque vos toques 30%, la fuente original es inaceptable.
Las dos excepciones: lo que sí está permitido
No es un ban absoluto sin resquicios. Hay dos casos donde IA sí puede entrar, pero con guardrails.
Excepción 1: Correcciones de estilo y gramática (con revisión humana)
Vos podés usar una herramienta de IA para limpiar gramática (Grammarly, Claude en copyediting mode, lo que sea), PERO el resultado tiene que ser revisado palabra por palabra por un humano. No es “genero, pego y publicar”. Es “uso IA como asistente, reviso todo, firmo responsabilidad”. El editor que hace click en “publicar” es responsable de cada palabra. Tema relacionado: políticas corporativas de control de contenido.
Excepción 2: Borradores iniciales de traducciones (verificables párrafo a párrafo)
Si necesitás traducir un artículo existente en Wikipedia a otro idioma, está permitido usar IA como ayuda en la traducción, pero se aplica lo mismo: vos revisás párrafo a párrafo, verificás que la traducción sea correcta, comparás con el original y publicás responsable de lo que sale. No es “meto en DeepL, el AI traduce, listo”.
Las dos excepciones tienen en común: un humano tiene que revisar todo antes de publicar, y ese humano es responsable de la calidad.
Medium, Fantia y otras plataformas: bans parciales
Wikipedia no está sola. A partir de marzo 2026, varias plataformas implementaron restricciones.
Medium: ban del Partner Program
Medium (la plataforma de publicación) no baneó el contenido IA en general, pero lo sacó del Partner Program. Esto significa: podés escribir un artículo con ChatGPT y publicar en Medium, pero no ganas dinero. Cero ingresos. El programa paga a escritores según lecturas. Si tu contenido es IA, no participa en ese fondo. Medida pragmática: no prohibición, pero desincentivo económico.
Fantia: levantamiento parcial
Fantia (plataforma de contenido de creadores, similar a Patreon) originalmente prohibió todo uso de IA. En marzo 2026, levantó parcialmente el ban: ahora permite IA para títulos, descripciones y marketing copy, pero no para contenido original. Los creadores pueden usar IA para “asuntos administrativos” (como generar una descripción de su canal), pero el contenido que vende (historias, arte, videos) tiene que ser hecho por humanos.
Spotify, Apple Music, Deezer: bans en música
En música pasó algo similar. Las plataformas de streaming removieron del discovery y las playlists recomendadas a artistas que usan IA generativa para crear canciones sin participación humana. No es un ban de publicación, es un ban de amplificación: podés subir la canción, pero no entra en playlists, no aparece en algoritmos de recomendación.
La regulación europea: etiquetar es obligatorio desde agosto 2026
Mientras Wikipedia dice “no entra”, Europa toma otra ruta. El EU AI Act (ley que entra en vigencia por fases) dice desde agosto 2026: si publicás contenido generado o alterado con IA, tenés que ponerle una etiqueta explícita. No es un ban, es un requisito de transparencia. Tiene que quedar claro para el usuario: “esto lo hizo una máquina” o “esto lo generó IA”. Para más detalles técnicos, mirá cómo funciona ChatGPT en detalle.
Según la PwC, las sanciones por no etiquetar correctamente son de hasta 35 millones EUR o 7% de la facturación anual de la empresa, lo que sea mayor. Si sos una startup pequeña, la multa es menos, pero los multinacionales que ignoren esto se comen facturación arriba de 300 millones. No es joda.
Diferencia importante: UE = “decí que es IA”, Wikipedia = “no entra IA”. Una es regulación, otra es estándar editorial comunitario.
Por qué los bans surgen ahora: el ciclo de alucinaciones
Ponele que escribís un artículo sobre la Guerra de Crimea con Claude y lo publicás en tu blog. Un modelo de lenguaje entrenado en 2025 no sabe mucho sobre Crimea 2026 (conocimiento de corte 2024-2025), así que alucina. Inventa una cifra, dice un lugar que no existe, mezcla fechas. El artículo sale publicado. Google lo índxa. Alguien usa ese contenido para entrenar un modelo nuevo en 2026. Ese modelo nuevo ahora “aprendió” el error. La próxima vez que alguien le pide un artículo sobre Crimea, repite el error, lo expande, agrega más alucinaciones en capas. Compounding risk.
Ese es el ciclo. Es por eso que Wikipedia, en particular, dijo basta. Porque Wikipedia es la fuente de verdad que entrenan otros sistemas. Si Wikipedia tiene errores propagados por IA, esos errores se multiplican en 10 generaciones de modelos siguientes.
Otro factor: neutralidad. Ojo acá. Un LLM siempre tiene un sesgo implícito en cómo describe cosas. No es neutral porque está entrenado con datos que ya llevan sesgos. Wikipedia busca neutralidad documentada. IA no puede garantizar eso sin que un humano verifique.
El dilema de la detección: cómo saben si es IA
Acá viene lo frustrante. Los detectores de IA tienen tasas de error entre 70-74%. Eso significa: de cada 100 textos IA, detectan alrededor de 26-30. Fallan mucho. Además, si vos querés pasar un detector, hay técnicas: escribir muy mal a propósito, mezclar con copy human, agregar typos. El sistema de detección está roto.
Wikipedia resuelve esto con voluntarios que leen. Los editores mantienen sus ojos abiertos a patrones sospechosos: párrafos con cierta vaguedad, frase hechas de bot, estructuras repetidas, datos que suenan plausibles pero sin verificación. Luego revisan con un modelo detector y buscan en el histórico de ediciones si alguien levantó un contenido de ChatGPT directamente. No es perfecto, pero es mejor que confiar en un detector automático. Cubrimos ese tema en detalle en sobre los modelos GPT de OpenAI.
Medium admitió en marzo de 2026 que “ningún detector de IA funciona a escala de millones de artículos”. Así que tomó la ruta económica: quitó incentivos.
Casos concretos: Stoat, curl y ICML 2026
Stoat elimina código IA-generado
Stoat, una plataforma de revisión de código automática, anunció en febrero 2026 que eliminaba todos los comentarios y sugerencias generados por IA. ¿La razón? Los usuarios reportaron que el código sugerido por IA tenía bugs sutiles, vulnerabilidades de seguridad, y peor: parecía correcto a primera vista. El daño potencial era mayor que la ayuda. Stoat decidió: mejor sin IA que con IA de mala calidad.
curl rechaza 95% de bug bounties IA-generados
curl (la herramienta de red, de código abierto) observó en marzo 2026 que el 95% de los reportes de bugs que llegaban eran generados por IA y eran falsos positivos, reportes duplicados o directamente alucinaciones. Un hacker con IA podía producir 100 reportes de bugs falsos en una hora. Eso saturaba al equipo de curl. Resultado: ahora, si el reporte tiene firma de IA generativa, rechaza automático.
ICML 2026: papers sin LLMs como autores
La International Conference on Machine Learning de 2026 implementó una política clara: si un LLM es autor directo de un paper (no solo asistencia, sino autor), el paper se rechaza automático. La conferencia consideró que un LLM no puede ser responsable científicamente de lo que escribió. Responsabilidad académica = humano responsable. Si un humano usó IA como ayuda de escritura, eso está bien (tiene que declararse). Pero si el LLM generó el contenido científico original, no entra.
Errores comunes al interpretar estos bans
Error 1: Pensar que es un ban a “usar IA” en general
No es así. Wikipedia baneó “contenido generado por IA”, no “usar IA como herramienta”. Si vos usás Claude para investigar un tema, tomar notas, estructurar ideas, y luego escribís vos mismo el artículo, eso está permitido. Lo que está prohibido es publicar directamente lo que la máquina generó, aunque lo edites después.
Error 2: Pensar que los bans son permanentes
Fantia levantó su ban en marzo después de meses. Wikipedia podría revisar la política en 2027 o 2028 si los detectores mejoran y los LLMs generan menos alucinaciones. Los bans son políticas vivas, no piedra. Pero en 2026, la tendencia es: cierre.
Error 3: Confundir “ban de plataforma” con “ley”
Wikipedia decide sus políticas. Medium decide las suyas. La UE impone regulación. Son tres niveles diferentes. Una plataforma puede ser más o menos restrictiva que la ley. Donweb, si hospedara contenido IA, tendría que respetar tanto los bans de las plataformas donde se publica como la regulación EU si opera en Europa.
Tabla comparativa: políticas de IA por plataforma y región
| Plataforma / Región | Política | Efectivo desde | Excepciones | Sanciones |
|---|---|---|---|---|
| Wikipedia (en) | Ban total a contenido IA generado | 20 marzo 2026 | Copyediting + borradores iniciales (revisables) | Eliminación de artículos, bloqueo de usuario |
| Medium | Ban del Partner Program (no ingresos) | Marzo 2026 | Podés publicar, pero sin monetización | Pérdida de ingresos |
| Fantia | Levantamiento parcial: IA sí en metadata, no en contenido | Marzo 2026 | Títulos, descripciones, marketing copy | Eliminación de contenido, downrank |
| Spotify/Apple Music/Deezer | Ban de amplificación (no discovery, no playlists) | Febrero-Marzo 2026 | Podés subir, pero algoritmos ignoran | Cero visibilidad, sin ingresos |
| Unión Europea (EU AI Act) | Obligación de etiquetar contenido IA desde agosto 2026 | 1 agosto 2026 | Ninguna (transparencia obligatoria) | Multas hasta 35M EUR o 7% facturación anual |

Preguntas Frecuentes
¿Qué plataformas han prohibido el contenido generado por IA en 2026?
Wikipedia hizo el ban total más agresivo el 20 de marzo. Medium quitó incentivos económicos (Partner Program). Fantia levantó parcialmente (permite en metadata, no en contenido). Stoat y curl rechazaron código IA automático. Spotify, Apple Music y Deezer no amplificaron música IA. ICML rechazó papers donde LLM es autor. Te puede servir nuestra cobertura de alternativas como Gemini de Google.
¿Se puede usar IA para editar o mejorar contenido?
Depende de la plataforma. En Wikipedia, sí, pero el resultado tiene que ser revisado palabra por palabra por un humano responsable. En Medium, podés usar IA, pero no ganas dinero. La clave es: quién es responsable del contenido final. Si es un humano que revisó todo, está más cerca de permitido. Si es “IA generó, yo publiqué tal cual”, es prohibido.
¿Cómo detectan si un contenido fue generado por IA?
Los detectores automáticos fallan 70-74% de las veces. Plataformas usan una combinación: detectores (imperfectos), voluntarios que leen con ojo crítico, análisis de históricos de ediciones (si alguien copió de ChatGPT directamente), y reportes de comunidad. Es más humano que técnico.
¿La regulación europea prohíbe contenido IA?
No prohíbe, obliga a etiquetar. Desde agosto 2026, si publicás contenido generado o editado con IA en Europa, tiene que estar explícitamente etiquetado. La multa es de hasta 35 millones EUR o 7% de facturación anual. Es transparencia obligatoria, no prohibición.
¿Qué significa esto para creadores independientes?
Si publicás en Wikipedia, no metas IA directa. Si publicás en Medium, podés usar IA pero sin ingresos. Si publicás contenido en Europa, etiqueta si usaste IA. Si creás música, ojo: plataformas no te darán visibilidad si es 100% IA. La tendencia 2026 es: transparencia + penalización económica, no bloqueo legal (salvo Wikipedia que es comunitario).
Conclusión
Marzo de 2026 marcó un punto de inflexión. No fue un “todo se prohibió”, fue más sutil: Wikipedia cerró la puerta directamente, Medium desincentivó económicamente, la UE exigió transparencia, plataformas de streaming mataron amplificación. El mensaje fue claro: contenido IA sin verificación humana no es bienvenido donde hay reputación en juego.
Esto pasó porque detectamos un problema real: ciclos de alucinaciones propagadas, errores que se multiplican entre generaciones de modelos, saturación de voluntarios con tareas de verificación, y falta de responsabilidad clara (una máquina genera algo falso, ¿quién firma?). La solución no fue “prohibir IA” sino “exigir responsabilidad humana”. Si un humano revisó, firmó y es responsable del contenido IA, eso es distinto a “un bot publicó esto”.
Para 2027, espera que los detectores mejoren (pero no resuelvan completamente), que más plataformas implementen políticas similares, y que la regulación europea sea el estándar global. Los bans no son permanentes, pero reflejan que la confianza en contenido sin verificación es cero ahora mismo.
Fuentes
- MediaNama — Wikipedia bans AI-generated text (política oficial de Wikipedia)
- WWhatsnew — Wikipedia prohibe texto generado IA con excepciones
- The Outpost — Wikipedia editors vote 44-2 against LLM content
- PwC — Regulación UE exige etiquetado explícito de contenido IA
- Automaton Media — Fantia levanta parcialmente ban en IA
