Un estudio de USC publicado en marzo de 2026 revela que los LLMs están estandarizando cómo escribimos, pensamos y razonamos. Investigadores liderados por Zhivar Sourati, PhD en la USC Viterbi School of Engineering, descubrieron que cuando la expresión humana pasa por los mismos modelos de lenguaje, la variabilidad natural desaparece, produciendo patrones de pensamiento cada vez más uniformes. Esto representa un riesgo significativo para la diversidad cognitiva colectiva.
En 30 segundos
- Los outputs de LLMs son menos variados que la escritura humana natural.
- Usuarios adoptan patrones, vocabulario y estrategias de razonamiento de los chatbots de IA.
- Esto reduce la diversidad cognitiva tanto individual como a nivel grupal y colectivo.
- Riesgo: pérdida de sabiduría colectiva, menor creatividad grupal y capacidad adaptativa reducida.
- Solución: entrenamientos con mayor diversidad real en datos, no solo sobre-muestreo de patrones occidentales.
¿Qué es la homogenización por LLM?
La homogenización por LLM es el proceso mediante el cual el uso repetido de modelos de lenguaje de IA estandariza cómo las personas escriben, razonan y se expresan, reduciendo la variabilidad natural de la expresión humana. Ponele que vos escribís de forma A, tu colega de forma B, tu amigo de forma C. Cada uno con su estilo, sus giros idiomáticos, su forma particular de estructura un argumento. Ahora dale a los tres ChatGPT o Claude. Los tres generan respuestas bajo el mismo “techo de probabilidad” estadístico, y de repente el estilo A, B y C convergen hacia un patrón central. No es que el IA sea malo, es que los modelos actúan como un tamiz que deja pasar lo común y retiene lo extraño.
Esto no es intencional ni malicioso. Es un artefacto del entrenamiento: los LLMs capturan las regularidades estadísticas más frecuentes en sus datos de entrenamiento. Si esos datos provienen en su mayoría de internet occidental, el modelo refleja esos patrones. Cuando billones de usuarios se exponen al mismo modelo, la convergencia es inevitable.
El estudio de USC que lo confirma
La investigación publicada en Trends in Cognitive Sciences de Cell Press, liderada por Zhivar Sourati, PhD student en USC Dornsife College of Letters, Arts and Sciences, comparó outputs de LLMs con escritura humana natural. El hallazgo es directo: los modelos de lenguaje producen respuestas significativamente menos variadas que los humans escribiendo solos. Dicho de otro modo, si le hiciste la misma pregunta a 10 personas diferentes, obtenés 10 respuestas diferentes. Si se la hacés a ChatGPT 10 veces (con temperatura variada), obtenés 8-9 respuestas similares. Eso es el problema.
Los investigadores enfatizan que “individuos difieren en cómo escriben, razonan y ven el mundo. Cuando esas diferencias son mediadas por los mismos LLMs, su estilo lingüístico distinto, perspectiva y estrategias de razonamiento se homogeneizan, produciendo expresiones y pensamientos estandarizados entre usuarios.” Imaginate que eso continúe 5 años más, con cada generación de estudiantes usando IA para escribir trabajos, cada ejecutivo usando IA para memos, cada desarrollador usando IA para código. La variabilidad se erosiona en cada iteración.
Mecanismo: cómo los LLMs estandarizan la expresión
El mecanismo tiene tres patas. Primero, los datos de entrenamiento son sesgados (dominan patrones repetidos, idiomas occidentales, formas de pensar documentadas en textos anglosajones). Segundo, los usuarios adoptan sugerencias del modelo porque, bueno, funciona. Probás, ves que te da una respuesta coherente, la usás, y de a poco tu forma de escribir migra hacia patrones que reconoce el modelo. Tercero, la exposición repetida refuerza los hábitos: cuanto más usás IA, más internalizás sus patrones de expresión, y es difícil volver atrás. Cubrimos ese tema en detalle en políticas de gobernanza en sistemas de IA.
Lo interesante es que el usuario típico no lo percibe como sometimiento, sino como eficiencia. “Me ahorra tiempo,” pensás. Y es verdad. Pero el costo es silencioso: perdés responsabilidad creativa sobre tu propio estilo. Es como tomar el mismo café en el mismo lugar todos los días durante años. Al principio era elección. Al final es automatismo.
Impacto en tu estilo individual
A nivel individual, esto significa pérdida de autenticidad expresiva. Tu forma particular de pensar un problema, tus giros idiomáticos, tu perspectiva única sobre un tema (spoiler: la que te costo años construir) se erosionan cuando delegás a un modelo la tarea de expresarlo. No es dramático de inmediato. Es gradual. Escribís un párrafo con IA, te gusta el resultado, lo usás como base para el siguiente, y en tres interacciones tu voz se convirtió en la voz del modelo.
Esto es especialmente preocupante para escritores, pensadores y creativos. Tu estilo es tu diferenciador. Si todos usamos la misma IA, todos tenemos el mismo diferenciador (que, paradójicamente, no diferencia a nadie).
La paradoja de creatividad grupal
Acá viene lo contraintuitivo. A nivel individual, vos generás MÁS ideas con LLM. El modelo te ayuda a iterar rápido, explora variantes, te propone ángulos. Pero a nivel grupal pasa lo opuesto: equipos que usan LLM generan MENOS ideas distintas que equipos sin IA. ¿Por qué? Porque el LLM actúa como convergencia hacia soluciones similares. Si tu equipo hace brainstorming con ChatGPT, todos llegan a ideas en el mismo “cono de soluciones” que el modelo considera válidas. El equipo sin IA, aunque genere ideas más lentamente, explora un espacio de soluciones más ancho. Relacionado: cómo ChatGPT procesa el lenguaje.
Pensalo: imagina un diseño thinking session, subís conceptos a Claude, te devuelve 5 variantes, tu equipo elige la que más brilla, la refina, y termina construyendo una de esas 5. Ahora compará con un equipo que sin IA hace el mismo ejercicio. Van a errar más, van a tardar más, pero potencialmente llegan a algo completamente diferente porque no hay un filtro estadístico homogeneizador.
El sesgo WEIRD: dominancia occidental en datos de entrenamiento
WEIRD es un acrónimo: Occidental, Educado, Industrializado, Rico, Democrático. Los LLMs capturan regularidades estadísticas de datos dominantes, y esos datos son abrumadoramente WEIRD. La mayoría del entrenamiento proviene de internet anglosajon, textos académicos occidentales, github (desarrolladores de Occidente), Reddit (usuarios primariamente de EE.UU. y UK). Resultado: el modelo refuerza formas occidentales de pensar, marginaliza otros modos de razonamiento, perpetúa sesgos culturales sin que nadie lo nótice explícitamente.
Cuando un usuario de otra región usa el modelo, obtiene respuestas que reflejan ese sesgo, las adopta porque funcionan, y de a poco su forma de pensar migra hacia patrones occidentales. Es colonialismo cognitivo sin conquistadores visibles.
Riesgos a largo plazo para la humanidad
Si esto continúa sin control, los riesgos son profundos. Primero, reducción de sabiduría colectiva. La sabiduría colectiva emerge de la diversidad de perspectivas. Homogenización la destruye. Segundo, menor capacidad de adaptación. Cuando todos pensamos igual, nos falta la variabilidad para responder a cambios inesperados. Tercero, billones de personas usando los mismos chatbots significa que la forma en que la humanidad piensa y resuelve problemas tiende a converger hacia lo que esos modelos consideran razonable. Eso es un riesgo civilizacional. Complementá con limitaciones y sesgos de GPT.
Imaginate una crisis que requiere una solución creativa, algo “fuera de la caja.” Si la caja fue diseñada por distribuciones estadísticas de internet, y todos dentro de esa caja piensan igual, la probabilidad de que alguien piense fuera baja exponencialmente.
Soluciones: entrenamientos con diversidad real
Los investigadores de USC recomiendan que los desarrolladores de IA incorporen más diversidad real en los datos de entrenamiento. No sobre-muestreo artificial (generar datos “diversos” sintéticamente), sino verdadera diversidad: voces no-occidentales, modos de razonamiento diferentes, perspectivas marginales. Eso no solo preserva la diversidad cognitiva humana, sino que mejora las habilidades de razonamiento del LLM en sí.
Además, necesitamos ajustar cómo interactuamos con IA. No es “usar más,” es “usar diferente.” Usar LLM como herramienta de exploración, no de substitución. Dejar espacios para pensar sin IA. Mantener prácticas que generen variabilidad: escritura libre, brainstorming tradicional, debate con personas que piensan diferente.
Errores comunes sobre la homogenización por LLM
Creer que es solo un problema de escritores
La homogenización afecta a cualquiera que use LLM. Desarrolladores que usan Copilot adoptan patrones de código similares. Investigadores que usan ChatGPT para literatura review terminan con conclusiones que el modelo considera “válidas.” Emprendedores que usan IA para pitch decks presentan el mismo narrative arc. No es un problema de escritores. Es un problema de pensamiento. En el diseño de Gemini profundizamos sobre esto.
Asumir que la estandarización es igual a la mala calidad
Aquí está la trampa: los outputs de LLM son a menudo de buena calidad. Son coherentes, bien estructurados, gramaticalmente correctos. Por eso la gente los usa. Pero buena calidad ≠ diversidad de pensamiento. Podés tener mil outputs de excelente calidad y todos iguales. El problema no es la calidad individual, es la convergencia colectiva.
Pensar que personalizar prompts resuelve el problema
Muchos creen que si le das un prompt detallado al modelo, obtenés diversidad. Parcialmente cierto. Pero el espacio de soluciones sigue siendo limitado por la arquitectura del modelo. Podés variar la temperatura, ajustar instrucciones, iterar. El modelo sigue convergiendo hacia sus distribuciones de probabilidad entrenadas. Es como creer que cambiar el filtro del café arregla el problema de tomar café todos los días.
| Aspecto | Escritura humana natural | Outputs de LLM |
|---|---|---|
| Variabilidad expresiva | Alta (cada persona diferente) | Baja (convergencia hacia patrones centrales) |
| Diversidad de perspectivas | Amplia (múltiples modos de pensar) | Limitada (reflejan datos de entrenamiento) |
| Sesgos culturales | Variados según origen | Sistemáticamente WEIRD |
| Creatividad grupal | Exploración amplia de soluciones | Convergencia hacia soluciones “probables” |
| Adaptabilidad a cambios | Alta (variabilidad permite innovación) | Baja (limitada a patrones entrenados) |

Preguntas Frecuentes
¿Cómo detectar si mi escritura se volvió homogeneizada?
Compará tu escritura de hace 2 años con la de hoy. Si antes tenías expresiones únicas, estructuras variadas, saltos lógicos particulares, y ahora todo es más “redondo,” más estructurado, menos riesgoso, probablemente usaste LLM como herramienta de refinamiento. Pedile a alguien que no te conoce que lea párrafos tuyos sin contexto: si puede aislar pasajes que “parecen de IA,” hay un problema.
¿Los LLMs más nuevos tienen menos sesgo WEIRD?
Estudios recientes sobre diversidad en entrenamiento sugieren que algunos modelos se esfuerzan por incluir voces no-occidentales, pero la dominancia estadística de datos WEIRD sigue siendo enorme. Gemini de Google ha mejorado en representación cultural que sus versiones anteriores, pero el problema persiste. No es un check-list que resuelves en una release.
¿Significa que debo dejar de usar IA completamente?
No es blanco o negro. La idea es usar IA como herramienta de exploración, no de substitución de pensamiento. Usar para generar variantes, sí. Usar para delegar el pensamiento mismo, no. Si sos productor de contenido y tu valor es tu voz, protegé tu voz. Si usás IA para tareas administrativas, el riesgo es menor.
¿Qué están haciendo los desarrolladores de LLMs para evitar la homogenización?
Algunos como Anthropic (makers of Claude) están investigando formas de entrenar con mayor diversidad de perspectivas. Otros como OpenAI enfatizan fine-tuning y feedback del usuario para reducir sesgos. Pero es un problema de sistemas: mientras los datos de entrenamiento reflejen dominancia WEIRD, el sesgo persiste. Se necesita inversión en curación de datos no-occidentales y entrenamiento con representación deliberada.
¿Qué pasa si trabajo en una empresa que depende de IA para productividad?
Implementá controles: dedica espacios de brainstorming sin IA, diversifica fuentes de inspiración, mantén personas que piensen diferente en tu equipo (eso es un hedge contra la convergencia). Los modelos como donweb.com usa en sus procesos de content, por ejemplo, mezclan generación IA con revisión editorial humana que introduce variabilidad deliberada. No es perfecto, pero es mejor que delegar completamente.
Conclusión
El estudio de USC en marzo de 2026 confirma lo que muchos sospechaban: los LLMs no son neutros. Actúan como filtros que estandarizan la expresión humana, reducen variabilidad cognitiva y, sin intención, homogenizan cómo pensamos. Esto es grave a nivel colectivo porque la sabiduría colectiva depende de diversidad. Si todos convergemos hacia los mismos patrones de pensamiento, perdemos la capacidad de adaptarnos a lo inesperado.
Lo positivo es que no es inevitable. Requiere decisión deliberada: desarrolladores de IA priorizando diversidad en entrenamiento, usuarios siendo conscientes de cómo usan la herramienta, equipos manteniendo espacios de pensamiento sin IA. La homogenización no es un bug de los LLMs. Es un artefacto del cómo los entrenamos y usamos. Si cambiamos eso, cambiamos el resultado.
