¿Por qué ChatGPT siempre elige las mismas palabras?

ChatGPT tiene un sesgo de vocabulario documentado: cuando se le pide elegir una palabra al azar, tiende a elegir siempre las mismas. “Momentum” es una de ellas. Investigadores de la Florida State University y del Instituto Max Planck confirmaron que palabras como “delve”, “robust”, “pivotal” y “meticulous” aumentaron entre un 35% y un 51% en textos generados por IA desde el lanzamiento de ChatGPT en 2022, y que este patrón ya está contagiando el lenguaje humano.

En 30 segundos

  • ChatGPT sobreutiliza palabras como “delve”, “robust”, “pivotal” y “meticulous” porque su entrenamiento las asoció estadísticamente con respuestas bien evaluadas por humanos.
  • El mecanismo se llama momentum lingüístico: los primeros 5 tokens de una respuesta sesgan todo lo que viene después.
  • Investigadores de la FSU encontraron evidencia de que ChatGPT ya está cambiando cómo los humanos hablan, no solo cómo escriben.
  • Los detectores de contenido IA usan exactamente estos patrones predecibles para identificar textos generados.
  • Hay estrategias concretas para evitar que tu texto suene a máquina aunque lo hayas generado con IA.

El fenómeno de las palabras predecibles en ChatGPT

Ponele que le pedís a ChatGPT que elija una sola palabra para describir el crecimiento de una startup. No le das contexto extra, solo esa instrucción. En una proporción estadísticamente ridícula de casos, la respuesta va a incluir “momentum”. No porque sea la mejor palabra. No porque el modelo haya “pensado” en ella. Sino porque en su entrenamiento, “momentum” apareció tantas veces en textos bien evaluados que se convirtió en una especie de respuesta default cuando el modelo enfrenta cierta incertidumbre semántica.

El ChatGPT bias de palabras predecibles no es un bug que Anthropic u OpenAI van a parchear la semana que viene. Es una consecuencia estructural de cómo funcionan los modelos de lenguaje grandes.

“ChatGPT” es un modelo de lenguaje grande (LLM) desarrollado por OpenAI que genera texto prediciendo la siguiente palabra más probable según patrones estadísticos aprendidos durante el entrenamiento con millones de documentos humanos y retroalimentación de evaluadores.

¿Por qué ChatGPT elige siempre las mismas palabras?

La generación de texto en ChatGPT funciona token a token. El modelo no “decide” una respuesta completa y después la escribe: genera cada pieza mirando lo que ya dijo antes y calculando qué viene más probablemente a continuación. Este proceso parece simple, pero tiene consecuencias que no se ven a primera vista.

El RLHF (Reinforcement Learning from Human Feedback) es donde entran en juego los sesgos más interesantes. Durante el entrenamiento, evaluadores humanos calificaron respuestas del modelo, y las respuestas que sonaban “completas”, “profesionales” o “detalladas” recibieron puntuaciones más altas. Esos evaluadores usaban cierto vocabulario. Según la investigación de la FSU, gran parte de los evaluadores de OpenAI provenían de países de habla inglesa no nativa, particularmente Nigeria, donde “delve” es una palabra de uso relativamente común en contextos formales. El modelo aprendió que “delve” sonaba bien. Y lo sobreutilizó a escala masiva.

¿Qué tan masiva? Los artículos científicos publicados desde 2023 muestran aumentos del 35% al 51% en el uso de palabras como “delve”, “intricate”, “groundbreaking” y “ensure”. El origen de ese aumento es prácticamente imposible de atribuir a otra cosa.

El “Five-Token Rule” y el momentum lingüístico

Acá viene lo bueno: hay un mecanismo específico que explica por qué el sesgo se propaga a todo el texto y no solo a palabras aisladas. Más contexto en comportamientos curiosos de ChatGPT.

La “Five-Token Rule” (documentada en análisis independientes publicados en Medium) describe cómo los primeros cinco tokens de una respuesta crean una inercia que sesga todo lo que viene después. Si los primeros tokens establecen un tono formal y académico, el modelo tiende a mantener ese registro durante toda la respuesta, eligiendo palabras más formales de lo necesario, estructurando oraciones de forma más compleja, y usando transiciones que suenan a artículo académico en vez de conversación.

Probalo: pedile a ChatGPT que empiece su respuesta con “Básicamente,” y vas a notar que el resto del texto suena más informal. Pedile que empiece con “This comprehensive analysis…” (sí, en inglés) y la respuesta va a ser considerablemente más inflada. Los primeros tokens son como el molde: el resto del texto se vierte adentro.

Escribís un prompt empezando con “Escribí un análisis profundo sobre…”, el modelo recibe “análisis profundo” como contexto, y de ahí en más el momentum lo lleva a usar “meticulous”, “intricate”, “robust” aunque no se los hayas pedido (spoiler: esto es exactamente lo que pasa el 80% de las veces).

Las palabras más sobreutilizadas por ChatGPT

No todas las palabras infladas son iguales. Algunas aparecen porque el modelo las asocia con respuestas “completas”, otras porque sonaban bien a los evaluadores del RLHF, y otras simplemente porque eran frecuentes en los textos de entrenamiento. La lista no es aleatoria.

PalabraPor qué ChatGPT la sobreutilizaAumento estimado desde 2022
delveFrecuente en textos formales de evaluadores nigerianos~51%
robustAsociada con respuestas “completas” y “sólidas”~48%
pivotalSuena a insight importante, evaluadores la puntuaban bien~42%
meticulousConnota cuidado y profesionalismo~39%
intricateComplejidad percibida = respuesta más valiosa~38%
groundbreakingHype positivo en textos de entrenamiento~35%
ensureLenguaje de documentación técnica sobrerepresentado~35%
streamlineJerga corporativa frecuente en textos de negocio~33%
chatgpt palabras predecibles bias diagrama explicativo

El patrón que se repite: palabras que en contextos específicos suenan profesionales, pero que usadas con la frecuencia que las usa ChatGPT se convierten en marcadores evidentes de texto generado.

Impacto: cómo ChatGPT está cambiando nuestro lenguaje

Lo que parecía ser solo un problema de detección de contenido IA tiene una dimensión más preocupante. Investigadores de la Florida State University publicaron evidencia de que ChatGPT no solo influye en cómo escribimos, sino en cómo hablamos en conversaciones reales.

El fenómeno se llama “acomodación lingüística”: los humanos tendemos inconscientemente a adoptar el vocabulario y patrones de habla de quien nos habla (o escribe). Cuando interactuás con ChatGPT regularmente, tu cerebro empieza a normalizar ese vocabulario. “Delve” empieza a parecerte una palabra común. “Pivotal” se te escapa en una conversación casual.

¿Alguien lo verificó de forma independiente con datos de lenguaje oral? Todavía el corpus es pequeño, pero la FSU tiene evidencia preliminar de que el contagio ya está ocurriendo en conversaciones habladas grabadas entre usuarios frecuentes de ChatGPT. Esto se conecta con lo que analizamos en cómo se compara con otros modelos.

El Instituto Max Planck también trabajó sobre cómo los LLMs están influyendo en el lenguaje escrito a escala: los artículos científicos del período 2023-2026 muestran patrones estadísticos que no existían antes y que son consistentes con contaminación por vocabulario de IA, incluso en papers que no declaran haber usado asistentes de escritura.

Sesgo más allá de las palabras

Las palabras sobreutilizadas son la punta del iceberg. ChatGPT tiene patrones predecibles en múltiples niveles del texto que, combinados, crean una “huella digital” bastante reconocible para cualquiera que sepa qué buscar.

A nivel de frases: “I hope this message finds you well” (la versión en inglés de “espero que este mensaje te encuentre bien”) aparece en una proporción ridícula de emails generados con ChatGPT. Las transiciones formales entre párrafos (“Furthermore,”, “Moreover,”, “It is worth noting that”) son sistemáticamente más frecuentes que en texto humano del mismo nivel de formalidad. La estructura de lista con “firstly… secondly… thirdly…” aparece cuando nadie la pidió.

A nivel de estructura: las respuestas de ChatGPT tienden a ser simétricas. Si el primer punto tiene tres oraciones, los siguientes también van a tener tres oraciones (aproximadamente). Los textos humanos son irregulares por naturaleza; los de ChatGPT, no.

Hay también sesgos ideológicos documentados: el modelo tiende a adoptar posturas “centristas” en temas controversiales, a usar lenguaje más positivo que negativo, y a priorizar ciertos grupos en sus ejemplos. Eso también es predecible y, por lo tanto, detectable.

Cómo detectar contenido escrito por ChatGPT

Los detectores de IA como GPTZero, Originality.ai y el detector nativo de Copilot usan exactamente estos patrones para identificar texto generado. No tienen acceso a “ver” si ChatGPT escribió algo, sino que calculan si el texto es estadísticamente predecible (lo que ellos llaman “perplexity” baja) y si tiene variación de complejidad similar a la humana (“burstiness”).

Si querés hacer una detección rápida y manual, estos son los patrones a buscar:

  • Vocabulario inflado sin necesidad: “delve into”, “meticulous attention”, “robust framework”, “pivotal role”. Si aparecen dos o más en el mismo texto, es una señal.
  • Simetría de párrafos: todos más o menos del mismo largo, todos con estructura similar de sujeto-verbo-objeto-cierre.
  • Ausencia de errores editoriales: los humanos cometen errores de repetición, cambios de voz, inconsistencias. ChatGPT, no.
  • Transiciones formales en exceso: “Furthermore”, “Moreover”, “It is important to note”, “It is worth mentioning”.
  • Listas cuando no las pediste: ChatGPT convierte preguntas simples en bullet points con una frecuencia que ningún humano igualaría.

La ironía es que cuanto más le pedís a ChatGPT que “suene más humano”, más usa algunas de estas palabras específicas que paradójicamente lo delatan. Relacionado: entender cómo funcionan los LLMs.

Estrategias para evitar la huella digital de ChatGPT

Hay formas concretas de usar IA para escribir sin que el resultado se lea como texto de máquina. No requieren abandonar las herramientas; requieren usarlas con más criterio.

Prompt engineering de vocabulario: Podés decirle explícitamente a ChatGPT que evite ciertas palabras. “Escribí este texto sin usar: delve, robust, pivotal, meticulous, intricate, groundbreaking, ensure, streamline.” Funciona parcialmente (el modelo tiene otros patrones), pero reduce la densidad de los marcadores más obvios.

Inyectá irregularidad deliberada: Después de generar el texto, revisá párrafo por párrafo. Si todos tienen el mismo largo, cortá algunos. Si todas las oraciones empiezan con sujeto-verbo, invertí algunas. La irregularidad no es un defecto del texto humano; es una característica.

Reemplazá sinónimos menos comunes: “delve” → “explorar” o “meterse en”. “Robust” → “sólido”, “confiable”, o simplemente describí qué hace en vez de adjetivarlo. “Pivotal” → “clave”, o mejor aún, explicá por qué es importante sin usar adjetivos.

Agregá especificidad concreta: las fechas, los números, los nombres propios y las anécdotas personales son los marcadores más confiables de texto humano porque ChatGPT los evita o los genera de forma genérica cuando no tiene datos reales. Un párrafo que dice “cuando en marzo de 2026 probé esto con un cliente del sector logístico…” es virtualmente imposible de replicar por un modelo sin esa experiencia.

Qué está confirmado / Qué todavía no

  • Confirmado: ChatGPT sobreutiliza palabras específicas en proporciones estadísticamente significativas. Los estudios de la FSU y el análisis de artículos científicos lo respaldan con datos.
  • Confirmado: El mecanismo de momentum lingüístico (los primeros tokens sesgando el resto) es consistente con cómo funcionan los transformers en términos de arquitectura.
  • Confirmado: El uso de estas palabras aumentó en textos académicos y profesionales desde 2022, correlacionando con la adopción masiva de ChatGPT.
  • Todavía no confirmado con datos sólidos: La magnitud exacta del contagio al lenguaje oral. Los estudios de la FSU son preliminares y el corpus es pequeño.
  • Todavía no confirmado: Si OpenAI tiene planes concretos para reducir este sesgo en versiones futuras, o si es una consecuencia inevitable del RLHF.
  • Habría que ver: Si estos patrones aplican igual a GPT-4o mini que a la versión completa, o si los modelos más pequeños tienen sus propios sesgos de vocabulario distintos.

Errores comunes al pensar en este tema

Error 1: Creer que el problema es solo estético. No es que el texto “suene raro”. El ChatGPT bias de palabras predecibles tiene consecuencias prácticas: los detectores de IA te van a marcar el contenido, los editores académicos te van a pedir revisiones, y en contextos de comunicación corporativa, el texto pierde credibilidad percibida. No es un problema de gusto; es un problema de efectividad.

Error 2: Pensar que alcanza con pedirle a ChatGPT que “sea más informal”. Cuando le pedís informalidad, el modelo tiene su propio set de marcadores de informalidad entrenados, que también son predecibles. Cambia el vocabulario inflado por un set diferente de palabras estadísticamente frecuentes en textos informales. El problema de fondo no desaparece. Lo explicamos a fondo en otros prompts que sorprenden a ChatGPT.

Error 3: Asumir que estos patrones son exclusivos de ChatGPT. Claude, Gemini y otros LLMs tienen sus propios sesgos de vocabulario. No son idénticos a los de ChatGPT, pero existen. La diferencia es que ChatGPT es el modelo con mayor adopción masiva, entonces sus patrones contaminan más el corpus general de texto en internet, creando un loop de retroalimentación.

Preguntas Frecuentes

¿Por qué ChatGPT siempre elige las mismas palabras?

ChatGPT elige palabras estadísticamente probables según su entrenamiento. Durante el proceso de RLHF, evaluadores humanos calificaron respuestas con cierto vocabulario como más “completas” o “profesionales”, y el modelo aprendió a replicar ese vocabulario. Palabras como “delve”, “robust” y “pivotal” recibieron valoraciones positivas implícitas y se convirtieron en opciones predeterminadas ante cierta incertidumbre contextual.

¿Cuáles son las palabras más usadas por ChatGPT que debería evitar?

Las más documentadas son: “delve”, “robust”, “pivotal”, “meticulous”, “intricate”, “groundbreaking”, “ensure” y “streamline”. También las frases “it is worth noting”, “it is important to mention”, “furthermore” y “moreover” aparecen con frecuencia inusual. Si tu texto tiene dos o más de estas, hay buenas chances de que un detector de IA lo marque.

¿Cómo afecta el sesgo de palabras al contenido generado con IA?

El sesgo hace que el contenido sea más predecible y por lo tanto más fácilmente detectable como generado por IA. En términos prácticos: los detectores lo marcan con mayor confianza, los lectores entrenados lo identifican visualmente, y en contextos académicos puede derivar en acusaciones de deshonestidad académica. También reduce la especificidad del texto, porque las palabras infladas reemplazan descripción concreta.

¿Es realmente posible que ChatGPT esté cambiando cómo hablo?

Hay evidencia preliminar de que sí. Scientific American publicó en 2026 sobre el fenómeno de acomodación lingüística: los humanos adoptan inconscientemente patrones de quien les habla. Usuarios frecuentes de ChatGPT mostraron en estudios de la FSU una mayor tendencia a usar vocabulario formalmente inflado en conversaciones orales. El mecanismo es el mismo que hace que adoptés expresiones de series que mirás mucho.

¿Cómo evito que mi texto suene como si fue escrito por ChatGPT?

Tres estrategias concretas: primero, usá prompts que explícitamente prohíban las palabras marcadoras. Segundo, reemplazá adjetivos inflados por descripciones concretas (en vez de “robust framework”, describí qué hace el framework). Tercero, inyectá especificidad real: fechas, nombres, números, anécdotas. La especificidad concreta es el marcador más difícil de falsificar para un LLM.

Conclusión

El sesgo de vocabulario de ChatGPT no es una curiosidad técnica. Es un fenómeno que ya está afectando el corpus de texto en internet, la capacidad de los detectores de IA para identificar contenido generado, y según la evidencia más reciente, el lenguaje que los humanos usan en conversaciones reales.

Lo que cambia en 2026 es que este ya no es un problema académico: con la proliferación de contenido generado por IA en publicaciones profesionales, académicas y de medios, el sesgo de vocabulario se amplifica a escala. El loop de retroalimentación es preocupante: más texto con estas palabras en internet significa que los próximos modelos entrenados con ese corpus van a tener el mismo sesgo, o uno más pronunciado.

Para vos como usuario o como responsable de contenido, la conclusión práctica es simple: si usás ChatGPT para escribir, revisá el output con criterio. Las palabras que el modelo elige por defecto no son las mejores para tu contexto; son las más probables según su estadística de entrenamiento. Esa diferencia importa.

Fuentes

Desplazarse hacia arriba