
Los errores comunes de ChatGPT van desde fallos técnicos como el error 429 o “Something went wrong” hasta problemas más profundos como las alucinaciones, donde el modelo inventa datos con total convicción. Según el propio informe de OpenAI de 2025, incluso sus modelos más avanzados siguen generando información falsa en un porcentaje significativo de respuestas. Acá te explico cada error, por qué ocurre y cómo solucionarlo.
En 30 segundos
- ChatGPT presenta errores técnicos frecuentes (429, 1020, “Something went wrong”) que generalmente se resuelven esperando unos minutos, limpiando caché o desactivando VPN.
- Las alucinaciones —cuando el modelo inventa datos, citas o fuentes— siguen siendo un problema estructural: GPT-4o mostraba tasas de alucinación cercanas al 20%, y aunque GPT-5 las redujo a menos del 5%, no las eliminó.
- La mayoría de los errores de uso vienen de prompts vagos, falta de contexto y confianza ciega en las respuestas sin verificación.
- Con técnicas de prompting adecuadas y herramientas de verificación complementarias, podés reducir drásticamente los errores y sacarle mucho más provecho a ChatGPT.
ChatGPT es un modelo de lenguaje desarrollado por OpenAI que genera texto a partir de patrones estadísticos aprendidos durante su entrenamiento. No “entiende” ni “sabe” en el sentido humano: predice la siguiente palabra más probable en una secuencia, lo que explica tanto su utilidad como sus limitaciones fundamentales.
Errores técnicos de ChatGPT: códigos y mensajes frecuentes
Antes de hablar de alucinaciones o malos prompts, hay una capa de errores puramente técnicos que frustra a millones de usuarios. Son los mensajes crípticos que aparecen cuando intentás usar ChatGPT y algo falla del lado del servidor, de tu conexión o de tu cuenta. Según la documentación oficial de OpenAI, estos son los más comunes.
Error 429 (Too Many Requests): aparece cuando mandaste demasiadas solicitudes en poco tiempo. OpenAI aplica rate limiting tanto a usuarios gratuitos como de pago, aunque con umbrales distintos. La solución es simple: esperá entre 60 segundos y 5 minutos antes de volver a intentar. Si usás la API, implementá un backoff exponencial en tu código.
Error 1020 (Access Denied): este es un bloqueo de Cloudflare, el servicio de seguridad que protege los servidores de OpenAI. Suele saltar cuando tu IP fue marcada como sospechosa, estás usando una VPN con IP compartida, o un bot de tu red está generando tráfico anómalo. Desactivá la VPN, probá desde otra red o esperá unas horas.
Error 401 (Unauthorized): tu sesión expiró o hay un problema con la autenticación. Cerrá sesión, borrá cookies del navegador y volvé a loguearte. Si usás la API, verificá que tu API key sea válida y no haya expirado.
Error 403 (Forbidden): tu cuenta no tiene permisos para acceder al recurso solicitado. Puede pasar si tu suscripción venció, si estás intentando usar un modelo al que no tenés acceso (GPT-4 sin suscripción Plus, por ejemplo), o si OpenAI restringió tu cuenta por violar los términos de uso.
“Something went wrong”: el mensaje más genérico y frustrante. Puede significar casi cualquier cosa: un error interno del servidor, un problema con tu solicitud, o una falla temporal en la infraestructura de OpenAI. Lo primero es verificar status.openai.com. Si el servicio está operativo, recargá la página, probá en modo incógnito y si persiste, esperá 15-20 minutos.
Network Error: aparece cuando la conexión se interrumpe mientras ChatGPT genera la respuesta. Es especialmente común en respuestas largas. Verificá tu conexión a internet, desactivá extensiones del navegador que puedan interferir (ad blockers agresivos, por ejemplo) y probá acortar tu solicitud para que la respuesta sea más breve. Si te interesa, podes leer mas sobre nuestra guía completa sobre GPT.
ChatGPT no funciona: causas más comunes y soluciones paso a paso
A veces ChatGPT no tira un código de error específico. Simplemente no carga, se queda en un loop infinito de “pensando”, o la interfaz se congela. Esto es distinto a un error técnico puntual: es el servicio que directamente no responde.
La causa más frecuente es la sobrecarga de servidores. OpenAI atiende a más de 200 millones de usuarios activos semanales (dato de 2025), y en horarios pico —especialmente entre las 9 AM y las 6 PM hora del este de Estados Unidos— la plataforma puede saturarse. Los usuarios gratuitos son los primeros en sentirlo, porque OpenAI prioriza el acceso de suscriptores de pago.
Seguí esta guía de troubleshooting ordenada de lo más simple a lo más complejo:
- Verificá el estado del servicio: entrá a status.openai.com. Si hay un incidente activo, no hay nada que puedas hacer más que esperar.
- Recargá la página: un Ctrl+Shift+R (recarga forzada) suele resolver problemas de caché estático.
- Limpiá caché y cookies: andá a la configuración de tu navegador, borrá los datos de sitio de openai.com y chat.openai.com.
- Probá en modo incógnito: si funciona ahí, el problema es una extensión o configuración de tu navegador.
- Desactivá la VPN: muchas VPN usan IPs compartidas que Cloudflare marca como sospechosas. Desactivala temporalmente para descartar.
- Cambiá de navegador: si usás un navegador basado en Chromium con muchas extensiones, probá en Firefox limpio o viceversa.
- Revisá tu conexión: hacé un test de velocidad. ChatGPT necesita una conexión estable (no necesariamente rápida) porque la respuesta llega en streaming.
- Desactivá extensiones: ad blockers como uBlock Origin, extensiones de privacidad y userscripts pueden interferir con los websockets que ChatGPT usa para el streaming de respuestas.
Si después de todo esto sigue sin funcionar, el problema probablemente sea del lado de OpenAI. Esperá 30-60 minutos y volvé a intentar.
Alucinaciones: cuando ChatGPT inventa datos, citas y fuentes
Este es el error más peligroso de ChatGPT, y no es técnico sino estructural. Las alucinaciones ocurren cuando el modelo genera información que suena perfectamente coherente y convincente, pero es completamente falsa. No es un bug: es una consecuencia directa de cómo funcionan los modelos de lenguaje.
ChatGPT no consulta una base de datos ni verifica hechos. Genera texto prediciendo qué palabra es más probable que siga a la anterior, basándose en patrones de su entrenamiento. Cuando “no sabe” algo, no dice “no sé” — genera la respuesta que estadísticamente encaja mejor con el patrón. Y muchas veces esa respuesta es un invento.
Según un informe de OpenAI de 2025 cubierto por Infobae, las alucinaciones son matemáticamente inevitables en los modelos de lenguaje actuales. GPT-4o mostraba una tasa de alucinación cercana al 20.6% en benchmarks de factualidad, mientras que GPT-5 logró reducirla a alrededor del 4.8%. Una mejora notable, pero lejos de cero.
El caso más emblemático es Mata v. Avianca (2023). Un abogado neoyorquino, Steven Schwartz, usó ChatGPT para investigar precedentes legales y citó seis casos judiciales en su escrito. Ninguno existía. ChatGPT había inventado nombres de casos, números de expediente, citas textuales de jueces y referencias a páginas de reportes legales — todo con un nivel de detalle que hacía imposible sospechar sin verificar. El abogado fue sancionado y el caso se convirtió en referencia mundial sobre los riesgos de confiar en IA sin verificación.
Otro ejemplo: en 2023, el alcalde australiano Brian Hood fue falsamente identificado por ChatGPT como culpable de un caso de sobornos corporativos. En realidad, Hood había sido el denunciante del caso, no el acusado. El modelo confundió roles porque en los textos de entrenamiento su nombre aparecía asociado al caso, pero sin la distinción correcta de su participación. Si te interesa, podes leer mas sobre herramientas de desarrollo con IA.
Errores de uso: malas prácticas al escribir prompts
Muchos de los “errores” que la gente le atribuye a ChatGPT son en realidad errores de quien escribe el prompt. La calidad de la respuesta depende directamente de la calidad de la instrucción. Basura entra, basura sale — aplica acá tanto como en cualquier sistema informático.
Prompts vagos sin contexto: pedirle a ChatGPT “explicame machine learning” es como preguntarle a un profesor “explicame ciencia”. ¿Para qué nivel? ¿Con qué enfoque? ¿Para qué uso? Sin contexto, el modelo tira una respuesta genérica que no le sirve a nadie en particular.
| Prompt malo | Prompt mejorado | Por qué funciona mejor |
|---|---|---|
| “Explicame machine learning” | “Explicame machine learning para un equipo de marketing que quiere entender cómo funciona la recomendación de productos en su e-commerce. Usá analogías simples, sin fórmulas.” | Define audiencia, contexto y formato |
| “Escribime un mail” | “Escribime un mail profesional pero cordial para pedirle a un proveedor que extienda el plazo de pago de una factura de $15.000 USD que vence el viernes. Tono: firme pero amable.” | Da situación concreta, tono y datos |
| “¿Qué es mejor, React o Vue?” | “Compará React y Vue para un proyecto de dashboard interno con 3 desarrolladores junior. Priorizá: curva de aprendizaje, ecosistema de componentes y soporte a largo plazo.” | Especifica criterios de evaluación y contexto |

Prompts demasiado largos y confusos: meter 500 palabras de contexto desordenado tampoco ayuda. ChatGPT pierde el foco cuando el prompt tiene múltiples instrucciones contradictorias o ambiguas. Mejor dividir la tarea en pasos y hacer varias consultas encadenadas.
Sesgo de confirmación en la pregunta: si le preguntás “¿por qué Python es mejor que JavaScript?”, ChatGPT va a argumentar a favor de Python porque la pregunta ya contiene esa premisa. Es un sesgo de complacencia: el modelo tiende a alinearse con la postura implícita en tu pregunta. Reformulá de forma neutral: “Compará las ventajas y desventajas de Python vs JavaScript para desarrollo backend”.
No iterar sobre la respuesta: muchos usuarios aceptan la primera respuesta como definitiva. ChatGPT funciona mejor en conversación. Si la primera respuesta es incompleta o genérica, pedile que profundice, que dé ejemplos, que reconsidere. La iteración es donde está el verdadero valor.
Errores de confianza: usar ChatGPT sin verificar la información
Este es, para mí, el error más grave y el más extendido. No es un problema de ChatGPT sino de cómo lo usamos. Hay un fenómeno bien documentado en psicología cognitiva llamado sesgo de automatización: la tendencia humana a confiar excesivamente en sistemas automatizados, incluso cuando hay señales de que están fallando.
Con ChatGPT, este sesgo se potencia porque las respuestas están redactadas con una confianza y fluidez que imita la de un experto. No hay indicadores visuales de “ojo, esto lo inventé”. El texto sale igual de pulido cuando cita un dato real que cuando fabrica uno. Según investigadores de la UOC, esta confianza excesiva es uno de los principales riesgos del uso de herramientas de IA generativa en ámbitos académicos y profesionales.
Situaciones concretas donde la confianza ciega es especialmente peligrosa:
- Documentos legales: como demostró el caso Mata v. Avianca, usar respuestas de ChatGPT en escritos legales sin verificar puede tener consecuencias profesionales graves. Nunca cites jurisprudencia generada por un LLM sin comprobar en bases de datos oficiales.
- Datos numéricos y estadísticas: ChatGPT inventa estadísticas con una naturalidad alarmante. Un “según un estudio de Harvard de 2023, el 73% de las empresas…” puede ser completamente ficticio. Siempre pedí la fuente y verificala manualmente.
- Información médica: ChatGPT puede dar información de salud incorrecta o desactualizada con el mismo tono autoritativo que usa para respuestas correctas. Jamás tomes decisiones médicas basándote en un chatbot.
- Código de producción: el código generado puede compilar y hasta pasar tests unitarios, pero contener vulnerabilidades de seguridad, race conditions o errores lógicos sutiles. Siempre hacé code review manual.
El problema de fondo es que ChatGPT no tiene un mecanismo interno de “no sé”. Cuando no tiene información suficiente, no se queda callado: rellena el vacío con texto plausible. Eso lo hace útil para brainstorming y borradores, pero poco confiable como fuente de verdad. Si te interesa, podes leer mas sobre las últimas integraciones de GPT en desarrollo.
Cómo reducir errores: técnicas avanzadas de prompting
No podés eliminar las alucinaciones, pero sí podés reducirlas drásticamente con técnicas de prompting que fuerzan al modelo a ser más riguroso. Acá van las que mejor funcionan en la práctica.
Chain-of-thought (razonamiento paso a paso): en lugar de pedir una respuesta directa, pedile a ChatGPT que razone paso a paso antes de responder. Esto reduce errores lógicos y matemáticos porque obliga al modelo a “mostrar el trabajo”. Ejemplo: “Antes de responder, razoná paso a paso y mostrá tu proceso de pensamiento”.
Pedí que cite fuentes verificables: agregá al final de tu prompt: “Para cada dato que menciones, indicá la fuente específica. Si no tenés una fuente verificable, indicá explícitamente que es tu estimación”. Esto no garantiza que las fuentes sean reales, pero activa un patrón de mayor cautela en el modelo.
Instrucciones de admisión de ignorancia: incluí algo como: “Si no tenés información confiable sobre algo, decí ‘no tengo datos suficientes para responder esto con precisión’ en lugar de inventar”. Me parece que esta es la técnica más subestimada. No siempre funciona, pero reduce significativamente las fabricaciones en temas donde el modelo tiene poca información.
Few-shot examples: mostrá el formato que esperás con uno o dos ejemplos antes de tu pregunta real. Esto ancla al modelo a un patrón específico de respuesta y reduce la variabilidad.
Un template reutilizable que combina varias de estas técnicas:
“Actuá como [rol específico] con experiencia en [dominio]. Necesito que [tarea concreta]. Requisitos: (1) Razoná paso a paso antes de dar tu respuesta final. (2) Citá fuentes específicas para cada dato. Si no tenés fuente, indicalo. (3) Si no estás seguro de algo, decilo explícitamente. (4) Formato de salida: [especificar estructura]. Contexto adicional: [datos relevantes que el modelo necesita].”
Eso sí, ninguna técnica de prompting convierte a ChatGPT en un oráculo infalible. Son herramientas de mitigación, no de solución. La verificación manual sigue siendo indispensable. Si te interesa, podes leer mas sobre cómo funcionan los modelos de lenguaje.
Herramientas complementarias para verificar respuestas de ChatGPT
La mejor estrategia no es confiar menos en ChatGPT, sino complementarlo con herramientas diseñadas para verificar información. Acá va un flujo de trabajo que uso y que me funciona bien.
Perplexity AI para búsqueda con fuentes: a diferencia de ChatGPT, Perplexity muestra las fuentes de cada afirmación con links directos. Usalo para verificar datos específicos, estadísticas y afirmaciones factuales que ChatGPT te haya dado. No es infalible tampoco, pero el hecho de mostrar fuentes te permite evaluar la calidad de la información.
Google Scholar para papers académicos: si ChatGPT te cita un estudio, buscalo en Google Scholar. Si no aparece, hay altísimas chances de que sea inventado. También podés usarlo para encontrar investigaciones reales sobre el tema que te interesa y después pedirle a ChatGPT que las analice.
Wolfram Alpha para cálculos y datos cuantitativos: ChatGPT es notoriamente malo con matemáticas y datos numéricos precisos. Para cualquier cálculo, conversión, dato demográfico o estadística, verificá con Wolfram Alpha. OpenAI de hecho integró Wolfram como plugin exactamente por esta limitación.
El flujo recomendado es: generar con ChatGPT (borrador, ideas, estructura) → verificar datos clave con herramientas especializadas → editar y publicar. Saltarte el paso del medio es donde nacen los problemas.
Qué esperar en el futuro: mejoras de OpenAI contra las alucinaciones
OpenAI reconoció públicamente en su informe de 2025 que las alucinaciones son un problema inherente a la arquitectura de los modelos de lenguaje actuales. No es algo que se “arregle” con un parche: es una limitación matemática del approach basado en predicción de tokens.
GPT-5 representó un avance significativo. En benchmarks internos de OpenAI, la tasa de alucinación bajó de un 20.6% en GPT-4o a un 4.8% en GPT-5. Es una mejora de 4x, pero todavía significa que aproximadamente 1 de cada 20 respuestas factuales puede contener información fabricada. Habría que ver hasta qué punto estos benchmarks reflejan el uso real — los benchmarks internos de cualquier empresa tienden a ser más favorables que la experiencia en producción. Si te interesa, podes leer mas sobre alternativas como Claude.
Las principales líneas de mejora que OpenAI está trabajando incluyen:
- Grounding con búsqueda web: conectar el modelo a internet en tiempo real para que verifique datos antes de responder. Ya está disponible en ChatGPT con la función de búsqueda, pero no se activa automáticamente en todas las respuestas.
- Memory features: permitir que ChatGPT recuerde interacciones previas y correcciones del usuario, lo que en teoría debería reducir errores repetidos.
- Mejor calibración de confianza: que el modelo exprese incertidumbre cuando la tiene, en lugar de dar respuestas con confianza uniforme. Este es, para mí, el cambio más necesario y más difícil de implementar.
La perspectiva realista es que las alucinaciones van a seguir existiendo en los modelos de lenguaje por un buen rato. Van a ser menos frecuentes con cada generación, pero esperar que desaparezcan por completo es no entender cómo funciona la tecnología. La clave está en aprender a convivir con esta limitación, no en esperar que se resuelva mágicamente.
Qué significa para empresas y equipos en Latinoamérica
En la región, la adopción de ChatGPT en entornos corporativos creció enormemente, pero las políticas de uso responsable no acompañaron ese ritmo. La mayoría de las empresas en Argentina, México y Colombia que usan ChatGPT internamente no tienen guidelines formales sobre verificación de outputs.
Para equipos que ya usan ChatGPT en su flujo de trabajo, la recomendación práctica es implementar un protocolo mínimo: definir qué tipo de outputs requieren verificación obligatoria (datos numéricos, información legal, claims sobre competidores) y cuáles pueden usarse directamente (borradores de emails, brainstorming, estructuración de ideas). No es lo mismo usar ChatGPT para redactar un mail interno que para preparar un informe financiero.
El tema de las alucinaciones tiene un impacto adicional en español: los modelos de lenguaje tienen menos datos de entrenamiento en español que en inglés, lo que puede incrementar la tasa de alucinación para temas locales o regionales. Si le preguntás a ChatGPT sobre regulaciones argentinas específicas o datos económicos locales, la probabilidad de que invente es mayor que si preguntás sobre regulaciones estadounidenses.
Qué está confirmado y qué todavía no
Confirmado
- Las alucinaciones son inherentes a la arquitectura de modelos de lenguaje actuales (reconocido por OpenAI en su informe de 2025).
- GPT-5 redujo significativamente la tasa de alucinación respecto a GPT-4o, de aproximadamente 20.6% a 4.8% en benchmarks internos.
- Los errores técnicos como 429, 1020 y “Something went wrong” son problemas conocidos y documentados en la página de soporte de OpenAI.
- La función de búsqueda web en ChatGPT mejora la factualidad al conectar el modelo con datos actualizados.
- El caso Mata v. Avianca es real y resultó en sanciones para los abogados involucrados.
Todavía no confirmado
- No está claro si las mejoras en benchmarks internos de OpenAI se traducen proporcionalmente a reducción de alucinaciones en uso real y cotidiano.
- No hay datos públicos confiables sobre la tasa de alucinación específica para contenido en español.
- No se confirmó cuándo las mejoras de calibración de confianza (que el modelo exprese incertidumbre) estarán disponibles de forma generalizada.
- No hay consenso sobre si la arquitectura transformer puede llegar a eliminar las alucinaciones por completo, o si se necesita un cambio de paradigma.
Errores comunes sobre los errores de ChatGPT
“Si ChatGPT lo dice con confianza, debe ser verdad”: este es el error número uno. El modelo genera texto con la misma fluidez y tono autoritativo sin importar si la información es correcta o fabricada. No existe correlación entre lo seguro que “suena” ChatGPT y la precisión de su respuesta. La confianza en el tono es una propiedad del modelo de lenguaje, no un indicador de veracidad.
“Usar GPT-5 o el modelo más nuevo elimina los errores”: los modelos más nuevos son mejores, sí. Pero “mejores” no significa “infalibles”. GPT-5 redujo las alucinaciones a menos del 5%, lo cual sigue representando una de cada veinte respuestas factuales con información potencialmente falsa. Actualizarte al último modelo es una buena práctica, pero no reemplaza la verificación.
“Las alucinaciones son un bug que OpenAI va a arreglar”: no son un bug. Son una consecuencia directa de cómo funcionan los modelos de lenguaje basados en transformers. El modelo no tiene un mecanismo de verificación de hechos interno. Mejorar es posible, eliminar completamente con la arquitectura actual probablemente no. OpenAI lo dijo explícitamente en su informe de 2025. Si te interesa, podes leer mas sobre las soluciones de inteligencia artificial de Google.
“Si le pido que no alucine, no va a alucinar”: pedirle a ChatGPT que “solo diga cosas verdaderas” reduce marginalmente las alucinaciones, pero no las elimina. El modelo no tiene una forma confiable de distinguir internamente entre lo que “sabe” y lo que está inventando. Las técnicas de prompting ayudan, pero no son una solución completa.
Preguntas Frecuentes
¿Por qué ChatGPT me da información falsa o inventada?
ChatGPT genera texto prediciendo la siguiente palabra más probable, no consultando una base de datos de hechos. Cuando no tiene información suficiente, completa los vacíos con texto plausible pero fabricado. Esto se llama “alucinación” y es inherente a cómo funcionan los modelos de lenguaje actuales. Para minimizarlo, pedile explícitamente que cite fuentes y que admita cuando no tiene datos confiables.
¿Cómo soluciono el error “Something went wrong” en ChatGPT?
Primero verificá en status.openai.com si hay una caída del servicio. Si no la hay, hacé una recarga forzada del navegador (Ctrl+Shift+R), limpiá caché y cookies de openai.com, y probá en modo incógnito. Si el error persiste, desactivá extensiones del navegador y esperá 15-20 minutos antes de reintentar.
¿Qué hago si ChatGPT me tira error de red o error 429?
El error 429 significa que superaste el límite de solicitudes por minuto. Esperá entre 1 y 5 minutos antes de volver a intentar. Para errores de red (network error), verificá tu conexión a internet, desactivá la VPN si estás usando una, y probá acortar tu solicitud para que la respuesta sea menos larga. Si usás la API, implementá reintentos con backoff exponencial.
¿Cómo escribo prompts para que ChatGPT no se equivoque tanto?
Sé específico con el contexto: indicá quién sos, para qué necesitás la información, qué formato esperás y qué nivel de detalle querés. Pedile que razone paso a paso antes de responder (chain-of-thought) y que cite fuentes verificables. Incluí la instrucción “si no estás seguro, decilo”. Ninguna técnica elimina los errores por completo, pero estas prácticas los reducen drásticamente.
Conclusión
Los errores de ChatGPT se dividen en dos grandes categorías: los técnicos, que son molestos pero tienen solución concreta, y los de contenido (alucinaciones, sesgo de complacencia), que son estructurales y requieren un cambio en cómo usamos la herramienta. GPT-5 mejoró notablemente la factualidad respecto a GPT-4o, pero seguimos lejos de un modelo que no invente nunca.
Lo que conviene hacer a partir de hoy: aprendé a escribir buenos prompts (con contexto, rol, formato y la instrucción de admitir ignorancia), verificá cualquier dato factual con herramientas complementarias como Perplexity o Google Scholar, y sobre todo internalizá que ChatGPT es un asistente de redacción y pensamiento, no una fuente de verdad. Tratalo como un colega brillante pero que a veces inventa datos con total naturalidad — porque eso es, literalmente, lo que es.
Fuentes
- OpenAI – Solución de problemas de mensajes de error de ChatGPT (documentación oficial)
- Infobae – El informe de OpenAI sobre por qué las alucinaciones persisten en ChatGPT
- UOC – Errores comunes al usar ChatGPT (perspectiva académica)
- Tech.co – ChatGPT Errors and How to Fix Them (guía técnica de errores)
- IT Masters Mag – Por qué ChatGPT se inventa datos o estudios y cómo remediarlo