Sam Altman no sabe programar: qué dicen sus colegas

Un reportaje de The New Yorker publicado en abril de 2026 basado en entrevistas con ingenieros de OpenAI sostiene que Sam Altman, CEO de la empresa, carece de experiencia en programación y machine learning, confunde términos técnicos básicos y es más un “manipulador hábil” que un visionario técnico. Altman abandonó Stanford después de dos años para fundar Loopt, sin completar su carrera en ciencias de la computación.

En 30 segundos

  • The New Yorker entrevistó a insiders de OpenAI que critican el nivel técnico de Altman en programación y ML
  • Según estos ingenieros, Altman mezcla términos técnicos básicos y no comprende profundamente los sistemas que construye su empresa
  • Carroll Wainwright, investigador antiguo, lo describió usando términos que sugieren manipulación hábil más que incompetencia
  • Altman estudió CS en Stanford pero se fue después de dos años para emprender; nunca fue ingeniero profesional
  • OpenAI rechazó el reportaje como “testimonios anónimos y anécdotas selectivas” sin detalles verificables

Sam Altman: la cara pública de una empresa cuyo CEO no domina su tecnología

Sam Altman no sabe programar. O al menos eso es lo que sostiene The New Yorker después de investigar en profundidad su trayectoria técnica y entrevistar a docenas de ingenieros que trabajaron con él en OpenAI. El artículo, publicado a principios de abril de 2026, pinta un retrato incómodo: no es el visionario técnico que la narrativa pública quiere vender, sino alguien con una comprensión superficial de los sistemas de IA que su empresa construye, alguien que sube a una tribuna a hablar de transformaciones exponenciales sin entender realmente cómo funcionan los transformers.

La pregunta obvia es: ¿importa? Y la respuesta es más complicada de lo que parece (spoiler: sí importa, pero quizás no de la forma en que pensás).

El reportaje de The New Yorker que desató la polémica

sam altman no sabe programar diagrama explicativo

El artículo no es un tweet salido de la nada. The New Yorker pasó semanas investigando, hablando con múltiples ingenieros de OpenAI que pidieron permanecer anónimos (como es norma en estas historias), construyendo una narrativa basada en anécdotas documentadas y comportamientos recurrentes. El focus principal: la brecha entre la imagen pública de Altman como CEO estratega y su realidad técnica cotidiana.

Lo interesante es que el reportaje no trata a Altman como incompetente. Lo trata como alguien que juega un juego. La caracterización no es “es un fraude”, sino “es efectivo comunicador que compensa su falta de profundidad técnica con una capacidad casi mágica para influir, recaudar dinero y posicionarse en la conversación pública”.

Qué dicen exactamente los colegas de Altman

Según reportes basados en la investigación, los ingenieros entrevistados coincidieron en un patrón: Altman confunde términos técnicos básicos, mezcla conceptos de ML que no debería confundir si realmente dominara el tema, y en las reuniones técnicas tiende a hacer preguntas que revelan una comprensión superficial de cómo funcionan los modelos que su propia empresa construye.

Carroll Wainwright, investigador senior que trabajó directamente en OpenAI, fue más allá. Según la cobertura de The New Yorker, lo caracterizó como alguien que “establece estructuras que, en papel, lo constriñen en el futuro, pero que luego desregula cuando ese futuro llega”. Dicho de otra forma: te dice que va a respetar X límite, pero cuando necesita quebrantarlo, encuentra la forma de hacerlo (si es que eso puede considerarse una crítica o simplemente un comentario sobre cómo opera el personaje).

La acusación específica no es que Altman sea un idiota. Es que es un manipulador hábil con comprensión limitada, alguien que puede sonar convincente hablando de cosas que no entiende completamente, porque entiende lo suficiente para no quedar completamente expuesto. Te puede servir nuestra cobertura de cómo funcionan realmente los modelos de lenguaje.

El perfil técnico real de Sam Altman

Acá hay que separar la narrativa de los hechos. Altman aprendió a programar a los 8 años. Estudió ciencias de la computación en Stanford. Eso es real. Lo que es distinto es que se fue después de dos años para fundar Loopt, su startup de geolocalización, que luego fue adquirida por Green Dot Corporation en 2012 por USD 43.3 millones.

Así que técnicamente tiene experiencia emprendiendo en tech. Pero no como ingeniero profesional. Nunca fue un desarrollador fullstack, nunca dirigió un equipo de ingeniería, nunca construyó un producto masivo desde la perspectiva técnica. Fue el fundador que vendía la visión mientras otros, presumiblemente, hacían el trabajo duro de escribir código.

Cuando se unió a Y Combinator como partner en 2014 y luego fue elegido como president en 2014, tampoco estaba en un rol técnico. Estaba en un rol de estrategia, conexiones, mentoring. Cuando OpenAI lo eligió como CEO en 2019, estaba contratando a alguien que sabía cómo hablar de IA, recaudar dinero para IA, y crear una narrativa alrededor de IA, pero no necesariamente a alguien que entendiera, línea por línea, cómo Ilya Sutskever y sus equipos construyeron GPT-4 o cómo evolucionó a o1.

¿Manipulador hábil o simplemente un CEO que no es ingeniero?

La diferencia es importante porque afecta cómo interpretamos el reportaje. Si Altman fuera un fraude completo, la historia sería simple: está finto, los ingenieros se dieron cuenta, OpenAI debería despedirlo. Pero The New Yorker no dice eso. Dice que es efectivo en su rol, que maneja poder político de forma sofisticada, que entiende lo suficiente para no ser peligrosamente incompetente, pero que tampoco es el genio técnico que la narrativa pública supone.

Hay un diferencia real entre “no sabe programar” y “no es un ingeniero de software profesional”. Altman claramente puede leer código. Probablemente entienda arquitecturas de alto nivel. Pero ¿está escribiendo prompts intrincados para fine-tuning? ¿Está debuggeando errores de gradiente? ¿Está entendiendo los trade-offs específicos de diferentes arquitecturas de redes? Posiblemente no.

Y en una empresa de IA que vale USD 80 mil millones (o más después del IPO), con el CEO como la cara pública y el principal comunicador con gobiernos e inversores, eso genera una pregunta incómoda: ¿está el CEO lo suficientemente cerca de la realidad técnica como para tomar decisiones estratégicas correctas? Ojo con eso. Sobre eso hablamos en nuevos modelos de IA como Claude Sonnet.

La respuesta oficial de OpenAI

OpenAI no ignoró el reportaje. Publicó una declaración caracterizándolo como “basado en testimonios anónimos y anécdotas selectivas, sin suministrar eventos o detalles que puedan ser verificados o contextualizados apropiadamente”.

El problema con esa respuesta es que es técnicamente cierta, pero también es la respuesta que cualquier empresa daría ante cualquier reportaje crítico basado en fuentes anónimas. No refuta nada específico (porque no hay nada específicamente citado), simplemente rechaza el formato. Es el equivalente corporativo de “eso es fake news” sin entrar en los detalles.

Dicho esto, también hay que reconocer que los testimonios anónimos tienen limitaciones. No podemos corroborar quién dijo qué, si fueron contextualizados apropiadamente, si la persona estaba con mala leche, si fue cherry-picked para armar una narrativa. Así que la crítica de OpenAI no es infundada, simplemente es incompleta.

¿Importa que el CEO de OpenAI no sepa programar?

Sí y no. Miroamos el caso de otros CEOs no técnicos: Satya Nadella en Microsoft (originalmente no era ingeniero de software), Sundar Pichai en Google (más producto/strategy que código), Tim Cook en Apple (operaciones, no ingeniería). Muchos CEOs tech de éxito no son ingenieros profesionales. Entonces ¿por qué importaría en Altman?

Acá el contexto es específico. OpenAI es una empresa de IA cuyo único producto real son modelos de lenguaje. No es un company de infraestructura donde el CEO puede estar un paso removido de la realidad técnica. OpenAI vive y muere por qué tan buenos son sus modelos. Si el CEO no entiende profundamente cómo esos modelos funcionan, cómo se entrenan, cuáles son sus limitaciones y cómo se pueden mejorar, entonces está tomando decisiones estratégicas desde una posición de debilidad.

Eso se vuelve crítico cuando tienes que competir con DeepSeek, Claude, Gemini, Grok. Si Altman no entiende por qué Claude en algunas benchmarks matemáticas puntúa más alto que o1, o exactamente qué diferencia técnica genera eso, entonces sus decisiones de roadmap podrían estar informadas por intuición en lugar de comprensión profunda. Más contexto en implementar y ejecutar LLMs localmente.

Implicaciones para OpenAI antes del IPO

OpenAI se prepara para ir a bolsa como potencialmente la empresa más valiosa del planeta. Cuando eso suceda, los inversores van a querer saber quién está al timón. La narrativa hasta ahora fue: Sam Altman, visionario de IA que entiende esta tecnología profundamente. Si ese narrative se quiebra dos meses antes del IPO, eso es un problema.

El reportaje de The New Yorker no es una bomba fatal, pero sí introduce duda en la mente de institutional investors. Porque la historia que ahora les venden es: “somos OpenAI, tenemos los mejores modelos, y el CEO que diseña nuestra estrategia comprende realmente cómo funcionan”. Si empieza a filtrarse (o a ser ampliamente reportado) que el CEO en realidad tiene gaps significativos en comprensión técnica, eso afecta la valuación. No de forma catastrófica necesariamente, pero sí de forma material.

Dicho esto, también hay que reconocer que Altman ha demostrado ser incredibly efectivo en lo que hace: recaudar dinero, construir alianzas políticas, posicionarse como la cara pública de IA en nivel estatal. No son habilidades triviales. Pero la pregunta que queda abierta es si eso es suficiente para guiar una empresa que necesita innovación técnica profunda para mantenerse competitiva.

Errores comunes al interpretar este reportaje

Error #1: Asumir que “no sabe programar” significa “es un fraude completo”

The New Yorker no dice eso. De hecho, los ingenieros entrevistados lo caracterizan como competente estratégicamente, solo técnicamente limitado. Un CEO que es strategist pero no es deep technologist es común en tech. El problema es que OpenAI vendió al mundo un narrative diferente.

Error #2: Pensar que esto significa que OpenAI va a fracasar

No necesariamente. Los modelos de OpenAI funcionan porque hay docenas de investigadores brilliant haciendo el trabajo técnico profundo. Altman no escribe el código de GPT-4. Ilya Sutskever, Denny Britz, y otros líderes técnicos hacen eso. El rol de Altman es asegurar que tienen recursos, dirección estratégica, y visibilidad política. Puede hacerlo sin entender cada detalle técnico (aunque idealmente lo haría).

Error #3: Interpretar “testimonios anónimos” como automáticamente no confiables

The New Yorker es una publicación seria que verifica información de forma rigurosa, incluso cuando usa fuentes anónimas. El hecho de que sea anónimo no significa que sea ficción. Significa que la fuente pidió protección (común cuando hablás negativamente de tu CEO o empresa). Lo que importa es si The New Yorker verificó la información. Dado su estándar editorial, probablemente lo hizo. Esto se conecta con lo que analizamos en productos de IA que sí domina OpenAI.

Preguntas Frecuentes

¿Sam Altman realmente no sabe programar?

Según The New Yorker, basándose en entrevistas con ingenieros de OpenAI, Altman carece de experiencia profesional en programación y machine learning, aunque aprendió a programar a los 8 años y estudió CS en Stanford durante dos años. No es que sea completamente analfabeto técnicamente, pero no es un ingeniero profesional con experiencia profunda en desarrollo de software o investigación de ML.

¿Qué dijo The New Yorker exactamente?

El reportaje, publicado en abril de 2026, entrevistó a docenas de insiders de OpenAI que caracterizaron a Altman como un “manipulador hábil” con comprensión superficial de IA, alguien que puede sonar convincente hablando de tecnología pero que confunde términos técnicos básicos cuando está en reuniones con ingenieros. El artículo no lo presenta como incompetente, sino como efectivo estratégicamente pero técnicamente limitado.

¿Cómo respondió OpenAI?

OpenAI publicó una declaración rechazando el reportaje como “testimonios anónimos y anécdotas selectivas sin detalles verificables”. La empresa no refutó ningún hallazgo específico, simplemente cuestionó la metodología de usar fuentes anónimas y afirmó que el artículo carecía de contexto apropiado.

¿Por qué importa si el CEO de OpenAI no es técnico?

OpenAI es una empresa cuyo único producto real son modelos de lenguaje. Si el CEO no comprende profundamente cómo esos modelos funcionan, sus decisiones estratégicas podrían estar menos informadas que las de competidores cuyo leadership entiende la tecnología en detalle. Eso puede afectar competitividad a largo plazo, especialmente antes de un IPO donde los inversores evalúan al liderazgo.

¿Esto significa que OpenAI va a fracasar?

No necesariamente. OpenAI tiene excelentes investigadores y engineers que hacen el trabajo técnico real. El rol del CEO es estrategia, dirección general, y recursos. Un CEO puede ser efectivo en esas funciones sin ser un deep technologist, aunque idealmente tendría más comprensión técnica. El reportaje sugiere que Altman tiene menos de la que pretende, pero eso no hace a OpenAI automáticamente fracasar.

Conclusión

Sam Altman no sabe programar. Eso es lo que reportó The New Yorker en abril de 2026, basándose en entrevistas con ingenieros de OpenAI que trabajaron directamente con él. No es una noticia que destruya completamente su credibilidad, pero sí es una que cuestiona el narrative que OpenAI ha vendido públicamente: la del visionario técnico que entiende profundamente cómo funcionan los modelos de IA que su empresa construye.

La realidad es más matizada. Altman es un estratega hábil que entiende suficientemente de IA como para no ser peligrosamente incompetente, pero que no posee la profundidad técnica que fingió tener. Eso genera una pregunta incómoda: ¿está el liderazgo de la empresa que potencialmente va a ser la más valiosa del mundo lo suficientemente cerca de la realidad técnica? La respuesta que da el reportaje es “probablemente no tanto como debería”.

Para OpenAI, especialmente con un IPO en el horizonte, esto es un problema de narrative. No de competencia necesariamente (el equipo técnico es excelente), sino de credibilidad ante inversores. Y para el resto de la industria, es un recordatorio de que el marketing personal y la visibilidad pública no son lo mismo que expertise técnica profunda.

Fuentes

Desplazarse hacia arriba