En abril de 2026, tres ejecutivos de OpenAI se fueron el mismo día. No es la primera vez: desde 2023, la empresa perdió a más de 11 co-fundadores y docenas de líderes de nivel medio, en lo que ya configura uno de los éxodos de talento más llamativos de la industria tech. La pregunta openai why are mid-level leaders leaving no tiene una respuesta única, sino cuatro o cinco razones que se acumularon hasta volverse insostenibles para muchos.
En 30 segundos
- Tres ejecutivos renunciaron simultáneamente en abril de 2026: Kevin Weil (CPO), Bill Peebles (director de Sora) y Srinivas Narayanan.
- Desde 2023, OpenAI perdió a más de 11 co-fundadores, incluyendo Ilya Sutskever, Mira Murati y John Schulman.
- El porcentaje de nuevas contrataciones en investigación cayó del 23% en 2021 al 4% en 2024.
- El equipo de seguridad y alineación fue disuelto en menos de un año; Jan Leike y varios researchers de safety se fueron a competidores.
- Meta fichó a más de 7 ex-empleados de OpenAI para su laboratorio de superinteligencia.
La salida masiva de ejecutivos: qué está pasando en OpenAI
OpenAI es la empresa de inteligencia artificial más conocida del mundo, creadora de ChatGPT y GPT-4. Pero en los últimos dos años se convirtió también en la empresa de IA con mayor rotación de talento senior de toda la industria. No es chisme de tecnología: es una señal de reorganización estratégica que importa entender si trabajás en el sector.
El 17 de abril de 2026, según TechCrunch, Kevin Weil (Chief Product Officer), Bill Peebles (director del equipo de Sora) y Srinivas Narayanan (VP de Ingeniería de Producto) anunciaron su salida el mismo día. Tres ejecutivos de primera línea, el mismo jueves. Si eso no te llama la atención, nada lo hará.
Pero la historia viene de antes.
Cronología: quiénes se fueron y cuándo
Para entender la magnitud del éxodo, ayuda verlo en orden. Lo que sigue no es exhaustivo, pero sí representativo de lo que pasó desde 2023 hasta hoy:
| Persona | Cargo en OpenAI | Cuándo se fue | A dónde fue |
|---|---|---|---|
| Ilya Sutskever | Co-fundador, Chief Scientist | Mayo 2024 | Fundó Safe Superintelligence Inc. |
| Jan Leike | Líder de Superalignment | Mayo 2024 | Anthropic |
| Mira Murati | CTO | Septiembre 2024 | Thinking Machines Lab |
| Bob McGrew | Chief Research Officer | Septiembre 2024 | No divulgado |
| Barret Zoph | VP de Research | Septiembre 2024 | No divulgado |
| John Schulman | Co-fundador, researcher | Agosto 2024 | Anthropic |
| Suchir Balaji | Researcher | Agosto 2024 | Denunció uso de datos con copyright |
| 7+ researchers | Varios roles técnicos | 2025 | Meta Superintelligence Lab |
| Kevin Weil | Chief Product Officer | Abril 2026 | No confirmado |
| Bill Peebles | Director de Sora | Abril 2026 | No confirmado |
| Srinivas Narayanan | VP de Ingeniería de Producto | Abril 2026 | No confirmado |

La lista completa que recopiló Fast Company supera los once co-fundadores y decenas de líderes de nivel medio. Cuando el número se vuelve estadística, dejó de ser coincidencia.
Razón #1: el giro de investigación a producto ChatGPT
Ponele que entraste a OpenAI en 2021 porque querías trabajar en los problemas más difíciles de la IA: alineación, razonamiento, seguridad de largo plazo. Cuatro años después, tu equipo está optimizando el onboarding de ChatGPT Plus.
No es una exageración. The Irish Times reportó en febrero de 2026 que el porcentaje de nuevas contrataciones en roles de investigación cayó del 23% en 2021 al 4% en 2024. La empresa que fundaron para “beneficiar a la humanidad” pasó a ser, en la práctica, una empresa de software por suscripción.
Sam Altman habló de “side quests” que hay que descontinuar para enfocarse en el core business. Suena razonable desde una planilla de Excel. Pero para quien dedicó años a construir esos proyectos, escuchar que tu trabajo era una distracción es difícil de procesar. Cubrimos ese tema en detalle en productos como Sora que dirigían.
Bill Peebles, por ejemplo, dirigía Sora, el modelo de generación de video. The Next Web señaló que Sora fue gradualmente dejada de lado a medida que OpenAI priorizaba el pivote enterprise. El proyecto costaba cerca de un millón de dólares diarios en cómputo y no tenía un camino claro hacia monetización directa. Resultado: se cerró, y quien lo lideró se fue.
Razón #2: la seguridad en IA quedó en segundo plano
Acá es donde la cosa se pone más seria.
Jan Leike fue director del equipo de Superalignment de OpenAI, el grupo dedicado a garantizar que los sistemas de IA de largo plazo sean seguros. Se fue en mayo de 2024. En su carta de salida, publicada en X, escribió algo que circuló mucho: que la “cultura de seguridad” de OpenAI había cedido terreno frente a la presión de lanzar productos.
¿Alguien en OpenAI lo refutó con datos concretos? No de forma convincente.
Daniel Kokotajlo, otro investigador que se fue en 2024, fue más directo: dijo que la empresa no actuaba con la responsabilidad que el riesgo real de la tecnología requería. Tech Brew documentó en febrero de 2026 que las salidas relacionadas con preocupaciones éticas y de seguridad siguen siendo una tendencia, no un episodio aislado.
El equipo de seguridad y alineación fue esencialmente disuelto en menos de un año. No desapareció de los comunicados de prensa, pero en la práctica dejó de tener el peso institucional que tenía cuando Sutskever lo respaldaba desde adentro.
Razón #3: proyectos cerrados y reestructuración hacia for-profit
OpenAI for Science fue otro proyecto que terminó descentralizado y sin tracción real. La conversión de OpenAI de estructura sin fines de lucro a empresa con fines de lucro, completada entre 2023 y 2024, cambió más que la contabilidad: cambió la lógica de qué proyectos sobreviven y cuáles no.
Cuando una empresa levanta capital de riesgo, los proyectos que no tienen un camino hacia rentabilidad en 18 meses empiezan a sobrar (aunque nadie lo diga así en la reunión de directorio). Las personas que construyeron esos proyectos lo sienten antes de que aparezca en ningún memo.
Razón #4: la identidad de OpenAI cambió, y no todos se adaptaron
Hay un patrón en los testimonios de ex-empleados que CNN Business recogió: la gente que entró atraída por la investigación se encontró haciendo producto. La empresa que era un laboratorio de investigación con una parte de producto pasó a ser una empresa de producto con un laboratorio de investigación de adorno.
“Las personas que les gusta investigar terminan haciendo producto”, resumió un ex-empleado anónimo citado por varios medios. No es una crítica al producto en sí: ChatGPT es un producto notable. Pero si te contrató la promesa del laboratorio, la transición duele. Te puede servir nuestra cobertura de frente a alternativas como Claude.
Eso sí: hay que separar las razones. Algunos se fueron por principios (Leike, Schulman). Otros por desgaste (Murati, McGrew). Otros por oportunidades mejores (los que fueron a Meta). No todos los éxodos tienen la misma explicación.
El efecto Meta: a dónde va el talento que sale de OpenAI
Meta no esperó a ver qué pasaba. Yann LeCun lleva años construyendo el laboratorio de IA de Meta, y en 2025 la empresa anunció la creación del Meta Superintelligence Lab con el objetivo explícito de competir con OpenAI en el largo plazo.
Para eso, fichó. Mucho. QZ documentó que al menos siete researchers y ejecutivos de OpenAI terminaron en Meta. No todos de forma directa, pero el pipeline es evidente.
Anthropic también recibió su cuota: John Schulman (co-fundador de OpenAI, uno de los autores del paper original de PPO) se fue ahí en agosto de 2024. Jan Leike también. La ironía es que Anthropic fue fundada en 2021 por… ex-empleados de OpenAI que en ese momento se fueron por preocupaciones de seguridad.
El ciclo se repite.
Qué está confirmado / qué no
Confirmado
- Kevin Weil, Bill Peebles y Srinivas Narayanan renunciaron el 17 de abril de 2026.
- El porcentaje de contrataciones en investigación cayó de 23% (2021) a 4% (2024), según reportes de medios con fuentes internas.
- Sora fue pausada/descontinuada como proyecto prioritario antes de la salida de Peebles.
- Jan Leike publicó una carta de salida criticando la cultura de seguridad de la empresa.
- John Schulman y Jan Leike están actualmente en Anthropic.
No confirmado / en proceso
- Los destinos de Weil, Peebles y Narayanan no estaban confirmados al cierre de esta nota.
- OpenAI no publicó declaraciones oficiales explicando las salidas de abril 2026.
- La cantidad exacta de empleados que pasaron a Meta varía según la fuente (7 a “más de 10”).
- No está claro si habrá más salidas en lo que resta de 2026 o si el ritmo se estabiliza.
Impacto real: pérdida de conocimiento institucional y señal para la industria
Cuando se va alguien que estuvo desde el día uno, no se lleva solo su experiencia: se lleva el contexto de por qué se tomaron ciertas decisiones, qué falló antes, qué dependencias existen que no están documentadas en ningún lado. Eso es difícil de recuperar.
Sam Altman y Greg Brockman siguen al frente (aunque Brockman estuvo de sabático en 2024). La continuidad ejecutiva existe. Pero la continuidad de investigación y de cultura es otra cosa. Relacionado: en corporaciones tecnológicas grandes.
Lo más preocupante desde afuera: si las personas más comprometidas con la seguridad de la IA se fueron de la empresa con más poder para influir en ese campo, ¿quién lleva esa agenda adentro ahora? La respuesta honesta es que no está clara.
Para la industria en general, el patrón importa: el talento de alto nivel en IA tiene opciones reales (Meta, Anthropic, Google DeepMind, startups), y está eligiendo con criterio. OpenAI ya no es el único lugar donde pasan cosas interesantes.
Preguntas Frecuentes
¿Quiénes son los ejecutivos más importantes que dejaron OpenAI?
Los nombres más relevantes incluyen a Ilya Sutskever (co-fundador y Chief Scientist, mayo 2024), Mira Murati (CTO, septiembre 2024), John Schulman (co-fundador, agosto 2024) y Jan Leike (director de Superalignment, mayo 2024). En abril de 2026, Kevin Weil (CPO), Bill Peebles (director de Sora) y Srinivas Narayanan (VP de Ingeniería) se fueron el mismo día.
¿Por qué se fue Jan Leike de OpenAI?
Leike publicó una carta de salida en mayo de 2024 donde señaló que la cultura de seguridad de OpenAI había cedido terreno frente a la presión comercial. Dijo que los recursos para investigación de seguridad eran insuficientes y que la empresa priorizaba el lanzamiento de productos por sobre los principios de alineación. Actualmente trabaja en Anthropic.
¿Adónde fueron los ejecutivos que dejaron OpenAI?
Los destinos más comunes fueron Anthropic (Schulman, Leike), Meta Superintelligence Lab (al menos 7 researchers en 2025), y startups propias como Safe Superintelligence Inc. (Sutskever) o Thinking Machines Lab (Murati). Los destinos de las salidas de abril 2026 no estaban confirmados al cierre de esta nota. Más contexto en del ecosistema que construyó OpenAI.
¿Cuántos co-fundadores dejaron OpenAI?
Más de 11 co-fundadores se fueron desde la fundación de la empresa. OpenAI fue fundada en 2015 con un grupo de más de una decena de personas; hoy prácticamente ninguno de los co-fundadores originales (salvo Sam Altman y Greg Brockman en roles activos) sigue en la empresa.
¿La salida de ejecutivos afecta el desarrollo de productos de OpenAI?
En el corto plazo, OpenAI sigue lanzando productos y tiene recursos para contratar reemplazos. El impacto más serio es en conocimiento institucional acumulado (especialmente en investigación de seguridad) y en la señal que manda al mercado sobre la cultura interna. La pregunta relevante es cuántos de los que siguen adentro comparten las preocupaciones de los que se fueron.
Conclusión
El éxodo de OpenAI no es un accidente ni una serie de decisiones personales desconectadas. Es el resultado de una empresa que cambió de identidad: de laboratorio de investigación con productos a empresa de productos con un laboratorio. Ese cambio tiene ganadores y perdedores internos, y los perdedores se fueron.
Lo que queda por ver es si la concentración de talento en seguridad e investigación en Anthropic y otros actores termina generando mejores resultados para la industria que mantenerlos todos bajo el techo de OpenAI. Es posible. También es posible que la fragmentación del talento ralentice el progreso en los problemas más difíciles.
Por ahora, lo que es seguro es esto: OpenAI en 2026 es una empresa distinta a la de 2021, y la gente que construyó la versión original mayormente ya no está.
