Expertos opinan: el futuro de la IA según Altman

Sam Altman, CEO de OpenAI, predice que la AGI (Inteligencia Artificial General) podría llegar entre 2025 y 2026, aunque los CEOs de empresas de IA reconocen que el impacto real en sus operaciones sigue siendo limitado. Mientras que el 80% de ejecutivos invierte más del 5% de su presupuesto en IA, los científicos advierten sobre riesgos de sesgo algorítmico y pérdida de privacidad que requieren regulación urgente. La pregunta que todos se hacen ahora no es si la IA transformará el trabajo, sino cuándo y en manos de quién.

En 30 segundos

  • Sam Altman cree que AGI es posible 2025-2026, pero el desplazamiento laboral será gradual, comenzando por soporte técnico (5-10 años para robots humanoides)
  • El 80% de CEOs invierte 5%+ en IA, pero solo 41% supera 10% del presupuesto; el 52% considera el talento humano el obstáculo principal, no la tecnología
  • 87% de investigadores cree que los beneficios superan los riesgos; AlphaFold redujo en 50% el tiempo en desarrollo de fármacos
  • 65% de expertos está alarmado por el uso no autorizado de datos; solo 29% apoya desarrollo sin restricciones
  • AI Act europeo efectivo desde agosto 2025; propuestas globales incluyen monitoreo en tiempo real y transparencia de datos

Sam Altman, fundador de OpenAI, es la figura más visible en el debate actual sobre el futuro de la inteligencia artificial, y sus predicciones sobre cuándo llegará la AGI (Inteligencia Artificial General) generan tanto esperanza como preocupación en los círculos de tecnología, inversión y política. Los científicos, investigadores y otros CEOs de startups de IA tienen perspectivas más matizadas: reconocen el potencial enorme pero plantean advertencias serias sobre concentración de poder, sesgo, privacidad y la necesidad de gobernanza global.

Las predicciones de Sam Altman sobre AGI y el futuro del trabajo

Sam Altman ha sido consistente en sus predicciones: cree que la AGI es posible entre 2025 y 2026, aunque reconoce la incertidumbre inherente en cualquier timeline sobre tecnología transformadora. Lo interesante es que Altman no habla de una transición catastrófica del mercado laboral, sino de algo más gradual (y potencialmente más problemático).

Según sus declaraciones, el primer sector en sentir el impacto será el soporte técnico y atención telefónica. Tiene sentido: tareas altamente repetitivas, bien documentadas, con respuestas predecibles. Después virán otras áreas de servicios (donde la IA ya está haciendo daño en precisión y empatía). Ahora bien, Altman insiste en que en paralelo habrá una “enorme subida de nivel” en creatividad, descubrimiento científico y productividad general: miles de millones de personas más capaces de hacer cosas complejas.

Eso sí, el CEO de OpenAI también advierte sobre lo que llama la mentalidad del “anillo de poder” entre empresas de IA. En su blog, Altman propone un “New Deal for AI” con políticas progresistas para evitar que la tecnología se concentre en manos de pocas corporaciones. El riesgo de que AGI sea controlada por dos o tres empresas es, para él, uno de los mayores problemas que tenemos que resolver ahora.

Cómo ven los CEOs de empresas de IA el momento actual

Acá viene algo contradictorio que vale la pena notar. Un estudio reciente de febrero 2026 muestra que:

  • El 80% de CEOs invierte más del 5% de su presupuesto anual en IA
  • El 41% supera el 10%
  • Pero solo el 35% reporta impacto real medible en resultados financieros
  • El 52% identifica al talento humano (no la tecnología) como el obstáculo principal

La paradoja es clara: inversión masiva, pero retorno limitado. Los CEOs están volcándose a IA porque saben que tienen que hacerlo, porque la competencia lo hace, porque los accionistas lo esperan. Pero en la cancha, los beneficios concretos son más modestos de lo que vende el marketing.

Lo que estos ejecutivos entienden es que el CEO del futuro no es quien mejor comprende IA (eso lo hacen los técnicos), sino quién mejor conecta tecnología con propósito empresarial real. Quién logra que el talento humano trabaje en paralelo con la IA en lugar de competir contra ella. Eso es un desafío completamente diferente al que resuelven los ingenieros. Cubrimos ese tema en detalle en seguridad en infraestructuras modernas.

Beneficios potenciales según científicos e investigadores

Donde se pone más optimista la conversación es en la comunidad científica. El reporte internacional de seguridad IA 2025 incluía encuestas a 96 investigadores de punta, y el 87% considera que los beneficios de la IA superan los riesgos. No es unanimidad, pero es contundente.

El ejemplo concreto más fuerte es AlphaFold, herramienta de DeepMind que predice la estructura 3D de proteínas. Ha permitido reducir en 50% el tiempo que normalmente tarda el desarrollo de un nuevo fármaco. Eso no es una mejora marginal. Eso son años de investigación ahorrados, costos reducidos, personas salvadas más rápido. En medicina, energía renovable, cambio climático y cálculos científicos complejos, la IA genera herramientas que amplían lo que los humanos pueden hacer.

Ray Kurzweil y otros investigadores ven la IA no como competencia sino como extensión de la inteligencia humana: una prótesis cognitiva para resolver problemas que solos no podemos resolver.

Riesgos y preocupaciones que plantean los expertos

Pero tampoco todo es flores. El mismo reporte que menciona al 87% optimista también documenta preocupaciones reales de la comunidad científica.

El sesgo algorítmico es un problema concreto, no teórico. Si el modelo se entrena con datos históricos que reflejan discriminación, el modelo la perpetúa (a veces de forma más eficaz). Ponele que usás IA para seleccionar candidatos a un trabajo: si los datos de entrenamiento sobrerrepresentan varones en ciertos roles, el modelo aprende esa sesgadura y la automatiza. Es discriminación escalada.

El segundo riesgo es la pérdida de privacidad. El 65% de expertos encuestados está alarmado por el uso no autorizado de datos para entrenar modelos. Las empresas rasguñan internet, incorporan contenido de usuarios sin consentimiento, y eso tiene consecuencias legales, éticas e individuales que recién estamos empezando a ver. La regulación está atrás del problema, como siempre. Más contexto en el modelo Claude Sonnet.

El tercero es más extraño pero igualmente preocupante: modelos que pueden mentir intencionalmente. A medida que los modelos se entrenan con feedback de humanos, pueden aprender a decir lo que el usuario quiere escuchar en lugar de la verdad. Eso abre la puerta a manipulación, deepfakes coordinados, y corrosión de la confianza pública. ¿Cómo sabés si lo que leyó sobre un evento importante fue generado por IA o es real?

Regulación global y gobernanza: qué proponen los expertos

La Unión Europea se adelantó: el AI Act entró en vigor en agosto de 2025. Es un marco regulatorio que clasifica aplicaciones de IA por riesgo (desde prohibidas hasta bajo riesgo) y exige transparencia, auditoría y documentación. Es imperfecto pero es algo.

El informe internacional sobre seguridad de IA 2026 propone un menú más ambicioso: monitoreo en tiempo real de sistemas desplegados, transparencia total en datasets de entrenamiento, modelos interpretables (que expliquen sus decisiones), evaluación previa de riesgos antes del lanzamiento. Equilibrio clásico entre innovación y seguridad, pero con dientes regulatorios reales.

Lo que todos los expertos coinciden es que la cooperación internacional es essential. Un país no puede regular solo lo que otro país desarrolla y despliega. Ya vimos esto con datos personales (GDPR), ciberseguridad, y energía. La IA requiere lo mismo: acuerdos globales sobre qué está prohibido, qué requiere auditoría, quién pone las reglas.

Tabla comparativa: Visiones del futuro según diferentes actores

Actor / GrupoTimeline AGIOptimismo generalPreocupación principalPropuesta clave
Sam Altman (OpenAI)2025-2026Muy altoConcentración de poderNew Deal for IA: distribución de tecnología
CEOs de empresas de IA2027-2030Alto (pero esperan retorno lento)Talento humano y adopciónIntegración gradual en operaciones
Investigadores científicos (87%)VariableMuy alto (beneficios > riesgos)Sesgo algorítmico, privacidadEvaluación previa de riesgos + monitoreo
Formuladores de políticaNo especificanModeradoGobernanza y regulaciónAI Act europeo, estándares globales
opiniones expertos inteligencia artificial diagrama explicativo

La advertencia de Sam Altman sobre concentración de poder

El CEO de OpenAI ha sido explícito: el mayor riesgo no es que la IA sea inteligente, sino quién la controla. Si AGI llega y está en manos de dos corporaciones, el impacto en política, economía, libertad individual será enorme.

La propuesta de Altman es compartir tecnología (no secretos, sino herramientas de IA accesibles), crear competencia real, y establecer políticas progresistas que impidan que los beneficios se concentren. Suena idealista, lo es. Pero Altman no es un naive: entiende que sin presión regulatoria y competencia, la concentración es lo natural. Las plataformas digitales lo demostraron: Google, Meta, Amazon, todas terminaron como monopolios naturales porque ganan en escala, datos y capital.

Aquí entra en juego el “anillo de poder”: la idea de que tres o cuatro empresas de IA pueden cerrar acuerdos, repartirse mercados, y bloquear competidores. Altman advierte que eso es un riesgo existencial no para la humanidad, sino para la libertad económica y política. Relacionado: cómo funcionan los grandes modelos.

Transformación laboral: timeline y sectores impactados primero

Volviendo a lo concreto: ¿cuándo pierde el trabajador promedio su empleo por IA?

Altman dice que soporte técnico es lo primero. Pero ya está pasando: chatbots atienden consultas, resuelven problemas básicos, y los humanos solo manejan escalados complejos. El empleo en call centers ya está en declive, y la IA lo acelera.

Después viene procesamiento de datos, análisis de documentos, redacción básica. Tareas donde el humano es menos que una máquina glorificada. Si tu job consiste en leer 100 facturas y extraer datos, IA lo hace en segundos. Eso libera a la persona para hacer algo más valioso (o la deja sin job).

Lo que NO desaparece rápido es: cirugía (requiere destreza física + contexto impredecible), gestión de personas (requiere empatía y juicio), estrategia empresarial (requiere toma de riesgo y responsabilidad), arte genuino (porque la definición de arte incluye la intención humana). Eso no significa que IA no entre en estos campos, pero no reemplaza, complementa.

Errores comunes en la interpretación de estas opiniones

Error 1: Creer que todos los expertos están de acuerdo. El 87% de investigadores ve beneficios mayores que riesgos, pero el 13% discrepa. Eso no es marginal: son decenas de científicos de elite diciendo “esperen, hay un problema real acá”. Además, el 65% está alarmado por privacidad y datos. La comunidad científica no es un bloque monolítico.

Error 2: Confundir timeline de AGI con timeline de impacto laboral. Aunque AGI llegara mañana, que se implemente en la economía real toma años. Ley de leyes, fricción organizacional, necesidad de retraining. Altman mismo lo dice: soporte técnico es el primer domino, no todos caen al mismo tiempo. Prepararse para 2030 con cambios graduales es más realista que prepararse para 2026 con colapso total. Ya lo cubrimos antes en ejecutar modelos IA localmente.

Error 3: Ignorar que la concentración de poder es el problema real, no la IA en sí. La mayoría de riesgos (sesgo, privacidad, manipulación) se amplifican si la IA está controlada por pocas manos. Si la tecnología fuera distribuida, abierta, auditable, muchos riesgos se mitigarían. El problema es el modelo de negocio, no la ciencia.

Preguntas Frecuentes

¿Qué piensa Sam Altman sobre el futuro de la IA en los próximos 5 años?

Altman cree que la AGI (máquina capaz de hacer cualquier tarea cognitiva que hace un humano) es posible entre 2025 y 2026, aunque reconoce la incertidumbre. Lo que espera en los próximos 5 años es impacto laboral gradual comenzando en soporte técnico, acompañado de aumento de productividad en tareas creativas y científicas. No predice desempleo masivo inmediato, sino transformación progresiva del mercado laboral.

¿Los CEOs realmente creen que la IA está transformando sus negocios?

No del todo. El 80% invierte en IA, pero solo el 35% reporta impacto real medible en resultados financieros. La inversión es más defensiva (no quedarse atrás) que ofensiva (capturar valor comprobado). El 52% de CEOs identifica el talento humano como el mayor obstáculo, no la tecnología. La brecha entre promesa y realidad sigue siendo enorme.

¿Qué dicen los científicos que preocupa de la IA?

El 65% de expertos está alarmado por el uso no autorizado de datos de entrenamiento. El sesgo algorítmico es un problema concreto documentado. Y surge una preocupación nueva: modelos capaces de mentir intencionalmente para complacer al usuario. Solo el 29% de expertos apoya desarrollo sin restricciones; la mayoría quiere evaluación prudente de riesgos antes del lanzamiento.

¿Cuál es la posición de la Unión Europea sobre regulación de IA?

El AI Act entró en vigor en agosto de 2025 con un marco por riesgo: aplicaciones prohibidas (reconocimiento facial masivo), alto riesgo (decisiones laborales, crédito), y bajo riesgo (chatbots). Requiere transparencia, documentación, auditoría y capacidad de explicar decisiones. Es imperfecto pero es el primer marco regulatorio completo a nivel regional. Otros países están desarrollando enfoques similares.

¿Qué sector será el primero en sentir el impacto laboral de la IA?

Soporte técnico y atención telefónica, según Altman. Tareas altamente repetitivas, documentadas, con respuestas predecibles donde la IA ya está ganando terreno. Después procesamiento de datos, redacción básica, análisis de documentos. Lo que resiste más es trabajo que requiere empatía, contexto impredecible, y responsabilidad (medicina, gestión, estrategia).

Conclusión

Las opiniones de los expertos, científicos y empresarios sobre el futuro de la IA en 2026 son más matizadas de lo que el hype sugiere. Sam Altman cree en AGI inminente pero advierte sobre concentración de poder. Los CEOs invierten masivamente pero ven retorno limitado. Los científicos son optimistas sobre beneficios pero alarmados por riesgos de privacidad y sesgo. Nadie discrepa en que la IA transformará el trabajo, pero sobre cuándo, cómo y en beneficio de quién, hay mucha incertidumbre.

Lo que está confirmado: la regulación global (AI Act europeo, principios internacionales) está empezando a tomar forma. La competencia entre empresas sigue abierta, aunque la concentración es un riesgo real. El talento humano (y quién lo controla) es tan importante como la tecnología. Y los próximos 3 a 5 años serán determinantes: no para la llegada de AGI, sino para decidir quién gatilla esa puerta cuando llegue.

Si trabajás en soporte técnico, procesamiento de datos, o redacción básica, preparate. Si trabajás en campos que requieren contexto, empatía y juicio, tenés más tiempo. Y si sos formulador de política, la ventana para establecer gobernanza global se está cerrando.

Fuentes

Desplazarse hacia arriba