Expertos vs sociedad: la brecha en IA según Stanford

El Stanford AI Index 2026 reveló una divergencia preocupante entre expertos en inteligencia artificial y la percepción del público en general. Mientras los especialistas ven avances científicos y médicos sin precedentes, la sociedad (especialmente Generación Z) está cada vez más ansiosa sobre cómo la IA afectará sus empleos, salud y economía personal. No es que uno tenga razón y otro no: el problema es que están discutiendo cosas completamente diferentes.

En 30 segundos

  • Stanford 2026 documentó una brecha creciente: expertos optimistas sobre IA, público crecientemente ansioso (especialmente Gen Z)
  • En Gen Z bajó el optimismo de 36% a 22%, la esperanza de 27% a 18%, y el enojo subió de 22% a 31% (datos Gallup)
  • Expertos preocupados por AGI/superinteligencia; ciudadanos por empleos, costos de energía y acceso a salud
  • En España, 66% teme manipulación de contenidos, 65% privacidad de datos, 58% ciberseguridad — no AGI
  • 44 profesiones identificadas en riesgo directo; 89.66% de empresas españolas aún no reporta impacto laboral significativo

La brecha entre expertos en IA y sociedad en general es la divergencia entre lo que los especialistas y líderes del sector creen que debería preocuparnos sobre la inteligencia artificial (superinteligencia, riesgo existencial, capacidades futuras de AGI) y lo que realmente preocupa al ciudadano promedio (que un algoritmo le haga mal, que pierda el laburo, que le suban la boleta de luz por los data centers). Stanford 2026 puso números sobre una intuición que llevaba un tiempo flotando en el aire: no estamos hablando del mismo tema.

El report Stanford 2026: qué reveló sobre la brecha

Hace poco salió el AI Index 2026 de Stanford, que cada año analiza el estado de la industria de IA. Este año el dato que saltó fue eso: la brecha. Stanford mapeó qué preocupa a los expertos (los que investigación, que trabajan en OpenAI, Anthropic, Google, etc.) versus qué preocupa al público general.

Los expertos están enfocados en un problema que les parece existencial: la posibilidad de que surja una Inteligencia General Artificial (AGI), un tipo de superinteligencia teórica que podría hacer cualquier cosa que un humano hace y, además, pensar por sí sola. Es un debate legítimo, con papers serios detrás, pero también es un problema que potencialmente está décadas en el futuro (o quizá nunca ocurra).

El público general, mientras tanto, está preocupado por cosas que ocurren ahora mismo. Empleos. Dinero. Poder pagar las cosas.

Generación Z: del optimismo a la preocupación (36% a 22%)

Acá hay un dato que es medio deprimente. Según una encuesta Gallup citada en el reporte de Stanford, la percepción de Gen Z sobre IA cambió bastante en poco tiempo.

En 2024, un 36% de Gen Z era optimista sobre IA. En 2026, bajó a 22%. El dato más fuerte: la esperanza se derrumbó de 27% a 18%, mientras que el enojo subió de 22% a 31%. Es decir, los más jóvenes, los que más tiempo van a vivir con IA, son ahora los que menos esperanzados están.

¿Por qué Gen Z es más angry? Una hipótesis razonable: son los que directamente van a sentir el impacto en el mercado laboral. Un profesional de 45 años quizá tenga una carrera ya armada; un pibe de 22 recién entra al mercado y ve que para el rol que estudió están pidiendo “experiencia con IA” y los salarios empezaron a bajar.

El dato no es que Gen Z no usa IA. Según el mismo reporte, un porcentaje importante de la generación la usa a diario o semanalmente. El problema es exactamente lo opuesto: la usan, ven sus límites y sus capacidades de verdad, y muchos están pensando “uh, esto me va a afectar a mí directo”.

Las verdaderas preocupaciones del ciudadano común

Entonces, ¿en qué piensa la gente cuando piensa en IA? Según Stanford (y respaldado por datos españoles de ONTSI), las preocupaciones reales son: Te puede servir nuestra cobertura de los últimos modelos de IA disponibles.

Empleos. Si un modelo puede escribir código, redactar, analizar datos, ¿qué queda para los humanos? Es la pregunta del millón. El público ve que IA está mejorando cada trimestre y piensa “si sigue así, en cinco años mi rol no existe”.

Salud. No es AGI exterminadora; es más concreto. “¿Un modelo me va a diagnosticar mal?” o “¿Un hospital va a poner un algoritmo a que me opere y sale mal?”

Economía personal. Subida de costos de energía porque los data centers consumen un montón. Inflación de servicios. Productos más caros porque todo tiene “powered by AI” pegado adelante.

Privacidad y seguridad. En España, según ONTSI 2024, el 66% teme la manipulación de contenidos por IA, 65% teme por la privacidad de datos, 58% por ciberseguridad. No es filosofía; es miedo concreto a lo que IA podría hacer.

Dicho esto, la brecha también existe porque hay mucha gente que simplemente no está en contacto con IA. En España, 40% de la población nunca usó un sistema de IA; 20% lo usa casi todos los días. La brecha de edad es brutal: mayores de 63 años la usan muy poco. Cuando la mitad de la sociedad no tiene experiencia directa con la tecnología, la percepción es especulativa, miedosa.

Empleos en riesgo: la brecha entre teoría y realidad

Stanford 2026 identificó 44 profesiones en riesgo directo de ser impactadas por IA. Entre esas, 64% de los analistas financieros podrían ver cambios significativos en sus roles. Redactores, programadores, diseñadores gráficos, abogados junior, científicos de datos: está claro que estos roles van a transformarse.

Ahora, cuando los expertos hablan de esto, dicen “transformación, no destrucción”. Que los roles van a cambiar, no desaparecer. Que la IA va a ser una herramienta. Vos, como abogado, vas a usar IA para redactar borradores más rápido, pero seguís siendo abogado.

Pero acá está el quilombo (sí, la palabra): cuando un rol se transforma, a veces el salario baja, porque el requisito técnico baja. Si antes necesitabas 5 años de experiencia en Excel + SQL para ser analyst, y ahora con Claude puedes lograrlo en 2 meses, ¿qué pasa con los sueldos de los analysts? Probabilísticamente, bajan.

Entonces la gente está asustada no porque piense que van a desaparecer empleos (lo saben técnicamente), sino porque sus empleos van a cambiar, posiblemente con salarios menores. Complementá con cómo funcionan realmente los LLMs.

Ahora, dato español raro: 89.66% de las empresas españolas aún no reporta un impacto significativo en su estructura laboral producto de IA (ONTSI 2024). Eso es un lag. El impacto real todavía está bajo, pero la percepción de riesgo ya está altísima.

Tabla comparativa: qué preocupa a expertos vs qué preocupa al público

Lo que preocupa a EXPERTOSLo que preocupa al PÚBLICOHorizonte temporal
AGI / superinteligenciaPérdida de empleosExpertos: 10-50 años. Público: ahora mismo
Alineamiento de valores (alignment problem)Privacidad de datos personalesExpertos: teórico. Público: sucede ya
Capacidades emergentes no predichasAcceso a salud de calidadExpertos: riesgo futuro. Público: impacto actual
Riesgo existencialCostos de energía / inflaciónExpertos: escenario de ciencia ficción. Público: boleta de luz
Seguridad y robustez de modelosManipulación de contenidos / deepfakesExpertos: problema técnico. Público: ya ocurre
brecha entre expertos ia diagrama explicativo

La tabla resume bastante bien: los expertos hablan del futuro distópico. El público, del presente que ya es un poco distópico.

La paradoja de la confianza regulatoria global

Otro dato interesante de Stanford 2026: cómo confían los ciudadanos de cada país en que su gobierno regule IA de forma responsable.

En Estados Unidos, solo 31% confía en que el gobierno lo haga bien. En Singapur, 81%. En China, mucho más alto que en Occidente.

¿Por qué? Parcialmente porque Estados Unidos es una democracia con regulación lenta, debates públicos, fricción. Singapur es un sistema más centralizado donde el gobierno puede tomar decisiones rápidas (para bien o para mal). Las democracias occidentales terminan teniendo menos confianza en regulación porque la ven lenta, influenciada por lobbies, inconsistente.

Pero también está el sesgo de que los países con sistemas más autoritarios reportan más confianza en el gobierno (por obvias razones de cómo encuestar). De todas formas, el punto es: a nivel global, hay ansiedad sobre si alguien competente está al timón de todo esto.

La brecha digital amplifica la divergencia

En España, el 40% nunca usó IA. Punto. Nunca probó ChatGPT, nunca vio Claude, nunca interactuó con un asistente. El 20% la usa casi a diario.

Es una diferencia monstruosa. Cuando vos usás algo, tenés experiencia táctil de qué funciona y qué no. Ves los límites. Ves que no es mágico. Pero cuando no usaste nunca, tu percepción viene de lo que leés, que en internet es una mezcla de hype, miedo y especulación. Relacionado: ejecutar modelos de IA sin conexión.

La brecha por edad es específicamente fuerte. Mayores de 63 años uso mucho menor. Menores de 30, mucho mayor. Eso significa que las generaciones más jóvenes van a tener una percepción más realista (porque usan) pero también más miedo (porque ven que puede reemplazarlos). Y las generaciones mayores van a tener miedo especulativo, amplificado por noticias.

De qué habla cada lado: la agenda de expertos vs la agenda de sociedad

Los expertos en IA llevan años diciendo “cuidado con AGI, estamos acercándonos a algo que no entendemos bien”. Legítimo. Papers de Anthropic, OpenAI, deepmind sobre alignment, seguridad, emergent capabilities. Todo con fundamento.

Pero cuando los expertos van a hablar en público, eso es lo que dicen. “Superinteligencia.” “Riesgo existencial.” Suena a película de ciencia ficción. El ciudadano común, que está viendo que le hace falta dinero para pagar la renta, piensa “bueno, primero resuelvo mi situación laboral, después hablamos de superinteligencia”.

Es como si dos personas están hablando de un barco. Una dice “cuidado, en 20 años podría haber un iceberg”. La otra dice “che, se está hundiendo ahora, el piso está mojado, hay un hueco en el casco”.

No es que uno tenga razón y otro no. Es que están hablando de capas diferentes del mismo problema.

Errores comunes sobre la brecha expertos-público

Error 1: Pensar que el público está equivocado por estar asustado

La realidad es que las preocupaciones del público son legítimas. Empleos van a cambiar. Privacidad es un riesgo real ahora, no en 20 años. Costos de energía ya están subiendo. No es especulativo. El público identifica problemas reales.

Lo que el público no está considerando es que los avances tecnológicos históricamente crean más empleos de los que destruyen (aunque a veces tardan décadas). Pero eso no invalida el miedo presente.

Error 2: Asumir que más educación sobre IA elimina el miedo

Algunos expertos piensan “si la gente entiende cómo funciona IA, no van a tener miedo”. Falso. Gen Z, que usa IA a diario, tiene menos miedo no porque entienda mejor, sino porque usa la herramienta. Pero eso no elimina la ansiedad sobre empleos. Usar ChatGPT te muestra que funciona bien; te muestra también que tu rol podría estar en riesgo. En generadores de video con inteligencia artificial profundizamos sobre esto.

Error 3: Creer que la brecha se cierra con regulación

Mucha gente piensa que si el gobierno regula IA, todo se arregla. Pero la regulación no resuelve la realidad técnica: IA mejora rápido, costos de energía son reales, empleos cambien. La regulación ayuda con seguridad y privacidad, pero el miedo existencial del público es económico-laboral, no regulatorio.

Preguntas Frecuentes

¿Qué es exactamente el Stanford AI Index 2026?

Es un reporte anual de Stanford que mide el estado de la industria de IA a través de métricas: inversión, publicaciones, capacidades de modelos, impacto económico, y — este año — brechas en percepción. Es el índice de referencia del sector.

¿Es verdad que IA va a destruir empleos?

No va a “destruir”, va a transformar. Los roles van a cambiar, algunos desaparecen, otros nacen. Históricamente, nuevas tecnologías generan más empleos de los que eliminan, pero el proceso es lento y doloroso para quienes quedan sin rol en el medio.

¿Cuál es la opinión de los expertos sobre la preocupación del público?

Hay dos campos. Uno dice “el público está asustado sin razón, IA no es mágica, los empleos van a cambiar como siempre”. Otro dice “el público tiene razón en estar preocupado, los expertos estamos focalizados en un riesgo lejano y no vemos los riesgos presentes”.

¿Qué puede hacer un país (o una empresa) para cerrar la brecha?

Transparencia real sobre capacidades y límites de IA. Inversión en reentrenamiento laboral. Políticas de distribución de ganancias de automatización. Regulación clara sobre privacidad y seguridad. No prometer que IA va a solucionar todo; reconocer que va a crear nuevos problemas.

¿Generación Z va a estar mejor o peor que generaciones anteriores en la era de IA?

Imposible saber. Están entrando al mercado cuando IA está en un punto de inflexión. Pueden ser la generación que se adapta mejor (porque crecieron con tecnología). O pueden ser los más perjudicados (porque entran en un mercado donde roles están desapareciendo). Probablemente ambas cosas: algunos ganan mucho, otros pierden oportunidades. La brecha intra-generacional va a ser feroz.

Conclusión

Stanford 2026 puso en números algo que se sentía en el aire: expertos y público hablan de IA como si fueran idiomas diferentes. Los expertos hablan de riesgos futuros existenciales. El público habla de cómo pagarse la renta el mes que viene.

Ninguno está equivocado. El problema es que mientras una conversación ocurre en el piso 30 de una torre de investigación (superinteligencia, AGI, alignment), la otra ocurre en la realidad de la calle (empleos, dinero, poder pagar cosas).

¿Por qué importa? Porque política pública, inversión, y decisiones de riesgo se toman sobre la base de una de esas conversaciones. Si los gobiernos solo escuchan a expertos, van a sobre-regular riesgos futuros y sub-regular riesgos presentes. Si solo escuchan al público, van a frenar innovación sin resolver los problemas económicos reales.

La salida no es que uno tenga razón y otro no. Es que ambos lados tengan que sentarse a la mesa real y no simplemente hablar en paralelo esperando que el otro entienda.

Fuentes

Desplazarse hacia arriba