Radiología con IA: así diagnostican sin radiólogos

Mitchell Katz, CEO del Sistema de Salud Pública más grande de USA (NYC Health + Hospitals), anunció en 2026 que está listo para reemplazar radiólogos con inteligencia artificial. La declaración reavivó el debate sobre si la IA puede efectivamente diagnosticar radiografías mejor que médicos humanos, un debate que expertos llevan años alertando sobre sus riesgos reales.

En 30 segundos

  • Mitchell Katz propone usar IA para analizar radiografías en NYC Health + Hospitals
  • La IA radiológica puede detectar patrones rápidamente, pero falla en casos complejos y raros
  • Modelos de IA solo aciertan 57-85% en detectar imágenes falsas o manipuladas
  • Quirónsalud y otros hospitales españoles ya integran IA, pero como herramienta de apoyo, no reemplazo
  • Los reguladores aún no dan luz verde para IA radiológica sin supervisión humana

El anuncio que alarmó a la medicina: CEO quiere reemplazar radiólogos con IA

Mitchell Katz lidera el sistema hospitalario público más grande de Estados Unidos. Cuando a alguien en esa posición le dice a la prensa que va a reemplazar a toda una especialidad médica con algoritmos, la noticia resuena. Y no solo en hospitales: radiólogos de todo el mundo pusieron en pausa sus cafés para leer bien qué había dicho (spoiler: fue bastante más matizado en la entrevista original que en los titulares).

La propuesta no es nueva ni sorprendente para quien sigue el sector. Desde hace años, empresas como IBM, Google DeepMind y startups de radiología vienen entrenando modelos que clasifican radiografías de tórax, mamografías y resonancias. Lo que hace diferente el anuncio de Katz es que viene del ejecutivo de un hospital real con presupuesto real, en un país con regulación real.

NYC Health + Hospitals atiende a 1.5 millones de pacientes por año. El cuello de botella es brutal: tres millones de estudios de imagen anuales, tiempos de espera estratosféricos, radiólogos agotados. De ahí la propuesta: si la IA puede absorber el 70% de los casos rutinarios (fracturas obvias, pulmones normales, estudios descartables), liberamos capacidad humana para los casos difíciles.

¿Cómo funciona la IA para diagnosticar desde radiografías?

Ponele que un paciente se cae, se golpea el pecho, llega a urgencias y le hacen una radiografía de tórax. La imagen llega al PACS (Picture Archiving and Communication System, el sistema que ven los radiólogos). Ahí entra en juego la IA radiológica.

Una red neuronal convolucional (el tipo de modelo que usan para imágenes) analiza cada píxel. Busca patrones: bordes de huesos, densidades anormales, formas que no deberían estar ahí. El modelo fue entrenado en decenas de miles de radiografías etiquetadas, así que aprendió dónde típicamente aparecen fracturas, nódulos, consolidaciones pulmonares.

La salida no es un diagnóstico. Es un reporte sugerido: “Posible fractura de costilla 3-4, densidad anormal en lóbulo inferior derecho, correlacionar clínicamente.” El radiólogo lee eso, ve la imagen, y toma la decisión final. O en teoría, podría dejar que el algoritmo filtre los estudios normales automáticamente, liberándose esa tarea. En cómo proteger datos médicos sensibles profundizamos sobre esto.

Ventajas reales de integrar IA en radiología

La velocidad es el primer ganador. Un modelo procesa cientos de imágenes por segundo, flagging automáticamente lo que necesita revisar un humano. En urgencias, eso puede ser la diferencia entre detectar un neumotórax en cinco minutos o en treinta.

El segundo es eliminación de carga administrativa. Si el 60% de las radiografías de rutina resultan normales (especialmente en estudios de screening), un algoritmo puede marcarlas como “no relevante para revisión” y ahorrar horas de tiempo radiólogo al día. Eso libera presupuesto y energía mental para casos donde la incertidumbre y el riesgo son altos.

El tercero suena lindo en teoría pero es más complicado en práctica: consistencia. Un modelo no se cansa, no tiene días malos, no atiende 200 pacientes y a la imagen 150 empieza a patinar. Pero eso solo funciona si el modelo fue entrenado con la misma distribución de pacientes que ves en tu hospital.

Quirónsalud implementó IA radiológica en su hospital de Madrid en cuatro áreas específicas: mamografía, radiología torácica, neuroimagen y estudios óseos. Reportaron reducción de tiempos de turnaround en 25% a 40%, según anuncios públicos. La clave: fue integración gradual, con radiólogos “validando” antes de cualquier automatización total.

Los riesgos concretos que los radiólogos advierten

Acá es donde la realidad se pone incómoda. Un modelo de IA detecta patrones en el dataset en el que fue entrenado. Si en ese dataset el 95% de los pacientes tenían cierta edad, raza, o comorbilidad, el modelo va a porfiarse en ese patrón aunque lo enfrentes a una población diferente. Eso es sesgo algorítmico, y es responsabilidad legal de quien lo implementa.

Hay un segundo riesgo que la mayoría de los artículos ignora: adversarial attacks. Si un atacante cibernético logra inyectar ruido fino (imperceptible al ojo humano pero estratégico) en una imagen DICOM, puede hacer que el modelo devuelva diagnósticos completamente falsos. Un estudio de Cornell mostró que modelos de IA para visión detectan imágenes sintéticas falsas solo entre 57% y 85% del tiempo. En medicina, eso es inaceptable.

El tercero: alucinaciones y hallazgos raros. Geoffrey Hinton, en 2016, predijo que en cinco años la IA sería mejor que cualquier radiólogo. Se retractó públicamente años después. ¿Por qué? Porque un caso de tuberculosis en un paciente VIH+ que solo vió la IA dos veces en sus 100 mil imágenes de entrenamiento, el algoritmo lo trata como señal ruidosa. El radiólogo humano, con cinco años de experiencia viendo esos casos, lo ve al toque. Relacionado: cómo funcionan las IA conversacionales.

El cuarto: dependencia tecnológica. Si confías 100% en que la IA filtra los estudios “normales” y un día el servidor se cae, la cola de radiografías sin revisar crece exponencialmente. O si el modelo degrada en precisión y nadie lo nota porque dejaste de revisar ciego (sin saber qué dijo la IA), pasaban cosas malas antes de que nadie se entere.

Casos reales: Hospitales que ya usan IA en radiología

Westchester Medical Center en Nueva York implementó un sistema de detección asistida por IA para radiografía de tórax. Anunciaron que mejoraron tasas de detección de nódulos pulmonares pequeños en 8% a 12%, pero dejaron claro en la publicación: “el radiólogo mantiene el control de la decisión final.”

En España, Quirónsalud es el caso más documentado. Integró IA en mamografía digital, donde detecta microcalcificaciones sospechosas antes de que el radiólogo las clasifique manualmente. El beneficio reportado: reducción de falsos negativos en 6% a 8%. Pero acá vienen con el modelo complementario: médico + máquina, no máquina en lugar de médico.

Clínica Mayo, que es quien más ha invertido en IA radiológica, hizo algo contra-intuitivo: creció su equipo de radiólogos 55% en cinco años mientras implementaba IA. ¿Por qué? Porque la IA cambió el rol. Los radiólogos dejaron de pasar horas confirmando “todo normal” y empezaron a enfocarse en supervisión, casos complejos, y consultoría clínica directo con médicos. El juego cambió, pero no desapareció el jugador.

La predicción fallida de Geoffrey Hinton: por qué se equivocó

Geoffrey Hinton es uno de los papás del deep learning. En 2016, dijo públicamente que la IA sería mejor que radiólogos en cinco años. Era 2016, el hype del deep learning estaba en máximo, y parecía que nada podía detener la máquina.

En 2023, Hinton salió en una entrevista de CNBC y básicamente dijo “bueno, me equivoqué.” No fue tan dramático, pero admitió que subestimó tres cosas: primero, la variabilidad de casos reales (los datasets de entrenamiento son mucho más limpios que la realidad); segundo, la necesidad de interpretabilidad (un radiólogo necesita saber POR QUÉ el modelo sugiere algo, no solo QUÉ sugiere); tercero, el costo regulatorio y legal de implementar medicina automatizada.

La lección es incómoda. En benchmarks, la IA ya compite con radiólogos en tareas específicas. Pero un radiólogo no pasa el día detectando fracturas de cúbito. Ve mamografías, después radiografías de tórax, después resonancias lumbares, después estudios post-operatorios. Cambia de contexto constantemente, integra historia clínica, nota lo raro. Una IA entrenada en un tipo de imagen falla espectacularmente en otro. Más contexto en los modelos GPT y sus usos.

El futuro real: IA complementaria, no reemplazo total

El consenso que está ganando entre radiólogos serios (hablo de SERAM, la Sociedad Española de Radiología, y el Colegio Interamericano de Radiología) es que el futuro es hibrido. La IA filtra, sugiere, acelera, pero el humano valida, contextualiza, y responde por el resultado.

Eso no significa que los radiólogos estén “seguros.” Significa que el trabajo va a cambiar radicalmente. Menos horas identificando “todo normal,” más horas resolviendo casos difíciles y consultando directamente con médicos clínicos. Es un trabajo mejor pago, más cognitivo, menos repetitivo (si los hospitales la verdad distribuyen la ganancia de eficiencia, que es un “si” gigante).

Para los próximos cinco años, la IA radiológica va a crecer, pero no porque reemplace radiólogos. Va a crecer porque hace que los radiólogos sean más productivos, y en salud pública (donde el presupuesto siempre es la limitación) eso es oro.

Desafío regulatorio: por qué aún no se implementa masivamente

Acá viene lo que nunca menciona Katz en sus declaraciones públicas. La FDA, en USA, clasifica los sistemas de IA radiológica como “dispositivos médicos clase 2” o “clase 3,” dependiendo de lo invasiva que sea la decisión. Eso significa validación clínica robusta, estudios prospectivos, reportes de seguridad continua.

En España, la AEMPS (Agencia de Medicamentos) sigue criterios similares. Un algoritmo que sugiere diagnósticos necesita demostrar que no causa daño neto. Y “no causa daño neto” es un estándar altísimo: tienes que mostrar que la tasa de falsos negativos no sube respecto al estándar actual, y que el beneficio de eficiencia justifica cualquier riesgo marginal.

La verdad es que Katz, en la entrevista, aclaró “si estuviéramos listos para el desafío regulatorio.” Eso es el 95% de la historia. El 5% es “queremos reemplazar radiólogos.” El 95% es “la regulación aún no permite automatización sin supervisión humana.”

Un hospital privado grande en USA podría lanzar un piloto hoy, con supervisión radiológica completa. Lo hacen. Pero lanzar IA sin un radiólogo validando cada caso, en un hospital público con abogados respirando en la nuca, es distinto. Una demanda por diagnóstico errado por falla de IA termina siendo jurisprudencia que afecta a todos. Lo explicamos a fondo en alternativas a ChatGPT como Gemini.

IA en radiología: Ventajas vs. Riesgos

AspectoVentajas ConfirmadasRiesgos Confirmados
Velocidad de análisisProcesa cientos de imágenes/segundo. Reduce tiempos de espera en urgencias 20-40%.Puede acelerar diagnósticos falsos si nadie valida salida del modelo.
ConsistenciaNo se cansa, no tiene días malos, no se distrae en imagen 150.Degrada en precisión si la distribución de pacientes cambia (sesgo algorítmico).
Detección de patronesDetecta microcalcificaciones, nódulos pequeños en datasets conocidos. Benchmark: 92-97% en mamografía.Falla en casos raros o atípicos. Detecta imágenes falsas 57-85% (no es suficiente en medicina).
Carga radiológicaElimina horas en estudios “normales.” Libera capacidad para supervisión de casos complejos.Dependencia tecnológica. Si el servidor falla, se acumula trabajo no procesado.
Costo operacionalAhorro de 25-40% en horas radiológicas si se implementa con supervisión correcta.Implementación, mantenimiento, entrenamiento y cumplimiento regulatorio costosos (USD 500K-5M por hospital).
Seguridad cibernéticaAlgoritmo no puede “ser hackeado” en el sentido tradicional.Adversarial attacks pueden inyectar ruido imperceptible en DICOM y falsificar diagnósticos.
Responsabilidad legalRadiólogo sigue siendo responsable de la salida final.¿Quién responde si el algoritmo falla? Hospital, fabricante, o radiólogo. Aún no está claro legalmente.
ia radiología diagnóstico diagrama explicativo

Errores comunes al implementar IA en radiología

1. Creer que la IA es mejor porque ganó un benchmark

Los benchmarks usan datasets cerrados: pacientes jóvenes, imágenes de buena calidad, diagnósticos claros. La realidad de un hospital tiene pacientes viejos, imágenes deficientes, historias clínicas complejas. Un modelo que pegó 96% en ImageNet puede pegar 72% en la clínica real. Y eso es antes de considerar que el benchmark no mide velocidad de respuesta humana ni costo implementación.

2. No validar la salida del modelo antes de implementar automáticamente

Ponele que tu hospital implementa IA para flagging automático de “estudios normales,” y dejas que se envíen directamente al archivo sin radiólogo. Eso es un error. Necesitás un período de “prueba ciega” donde la IA sugiere pero un radiólogo valida en secreto, sin saber qué dijo la máquina. Solo después, si la concordancia es 99%+, considerás automáticamente.

3. No tener plan B si el servidor de IA se cae

La IA es 40% más rápida que radiología manual, así que optimizás todo a tu workflow asumiendo que funciona siempre. Luego, un viernes a las 8pm, el servidor se cae. De repente tienes 500 radiografías sin procesar y tu equipo de radiólogos no está dimensionado para hacer el trabajo de IA + humano a la vez. Necesitás un workflow fallback antes de ir live.

Preguntas Frecuentes

¿La IA va a reemplazar a todos los radiólogos?

No. Lo que va a pasar es similar a lo que pasó con la mamografía digital versus película: cambió el flujo de trabajo, no desapareció el radiólogo. Clínica Mayo creció su equipo de radiólogos 55% mientras implementaba IA. El rol se transformó, pero la demanda de radiólogos buenos sigue siendo altísima.

¿Qué tan precisa es la IA radiológica en 2026?

Depende de la tarea. En mamografía digital, 92-97% en estudios conocidos. En radiografía de tórax, 85-93% en detección de consolidaciones. En resonancia o casos complejos, 60-75%. El problema: esos benchmarks son en datasets limpios. En la clínica, baja 5-15% dependiendo de la variabilidad de tu población.

¿Por qué Mitchell Katz hace esta declaración si aún no está aprobado?

Porque NYC Health + Hospitals enfrenta una crisis de capacidad real. Tres millones de estudios por año, radiólogos sobrecargados, tiempos de espera inaceptables. Desde la perspectiva de administrador, la IA es la única palanca que ve para escalar sin contratar 200 radiólogos más. La realidad es que necesitará cinco años de regulación antes de poder automatizar completamente, pero públicamente tiene que ser optimista.

¿Cómo un atacante cibernético puede falsificar una radiografía para la IA?

Un modelo de visión busca patrones de píxeles. Si inyectás ruido adversarial (cambios de píxeles imperceptibles al ojo humano, pero calculados matemáticamente), podés hacer que el modelo devuelva lo opuesto al diagnóstico real. Un estudio mostró que modelos de IA detectan estas inyecciones solo 57-85% del tiempo. En medicina, eso es peligroso.

¿Qué países están regulando la IA radiológica más estrictamente?

Europa (AEMPS en España, EMA globalmente) está siendo más estricta que USA. Requieren validación clínica prospectiva y reportes de seguridad continua. USA (FDA) es más permisivo con dispositivos clase 2, que pueden salir al mercado con menos datos. China casi no regula. Para hospitales españoles y latinoamericanos, la regulación europea es el standard de facto.

Conclusión

Mitchell Katz tiene razón en que la IA radiológica puede liberar capacidad en hospitales públicos desbordados. Tiene razón en que los números, en teoría, cierran. Pero la realidad de implementar IA en medicina es más lenta, más compleja, y más regulada que cualquier otro sector.

Los radiólogos no van a desaparecer. Su trabajo va a cambiar radicalmente: menos clasificación de “normal/anormal,” más supervisión de IA y más tiempo con médicos clínicos. Para radiólogos jóvenes, eso es una buena noticia (el trabajo es más interesante). Para radiólogos grandes que gastaron 30 años perfeccionando el eye, es un cambio incómodo.

Lo importante ahora es que hospitales, reguladores y empresas de IA entiendan que el modelo híbrido (IA + verificación humana) es el único que funciona. No por ideología, sino por matemática: la IA reduce errores en casos routinarios, pero el humano los previene en casos raros. Los dos juntos ganan a cualquiera por separado.

Fuentes

Desplazarse hacia arriba