¿Por qué la IA prediciendo decisiones judiciales es probl…

La jueza Sonia Sotomayor advirtió en abril de 2026 que los modelos de inteligencia artificial pueden predecir las decisiones de la Corte Suprema de EE.UU. con una precisión que ronda el 70%, algo que ella considera “una cosa muy mala” porque revela cuán predecibles y poco diversas han vuelto las deliberaciones judiciales. Su preocupación no es que exista la tecnología, sino que funciona tan bien que expone un patrón que debería avergonzar al sistema.

En 30 segundos

  • Sotomayor dijo públicamente que la IA puede predecir fallos de la Corte Suprema mejor de lo que debería, lo que sugiere una falta de diversidad en el pensamiento judicial
  • Estudios académicos confirman que algoritmos de machine learning logran 70-81% de precisión al predecir decisiones, superando a expertos legales que alcanzan 66%
  • El modelo funciona analizando datos históricos: tema del caso, corte de origen, votos previos, características del panel de jueces
  • La paradoja es que si una máquina puede predecir tan bien, significa que los jueces siguen patrones tan entrenched que la IA los captura fácilmente
  • El riesgo principal es que algoritmos perpetúen sesgos históricos (racial, de género) y reduzcan la independencia judicial a una caja negra inescrutables

La justicia predictiva es el uso de modelos de machine learning para anticipar cómo un tribunal resolverá un caso específico, basándose en patrones extraídos de sentencias históricas. El algoritmo aprende qué características (tema, jurisdicción, composición del panel, antecedentes) correlacionan con cada tipo de fallo y luego predice futuros resultados con esa lógica. Es una herramienta que, literalmente, puede ser más precisa que los expertos en derecho que estudian toda la vida.

Qué dijo Sotomayor sobre la IA prediciendo fallos de la Corte Suprema

En una conferencia en la Universidad de Alabama en abril de 2026, Sotomayor expresó su inquietud sobre que sistemas de IA logren predecir decisiones de la Corte Suprema con semejante precisión. La jueza fue directa: es “una cosa muy mala” que una máquina pueda anticipar fallos judiciales tan bien, porque eso demuestra que los jueces son “demasiado predecibles”.

Lo interesante es que Sotomayor no atacó a la IA en sí. Su crítica fue más profunda: si la máquina puede predecir qué decidirán, significa que hay tan poco margen para el pensamiento nuevo, tan pocos espacios donde los jueces “abran sus mentes a ideas nuevas”, que los algoritmos capturan la esencia de cómo piensan. Es como si dijera: “Si un modelo puede atraparnos en este juego, es porque el juego ya está muy cerrado.”

Cómo funcionan los modelos de machine learning que predicen fallos

Ponele que vos querés entrenar un algoritmo para predecir fallos. ¿Qué le das de entrada? Datos históricos de sentencias: miles de casos, cada uno con metadata que tu modelo puede procesar.

Los investigadores típicamente usan features como estos (y acá viene lo bueno): el tema del caso (constitucional, laboral, ambiental), la corte de origen, el tipo de litigante (gobierno vs privado), votos previos del panel en temas similares, y características del juez que presidería. El algoritmo (frecuentemente random forest, redes neuronales o gradient boosting) busca patrones: “cuando es un caso X, de tema Y, y el panel tiene jueces A, B, C, siempre el resultado fue Z”.

Un estudio de 2017 mencionado en investigación publicada en Science entrenó modelos con 740 decisiones de la Corte Suprema de EE.UU., usando solo 8 características básicas, y logró 70.2% de precisión al predecir el voto de cada juez individual. Con análisis más sofisticado de lenguaje natural (NLP), leyendo los argumentos escritos, la precisión subió a 81.1%. Eso no es un margen de error — es casi un sistema que funciona.

Precisión de los algoritmos comparada con expertos legales

Acá es donde la cosa se vuelve incómoda (si es que eso cuenta como incómodo en el mundo legal). Cuando investigadores compararon la precisión de máquinas contra abogados expertos en derecho constitucional, los números dijeron algo claro: los algoritmos ganan. Relacionado: los últimos modelos avanzados de IA.

PredictorPrecisiónBase
Random forest (8 features)70.2%Votos individuales de jueces
Red neuronal (NLP)81.1%Análisis de argumentos escritos
Expertos legales66%Análisis de casos por profesionales
Estrategia “siempre reverse”63%Asumir que siempre gana apelante
Decisión del panel (71.9%)71.9%Sobre votos mayoritarios
ia predicción decisiones judiciales diagrama explicativo

Los abogados con 20+ años de experiencia llegaban al 66% de precisión. Un modelo entrenado con datos históricos: 70-81%. La máquina superó al humano en su propio campo, y no fue ni cerca: le sacó 4-15 puntos de ventaja.

¿Qué significa eso? Que una corte no es un lugar de sorpresas o razonamientos únicos — es un sitio donde ciertos inputs (tema, historial, composición) apuntan casi siempre a ciertos outputs. Eso es exactamente lo que Sotomayor criticó.

La paradoja: predictibilidad como síntoma de falta de diversidad judicial

Sotomayor enunció el paradoja, aunque no con esas palabras exactas. Si un algoritmo puede predecir tan bien, ¿qué está pasando en los pasillos de justicia? La respuesta incómoda es que los patrones de pensamiento judicial son tan rígidos, tan repetitivos, tan entrenched en cierta ideología o cierta forma de ver los casos, que una máquina los capta al vuelo.

Eso no es culpa de la IA. Es un espejo que la IA levanta: “Hey, miren qué predecible es esto”.

El sistema de justicia debería ser un lugar donde cada caso se analiza con mente abierta, donde los precedentes guían pero no encadenan, donde un argumento nuevo puede cambiar de verdad cómo un juez vota. Pero si los datos dicen que votas A el 75% de las veces en casos tipo B, entonces sos predecible. Y si sos predecible, entonces en cierta forma ya decidiste antes de leer el expediente.

Riesgos principales: sesgo algorítmico e independencia judicial

El problema de usar historiales para predecir futuros es que los historiales están contaminados. La Corte Suprema de EE.UU. tiene siglos de decisiones que reflejan sesgos históricos: racial, de género, de clase. Un modelo entrenado con esos datos no descubre la “verdad” sobre cómo debe fallar un tribunal — descubre cómo ha fallado una corte compuesta mayoritariamente por hombres blancos, durante 200 años, con ciertos prejuicios incorporados. Tema relacionado: en los modelos de lenguaje más avanzados.

Entrenar el algoritmo con datos sesgados no lo hace más justo, lo hace más eficiente perpetuando el sesgo. Es como si dijeras: “Vamos a automatizar la discriminación del pasado” (spoiler: no es una buena idea).

Además, el modelo es una caja negra. Vos sabés que predice correctamente, pero no sabés por qué. ¿Qué feature fue decisivo? ¿Fue el tema del caso o la identidad del juez? ¿Decisiones basadas en ley o en sesgos no documentados? Un sistema de justicia que no puede explicar sus razones pierde la legitimidad que necesita para funcionar.

Y hay un riesgo más sutil: que alguien use estos modelos no para hacer investigación académica (spoiler: eso es lo que pasó), sino para predecir estratégicamente, para elegir jueces favorables, para game-earlo todo. En EE.UU., litigantes ya usan herramientas como Lex Machina para predecir jueces y resultados.

Iniciativas de IA en justicia en Latinoamérica

No es que esto sea solo un problema de EE.UU. En Argentina, existe PROMETEA, un sistema de IA que analiza más de 6,000 sentencias y ofrece un interfaz conversacional para abogados y jueces que buscan jurisprudencia relevante. No predice fallos, pero sí te ayuda a encontrar rápidamente qué dijo la corte en casos similares.

En Colombia, un caso de 2022 dio que hablar cuando un juez usó ChatGPT para fundamentar una sentencia (en este caso, sobre una madre reclamando derechos para su hijo autista). El fallo fue criticado por falta de rigor, porque el modelo generaba texto que sonaba bien pero no era específico del derecho colombiano ni había validación legal real detrás.

El dilema es el mismo en toda Latinoamérica: queremos que la IA nos ayude con la eficiencia, pero sin sacrificar la independencia judicial ni alimentar los sesgos que ya existen en los sistemas.

La posición matizada de Sotomayor: no es contra la IA, es contra la automatización ciega

Aquí está el giro que muchos no captan de la crítica de Sotomayor. Ella no dijo “eliminen la IA de los tribunales” (spoiler: no fue así de simplista). Dijo que los estudiantes de derecho tienen que aprender IA, porque la tecnología ya está en la cancha y los jueces del futuro necesitan entenderla.

Lo que le preocupa es el mal uso. La IA tiene potencial de perpetuar tanto lo mejor como lo peor de nosotros — la tendencia de un tribunal a fallar sabia y equitativamente, o su tendencia a reproducir prejuicios. La pregunta es: ¿vamos a usar estos modelos como herramientas de apoyo (con un humano supervisando) o como sistemas que reemplazan el razonamiento judicial? Cubrimos ese tema en detalle en si querés experimentar con LLMs.

Si un abogado usa IA para investigar precedentes: bien. Si un algoritmo decide automáticamente sentencias: muy mal.

Errores comunes al hablar de justicia predictiva

Error 1: Creer que la IA es “objetiva”

La gente piensa que porque un algoritmo es una máquina, es neutral. No. Un modelo entrenado con datos sesgados amplifica el sesgo a escala. Si el 90% de tus datos históricos reflejan discriminación, tu IA será un discriminador eficiente. Eso es peor que un juez con prejuicios, porque al menos el juez podría cambiar de opinión.

Error 2: Confundir “predecible” con “malo”

Que Sotomayor diga que los jueces son predecibles no significa que estén fallando mal. Significa que sus patrones son tan consistentes que una máquina los captura. Un juez consistente con sólidos principios constitucionales será predecible (y eso está bien). Un juez caprichoso o corrupto será impredecible (y eso está mal). El problema de Sotomayor era que la predictibilidad revelaba algo sobre la falta de diversidad, no sobre la calidad per se.

Error 3: Asumir que porque la IA predice bien, debería decidir

La lógica de algunos: “Si la máquina predice el 81% de los fallos, usémosla para decidir”. Es como decir: “Si yo puedo adivinar lo que vas a pedir del menú, te doy el plato sin consultarte”. Predecir no es lo mismo que decidir. Una cosa es herramienta de análisis, otra es autoridad judicial.

Preguntas Frecuentes

¿Qué es exactamente la justicia predictiva?

Es usar machine learning para anticipar cómo resolverá un tribunal un caso específico. El algoritmo analiza historiales de sentencias, encuentra patrones en qué tipo de casos se resuelven de qué manera, y luego predice futuros resultados. Herramientas comerciales como Lex Machina hacen exactamente esto, y los litigantes pagan miles de dólares por acceso.

¿Con qué precisión puede la IA predecir decisiones judiciales?

Entre 70% y 81%, dependiendo del modelo y los datos usados. Para la Corte Suprema de EE.UU., los estudios académicos muestran que un algoritmo bien entrenado supera consistentemente a abogados expertos (66% de precisión). Eso significa que en 7-8 de cada 10 casos, la IA acierta cómo votará un juez. Complementá con en otros avances recientes de OpenAI.

¿Sotomayor está en contra de la IA en justicia?

No completamente. Sotomayor insiste en que los jueces del futuro deben comprender IA. Su crítica es sobre cómo se usa: como herramienta de análisis está bien, como sistema que reemplaza decisiones judiciales está mal. Es la diferencia entre “la IA me ayuda a investigar” versus “la IA decide por mí”.

¿Qué riesgos tiene usar IA para predecir fallos judiciales?

Principalmente tres: perpetuar sesgos históricos (el algoritmo aprende la discriminación del pasado), opacidad decisoria (no sabés por qué predice lo que predice), y privatización de la justicia (litigantes ricos usan estos datos para elegir estrategias que favores tienen jueces más favorables). Un sistema de justicia sin transparencia pierde legitimidad.

¿Hay iniciativas de IA en justicia en América Latina?

Sí. Argentina tiene PROMETEA, que analiza históricos de sentencias para ayudar a abogados y jueces a encontrar jurisprudencia rápidamente. Colombia ha experimentado con ChatGPT en sentencias, aunque con resultados mixtos. El desafío es implementar IA de forma que mejore la eficiencia sin comprometer la independencia judicial ni alimentar sesgos existentes.

Conclusión

Sotomayor levantó una bandera importante en 2026: que la IA puede predecir decisiones judiciales tan bien que expone cuán poco diverso y cuán encorsetado se volvió el razonamiento en la Corte Suprema. Eso no es un fracaso de la justicia estadounidense (spoiler: para ser un sistema de 250 años, tiene que tener algo de rigidez), pero sí es una alarma sobre cómo funcionan los incentivos dentro de la corte.

La pregunta que debería hacerse no es “¿puede la IA predecir fallos?” (ya sabemos que sí). Es “¿queremos que un sistema que se auto-perpetúa a través de sesgos históricos sea nuestro modelo de justicia?”. Y después: “¿usamos IA como herramienta auxiliar o la dejamos que reemplace el juicio humano?”.

Para América Latina, el mensaje es claro: antes de copiar sistemas de IA en justicia de EE.UU. o Europa, validá localmente. ¿Qué sesgos trae tu histórico de sentencias? ¿Quién se beneficia si abogados ricos acceden a herramientas predictivas que los pobres no pueden pagar? ¿Cómo mantenes la independencia judicial en una caja negra algorítmica? Esas preguntas no son opcionales.

Fuentes

Desplazarse hacia arriba