El Bank of England advirtió esta semana que ciertos modelos de inteligencia artificial representan un riesgo “demasiado peligroso para liberar” en sistemas financieros sin controles previos. Duncan Mackinnon, jefe de riesgos del BoE, convocó al Cross Market Operational Resilience Group en abril de 2026 para evaluar amenazas sistémicas derivadas de IA, en particular modelos con capacidad de encontrar y explotar vulnerabilidades zero-day en infraestructuras críticas. La alarma surge después del anuncio de Anthropic sobre Mythos, un modelo que puede identificar fallos de seguridad en navegadores, sistemas operativos e incluso en código financiero que lleva décadas sin ser auditado.
En 30 segundos
- El Bank of England alertó sobre riesgos sistémicos de IA en finanzas el 10 de abril de 2026.
- Mythos de Anthropic (anunciado 7 de abril) puede encontrar vulnerabilidades zero-day en sistemas críticos que existen hace décadas.
- El riesgo real: un fallo en un sistema de pago podría propagarse a otros bancos en minutos, causando cascadas de defaults.
- Reguladores (BoE, FCA, NCSC) usan Project Glasswing para acceso controlado a researchers de seguridad.
- La Ley de IA de la UE entra en vigor completa en agosto 2026 para sistemas generales; agosto 2027 para sistemas de alto riesgo en finanzas.
La alerta del Bank of England: IA demasiado peligrosa para liberar
Duncan Mackinnon no es el tipo que dice “ehhh, algo de riesgo hay” en una conferencia y se va. El jefe de riesgos del Bank of England convocó una sesión de emergencia en el Cross Market Operational Resilience Group en abril de 2026 específicamente porque los números no cerraban. Cuando un regulador del banco central te dice que hay un riesgo “too dangerous to release”, no es opinión editorial — es una advertencia sobre datos duros que vieron.
El BoE no atacó a Anthropic ni a ninguna empresa en particular. Lo que dijeron fue claro: ciertos modelos de IA tienen una capacidad nueva que no habíamos visto antes. Pueden identificar y, en teoría, explotar vulnerabilidades que existen en sistemas que llevan décadas corriendo. Chrome, Safari, Windows, macOS. Código que corre en los servidores de clearing houses y bolsas de valores (que no es poco).
La pregunta entonces fue: ¿qué pasa si un modelo así cae en manos de alguien que no juega en el mercado de valores legítimo sino en el mercado negro de ciberdelito? El regulador no estaba siendo paranoico. Estaba siendo matemáticamente riguroso.
Mythos: el modelo de IA que puede explotar miles de vulnerabilidades
Mythos es un modelo que Anthropic anunció el 7 de abril de 2026. No es un modelo de lenguaje convencional que vos usarías para escribir un email o resumir documentos. Es una herramienta especializada, entrenada específicamente para encontrar bugs de seguridad en software.
Lo que hace Mythos es, esencialmente, leer código (o comportamiento de aplicaciones) e identificar patrones que indican vulnerabilidades. El truco está en que identifica no solo bugs obvios, sino zero-days. Fallos que nadie había documentado, que no tienen parches públicos, que algunas vulnerabilidades tienen hasta 27 años en circulación sin ser encontradas por herramientas automatizadas convencionales. Mythos las encuentra porque piensa diferente.
Anthropic, responsablemente, no lo soltó al público de cualquier manera. Lo pusieron bajo Project Glasswing, un programa de acceso restringido donde solo investigadores de seguridad que pasan ciertos filtros pueden acceder al modelo. La idea es: que los buenos lo usen para encontrar bugs primero, hagan disclosure responsable a los fabricantes, y después los malos no tengan ventaja. Relacionado: marcos de seguridad en inteligencia artificial.
Pero acá viene lo incómodo: el BoE se preocupa no por Anthropic mismo, sino porque en 12 meses alguien va a lograr un modelo similar (o peor, una versión destilada de Mythos) sin los controles de Glasswing. Y en finanzas, eso no es un inconveniente — es un quiebre de seguridad sistémica.
Riesgos operacionales y sistémicos para mercados financieros
Ponele que es un jueves a las 10 de la mañana. Un actor malicioso usa una versión destilada de Mythos para encontrar una vulnerabilidad en el servidor SWIFT de un banco importante. No es especulación — SWIFT procesa 5 billones de dólares diarios en transacciones globales. Un fallo ahí no es un inconveniente, es un colapso sistémico.
Si logran explotar ese bug, podrían:
- Interrumpir transferencias internacionales durante horas, con propagación a otros bancos porque SWIFT es punto de concentración.
- Redirigir fondos de derivados o clearing sin dejar rastro auditable inmediato.
- Causar una cascada de defaults porque los sistemas de riesgo de contrapartes no entienden qué pasó.
El BoE estima que hay una dependencia crítica en pocos proveedores de infraestructura IA. Si uno de esos proveedores es comprometido (aunque sea Anthropic con Glasswing), toda la cadena cae. Es como si todos los aviones de una aerolínea volaran con el mismo software de navegación y descubrís un bug crítico. Acá no es un avión — son millones de transacciones por minuto (y trillones de dólares en riesgo).
Lo que preocupa también: la burbuja accionaria de IA. Si el mercado se da cuenta de que esos sistemas tienen riesgos sistémicos reales (no teóricos), la corrección es brutal y corre a través de todo — amplifica pánico porque IA es justificación de valuaciones altas ahora.
Cómo funciona el proceso de regulación y contención
El BoE no está solo en esto. Hay coordinación activa entre el Bank of England, la FCA (Financial Conduct Authority), el Tesoro británico y el NCSC (National Cyber Security Centre). Cada uno con su rol específico.
El NCSC es el que evalúa la seguridad técnica. Ellos acceden a Mythos bajo Project Glasswing. Prueba el modelo, documenta qué bugs encuentra, calibra el riesgo real. Le preguntan a Anthropic: “¿Cuántos bugs de este tipo existen en el wild? ¿Cuál es tu plan de disclosure responsable? ¿Cómo controlás que Glasswing no se filtre?” Y Anthropic responde bajo NDA estricto. Sobre eso hablamos en herramientas como ChatGPT que generan preocupación.
La FCA, mientras tanto, ve esto desde óptica de riesgo sistémico. ¿Qué pasa si un banco es breacheado? ¿Tienen resilience suficiente? ¿Hay plan de contagio? El framework que usan es el de “safe innovation” — no bloquean tecnología de entrada, pero sí piden que sea auditada, documentada y controlada antes de producción.
El Tesoro, por supuesto, se asegura de que esto tenga implicancia legal. Si los reguladores descubren que Anthropic no divulgó un riesgo conocido, hay consecuencias.
Marco regulatorio: Ley de IA de la UE y su aplicación en 2026
La Ley de IA de la Unión Europea entra en vigor de forma progresiva durante 2026. El 2 de agosto es la fecha clave: entra en vigor para todos menos los sistemas de alto riesgo. Esos sí, tienen hasta el 2 de agosto de 2027 para cumplir completamente.
Los sistemas de alto riesgo incluyen explícitamente: detección de fraude, credit scoring, sistemas de identificación biométrica, y ahora, modelos que pueden encontrar vulnerabilidades en infraestructura crítica. Mythos cae en esa categoría.
¿Qué obliga la ley?
- Documentación técnica completa (qué datos entrenaron el modelo, qué métricas de rendimiento tiene, qué riesgos se identificaron en testing).
- Testing ante escenarios adversariales específicos (intento de evasión, robustez ante ataques).
- Logging de todas las decisiones y acciones del modelo (para auditoría posterior).
- Plan de mitigación de riesgos aprobado por autoridad competente antes de despliegue.
- Notificación inmediata a reguladores si el modelo encuentra vulnerabilidades zero-day.
¿Aplica en Argentina? No directamente como ley argentina aún, pero sí indirectamente. Si un banco argentino usa infraestructura cloud alojada en la UE (y la mayoría lo hace), debe cumplir. Y si opera en Europa, también. Entonces, de facto, cualquier fintech o banco que quiera escalar internacionalmente está obligado a adoptar estos estándares.
| Jurisdicción | Entrada en vigor | Alcance en finanzas | Agencia líder |
|---|---|---|---|
| Unión Europea | 2 agosto 2026 (general) / 2 agosto 2027 (alto riesgo) | Alto riesgo: credit scoring, fraude, identificación, ciberseguridad crítica | Comisión Europea + reguladores nacionales |
| Reino Unido | Framework desde agosto 2023, tightening progresivo durante 2026 | Riesgo sistémico en clearing, SWIFT, sistemas de pago críticos | BoE, FCA, NCSC |
| Estados Unidos | Sin ley federal 2026; Executive Order 2024 (guías no-binding) | Reguladores sectoriales (SEC para trading, OCC para bancos, Federal Reserve) | SEC, OCC, Federal Reserve |
| Argentina | Proyectos legislativos en proceso (Sapag, Gollán), sin ley aún | Dependencia de regulación UE/US según contraparte comercial | BCRA (BC), CNV (comisión valores) — cuando reglamente |

Perspectivas: ¿qué sigue para la regulación global de IA?
La tendencia es clara: reguladores están bajando de lo teórico a lo operacional. No es “IA puede tener riesgos, estudiemos”. Es “Mythos encuentra bugs en producción, ¿qué hacemos mañana?”
En Estados Unidos, esperá que la SEC y la Fed presionen a cada banco para que audite su infraestructura IA antes de fin de año. El Treasury ya está planificando escenarios de shock sistémico causado por IA (como mencionó Bloomberg en marzo 2026). No es paranoia — es planificación estándar de banco central. Esto se conecta con lo que analizamos en modelos de IA de última generación.
En Argentina, los proyectos legislativos de Sapag y Gollán buscan regulación general de IA, pero todavía no tocan finanzas específicamente. La BCRA va a tener que ser más rápida. El riesgo es que en 18 meses nos sorprenda una vulnerabilidad real en un sistema de pagos y Argentina esté sin marco regulatorio mientras el mundo ya tiene.
Lo que está confirmado
- Mythos existe y funciona: anunciado 7 de abril 2026, en acceso restringido bajo Project Glasswing.
- El BoE convocó sesión de emergencia en Operational Resilience Group, abril 2026.
- Ley de IA UE entra en vigor por fases: 2 agosto 2026 (general), 2 agosto 2027 (alto riesgo).
- Reguladores UK coordinan evaluación técnica vía NCSC y Project Glasswing.
Lo que no está confirmado
- ¿Existen vulnerabilidades reales encontradas por Mythos en sistemas financieros actuales? No se públicó disclosure alguno hasta la fecha.
- ¿El BoE bloqueará la comercialización de Mythos o solamente regulará acceso? Todavía no hay pronunciamiento oficial.
- ¿Habrá coordinación internacional formal (G20, BIS) sobre IA en finanzas en 2026? En discusión, sin fecha confirmada.
- ¿Argentina seguirá el estándar UE o el modelo más permisivo de Estados Unidos para regulación de IA? Depende de la composición política 2026-2027.
Errores comunes al evaluar riesgo de IA en finanzas
Confundir “riesgo de IA” con “riesgo de hacking común”
No es lo mismo. Un hacker tradicional necesita meses para encontrar un zero-day en Chrome (si es que lo encuentra). Mythos lo hace en horas. El tiempo de reacción pasa de “semanas” a “minutos”. Eso es un salto categórico en riesgo sistémico, no una mejora incremental.
Asumir que los reguladores están siendo paranoides
El BoE no sacó esta alarma porque les da miedo la tecnología nueva. La sacó porque sus modelos econométricos (stress testing) muestran que un fallo en un sistema de clearing afecta a toda la cadena en minutos. Es matemática, no miedo infundado.
Creer que “acceso restringido” es suficiente a largo plazo
Project Glasswing es un control inteligente para 2026. En 2028, modelos similares estarán disponibles en otros labs (OpenAI, Google, startups). Anthropic puede ser responsable, pero otros no. La regulación tiene que anticiparse a ese cambio.
Ignorar que Argentina está conectada globalmente en finanzas
Nuestros bancos operan en dólares, SWIFT, sistemas RTGS globales. Si un regulador en UK, US o UE bloquea una tecnología por riesgo sistémico, nos alcanza aquí también. No podemos esperar a tener nuestra propia ley para empezar a auditar infraestructura.
Pensar que Mythos es la única amenaza
Mythos es el problema visible. Hay otros modelos entrenados para tareas específicas en ciberseguridad (red teams, fuzzing, vulnerability discovery) que el mercado no conoce aún. La alarma del BoE es sobre una categoría de modelos, no sobre Mythos específicamente. En qué son realmente los grandes modelos de lenguaje profundizamos sobre esto.
Preguntas Frecuentes
¿Qué es Mythos y cómo funciona?
Mythos es un modelo de IA de Anthropic anunciado el 7 de abril de 2026, entrenado específicamente para identificar vulnerabilidades de seguridad en software. Lee código o comportamiento de aplicaciones y detecta patrones de bugs, incluyendo zero-days (fallos sin parche público que pueden llevar décadas sin ser encontrados por herramientas tradicionales).
¿El BoE va a prohibir IA en finanzas?
No. Lo que el BoE está haciendo es exigir auditoría y control previo antes de usar IA en sistemas críticos. El framework es “safe innovation” — no bloquea tecnología, pero requiere que sea documentada, testeada bajo escenarios adversariales, y con plan de mitigación aprobado por reguladores.
¿Cuándo aplica la Ley de IA de la UE en Argentina?
No es una ley argentina (aún), pero aplica indirectamente: si tu banco usa cloud en la UE o opera en Europa, debe cumplir. El 2 de agosto de 2026 entra en vigor para sistemas de bajo riesgo; el 2 de agosto de 2027 para sistemas de alto riesgo (incluyendo IA en finanzas).
¿Puede Mythos “hackear” un banco en la práctica?
Mythos mismo no — está bajo acceso restringido (Project Glasswing). El riesgo es que versiones similares o destiladas sin controles lleguen al mercado en 12-18 meses. Entonces sí, podrían usarse para encontrar bugs reales en infraestructura crítica que luego un atacante pueda explotar.
¿Qué debería hacer un banco argentino ahora?
Auditar la infraestructura de IA que ya usa (sistemas de fraude, credit scoring, trading automático, sistemas de riesgo). Documentar qué modelos corren, quién los entrenó, qué datos usaron, qué riesgos fueron identificados. Prepararse para que reguladores (BCRA, CNV) pidan ese disclosure en los próximos 12 meses cuando la regulación argentina se arme.
Conclusión
La alerta del Bank of England no es un acto de precaución performativa. Es una respuesta a un cambio real en las capacidades de IA — modelos que pueden encontrar vulnerabilidades que humanos no ven en tiempos que humanos no pueden reaccionar. En un sistema financiero que depende de software robusto y confianza en infraestructura crítica, eso es un quiebre categórico.
El BoE, FCA, NCSC y Tesoro están haciendo lo correcto: evaluar, regular, coordinar. Anthropic está haciendo lo correcto: restricción de acceso mediante Glasswing. Pero la ventana de control es corta. En 18-24 meses habrá competencia, habrá modelos similares menos responsables, y habrá presión para que todo se mueva más rápido de lo que los reguladores pueden adaptar.
Para Argentina, esto significa dos cosas: primero, anticiparse. No esperar a que pase algo malo para reaccionar. Segundo, alinearse con estándares internacionales (UE sobre todo) porque nuestros bancos operan globalmente y cualquier regulador importante que cierre una puerta, nos afecta a todos.
La IA en finanzas no se va a frenar. Va a ser regulada. Mejor que eso pase en coordinación con investigadores de seguridad responsables que en pánico post-incidente.
Fuentes
- Telegraph — Bank of England raises alarm over threat from AI ‘too dangerous to release’
- Anthropic — Mythos Preview and Project Glasswing
- Bank of England — Publicaciones y reportes sobre riesgo sistémico
- Comisión Europea — AI Act: Regulatory Framework for High-Risk AI
- Parlamento Británico — Treasury Committee Report on AI in Financial Services
