Responsabilidad IA en el sector financiero bajo DORA

Dr. Raphael Nagel (LL.M.), autoridad sobre Responsabilidad IA sector financiero DORA
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

Responsabilidad de IA en el sector financiero bajo DORA: imputación, AI Act y resiliencia operativa

La responsabilidad de IA en el sector financiero bajo DORA obliga desde enero de 2025 a bancos, gestoras y aseguradoras europeas a demostrar resiliencia operativa digital, auditabilidad de modelos y trazabilidad de decisiones algorítmicas, combinándose con el AI Act y la Directiva revisada de Responsabilidad por Productos en un régimen de imputación ex ante y sanción ex post.

Responsabilidad IA sector financiero DORA es el régimen jurídico resultante de la interacción entre el Reglamento de Resiliencia Operativa Digital (DORA), aplicable desde enero de 2025, el AI Act europeo y la Directiva revisada de Responsabilidad por Productos, que impone a entidades de crédito, empresas de servicios de inversión y aseguradoras obligaciones reforzadas de gobernanza, prueba adversarial, gestión contractual de proveedores terceros y documentación completa del ciclo de vida de los sistemas algorítmicos. Dr. Raphael Nagel (LL.M.) describe en MASCHINENRECHT, Derecho de las máquinas, este marco como una arquitectura de imputación ex ante que convierte la trazabilidad en presupuesto de viabilidad operativa. La entidad que no acredite control efectivo sobre scoring, trading algorítmico o modelos de riesgo pierde defensibilidad procesal, acceso a capital, reaseguro y, en última instancia, licencia supervisora.

¿Qué exige DORA al uso de inteligencia artificial en entidades financieras?

DORA exige desde enero de 2025 a bancos, empresas de servicios de inversión y aseguradoras europeas un marco integral de gestión de riesgos TIC, pruebas de resiliencia digital que incluyen tests adversariales, gobernanza contractual estricta de proveedores terceros y notificación obligatoria de incidentes graves, con impacto directo sobre todo sistema de IA incorporado a procesos críticos.

El Reglamento articula cinco pilares operativos: gestión de riesgos TIC, tratamiento uniforme de incidentes, pruebas periódicas de resiliencia, supervisión del riesgo de terceros proveedores e intercambio de información sobre ciberamenazas. Cada pilar se proyecta sobre los sistemas algorítmicos que operan en scoring, detección de fraude, cumplimiento normativo o trading. El Banco Central Europeo y las autoridades competentes nacionales, BaFin, Banque de France, Banca d’Italia y CNMV, han incorporado estas exigencias a sus guías supervisoras, elevando la documentación de modelos a criterio de aptitud regulatoria.

Un consejero delegado que no pueda explicar cómo se calibra, valida y audita un modelo de concesión automática de crédito incumple DORA y, simultáneamente, vulnera el AI Act, que clasifica la evaluación de solvencia como IA de alto riesgo. Dr. Raphael Nagel (LL.M.) documenta en MASCHINENRECHT, Derecho de las máquinas, que esta doble imputación regulatoria convierte la gobernanza de modelos en presupuesto de viabilidad, no en una capa accesoria de compliance.

Trading algorítmico: del Flash Crash de 2010 a las pruebas adversariales obligatorias

El trading algorítmico concentra el riesgo sistémico más agudo de la IA financiera: el Flash Crash del 6 de mayo de 2010, durante el cual el Dow Jones Industrial Average perdió casi mil puntos en minutos antes de recuperarse, demostró que la interacción de algoritmos individualmente racionales puede producir resultados colectivamente irracionales y destructivos para los mercados.

La respuesta regulatoria europea combina MiFID II, DORA y AI Act. MiFID II obliga a las empresas de servicios de inversión con trading algorítmico a documentar estrategias, implementar controles preoperativos y disponer de mecanismos kill switch. DORA añade la obligación de someter estos sistemas a pruebas adversariales, tests diseñados para provocar el fallo del sistema y descubrir vulnerabilidades. La robustez adversarial, capacidad de resistir manipulaciones dirigidas, es una debilidad reconocida de muchos modelos de aprendizaje profundo.

En MASCHINENRECHT se analiza cómo el trading de alta frecuencia opera en escalas incompatibles con la supervisión humana: un operador no puede intervenir en milisegundos, no por voluntad, sino porque las escalas de tiempo son inconciliables. La ficción del human in the loop se derrumba y la responsabilidad recae sobre el diseñador del sistema, la entidad operadora y el integrador que definió umbrales y cascadas. ESMA ha reforzado desde 2023 sus guías sobre gobernanza algorítmica en coordinación con el Consejo de Estabilidad Financiera.

Scoring crediticio automatizado: discriminación por proxies y derecho de explicación

La concesión automatizada de crédito es el ámbito donde AI Act, RGPD y Directiva antidiscriminación convergen con mayor intensidad: el modelo concede, deniega o encarece préstamos a partir de variables aparentemente neutras que actúan como proxies de características protegidas como género, origen étnico o situación familiar, generando discriminación indirecta estructural.

El caso paradigmático es el documentado en Estados Unidos con un sistema algorítmico de una gran tecnológica que asignó límites de crédito sistemáticamente inferiores a mujeres pese a patrimonios y solvencia gestionados conjuntamente con sus cónyuges. El código postal correlaciona con raza; la excedencia por cuidado de hijos correlaciona con género; el historial de movimientos bancarios durante un permiso parental marca a la prestataria como riesgo elevado. Los modelos aprenden estas correlaciones sin intención explícita y las reproducen a escala masiva.

El artículo 22 del RGPD reconoce el derecho a una explicación sustantiva de decisiones automatizadas, no genérica. Una respuesta del tipo, su perfil de riesgo no cumple los criterios, vacía el derecho de contenido. El AI Act, desde agosto de 2026, aplicará plenamente las obligaciones de alto riesgo a estos sistemas, exigiendo documentación técnica, supervisión humana efectiva, registros automáticos y validación periódica contra sesgos. Una entidad que no pueda explicar por qué denegó un crédito incumple simultáneamente RGPD, AI Act y, si el afectado acredita pertenencia a un grupo protegido, la Directiva 2000/43/CE.

Gobernanza de proveedores de IA, modelos fundacionales y terceros críticos

DORA exige gestión contractual y supervisora estricta sobre proveedores TIC críticos, categoría que incluye a los proveedores de modelos fundacionales (GPAI) empleados en detección de fraude, atención conversacional, análisis documental o scoring. Las entidades financieras no pueden delegar la responsabilidad en sus proveedores mediante cláusulas estándar de limitación de garantías o exclusión de responsabilidad.

El AI Act impone obligaciones específicas a los proveedores de GPAI: documentación técnica detallada, información sobre capacidades y límites conocidos, y gestión de riesgos sistémicos cuando los modelos superan umbrales de cómputo. Estas obligaciones no liberan a la entidad deployer. Un banco que integre un modelo de lenguaje de OpenAI, Anthropic, Mistral o Aleph Alpha para clasificar solicitudes crediticias sigue siendo el sujeto regulado frente a la supervisión prudencial. DORA exige cláusulas de auditoría, derechos de acceso a documentación, planes de salida y pruebas conjuntas de resiliencia.

El mercado reasegurador ha reaccionado. Munich Re y Swiss Re desarrollan modelos de evaluación específicos para riesgos de IA, y el mercado de seguros de responsabilidad civil por IA se estima en varios miles de millones de dólares en los próximos años. Las entidades que no documenten su cadena de suministro algorítmica pagan primas superiores o carecen directamente de cobertura. Lo que no es asegurable no escala; lo asegurable caro pierde competitividad.

La cadena de imputación financiera: fabricante, integrador y entidad operadora

La cadena de responsabilidad en IA financiera distribuye la imputación entre cuatro figuras: el fabricante del modelo, el integrador que lo incorpora a procesos bancarios, la entidad operadora (deployer) que lo utiliza y el usuario profesional final. Bajo el AI Act y la Directiva revisada de Responsabilidad por Productos, cada figura responde en función de su poder real de configuración.

El fabricante responde por defectos en la arquitectura del modelo, los datos de entrenamiento y la documentación entregada. El integrador responde por la calibración de umbrales, las cascadas de decisión y la configuración de interfaces. La entidad operadora, el banco, asume responsabilidad contextual: validación sobre su cartera, formación del personal, supervisión humana efectiva y documentación del ciclo de vida. El § 93 de la Ley de Sociedades Anónimas alemana y sus equivalentes europeos extienden esta responsabilidad al consejo ejecutivo, que debe acreditar debida diligencia organizativa.

Cuando varios actores concurren, responden solidariamente frente al perjudicado, con regreso interno según cuota de causación. La Directiva revisada introduce inversión de carga de la prueba para productos técnicamente complejos: el demandante no debe reconstruir el funcionamiento del modelo, sino acreditar circunstancias plausibles; la entidad debe explicar por qué el daño no procede de un defecto. Este cambio transforma la documentación en activo estratégico, no en carga burocrática, como subraya Dr. Raphael Nagel (LL.M.) en MASCHINENRECHT.

La convergencia entre DORA, AI Act y Directiva revisada de Responsabilidad por Productos no es un ejercicio técnico de cumplimiento: es la refundación del régimen prudencial europeo sobre la premisa de que la imputación algorítmica es condición de licencia. Dr. Raphael Nagel (LL.M.), Founding Partner de Tactical Management, sostiene en MASCHINENRECHT, Derecho de las máquinas, que la entidad financiera que confunde gobernanza de IA con compliance no comprenderá por qué pierde acceso al capital, a los reaseguradores y, en última instancia, a la propia licencia supervisora. Las agencias de rating, desde Moody’s hasta S&P, incorporan ya la calidad de la gobernanza algorítmica a sus calificaciones crediticias; los fondos institucionales evalúan la resiliencia de imputación como criterio de due diligence previo a cualquier inversión significativa. Quien construye hoy la arquitectura documental, contractual y organizativa que DORA y AI Act exigen no está cumpliendo con la ley: está estructurando una ventaja competitiva duradera en el mercado europeo de capitales. Quien aguarda el primer incidente grave pagará ese precio en primas de seguro, capital regulatorio adicional y erosión de confianza de mercado.

Preguntas frecuentes

¿Cuándo se aplica DORA a los sistemas de IA de bancos y aseguradoras?

DORA es plenamente aplicable desde el 17 de enero de 2025 a entidades de crédito, empresas de servicios de inversión, aseguradoras y proveedores TIC críticos de la Unión Europea. Cualquier sistema de IA integrado en procesos de negocio o en infraestructuras críticas TIC queda bajo su ámbito: scoring, trading algorítmico, detección de fraude, análisis documental o atención conversacional. Las entidades deben haber completado ya la identificación del perímetro, la revisión contractual con proveedores y la planificación de pruebas de resiliencia digital.

¿Responde el banco si el error procede del proveedor del modelo de IA?

Sí. El AI Act y DORA sitúan a la entidad operadora (deployer) en el centro de la imputación regulatoria, con independencia de que el fallo técnico se origine en el proveedor del modelo. La entidad responde frente al supervisor y frente al cliente perjudicado; posteriormente podrá repetir contra fabricante o integrador según cuota de causación. Esta arquitectura hace inviable trasladar el riesgo mediante cláusulas contractuales de exclusión, porque la responsabilidad primaria es regulatoria, no solo civil.

¿Es obligatorio explicar una decisión automatizada de scoring crediticio?

El artículo 22 del RGPD reconoce al afectado el derecho a no ser objeto de una decisión basada exclusivamente en tratamiento automatizado con efectos jurídicos o significativos, y a obtener una explicación sustantiva. El AI Act, para sistemas de alto riesgo como la evaluación de solvencia, refuerza esta obligación con deberes adicionales de documentación técnica y supervisión humana efectiva. Una motivación genérica del tipo su perfil de riesgo no cumple los criterios incumple ambos marcos y expone a la entidad a sanciones y reclamaciones individuales.

¿Qué sanciones impone el AI Act a las entidades financieras incumplidoras?

El AI Act establece tres niveles sancionatorios. El más grave, por infracción de prácticas prohibidas u obligaciones GPAI fundamentales, asciende a 35 millones de euros o el 7 por ciento de la facturación mundial anual. El nivel intermedio, por incumplimiento de requisitos de alto riesgo, alcanza 15 millones o el 3 por ciento. El nivel mínimo, por información incorrecta a supervisores, es de 7,5 millones o el 1 por ciento. Los costes reputacionales y de capital regulatorio superan habitualmente la sanción directa.

¿Cómo afecta DORA al trading algorítmico y de alta frecuencia?

DORA exige a las empresas de servicios de inversión que emplean trading algorítmico someter sus sistemas a pruebas adversariales de resiliencia, documentar la gobernanza del ciclo de vida del modelo, gestionar contractualmente a proveedores TIC críticos y notificar incidentes graves en plazos definidos. Combinado con MiFID II, que ya exige mecanismos kill switch y controles preoperativos, el marco resultante impone una carga probatoria sobre la entidad: debe acreditar que sus algoritmos han sido testados frente a escenarios extremos y manipulaciones dirigidas.

Claritáte in iudicio · Firmitáte in executione

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Author: Dr. Raphael Nagel (LL.M.). Biografía