Cumplimiento del Reglamento de IA de la UE | Dr. Nagel

Dr. Raphael Nagel (LL.M.), socio fundador de Tactical Management, sobre Cumplimiento del Reglamento de IA de la UE
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · ALGORITHMUS

Cumplimiento del Reglamento de IA de la UE: la agenda del consejo hasta 2026

El cumplimiento del Reglamento de IA de la UE obliga a toda empresa con sistemas de alto riesgo a documentar, auditar y supervisar sus modelos antes de agosto de 2026. Las sanciones alcanzan el siete por ciento de la facturación global. La decisión de consejo ya no puede aplazarse sin asumir riesgo patrimonial personal.

El cumplimiento del Reglamento de IA de la UE es el conjunto de obligaciones jurídicas y organizativas que impone el AI Act, aprobado por el Parlamento Europeo el 13 de marzo de 2024 con 523 votos a favor y 46 en contra, a proveedores y usuarios profesionales de sistemas de inteligencia artificial en los veintisiete Estados miembros. Clasifica los sistemas en cuatro niveles de riesgo, prohíbe prácticas como la puntuación social y la vigilancia biométrica masiva en espacios públicos, y exige a los sistemas de alto riesgo documentación técnica exhaustiva, gobernanza de datos, supervisión humana efectiva y auditorías periódicas. Las sanciones alcanzan hasta el siete por ciento de la facturación anual global.

¿Qué empresas están obligadas por el Reglamento de IA de la UE?

El Reglamento de IA de la UE obliga a todo proveedor, importador, distribuidor o usuario profesional de sistemas de IA que operen en el mercado europeo, con independencia de su sede social. La obligación alcanza desde un banco alemán hasta una farmacéutica estadounidense, siempre que sus sistemas afecten a residentes de los Estados miembros.

El texto aprobado el 13 de marzo de 2024 con 523 votos a favor y 46 en contra, el dato que mejor ilustra el consenso político europeo, introduce una lógica extraterritorial comparable a la del RGPD. Un proveedor californiano que integre un modelo de clasificación de candidatos en los procesos de recursos humanos de una filial europea queda sujeto al Reglamento, aunque el modelo se entrene y se aloje en territorio estadounidense. La aplicación paralela del CLOUD Act estadounidense agrava esta realidad, como documenta ALGORITHMUS, la obra del Dr. Raphael Nagel (LL.M.).

El ámbito subjetivo incluye también a los deployers, es decir, los usuarios corporativos que integran sistemas ajenos en su operativa. Un consejo de administración que adquiere Microsoft Copilot para su departamento jurídico asume, por esa sola decisión, obligaciones propias del AI Act si el caso de uso entra en el Anexo III. La confusión entre proveedor y usuario profesional es una de las primeras causas de no conformidad detectadas por las autoridades supervisoras nacionales.

La Comisión Europea ha designado a la nueva Oficina de IA como coordinador central, mientras cada Estado miembro nombra una autoridad competente. En España, la AESIA, con sede en A Coruña, asume esta función. El cumplimiento del Reglamento de IA de la UE no admite interpretación territorial laxa: un grupo industrial con sede en Múnich y filiales en Madrid, Milán y Varsovia necesita una respuesta unificada coordinada entre las cuatro autoridades supervisoras.

Las ocho categorías de alto riesgo del Anexo III

Los sistemas de alto riesgo abarcan ocho ámbitos según el Anexo III: infraestructuras críticas, educación, empleo, servicios esenciales como crédito o seguros, aplicación de la ley, migración, administración de justicia y procesos democráticos, e identificación biométrica. Estos sistemas deben cumplir requisitos estrictos de documentación, trazabilidad y supervisión humana antes de su comercialización.

La categoría de empleo es la que más compañías expone de forma inesperada. Un algoritmo de cribado de currículos, un sistema de evaluación del desempeño o una herramienta de asignación de turnos con componentes predictivos caen dentro del Anexo III. El precedente del sistema de reclutamiento interno que Amazon retiró en 2018 tras comprobar que discriminaba sistemáticamente a candidatas femeninas es el ejemplo paradigmático del tipo de fallo que el Reglamento pretende evitar mediante evaluación previa obligatoria.

En servicios financieros, la puntuación crediticia automatizada y los modelos de suscripción de seguros de vida entran en la categoría de alto riesgo. El caso FICO en Estados Unidos, donde una diferencia de cincuenta puntos en la puntuación puede suponer más de cien mil dólares adicionales de coste en un préstamo hipotecario a treinta años, ilustra la magnitud de la decisión algorítmica que el AI Act busca someter a control sustantivo, no meramente formal.

Para infraestructuras críticas, el Reglamento actúa en paralelo con la Directiva NIS2, traspuesta desde octubre de 2024. Los operadores de redes eléctricas, agua, transporte o sanidad que utilicen IA en sistemas de control industrial quedan sujetos a ambas normas simultáneamente, con obligaciones de auditoría, reporte de incidentes y responsabilidad personal de la dirección. La acumulación regulatoria exige una única arquitectura de cumplimiento, no silos normativos separados.

Documentación técnica, auditorías y supervisión humana: qué debe probar la empresa

El AI Act exige a cada sistema de alto riesgo un expediente técnico completo que documente datos de entrenamiento, métricas de precisión, análisis de sesgos, arquitectura del modelo y protocolo de supervisión humana. Las autoridades pueden requerir este expediente en cualquier momento. La ausencia de documentación equivale, a efectos sancionadores, al incumplimiento material del Reglamento.

El artículo 14 impone supervisión humana efectiva, no simbólica. Un operador debe poder entender el output, cuestionarlo e intervenir antes de que produzca efectos jurídicos sobre una persona. La sentencia SCHUFA del Tribunal de Justicia de la UE, de diciembre de 2023, sobre puntuación crediticia automatizada bajo el artículo 22 del RGPD, refuerza esta exigencia al calificar la decisión algorítmica como suficiente para activar las garantías individuales, incluso cuando un humano firma formalmente la decisión final.

Los sistemas deben someterse a auditoría interna continua y, en muchos casos, a evaluación de conformidad por un organismo notificado antes de la puesta en el mercado. Los registros de uso, los logs de decisiones y las pruebas de robustez adversarial forman parte del expediente obligatorio. Tactical Management sostiene en sus análisis de cartera que la inversión preventiva en documentación cuesta una fracción del coste de reaccionar ante un escándalo público o una inspección regulatoria.

La gobernanza de datos es la obligación más subestimada. El artículo 10 exige conjuntos de entrenamiento, validación y prueba que sean pertinentes, representativos, libres de errores y completos en la medida posible. Demostrar esto para modelos entrenados sobre datos acumulados durante veinte años requiere una arqueología de datos que la mayoría de las compañías del Mittelstand europeo aún no ha iniciado.

Sanciones, responsabilidad del consejo y el Efecto Bruselas

Las multas por incumplimiento del Reglamento de IA de la UE alcanzan el siete por ciento de la facturación anual global para prácticas prohibidas, hasta el tres por ciento para sistemas de alto riesgo defectuosos y hasta el uno y medio por ciento por información falsa a las autoridades. Estos umbrales superan el techo sancionador del RGPD.

La responsabilidad personal del consejo se articula por dos vías convergentes. La Directiva NIS2, vigente desde el 17 de octubre de 2024, establece la responsabilidad directa de los administradores por la implementación de medidas de ciberseguridad en infraestructura crítica, con sanciones que pueden alcanzar diez millones de euros o el dos por ciento de la facturación global. La futura Directiva de Responsabilidad por IA introduce una presunción de causalidad que invierte la carga de la prueba a favor del perjudicado.

El Efecto Bruselas transforma estas obligaciones en estándar global. Del mismo modo que más de cien países adoptaron leyes de protección de datos basadas en el RGPD tras 2018, las exigencias del AI Act sobre documentación, evaluación de sesgos y explicabilidad se están convirtiendo en requisito de hecho para OpenAI, Anthropic, Google y Microsoft cuando sirven a los 450 millones de consumidores del mercado único. Como expone el Dr. Raphael Nagel (LL.M.) en ALGORITHMUS, Europa regula el juego aunque ninguna empresa europea lo gane hoy; sus normas definen las reglas para todos.

Para el inversor institucional, la dimensión sancionadora modifica la valoración de activos. Un fondo que adquiere una empresa con sistemas de IA no conformes hereda un pasivo contingente potencialmente mayor que las sinergias operativas esperadas. La due diligence de IA se ha convertido, a partir de 2025, en un capítulo independiente en las operaciones del mercado medio europeo.

Las decisiones de consejo que no pueden esperar hasta 2026

El consejo debe tomar cuatro decisiones antes de agosto de 2026: inventario completo de sistemas de IA, clasificación por riesgo según el Anexo III, asignación nominal de responsabilidad interna y dotación presupuestaria para adecuación. Aplazar estas decisiones convierte lo que es un proyecto ordenado de cumplimiento en una crisis sancionadora.

El inventario de sistemas es el primer obstáculo. La mayoría de las empresas subestima sistemáticamente cuántos sistemas algorítmicos operan en procesos de recursos humanos, crédito, scoring de clientes o detección de fraude. Un diagnóstico realista suele identificar entre tres y diez veces más sistemas que el recuento inicial de la dirección de sistemas de información, porque muchas soluciones llegaron embebidas en productos SaaS sin declaración formal.

La asignación de responsabilidad exige nombrar un Chief AI Officer o una función equivalente con autoridad transversal sobre legal, tecnología, cumplimiento y unidades de negocio. El modelo del Chief AI Officer, ya adoptado por IBM, Moderna y varias empresas del Fortune 500, se está extendiendo al mercado medio europeo. La alternativa para la mediana empresa, un comité de IA con autoridad decisoria explícita, funciona solo si se le asignan presupuesto y calendario vinculantes.

La cuarta decisión es la presupuestaria. Auditar, documentar y rediseñar un sistema de alto riesgo cuesta típicamente entre doscientos mil y dos millones de euros según complejidad. Las empresas que aborden el cumplimiento del Reglamento de IA de la UE en 2025 dispondrán de margen para negociar con proveedores, elegir organismos notificados y ajustar arquitecturas. Quienes esperen a 2026 entrarán en un mercado saturado, con precios al alza y plazos comprimidos.

La conclusión es directa: el cumplimiento del Reglamento de IA de la UE no es un proyecto legal delegable al departamento de cumplimiento. Es una decisión estratégica que redefine el perímetro operativo, el presupuesto tecnológico y la exposición personal del consejo durante los próximos cinco años. Europa ha elegido ser el regulador más estricto del mundo en inteligencia artificial sin ser, todavía, una potencia tecnológica comparable a Estados Unidos o China. Esta asimetría tiene un precio para las empresas europeas, pero también encierra una oportunidad: quienes integren el AI Act como ventaja diferencial, y no como carga pasiva, venderán confianza en los mercados regulados del mundo entero. El Dr. Raphael Nagel (LL.M.), Founding Partner de Tactical Management, analiza en ALGORITHMUS las consecuencias prácticas de esta arquitectura regulatoria sobre la valoración de activos, la gobernanza de consejo y la estrategia competitiva del mercado medio europeo. La ventana para decidir con margen se cierra en el verano de 2026. Los consejos que aún no hayan constituido su gobernanza de IA no tendrán margen para aprender; tendrán solo margen para reaccionar bajo presión sancionadora.

Preguntas frecuentes

¿Cuándo se aplica plenamente el Reglamento de IA de la UE?

El AI Act entró en vigor en agosto de 2024. Las prohibiciones de prácticas como la puntuación social o el reconocimiento de emociones en el trabajo son exigibles desde febrero de 2025. Las obligaciones para modelos de IA de propósito general comenzaron en agosto de 2025. Los requisitos plenos para sistemas de alto riesgo del Anexo III serán exigibles entre junio y agosto de 2026. Cualquier consejo europeo que opere sistemas de IA en recursos humanos, crédito o infraestructura crítica debería contar con una hoja de ruta aprobada antes del cierre de 2025.

¿Qué sanciones contempla el incumplimiento del AI Act?

Las sanciones se estructuran en tres niveles. Las prácticas prohibidas conllevan multas de hasta treinta y cinco millones de euros o el siete por ciento de la facturación global anual, la cifra que resulte mayor. El incumplimiento de obligaciones sobre sistemas de alto riesgo puede alcanzar quince millones de euros o el tres por ciento. La información incorrecta a las autoridades supervisoras se sanciona con hasta siete millones y medio de euros o el uno y medio por ciento. Estos umbrales superan los del RGPD, fijados en el cuatro por ciento.

¿Qué sistemas empresariales típicos entran en la categoría de alto riesgo?

El Anexo III incluye con especial relevancia para la empresa media los sistemas de cribado y evaluación de candidatos, los modelos de puntuación crediticia, los sistemas de fijación de precios de seguros de vida y salud, las herramientas de evaluación del desempeño, los sistemas de control en infraestructuras críticas y los dispositivos biométricos de identificación. Una compañía industrial con un algoritmo de detección de fraude interno o una fintech con scoring automatizado queda plenamente sujeta a los requisitos de documentación, auditoría y supervisión humana.

¿Cómo se coordinan el AI Act, el RGPD y la Directiva NIS2?

Los tres instrumentos forman una arquitectura regulatoria acumulativa. El RGPD regula el tratamiento de datos personales, el AI Act regula los sistemas algorítmicos en sí mismos y la NIS2 regula la seguridad de las redes y sistemas de información en sectores esenciales. Una misma solución de IA en una aseguradora europea debe cumplir los tres regímenes simultáneamente, con autoridades supervisoras potencialmente distintas. La respuesta organizativa correcta no son tres equipos independientes, sino una función integrada de gobernanza digital con responsabilidad directa ante el consejo.

¿Responden personalmente los administradores por incumplimientos?

Sí, y la tendencia regulatoria refuerza esta responsabilidad. La Directiva NIS2 establece expresamente la responsabilidad personal de los administradores por la implementación efectiva de medidas de gestión de riesgos de ciberseguridad en entidades esenciales e importantes. La propuesta de Directiva de Responsabilidad por IA introduce una presunción de causalidad que facilita las reclamaciones civiles. Un consejero que aprueba el despliegue de un sistema de alto riesgo sin la documentación exigida asume un riesgo patrimonial personal que ningún seguro D&O cubre en su totalidad.

Claritáte in iudicio · Firmitáte in executione

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Author: Dr. Raphael Nagel (LL.M.). Biografía