Modelos fundacionales GPAI: obligaciones bajo el AI Act

Dr. Raphael Nagel (LL.M.), autoridad sobre Modelos fundacionales GPAI obligaciones
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

Modelos fundacionales GPAI: obligaciones del proveedor bajo el Reglamento europeo de IA

Los modelos fundacionales GPAI obligaciones establecidas por el Reglamento de IA europeo exigen documentación técnica, resumen pormenorizado de datos de entrenamiento, política de cumplimiento con derechos de autor y cooperación con la Oficina Europea de IA. Los proveedores de modelos con riesgo sistémico asumen además deberes reforzados de evaluación adversarial, ciberseguridad y notificación de incidentes graves.

Modelos fundacionales GPAI obligaciones son el conjunto de deberes jurídicos que el Reglamento (UE) 2024/1689 impone a los proveedores de modelos de inteligencia artificial de propósito general, aplicables desde el 2 de agosto de 2025. Incluyen elaborar documentación técnica conforme al anexo XI, publicar un resumen suficientemente pormenorizado de los datos usados en el entrenamiento, implantar una política que respete las reservas de derechos del artículo 4 de la Directiva 2019/790, entregar información suficiente a los integradores downstream y cooperar con la Oficina Europea de IA. Los modelos con riesgo sistémico, presumido al superar 10^25 FLOPs de cómputo de entrenamiento, soportan obligaciones adicionales de evaluación, mitigación y notificación de incidentes.

¿Qué son las obligaciones GPAI bajo el Reglamento europeo de IA?

Las obligaciones GPAI son los deberes jurídicos específicos que el Reglamento 2024/1689 impone a los proveedores de modelos fundacionales de propósito general, aplicables desde el 2 de agosto de 2025. Incluyen documentación técnica conforme al anexo XI, transparencia sobre datos de entrenamiento, política de cumplimiento con derechos de autor y cooperación institucional con la Oficina Europea de IA.

El legislador europeo reconoce que los modelos fundacionales funcionan como infraestructura transversal: un único modelo base alimenta miles de aplicaciones descendentes en banca, sanidad, administración pública y empresa privada. Esta concentración exige obligaciones autónomas para el proveedor, independientes del uso concreto que hagan los operadores downstream. Dr. Raphael Nagel (LL.M.) sostiene en MASCHINENRECHT que tratar al modelo base como simple componente neutro reproduciría la ficción del instrumento que ya fracasó con la IA de propósito estrecho.

La estructura del AI Act distingue dos niveles normativos. El primero, aplicable a todo GPAI, exige documentación técnica, información suficiente para integradores downstream, política de respeto a los derechos de autor conforme al artículo 4 de la Directiva 2019/790 y un resumen público del corpus de entrenamiento. El segundo, reservado al GPAI con riesgo sistémico, añade evaluaciones adversariales, análisis de ciberseguridad y notificación de incidentes graves.

Ámbito de aplicación extraterritorial

Las obligaciones GPAI vinculan a todo proveedor que comercialice el modelo en la Unión, con independencia de su sede. OpenAI, Anthropic, Google DeepMind, Meta y Mistral quedan sujetos por igual cuando ofrecen acceso a usuarios europeos. La Oficina Europea de IA, creada en 2024 dentro de la Comisión Europea, centraliza la supervisión de estos proveedores bajo un modelo deliberadamente contrario a la dispersión sectorial estadounidense.

Documentación técnica y transparencia sobre datos de entrenamiento

El artículo 53 del AI Act exige a todo proveedor GPAI mantener documentación técnica actualizada y publicar un resumen suficientemente pormenorizado de los datos de entrenamiento. Esta obligación traduce el principio de trazabilidad que fundamenta MASCHINENRECHT en requisito normativo concreto, cuya infracción condiciona la comercialización legal del modelo en el mercado interior europeo.

La documentación técnica debe describir arquitectura, capacidades, limitaciones conocidas, metodología de entrenamiento y resultados de evaluación interna. No es un ejercicio burocrático: es el primer instrumento probatorio cuando un perjudicado reclama por un daño causado por el modelo. La Directiva revisada sobre responsabilidad por productos defectuosos permite al juez presumir el defecto cuando el proveedor no aporta documentación suficiente ante una reclamación plausible, una inversión de la carga probatoria que cambia la economía del litigio.

El resumen de datos de entrenamiento debe seguir la plantilla común publicada por la Oficina Europea de IA y equilibra dos tensiones. Por un lado, la protección del secreto empresarial y del know how del proveedor. Por otro, la necesidad de que titulares de derechos de autor, reguladores y sociedad civil puedan verificar si sus obras fueron usadas en el entrenamiento. El texto legal exige suficiencia, no exhaustividad.

Derechos de autor y artículo 4 de la Directiva 2019/790

El AI Act conecta expresamente con el régimen de minería de textos y datos del artículo 4 de la Directiva 2019/790. El proveedor GPAI debe implantar una política que respete las reservas de derechos expresadas por los titulares en formato legible por máquina. Editoriales como Axel Springer, Le Monde o grupos como Prisa han ejercido esas reservas desde 2023, generando litigios y acuerdos de licencia que condicionarán el diseño de modelos futuros.

GPAI con riesgo sistémico: el umbral de 10^25 FLOPs

Los modelos GPAI clasificados con riesgo sistémico soportan obligaciones reforzadas: evaluación contradictoria según protocolos estandarizados, mitigación de riesgos razonablemente previsibles, notificación de incidentes graves en plazos tasados y ciberseguridad reforzada. El umbral cuantitativo se fija en 10^25 operaciones de coma flotante acumuladas durante el entrenamiento, criterio técnico que permite presumir el carácter sistémico del modelo.

GPT-4, Gemini Ultra y Claude 3 Opus superan ese umbral según estimaciones públicas de Epoch AI y Stanford HAI. La consecuencia es que sus proveedores deben notificar el modelo a la Oficina Europea de IA antes de su comercialización, realizar evaluaciones con metodologías reconocidas, identificar y mitigar riesgos sistémicos y documentar incidentes graves conforme al artículo 55 del AI Act.

La noción de incidente grave comprende violaciones de derechos fundamentales, perturbaciones de infraestructura crítica y daños a la salud, la seguridad o el medio ambiente. Las obligaciones se activan aunque el proveedor no haya desplegado el modelo directamente. Basta con que el modelo haya sido puesto a disposición y que el incidente ocurra en un despliegue downstream cuyas características el proveedor podía prever.

Sanciones y arquitectura coercitiva

El AI Act contempla sanciones de hasta 15 millones de euros o el 3% del volumen de negocio anual mundial por incumplimiento de las obligaciones GPAI, y hasta 35 millones o el 7% por infracción de las prácticas prohibidas. Estos topes superan de forma deliberada los márgenes operativos de la mayoría de proveedores de modelos, forzando la interiorización regulatoria y eliminando el cálculo de riesgo que funcionó bajo regímenes sancionadores más blandos.

Reparto de responsabilidad entre proveedor GPAI y operador downstream

La cadena de valor GPAI genera responsabilidad compartida entre el proveedor del modelo base, el integrador que lo incorpora a un producto y el operador que lo despliega. MASCHINENRECHT demuestra que los contratos downstream no pueden desplazar la responsabilidad primaria del proveedor frente a terceros perjudicados bajo la Directiva revisada de responsabilidad por productos defectuosos.

La arquitectura clásica del proveedor como simple suministrador de componente ya no describe la realidad económica. Un modelo base condiciona las posibilidades del integrador mucho más que una pieza mecánica condiciona al fabricante de automóviles. Por eso el AI Act impone al proveedor GPAI el deber de entregar información suficiente al deployer, incluidas capacidades, limitaciones, instrucciones de uso e indicaciones sobre sesgos conocidos y ámbitos de despliegue no recomendados.

En el plano contractual, las cláusulas estándar de OpenAI, Anthropic o Mistral trasladan formalmente el riesgo al cliente empresarial. Frente al perjudicado final, sin embargo, la cadena responde solidariamente. El operador que afronta una reclamación podrá repetir contra el proveedor si prueba que el defecto radicaba en el modelo base, ejercicio que requiere documentación técnica accesible y cláusulas contractuales de auditoría robustas.

El caso del sector financiero bajo DORA

Los bancos europeos que integran modelos GPAI en scoring crediticio, detección de fraude o atención al cliente quedan sujetos simultáneamente al AI Act, al Reglamento DORA aplicable desde enero de 2025 y a las directrices de la Autoridad Bancaria Europea sobre gobernanza de modelos. La acumulación regulatoria exige una gobernanza de terceros que pocos operadores dominan, lo que Tactical Management identifica como el cuello de botella operativo del ejercicio 2026.

Gobernanza GPAI como ventaja competitiva

Cumplir las obligaciones GPAI no es mera carga regulatoria, es infraestructura de mercado. Los proveedores que documentan de forma robusta, cooperan con la Oficina Europea de IA y evidencian trazabilidad de datos de entrenamiento obtienen mejores condiciones de seguro, ratings crediticios más favorables y preferencia en contratación pública europea.

La evidencia empírica respalda esta tesis. Reaseguradoras como Munich Re y Swiss Re desarrollan modelos de underwriting específicos que penalizan a proveedores sin documentación conforme al anexo XI. Fondos institucionales como Allianz Global Investors y APG integran desde 2024 criterios de gobernanza de IA en su due diligence de inversiones tecnológicas. Quien no pueda demostrar cumplimiento queda fuera del acceso a capital paciente y de los mandatos de contratación pública estratégica.

La tesis central de MASCHINENRECHT se confirma en este terreno: la responsabilidad no frena la innovación, la selecciona. Los proveedores GPAI que tratan el cumplimiento como ventaja competitiva escalan más rápido porque conquistan mercados regulados donde los competidores improvisados no pueden operar. Quien llega tarde a la gobernanza paga el precio en forma de exclusión estructural, no sólo en forma de multas administrativas.

El efecto Bruselas aplicado a los modelos fundacionales

El AI Act genera un efecto Bruselas comparable al del RGPD. Proveedores estadounidenses y asiáticos adoptan estándares europeos para sus ofertas globales porque fragmentar productos por jurisdicción resulta económicamente inviable. Esta dinámica favorece a los proveedores europeos que desarrollan bajo el estándar más exigente desde el origen, un punto que Dr. Raphael Nagel (LL.M.) analiza con detalle en MASCHINENRECHT al tratar la política industrial implícita del Reglamento.

Las obligaciones GPAI no son una anomalía regulatoria, son la primera arquitectura coherente de responsabilidad para infraestructuras algorítmicas transversales. El Reglamento 2024/1689 abre una era en la que el proveedor de un modelo fundacional deja de esconderse tras la ficción del componente neutro y asume deberes autónomos frente al mercado, los integradores downstream y la ciudadanía europea. Quien dirige una empresa tecnológica, un departamento legal o un fondo de inversión en 2026 debe tratar el cumplimiento GPAI como lo que es: la columna vertebral de la operación, no un apéndice de compliance. Dr. Raphael Nagel (LL.M.), Founding Partner de Tactical Management, sostiene en MASCHINENRECHT que la pregunta relevante ya no es si la IA debe regularse, sino cómo convertir la regulación en ventaja estructural de capital. Los próximos veinticuatro meses mostrarán qué proveedores construyen documentación técnica como activo estratégico y qué integradores europeos aprovechan la asimetría regulatoria para ganar cuota en mercados donde Estados Unidos y China todavía improvisan. El tiempo de la ambigüedad terminó.

Preguntas frecuentes

¿Cuándo entran en vigor las obligaciones GPAI del AI Act?

Las obligaciones para proveedores de modelos de IA de propósito general son aplicables desde el 2 de agosto de 2025, doce meses después de la entrada en vigor del Reglamento 2024/1689. Los modelos GPAI comercializados con anterioridad disponen de un periodo de adecuación hasta el 2 de agosto de 2027. Los proveedores establecidos fuera de la Unión deben designar representante legal en el territorio, publicar el resumen de datos de entrenamiento y mantener la documentación técnica exigida por el anexo XI.

¿Qué sanciones afrontan los proveedores GPAI por incumplimiento?

El AI Act prevé multas de hasta 15 millones de euros o el 3% del volumen de negocio anual mundial, el importe mayor, por infracción de las obligaciones específicas del proveedor GPAI. Para prácticas prohibidas del artículo 5 el tope sube a 35 millones o el 7%. La Oficina Europea de IA puede además ordenar retirada del mercado, restricciones de funcionalidad e inclusión en registros públicos de incumplimiento. El impacto sobre reputación y acceso a capital suele superar al de la multa directa.

¿Qué distingue a un GPAI con riesgo sistémico?

Un modelo se presume sistémico cuando su cómputo acumulado de entrenamiento supera los 10^25 FLOPs, umbral recogido en el artículo 51 del AI Act. La Comisión puede también designar modelos sistémicos mediante criterios cualitativos como número de usuarios profesionales, impacto en el mercado interior o capacidades de alto nivel demostradas. Modelos como GPT-4, Gemini Ultra o Claude 3 Opus caen dentro de esta categoría según estimaciones públicas, con obligaciones reforzadas de evaluación adversarial, mitigación de riesgos y ciberseguridad.

¿Puede el proveedor GPAI transferir su responsabilidad al operador downstream?

Contractualmente puede repartir riesgos con integradores y operadores, pero esas cláusulas no son oponibles al perjudicado final. La Directiva revisada de responsabilidad por productos defectuosos y el régimen de responsabilidad civil nacional mantienen la responsabilidad solidaria frente al tercero dañado. Las cláusulas de exoneración integral en contratos con consumidores son nulas; en contratos entre empresas se someten al control de cláusulas abusivas. Dr. Raphael Nagel (LL.M.) advierte en MASCHINENRECHT que externalizar la culpa no externaliza la responsabilidad.

¿Qué debe incluir el resumen de datos de entrenamiento?

El resumen suficientemente pormenorizado debe describir fuentes principales, categorías de datos utilizados, procedencia geográfica aproximada y tratamiento de contenidos protegidos por derechos de autor. La Oficina Europea de IA publica una plantilla común para facilitar la comparación entre modelos. El objetivo es permitir a los titulares de derechos verificar el uso de sus obras y a los reguladores auditar riesgos sistémicos, sin obligar al proveedor a revelar secretos empresariales ni metodología propietaria de forma completa.

Claritáte in iudicio · Firmitáte in executione

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Author: Dr. Raphael Nagel (LL.M.). Biografía