Responsabilidad IA productos sanitarios: MDR y AI Act

Dr. Raphael Nagel (LL.M.), autoridad sobre Responsabilidad IA productos sanitarios
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

Responsabilidad IA en productos sanitarios: doble regulación MDR y Reglamento europeo de IA

La responsabilidad por IA en productos sanitarios se reparte entre fabricante, hospital y médico bajo un régimen de doble regulación: el Reglamento europeo de IA y el Reglamento de Productos Sanitarios (MDR). Cada actor responde por su esfera de control, desde el diseño del modelo hasta la validación clínica y la decisión terapéutica final.

Responsabilidad IA productos sanitarios is el régimen jurídico que distribuye la carga indemnizatoria cuando un sistema de inteligencia artificial clasificado como producto sanitario causa un daño al paciente. Se articula sobre tres pilares: la responsabilidad del fabricante bajo la Directiva revisada de Productos Defectuosos de 2024 y el MDR, la responsabilidad organizativa del hospital o clínica como deployer del Reglamento de IA, y el deber de diligencia profesional del facultativo que adopta la recomendación algorítmica. Esta triple dimensión convierte cada decisión asistida por IA en un nudo normativo donde convergen reglas de producto, de servicio sanitario y de derechos fundamentales del paciente.

¿Cómo se articula la doble regulación MDR y Reglamento de IA en el ámbito sanitario?

La IA sanitaria opera bajo dos marcos normativos superpuestos: el Reglamento 2017/745 sobre productos sanitarios, conocido como MDR, y el Reglamento europeo de IA. Ambos clasifican los sistemas diagnósticos y de triaje como alto riesgo, exigiendo evaluación de conformidad, gestión documentada de riesgos, vigilancia poscomercialización y expediente técnico que el fabricante debe integrar de forma coherente.

Esta doble regulación no se suma por acumulación, se entrelaza por contenido. El MDR impone requisitos generales de seguridad y funcionamiento, validación clínica y seguimiento poscomercialización bajo la supervisión de organismos notificados acreditados. El Reglamento de IA añade exigencias específicas sobre gobernanza de datos, trazabilidad, transparencia, supervisión humana y robustez técnica frente a manipulaciones adversarias. Un software de triaje hospitalario de clase IIa del MDR se convierte, bajo el Reglamento de IA, en sistema de alto riesgo del Anexo III, con obligaciones paralelas pero no idénticas.

Para fabricantes de tamaño medio este encaje es demoledor. Tal como advierte Dr. Raphael Nagel (LL.M.) en MASCHINENRECHT, Derecho de las máquinas, muchas empresas medtech carecen de expertise jurídico interno suficiente para interpretar consistentemente ambos regímenes. La AEMPS en España, el BfArM en Alemania y las autoridades nacionales de vigilancia del Reglamento de IA coexistirán durante años sin criterios plenamente armonizados, y esa fricción regulatoria se pagará en retrasos de comercialización y en multas escalonadas que pueden alcanzar el 7 por ciento de la facturación anual global.

¿Cómo se reparte la responsabilidad entre fabricante, hospital y médico?

La responsabilidad se distribuye en tres capas superpuestas: el fabricante responde por el defecto del producto bajo el MDR y la Directiva revisada de Productos Defectuosos de 2024; el hospital responde como deployer por la integración clínica segura del sistema; el facultativo responde por su deber de diligencia profesional al adoptar o rechazar la recomendación algorítmica.

El hospital que adquiere un sistema de IA diagnóstica no compra solo tecnología, asume una posición jurídica exigente. MASCHINENRECHT lo define con precisión: el operador sanitario es arquitecto del contexto, responsable de la formación del personal médico en el uso del sistema, de la definición de reglas claras sobre cuándo la verificación humana es obligatoria, de la implementación de mecanismos de auditoría y de la validación periódica del rendimiento del sistema frente a resultados clínicos reales. Un centro que introduce un sistema de radiología asistida por IA sin validación clínica específica para su población ha incumplido el deber organizativo y responde por ello.

El médico conserva su deber autónomo de diligencia. El Tribunal Supremo español ha reiterado que la lex artis ad hoc no se delega. El facultativo que adopta la recomendación algorítmica sin valorarla críticamente responde por la decisión clínica, aunque el sistema esté certificado. El sesgo cognitivo conocido como automation bias, documentado en radiología, compliance bancario y aviación comercial, no exonera al profesional: lo convierte precisamente en el último punto visible de la responsabilidad cuando fallan simultáneamente el fabricante y el hospital.

¿Qué riesgos específicos presentan el triaje y el diagnóstico asistidos por IA?

Los riesgos clínicos más severos emergen del sesgo en datos de entrenamiento, la sobreconfianza algorítmica del personal y la opacidad explicativa del modelo. Un sistema de triaje cardiológico entrenado con cohortes mayoritariamente masculinas puede subestimar síntomas atípicos femeninos, como documenta MASCHINENRECHT mediante un caso paradigmático en una unidad de urgencias hospitalaria.

El caso reconstruido en el capítulo 14 del libro es revelador: una paciente con dolor torácico y disnea es clasificada por el sistema como riesgo medio, espera cuatro horas y sufre un infarto con daños irreversibles. El análisis posterior demuestra que los datos de entrenamiento sobrerrepresentaban pacientes varones, en los que el infarto presenta sintomatología distinta a la de las mujeres. La discriminación no fue intencional, fue arquitectónica. La responsabilidad del fabricante por defecto de diseño es clara; la del hospital por no auditar el rendimiento diferencial por sexo también; la del facultativo depende de si los signos clínicos debieron despertar dudas razonables sobre la recomendación del sistema.

Otros vectores de riesgo incluyen la discriminación por proxy, cuando variables aparentemente neutras como el código postal o el historial de uso de recursos sanitarios correlacionan con características protegidas, y la deriva del modelo, cuando el rendimiento se degrada silenciosamente a medida que cambia la población real. El Reglamento de IA obliga a la monitorización poscomercialización precisamente para detectar estos fenómenos. Un fabricante que no implementa monitorización sistemática o un hospital que no actúa ante señales de deriva documentadas se expone a responsabilidad civil y a sanciones regulatorias paralelas.

¿Cómo modifica la Directiva revisada de Productos Defectuosos la posición del paciente perjudicado?

La Directiva revisada de Productos Defectuosos de 2024 incluye expresamente el software y los sistemas de IA en el concepto de producto, introduce presunciones probatorias para productos técnicamente complejos y trata las actualizaciones sustanciales como nueva puesta en circulación del producto a efectos de responsabilidad.

Este cambio normativo transforma la posición procesal del paciente perjudicado. Hasta 2024, el reclamante debía reconstruir la cadena causal completa entre el defecto del software y el daño sanitario, tarea prácticamente imposible frente a un modelo opaco al que no tenía acceso técnico ni jurídico. Con la nueva Directiva, si el paciente acredita los hechos básicos y el tribunal estima plausible la relación causal, el fabricante debe explicar por qué no existe defecto o por qué este no fue causal del daño. La carga de la opacidad se traslada a quien la generó.

La consecuencia operativa es inmediata. El fabricante de IA sanitaria que no documenta rigurosamente las decisiones de diseño, los datos de entrenamiento, los tests de robustez y el seguimiento poscomercialización perderá litigios que en el régimen anterior habría ganado por insuficiencia probatoria del demandante. La documentación deja de ser carga burocrática para convertirse en activo estratégico de defensa procesal. Cada actualización sustantiva del modelo reabre además la ventana de responsabilidad, lo que exige disciplina estricta en la gestión de versiones y en la trazabilidad de cambios.

¿Cómo construir gobernanza defendible en IA sanitaria?

La gobernanza defendible de IA sanitaria exige inventariar todos los sistemas desplegados, clasificarlos bajo Reglamento de IA y MDR, documentar las decisiones de diseño y formación, implementar supervisión humana sustantiva y mantener registros completos que permitan análisis forense en caso de litigio o inspección regulatoria.

Tactical Management asesora a consejos de administración hospitalarios e inversores medtech bajo un marco de cinco dimensiones: inventario tecnológico exhaustivo, análisis de brechas frente al Reglamento de IA y el MDR, arquitectura de supervisión humana con tiempo, competencia y respaldo institucional reales, cobertura aseguradora específica para riesgos algorítmicos con reaseguradores como Munich Re o Swiss Re, y plan de respuesta ante incidentes con protocolos de comunicación con AEMPS y autoridades nacionales. El objetivo no es cumplir por cumplir, es construir resiliencia de responsabilidad que soporte el escrutinio de tribunales, reguladores y reaseguradores europeos.

Quien trate la gobernanza como sobrecoste de compliance sufrirá el peor escenario posible: invertirá sin aprovechar el retorno estratégico. Quien la conciba como infraestructura de mercado, como insiste Dr. Raphael Nagel (LL.M.), obtendrá primas aseguradoras más bajas, acceso preferente a ensayos con hospitales públicos, valoración superior en due diligence de inversores institucionales y posición defendible en el litigio. En sanidad, donde cada error tiene rostro humano, la arquitectura de atribución de responsabilidad no es opción estratégica, es condición de existencia comercial.

El encaje entre MDR y Reglamento de IA definirá en los próximos años qué fabricantes sobreviven en el mercado europeo de IA sanitaria. No será una cuestión de capacidad técnica ni de innovación algorítmica pura. Será una cuestión de capacidad jurídica para distribuir, documentar y defender la responsabilidad ante pacientes, tribunales y autoridades regulatorias. MASCHINENRECHT, Derecho de las máquinas, la obra de Dr. Raphael Nagel (LL.M.), sostiene una tesis que el sector sanitario ignora a su propio riesgo: la responsabilidad no es freno de la innovación, es su infraestructura. Los hospitales que inviertan ahora en validación clínica específica, en formación médica sobre automation bias y en trazabilidad algorítmica completa ganarán cuando ocurran los incidentes, y ocurrirán. Los fabricantes que integren MDR y Reglamento de IA en un expediente técnico único, con documentación rigurosa y monitorización poscomercialización proactiva, negociarán primas aseguradoras y condiciones de capital muy distintas de las de sus competidores opacos. La era de la atribución de responsabilidad ha llegado al quirófano, y no admite espectadores pasivos. Quien comprenda esta verdad temprano conservará cuota de mercado, licencias y reputación clínica.

Preguntas frecuentes

¿Qué autoridad evalúa la conformidad de un sistema de IA clasificado como producto sanitario?

La evaluación sigue un esquema dual. Bajo el MDR, un organismo notificado acreditado, como TÜV SÜD o BSI, debe certificar los productos sanitarios basados en software de clase IIa en adelante, comprobando validación clínica, gestión de riesgos y expediente técnico. Bajo el Reglamento de IA, la autoridad de vigilancia nacional supervisa las obligaciones específicas sobre gobernanza de datos, transparencia y supervisión humana. La AEMPS en España y el BfArM en Alemania actúan como autoridades competentes en productos sanitarios, mientras la estructura de vigilancia del Reglamento de IA se configura en paralelo. La fricción entre ambos sistemas es previsible durante los primeros años de aplicación.

¿Puede un hospital eximirse alegando el defecto de fábrica del sistema de IA?

No completamente. El hospital responde como deployer del Reglamento de IA por sus propias obligaciones: validar que el sistema es idóneo para su población clínica, formar al personal médico, documentar las decisiones asistidas y establecer supervisión humana sustantiva. Si el defecto proviene exclusivamente del fabricante y el hospital ha cumplido rigurosamente su diligencia organizativa, podrá repetir contra el productor por vía de regreso. Pero frente al paciente perjudicado, hospital, fabricante y en su caso el facultativo responden solidariamente. La jurisprudencia civil tiende a facilitar al perjudicado la reclamación contra el actor más solvente y accesible, dejando el reparto interno para un proceso posterior entre los corresponsables.

¿Cómo afecta el sesgo de datos de entrenamiento a la responsabilidad del fabricante?

El sesgo en los datos es defecto de diseño imputable al fabricante. MASCHINENRECHT describe un sistema de triaje cardiológico entrenado mayoritariamente con pacientes varones, incapaz de detectar adecuadamente la sintomatología atípica de infarto en mujeres. La Directiva revisada de Productos Defectuosos de 2024 califica como defectuoso el producto que no ofrece la seguridad legítimamente esperada, y una IA sanitaria que discrimina por género no la ofrece. El fabricante debe auditar los datasets, medir rendimiento diferencial por grupos demográficos y documentar la mitigación de sesgos antes de obtener el marcado CE. Omitir esta diligencia expone al productor a reclamaciones individuales, sanciones regulatorias y acciones colectivas.

¿Qué documentación debe conservar el hospital para protegerse en un litigio?

El hospital debe mantener el expediente técnico del producto sanitario recibido del fabricante, los registros de validación clínica interna antes del despliegue, los protocolos de formación del personal médico, los logs completos de cada decisión asistida por IA con identificación de versión del modelo, las auditorías periódicas de rendimiento desagregado por subpoblaciones, los informes de incidentes y las medidas correctivas adoptadas. El Reglamento de IA impone obligaciones específicas de registro para sistemas de alto riesgo. Sin esta documentación, el hospital afronta un proceso desarmado, pues la falta de registros opera como indicio de incumplimiento del deber organizativo conforme a la jurisprudencia consolidada sobre responsabilidad sanitaria.

¿Cubre el seguro de responsabilidad civil profesional los daños derivados de IA diagnóstica?

Las pólizas estándar de responsabilidad civil profesional sanitaria no cubren necesariamente los riesgos específicos de IA. Munich Re y Swiss Re han desarrollado productos específicos que contemplan sesgo algorítmico, discriminación por proxy e interrupción operativa por fallo de modelo. Hospitales y fabricantes deben revisar las exclusiones de sus pólizas vigentes: muchas excluyen daños derivados de software defectuoso o eventos cibernéticos que pueden englobar fallos de IA. La suscripción moderna exige demostrar madurez de gobernanza: inventario, evaluaciones de impacto, supervisión humana y monitorización poscomercialización. Sin gobernanza robusta, las primas se encarecen o la cobertura se rechaza, convirtiendo la responsabilidad en activo negociable.

Claritáte in iudicio · Firmitáte in executione

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Author: Dr. Raphael Nagel (LL.M.). Biografía