KI-Medizinprodukte: Haftung unter MDR und AI Act

Dr. Raphael Nagel (LL.M.), Autorität zum Thema KI Medizinprodukte Haftung MDR
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · MASCHINENRECHT

KI-Medizinprodukte und Haftung: MDR, AI Act und die Dreischichtung der Verantwortung im Gesundheitswesen

KI Medizinprodukte Haftung MDR bezeichnet die Doppelregulierung KI-gestützter Medizinprodukte durch die Medical Device Regulation und den EU AI Act. Die Verantwortung zerfällt in drei Ebenen: Hersteller tragen Produkthaftung, Krankenhäuser Organisationsverantwortung als Deployer, Ärzte bleiben an ihre berufsrechtliche Sorgfaltspflicht gebunden. Dr. Raphael Nagel (LL.M.) analysiert diese Dreischichtung in MASCHINENRECHT.

KI Medizinprodukte Haftung MDR ist das zivilrechtliche und regulatorische Regime, das die Verantwortung für Schäden durch KI-gestützte Medizinprodukte in der Europäischen Union ordnet. Es kombiniert die Medical Device Regulation mit dem EU AI Act, der klinische KI-Systeme wie Diagnose-, Triage- und Entscheidungsunterstützungssysteme als Hochrisiko-KI klassifiziert. Die Haftung zerfällt in drei interagierende Schichten: Produkthaftung des Herstellers nach der 2024 revidierten Produkthaftungsrichtlinie, Organisationsverantwortung des Krankenhauses als Deployer im Sinne des AI Act sowie berufsrechtliche Sorgfaltspflicht des behandelnden Arztes. Dr. Raphael Nagel (LL.M.), Founding Partner von Tactical Management, beschreibt dieses Gefüge in MASCHINENRECHT als das am dichtesten regulierte Terrain der europäischen KI-Ökonomie.

Wie greifen MDR und AI Act bei KI-Medizinprodukten ineinander?

MDR und AI Act greifen bei klinischer KI kumulativ. Die Medical Device Regulation behandelt KI-gestützte Diagnose- und Triage-Systeme als Medizinprodukte und verlangt CE-Kennzeichnung, klinische Bewertung sowie Post-Market-Surveillance. Der AI Act stuft dieselben Systeme zusätzlich als Hochrisiko-KI ein und fordert Risikomanagement, Datengouvernance, Logging und menschliche Aufsicht.

Der Anhang III des AI Act erfasst Systeme in kritischen Dienstleistungen einschließlich des Gesundheitswesens ausdrücklich als Hochrisiko. Für Hersteller entsteht damit eine doppelte Konformitätspflicht: klinische Evidenz nach den MDR-Anforderungen einerseits, technische Dokumentation, Datenqualitätssicherung und Konformitätsbewertung nach AI Act andererseits. Beide Regime überschneiden sich inhaltlich, haben aber unterschiedliche Verfahren, unterschiedliche benannte Stellen und unterschiedliche Validierungsanforderungen. In MASCHINENRECHT beschreibt Dr. Raphael Nagel (LL.M.) diese Parallelstruktur als das am dichtesten regulierte Terrain der europäischen KI-Ökonomie.

Die Doppelregulierung schafft keine Harmonisierung, sondern Parallelität. Ein KI-System zur radiologischen Befundung benötigt die CE-Kennzeichnung als Medizinprodukt sowie die Konformitätsbewertung nach AI Act, bevor es in Verkehr gebracht werden darf. Hersteller, die nur eines der Regime sauber adressieren, scheitern bereits am Markteintritt. Kleine und mittlere Medtech-Anbieter, denen die spezialisierte regulatorische Expertise fehlt, geraten an die Grenze ihrer operativen Leistungsfähigkeit. Wer die Doppelregulierung beherrscht, verteidigt einen Marktvorsprung, der nicht kurzfristig einholbar ist.

Welche Pflichten treffen den Hersteller eines KI-Medizinprodukts?

Der Hersteller eines KI-Medizinprodukts trägt eine verdichtete Verantwortung. Er muss die klinische Leistungsfähigkeit nach MDR belegen, Trainingsdaten nach AI Act Art. 10 kuratieren, Robustheit und Cybersicherheit sicherstellen und ein Post-Market-Monitoring betreiben. Jede dieser Pflichten wird im Haftungsfall zum Sorgfaltsmaßstab, an dem sein Verhalten gemessen wird.

Die revidierte Produkthaftungsrichtlinie von 2024 bezieht Software und KI-Systeme ausdrücklich in den Produktbegriff ein und beseitigt damit die alte Unsicherheit, ob Software überhaupt unter die Produkthaftung fällt. Ein Trainingsdatensatz, der systematisch bestimmte Patientengruppen unterrepräsentiert, ist nach diesem Regime ein Defekt des Produkts. Der Hersteller eines Triage-Systems, das mit überwiegend männlichen Herzinfarktdaten trainiert wurde und Frauen systematisch unterpriorisiert, haftet für die resultierenden Gesundheitsschäden, unabhängig davon, ob ihm ein individuelles Verschulden nachgewiesen werden kann.

Besonders kritisch wird die Herstellerverantwortung bei Updates. Die modernisierte Produkthaftungsrichtlinie erkennt substanzielle Modifikationen als neues Inverkehrbringen an. Jedes Update, das das Risikoprofil des Systems wesentlich verändert, löst eine neue Haftungsphase aus. Für Hersteller klinischer KI, die Modelle kontinuierlich mit neuen Daten nachtrainieren, bedeutet das: Versionskontrolle, Change-Management und erneute Konformitätsbewertung sind nicht optional, sondern Kern der Sorgfaltspflicht. Wer diese Infrastruktur nicht vorhält, kann im Schadensfall nicht einmal rekonstruieren, welcher Systemzustand den Fehler verursacht hat, und trägt die Beweislast, die er nicht mehr erfüllen kann.

Wann haftet das Krankenhaus als Betreiber der KI?

Das Krankenhaus haftet als Deployer, sobald es ein KI-Medizinprodukt in klinische Prozesse einbettet. Seine Verantwortung umfasst die klinische Validierung für das eigene Patientenkollektiv, die Schulung des medizinischen Personals, die Implementierung effektiver Human-Oversight-Mechanismen und die regelmäßige Auditierung der Systemperformance gegen klinische Outcomes.

MASCHINENRECHT formuliert diese Position explizit: Ein Krankenhaus, das ein Radiologie-KI-System ohne ausreichende klinische Validierung in den produktiven Betrieb überführt, hat die organisatorischen Sorgfaltspflichten nicht erfüllt. Die Betreiberpflichten des Art. 26 AI Act, kombiniert mit den Organisationspflichten aus dem Behandlungsvertrag nach § 630a BGB, machen das Krankenhaus zum institutionell greifbarsten Haftungsträger. Ein System, das beim Hersteller auf einer US-amerikanischen Kohorte validiert wurde, kann bei einer europäischen Patientenpopulation mit anderen demographischen Merkmalen andere Fehlerraten zeigen. Wer diese Kontextvalidierung unterlässt, delegiert das Risiko stillschweigend an den Patienten.

Die operative Konsequenz ist ein Governance-Apparat, der bisher in vielen Häusern fehlt: ein verantwortlicher KI-Officer, dokumentierte Einsatzprotokolle, Interventionsbefugnisse des ärztlichen Personals, Incident-Reporting und Drift-Monitoring. Tactical Management beobachtet, dass Träger, die diese Struktur früh aufbauen, nicht nur regulatorisch ruhig liegen, sondern auch günstigere Konditionen bei Berufshaftpflichtversicherern erhalten. Wer die Strukturen nicht hat, zahlt doppelt: in Prämien und im Haftungsfall. Die Erfahrung des niederländischen Toeslagenaffaere-Skandals zwischen 2013 und 2021 ist eine Warnung, die das Gesundheitswesen nicht ignorieren darf: dort, wo menschliche Aufsicht nur formal existiert, bricht die Verantwortung nach oben durch.

Wie verteilt sich die Haftung zwischen Arzt, Krankenhaus und Hersteller?

Die Haftung verteilt sich nach dem Muster der Gesamtschuldnerschaft. Der Geschädigte kann jeden der drei Akteure auf den vollen Schadensersatz in Anspruch nehmen. Im Innenverhältnis wird nach Veranlassungsprinzip und Verschuldensquote aufgeteilt. In der Praxis wird zunächst das Krankenhaus als liquideste und greifbarste Einheit verklagt, das anschließend gegen Hersteller und gegebenenfalls Integrator Regress nehmen muss.

Der behandelnde Arzt bleibt an seine berufsrechtliche Sorgfaltspflicht gebunden, die er weder an das System noch an die Klinik delegieren kann. MASCHINENRECHT formuliert das Prinzip klar: Wer eine offensichtlich falsche KI-Empfehlung übernimmt, ohne sie kritisch zu hinterfragen, verletzt seine eigene Sorgfaltspflicht, auch wenn das System fehlerhaft war. Der Automation Bias, also die dokumentierte Tendenz, maschinellen Empfehlungen unkritisch zu folgen, ist keine Entlastung, sondern ein verstärkender Faktor im Haftungsurteil. Der Arzt bleibt der letzte juristische Adressat der klinischen Entscheidung.

Entscheidend für die Quotenverteilung ist die Dokumentation. Wer nachweisen kann, welche Validierung er durchgeführt, welche Grenzen er dokumentiert und welche Warnungen er kommuniziert hat, verschiebt die Quote zu seinen Gunsten. Der Hersteller, der ein System ohne transparente Kommunikation seiner Modellgrenzen ausliefert, trägt den größten Anteil. Das Krankenhaus, das ohne Validierung einsetzt, folgt in der Quote. Der Arzt, der trotz erkennbarer klinischer Zweifel einer Systemempfehlung folgt, bleibt persönlich haftungsrelevant. Diese Dreischichtung ist nicht Theorie, sondern der praktische Rahmen, nach dem deutsche Gerichte KI-bezogene Arzthaftungsfälle in den kommenden Jahren entscheiden werden.

Was zeigt der Fall der gender-biased Triage-KI?

Der in MASCHINENRECHT analysierte Triage-Fall illustriert die Dreischichtung exemplarisch. Eine Patientin mittleren Alters wird in der Notaufnahme mit Brustschmerzen und Atemnot vorstellig. Das KI-Triage-System stuft sie als mittleres Risiko ein. Sie wartet, erleidet einen Herzinfarkt. Nachträgliche Analyse zeigt: Das Modell wurde überwiegend auf männlichen Patientendaten trainiert.

Die Trainingsdaten repräsentierten den seit Jahrzehnten in der Kardiologie dokumentierten Gender-Bias der Symptomforschung. Herzinfarktsymptome bei Frauen, die häufig atypisch verlaufen, mit weniger klassischem Brustschmerz und mehr Übelkeit oder Atemnot, waren unterrepräsentiert. Das System reproduzierte diese Unterrepräsentation als systematische Fehlklassifikation. Nach der revidierten Produkthaftungsrichtlinie ist das ein Defekt des Produkts, und die Beweiserleichterungen für technisch komplexe Produkte greifen: Das Gericht kann den Zusammenhang zwischen Datenbias und Schaden vermuten, wenn der Hersteller keine überzeugende Gegenerklärung liefert.

Der Hersteller haftet, weil ein sorgfältig entwickeltes System den in der medizinischen Literatur bekannten Bias berücksichtigt und die Trainingsdaten entsprechend ausbalanciert hätte. Das Krankenhaus haftet, weil es das System ohne Validierung auf dem eigenen Patientenkollektiv in den klinischen Betrieb überführt hat. Der Triage-Arzt haftet anteilig, weil die klinische Präsentation eigenständige Anlässe zur Höherstufung geboten hätte. Der Fall zeigt: KI ersetzt keine Sorgfalt, sie verteilt sie neu. Dr. Raphael Nagel (LL.M.) bezeichnet solche Konstellationen als Ernstfall der Zurechnung. Sie sind die Prüfsteine, an denen sich in den kommenden Jahren die Rechtsprechung zur klinischen KI entlanghangeln wird.

Die Haftung für KI-Medizinprodukte ist kein Randthema des KI-Rechts, sondern sein verdichtetster Prüfstein. Nirgendwo treffen technische Autonomie, grundrechtssensible Schäden, dichte Regulierung und eingeführte Berufspflichten so eng aufeinander wie im Gesundheitswesen. Wer hier Governance versteht, versteht die Logik der kommenden Haftungsordnung insgesamt: Verantwortung wird nicht mehr an einer Person aufgehängt, sondern als Architektur aus Hersteller, Deployer und Beruf organisiert. Dr. Raphael Nagel (LL.M.), Founding Partner von Tactical Management, entwickelt diese Dreischichtung in MASCHINENRECHT als strategischen Rahmen für Vorstände, Geschäftsführer von Medizintechnikunternehmen, Klinikträger, Versicherer und Aufsichtsräte. Die entscheidende Frage ist nicht, ob der AI Act, die MDR und die revidierte Produkthaftungsrichtlinie anspruchsvoll sind. Die entscheidende Frage ist, ob Hersteller, Betreiber und klinisches Personal in der Lage sind, ihre jeweiligen Pflichten zu dokumentieren, zu beweisen und in einem Gerichtsverfahren zu verteidigen. Wer diese Fähigkeit aufbaut, gewinnt Markt, Versicherbarkeit und Vertrauen. Wer sie verweigert, trägt die Kosten der eigenen Unschärfe. Das Zeitalter der Zurechnung hat im Gesundheitswesen bereits begonnen.

Häufige Fragen

Unterliegt jedes KI-Diagnosesystem der MDR?

Ein KI-System unterliegt der MDR, sobald es zur Diagnose, Prävention, Überwachung, Vorhersage oder Prognose von Krankheiten bestimmt ist. Die Klassifizierung folgt dem Zweck, nicht der Technologie. Ein System, das radiologische Befunde bewertet, klinische Entscheidungen unterstützt oder Triage-Priorisierungen erzeugt, wird regelmäßig als Medizinprodukt der Klasse IIa oder höher eingestuft. Parallel greift der AI Act, der dasselbe System als Hochrisiko-KI behandelt. Administrative Systeme, die nur Termine koordinieren oder Dokumente strukturieren, fallen dagegen meist nicht unter die MDR, können aber dennoch AI-Act-relevant sein.

Wer haftet, wenn eine KI-Triage versagt und ein Patient dadurch zu Schaden kommt?

Die Haftung verteilt sich auf drei Ebenen. Der Hersteller trägt Produkthaftung nach der revidierten Produkthaftungsrichtlinie, insbesondere wenn Trainingsdaten oder Modellarchitektur defekt waren. Das Krankenhaus trägt Organisationsverantwortung als Deployer unter Art. 26 AI Act und aus dem Behandlungsvertrag. Der behandelnde Arzt bleibt an seine berufsrechtliche Sorgfaltspflicht gebunden und kann sich nicht auf die Systemempfehlung berufen, wenn klinische Warnzeichen erkennbar waren. Die Gesamtschuldnerschaft erlaubt dem Geschädigten, jeden Akteur voll in Anspruch zu nehmen. Im Innenverhältnis erfolgt Regress nach Verschuldensquote.

Wie wirkt die Beweislastumkehr der neuen Produkthaftungsrichtlinie bei KI-Medizinprodukten?

Die revidierte Richtlinie von 2024 erlaubt Gerichten, Defektivität und Kausalität bei technisch besonders komplexen Produkten zu vermuten, sofern der Kläger Grundsachverhalte plausibel darlegt. Für KI-Medizinprodukte bedeutet das eine erhebliche Stärkung der Patientenposition. Der Hersteller muss erklären, warum kein Defekt vorliegt oder warum der Defekt nicht kausal war. Ohne lückenlose Dokumentation, Versionskontrolle und Post-Market-Monitoring ist diese Entlastung kaum zu führen. Dokumentation wird damit vom bürokratischen Nebenprodukt zum zentralen Haftungsschutz.

Ist ein Update eines KI-Medizinprodukts ein neues Inverkehrbringen?

Ja, sofern das Update die Sicherheitseigenschaften oder das Risikoprofil wesentlich verändert. Die modernisierte Produkthaftungsrichtlinie behandelt substanzielle Modifikationen als neue Haftungsphase. Gleichzeitig verlangt die MDR bei wesentlichen Änderungen eine erneute Konformitätsbewertung, und der AI Act knüpft an substanzielle Änderungen ebenfalls erneute Prüfpflichten. Hersteller klinischer KI müssen daher Change-Management-Prozesse implementieren, die automatisch prüfen, welche Updates diese Schwelle überschreiten. Ein Update, das einen bekannten Bias verstärkt oder die Genauigkeit in bestimmten Subgruppen verschlechtert, ist regelmäßig wesentlich und zwingend neu zu bewerten.

Welche Rolle spielt der Arzt, wenn er einer KI-Empfehlung folgt?

Der Arzt bleibt juristischer Letztadressat der klinischen Entscheidung. Er kann die Verantwortung weder an das System noch an das Krankenhaus delegieren. Der dokumentierte Automation Bias, also die Tendenz, maschinellen Empfehlungen unkritisch zu folgen, entlastet ihn nicht, sondern verschärft den Sorgfaltsmaßstab. Wer eine KI-Empfehlung übernimmt, obwohl die klinische Präsentation eigenständige Zweifel begründet, handelt nach MASCHINENRECHT pflichtwidrig. Umgekehrt gewinnt der Arzt Sicherheit, wenn er die Grenzen des Systems kennt, dokumentierte Abweichungsprozesse hat und seine Entscheidung begründet. Die institutionelle Rückendeckung durch das Krankenhaus entscheidet, ob diese Souveränität real ist.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie