KI Haftung im Finanzsektor unter DORA

Dr. Raphael Nagel (LL.M.) zum Thema KI Haftung Finanzsektor DORA — Tactical Management
Dr. Raphael Nagel (LL.M.)
Aus dem Werk · MASCHINENRECHT

KI Haftung im Finanzsektor unter DORA: Modellgovernance, Kreditscoring und Vorstandspflichten

KI Haftung im Finanzsektor unter DORA verbindet die zivilrechtliche Verantwortung für algorithmische Entscheidungen mit den prudenziellen Resilienz-Anforderungen der Verordnung (EU) 2022/2554. Banken, Versicherer und Wertpapierfirmen müssen Modelle validieren, adversarial testen, Drittanbieter auditieren und jede algorithmische Kreditablehnung inhaltlich erklären können. Verstöße treffen Institut, Vorstand und Aufsichtsrat zugleich.

KI Haftung Finanzsektor DORA ist die kombinierte Verantwortungsordnung, die seit dem 17. Januar 2025 für Banken, Versicherungen und Wertpapierfirmen gilt, wenn sie KI-Systeme in Kreditscoring, algorithmischem Handel, Betrugserkennung oder operativem Risikomanagement einsetzen. Sie verbindet die Digital Operational Resilience Act (Verordnung (EU) 2022/2554) mit den Hochrisiko-Pflichten des EU AI Act, der revidierten Produkthaftungsrichtlinie und Art. 22 DSGVO. Institute müssen ICT-Drittanbieter vertraglich auditieren, adversariale Resilienz-Tests durchführen, Modell-Drift überwachen und jede Ablehnung inhaltlich begründen. Dr. Raphael Nagel (LL.M.) zeigt in MASCHINENRECHT, dass diese Regime zusammen den dichtesten KI-Governance-Rahmen Europas bilden.

Warum DORA und AI Act den Finanzsektor zur Haftungs-Frontlinie machen

Der europäische Finanzsektor trägt heute die dichteste KI-Regulierungslast aller Wirtschaftsbereiche. DORA seit Januar 2025, AI Act ab August 2026, MiFID II, CRR und die EZB-Leitlinien für interne Modelle greifen ineinander. Jede algorithmische Entscheidung muss gleichzeitig aufsichtsrechtlich konform und zivilrechtlich zurechenbar sein.

Die Digital Operational Resilience Act, Verordnung (EU) 2022/2554, verlangt von Finanzunternehmen robustes Management von ICT-Risiken einschließlich KI-bezogener Risiken. Sie fordert Threat-Led Penetration Testing für systemrelevante Institute, striktes Drittanbieter-Management und ein vertragliches Mandat, ICT-Dienstleister jederzeit auditieren zu dürfen. DORA greift damit genau dort an, wo der AI Act in der Lieferkette Lücken lässt.

Dr. Raphael Nagel (LL.M.) beschreibt in MASCHINENRECHT, dass diese Kumulation kein Zufall ist, sondern die bewusste europäische Entscheidung, den Finanzsektor als Testlabor kodifizierter KI-Governance zu nutzen. Wer algorithmisches Kreditgeschäft, Robo-Advisory oder High-Frequency-Trading betreibt, operiert unter einem Regime, das jede Modellentscheidung nachweisbar, erklärbar und auditierbar verlangt. Dokumentationslücken werden zu verwertbaren Indizien in Zivilprozessen.

Algorithmisches Trading: Vom Flash Crash zur systemischen Haftung

Algorithmisches Handeln und Hochfrequenzhandel machen in vielen europäischen Märkten den größten Teil des Handelsvolumens aus. Die Haftungsfrage ist zweischichtig: individuelle Schäden durch fehlerhafte Order-Routinen und systemische Risiken durch korrelierte Rückkopplungen zwischen Algorithmen verschiedener Marktteilnehmer.

Der Flash Crash vom 6. Mai 2010, bei dem der Dow Jones innerhalb von Minuten fast 1000 Punkte verlor und sich dann wieder erholte, ist das kanonische Beispiel. Zu viele Algorithmen von zu vielen Anbietern hatten interagiert; klassische individuelle Zurechnung versagte. MiFID II hat daraufhin Anforderungen an Pre-Trade-Risk-Controls, Kill-Switches und Systemtests eingeführt; die grundsätzliche Zurechnungslücke bei emergenten Marktphänomenen bleibt jedoch.

Unter DORA wird die Algorithmenkontrolle verschärft. Banken müssen ihre Handelsalgorithmen adversarial testen, also gezielt versuchen, Fehlverhalten zu provozieren. Versagt ein Modell später in realen Marktsituationen, liefert das unterlassene Test-Regime einen starken Anschein für Pflichtverletzung. Die Bundesanstalt für Finanzdienstleistungsaufsicht kann auf dieser Grundlage Bußgelder verhängen; parallel können geschädigte Gegenparteien zivilrechtlich vorgehen und dieselben Dokumentationsdefizite als Beweis nutzen.

Kreditscoring-KI, Proxy-Diskriminierung und Art. 22 DSGVO

Die algorithmische Kreditvergabe ist der sensibelste KI-Anwendungsfall im europäischen Bankwesen. Der AI Act stuft Kreditwürdigkeitsbewertung ausdrücklich als Hochrisiko-KI ein. Banken müssen das Modell dokumentieren, validieren, auf Bias prüfen und jede Ablehnung erklären können, gegenüber Antragsteller, Aufsichtsbehörde und Gericht.

Proxy-Diskriminierung ist das zentrale Haftungsrisiko. Variablen wie Postleitzahl, Schulabschluss oder Beziehungsstatus korrelieren statistisch mit Geschlecht, Herkunft oder Behinderung. Das Allgemeine Gleichbehandlungsgesetz und Richtlinie 2000/43/EG verbieten mittelbare Diskriminierung; algorithmische Proxy-Muster fallen ausdrücklich darunter. In einem bekannten US-Fall erhielten Ehefrauen eines Technologieunternehmens systematisch niedrigere Kreditlimits als ihre Ehemänner, obwohl Vermögen und Bonität gemeinsam verwaltet wurden.

Art. 22 DSGVO gibt Betroffenen das Recht auf eine substanzielle Erklärung automatisierter Entscheidungen. Generische Formeln wie eine Ablehnung aufgrund des Risikoprofils erfüllen diese Pflicht nicht. Banken, deren Modelle keine individualisierten Erklärungen liefern können, verletzen zugleich DSGVO, AI Act und die Erwartungen der Europäischen Bankenaufsichtsbehörde an Modellgovernance. Im Haftungsprozess wird diese Trias regelmäßig gemeinsam ausgelöst und multipliziert das Sanktionsrisiko.

DORA in der Praxis: ICT-Drittanbieter, adversariale Tests und Incident-Reporting

DORA verlagert den Fokus von klassischer IT-Sicherheit zu operativer Resilienz. Finanzunternehmen müssen nachweisen, dass ihre ICT-Systeme einschließlich KI-Modelle auch unter Stress, Angriff und unerwarteten Eingaben funktionieren. Ohne dokumentierte Tests ist jede Modellentscheidung im Haftungsfall angreifbar.

Besonders scharf ist das Drittanbieter-Regime. DORA verlangt, dass kritische ICT-Dienstleister, darunter Cloud-Anbieter, GPAI-Anbieter von Foundation Models und spezialisierte Fintech-Zulieferer, vertraglich zu Audits, Informationsweitergabe und Exit-Szenarien verpflichtet werden. Die Europäische Kommission kann zentrale Drittanbieter direkt beaufsichtigen. Eine Bank, die ein Sprachmodell eines US-Anbieters in Compliance-Workflows einbindet, ohne die DORA-Vertragsanforderungen umzusetzen, handelt aufsichtsrechtlich fahrlässig und liefert Klägern den Schlüsselbeweis mit.

Schwerwiegende Vorfälle müssen gemeldet werden, initial innerhalb enger Fristen, gefolgt von Zwischen- und Abschlussberichten. Wer einen KI-Ausfall, Bias-Vorfall oder Datenschutzverstoß nicht korrekt meldet, riskiert doppelte Sanktionen: aufsichtsrechtlich durch BaFin oder nationale Aufsicht, zivilrechtlich durch geschädigte Kunden, die den Meldeverstoß als Indiz für Organisationsverschulden nach § 93 AktG nutzen. Der Fall Wirecard 2020 hat den europäischen Kapitalmarkt gelehrt, wie schnell aufsichtsrechtliche Lücken zur persönlichen Haftung eskalieren.

Haftungskette: Vom Vorstand zur Modellvalidierung

DORA adressiert nicht nur das Institut, sondern die Führungsorgane persönlich. Artikel 5 DORA verlangt, dass das Leitungsorgan die ICT-Risikomanagement-Strategie billigt, überwacht und regelmäßig überprüft. Ein Vorstand, der KI-Risiken nicht auf die Tagesordnung setzt, verletzt seine Sorgfaltspflicht nach § 93 AktG und öffnet den Weg zur D&O-Haftung.

Der Aufsichtsrat trägt eine eigene Überwachungspflicht. Die EZB erwartet in ihren Governance-Leitlinien, dass Aufsichtsräte großer Institute ICT- und KI-Expertise vorhalten oder extern einbinden. Fehlt diese Expertise, wird die Organisationsverantwortung im Schadensfall zum Angriffspunkt. Dr. Raphael Nagel (LL.M.) argumentiert in MASCHINENRECHT, dass die nächste Welle europäischer Aufsichtsratshaftung nicht Bilanzbetrug, sondern KI-Governance-Versagen zum Gegenstand haben wird.

Unterhalb der Leitungsebene verlangt DORA klare Rollen: Chief Information Security Officer, unabhängige Modellvalidierungsfunktion, Second-Line-Risikokontrolle und interne Revision. Die Modellvalidierung muss fachlich unabhängig vom Entwicklungsteam sein, mit Zugang zu Trainingsdaten, Performance-Metriken und Drift-Protokollen. Tactical Management berät europäische Finanzinstitute genau an dieser Schnittstelle, wo aufsichtsrechtliche Anforderungen, zivilrechtliche Zurechnung und Kapitalmarktbewertung zusammentreffen.

Der Finanzsektor ist das erste europäische Labor, in dem KI-Haftung nicht mehr abstrakt, sondern institutionalisiert ist. DORA und AI Act bilden ab 2026 einen geschlossenen Ring aus ex-ante-Pflichten, prudenzieller Aufsicht und zivilrechtlicher Zurechnung. Institute, die diese Architektur als Compliance-Last begreifen, werden sie als Kostenstelle erleben. Institute, die sie als strategische Infrastruktur verstehen, gewinnen Zugang zu institutionellem Kapital, günstigere Versicherungskonditionen und regulatorisches Vertrauen. Dr. Raphael Nagel (LL.M.) argumentiert in MASCHINENRECHT, dass die nächste Konsolidierungswelle im europäischen Bankwesen nicht technologiegetrieben, sondern haftungsgetrieben sein wird. Wer Modellgovernance, Drittanbieter-Audit und adversariale Resilienz beherrscht, wird Marktanteile von jenen übernehmen, die an Informationsasymmetrie und Dokumentationslücken zerbrechen. Die entscheidende Frage für jeden Vorstand im europäischen Finanzsektor lautet nicht mehr, ob KI reguliert wird, sondern ob die eigene Organisation jede algorithmische Entscheidung vor Aufsicht, Gericht und Investor belastbar verteidigen kann. Tactical Management begleitet genau diese Transformation: von der Modellinventur bis zur Vorstandsvorlage.

Häufige Fragen

Gilt DORA auch für kleinere Banken und Versicherer?

Ja. DORA gilt grundsätzlich für alle europäischen Finanzunternehmen, vom systemrelevanten Institut bis zur kleinen Kapitalverwaltungsgesellschaft. Der Proportionalitätsgrundsatz erlaubt abgestufte Umsetzung, etwa bei Threat-Led Penetration Testing, das primär für systemrelevante Institute verpflichtend ist. Die Kernpflichten, ICT-Risikomanagement, Incident-Reporting, Drittanbieter-Governance und Resilienz-Tests, treffen jedoch auch kleinere Häuser. Wer als kleineres Institut auf KI-gestützte Kreditvergabe, Betrugserkennung oder Compliance-Automatisierung setzt, operiert faktisch unter denselben Haftungsstandards wie Großbanken.

Worin unterscheiden sich DORA und der EU AI Act im Finanzsektor?

DORA ist prudenziell und auf operative Resilienz ausgerichtet: ICT-Sicherheit, Drittanbieter-Management, adversariale Tests, Incident-Reporting. Der AI Act ist produktbezogen und grundrechtlich: Risikoklassifizierung, Konformitätsbewertung, Datenqualität, menschliche Aufsicht, Erklärbarkeit. Im Finanzsektor greifen beide Regime ineinander. Ein KI-System für Kreditwürdigkeitsbewertung ist Hochrisiko-KI nach AI Act und ICT-System nach DORA. Institute müssen beide Rahmen gleichzeitig erfüllen. Das BaFin-Rundschreiben zur IT-Aufsicht und die MaRisk präzisieren die Integration beider Regime in die deutsche Aufsichtspraxis.

Muss eine Bank jede algorithmische Kreditablehnung inhaltlich erklären?

Ja. Art. 22 DSGVO gewährt Betroffenen bei automatisierten Entscheidungen das Recht auf substanzielle Information über die involvierte Logik sowie Tragweite und angestrebte Auswirkungen. Der AI Act verstärkt diese Pflicht für Hochrisiko-KI. Generische Standardformulierungen reichen nicht. Die Bank muss in der Lage sein, die individuellen Faktoren zu benennen, die zur konkreten Ablehnung geführt haben. Ist das Modell technisch nicht erklärbar, liegt bereits eine Pflichtverletzung im Systemdesign, die Hersteller und Betreiber gemeinsam trifft.

Haftet der Vorstand persönlich für KI-Fehler im Finanzsektor?

Ja, wenn er seine Überwachungspflichten verletzt. Artikel 5 DORA verpflichtet das Leitungsorgan zur Billigung und laufenden Überprüfung der ICT-Risikomanagement-Strategie. § 93 AktG verlangt die Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters. Wer KI-Risiken nicht in die Risikoinventur aufnimmt, keine Modell-Governance etabliert oder keine Kenntnis über kritische Drittanbieter hat, handelt pflichtwidrig. Im Schadensfall drohen Innenregress durch das Institut, Sekundäransprüche nach WpHG und reputative Folgen, die sich in D&O-Prämien und künftigen Mandatsentscheidungen niederschlagen.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie