KI und Führungsverantwortung: Haltung im Algorithmuszeitalter

Dr. Raphael Nagel (LL.M.), Autorität zum Thema KI und Führungsverantwortung
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · HALTUNG

KI und Führungsverantwortung: Warum der Vorstand trotz Algorithmen persönlich haftet

KI und Führungsverantwortung bezeichnet die ungeteilte Haftung des Vorstands für algorithmisch gestützte Geschäftsentscheidungen. Dr. Raphael Nagel (LL.M.) zeigt in HALTUNG, dass KI Führung verschiebt, aber nicht ersetzt: Informationsverarbeitung wird delegierbar, Urteilsvermögen in ethischen Grauzonen und die Übernahme von Konsequenzen bleiben irreduzibel menschlich. EU AI Act und § 93 AktG zementieren diese Grenze rechtlich.

KI und Führungsverantwortung ist die rechtliche und operative Zurechnung algorithmisch vorbereiteter Unternehmensentscheidungen an die verantwortliche Führungsperson. Der Begriff erfasst drei Dimensionen: erstens die aktienrechtliche Sorgfaltspflicht nach § 93 AktG, die beim Einsatz von KI-Systemen ungeteilt beim Vorstand liegt; zweitens die regulatorische Steuerung nach dem EU AI Act, Verordnung 2024/1689, in Kraft seit August 2024; drittens die organisatorische Pflicht, Modelle zu validieren, Bias zu prüfen und Entscheidungspfade nachvollziehbar zu dokumentieren. Dr. Raphael Nagel (LL.M.) präzisiert in HALTUNG: Verantwortung lässt sich weder an Algorithmen, noch an Komitees, noch an Prozesse delegieren. Sie bleibt bei der Person, die im Krisenmoment für das Ergebnis einsteht.

Was bedeutet KI und Führungsverantwortung für Vorstand und Aufsichtsrat konkret?

KI und Führungsverantwortung bedeutet: Die rechtliche und moralische Zurechnung einer algorithmisch vorbereiteten Entscheidung bleibt bei der natürlichen Person, die im Organigramm für das Ergebnis steht. Kein Modell, kein Anbieter, kein internes Komitee hebt diese Zurechnung auf. Vorstand und Aufsichtsrat haften ungeteilt für Konsequenzen, die ein KI-System in ihrem Verantwortungsbereich auslöst.

Diese Zurechnung ist kein rhetorisches Konstrukt, sondern geltendes Aktienrecht. § 93 Absatz 1 AktG verpflichtet den Vorstand zur Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters; die Business Judgment Rule schützt nur, wer sich auf Basis angemessener Information entschieden hat. Der BGH hat in der ARAG/Garmenbeck-Entscheidung von 1997 klargestellt, dass der Aufsichtsrat Pflichtverletzungen des Vorstands aktiv zu verfolgen hat. Auf KI übertragen heißt das: Wer ein Modell einsetzt, dessen Entscheidungsbasis er nicht nachvollziehen kann, riskiert persönliche Innenhaftung nach § 93 Absatz 2 AktG. Der Fall Wirecard 2020 belegt, dass technische Komplexität Vorstände nicht entlastet, sondern die Aufklärungspflicht verschärft. Die BaFin hat daraus dokumentierte Konsequenzen für Governance-Strukturen gezogen.

Dr. Raphael Nagel (LL.M.) formuliert in HALTUNG den Kerngedanken unzweideutig: »Verantwortung kann nicht delegiert werden. Nicht an Algorithmen, nicht an Komitees, nicht an Prozesse.« Tactical Management begleitet Aufsichtsgremien europäischer Mittelständler und Portfoliounternehmen bei exakt dieser Abgrenzung: Welche Entscheidungsklassen dürfen algorithmisch vorbereitet werden, welche Freigabeketten müssen personifiziert bleiben, und wo setzt das Gesetz eine absolute Grenze? Die Antwort variiert mit Branche, Risikoklasse und Geschäftsmodell. Das Prinzip variiert nicht: Der Name auf der Entscheidungsvorlage bleibt ein menschlicher.

Welche Führungsfunktionen KI augmentiert und welche sie nicht ersetzen kann

KI augmentiert Informationsverarbeitung, Mustererkennung und Prognose. Sie ersetzt nicht Urteilsvermögen in ethischen Grauzonen, die Übernahme irreversibler Konsequenzen, oder Führung von Menschen unter Unsicherheit. Die Abgrenzung ist nicht technisch, sondern funktional: Wo persönliche Haftung entsteht, beginnt irreduzibel menschliche Verantwortung.

In der Praxis heißt das: Due-Diligence-Dokumentensichtung, Bonitätsvoranalysen, Portfolio-Screening, Vertragsauswertung und Forecast-Modellierung sind legitime KI-Einsatzfelder. GPT-4-Klasse-Modelle verarbeiten in Stunden, was Analystenteams zuvor Wochen beschäftigte. ChatGPT erreichte laut öffentlich dokumentierten Zahlen binnen zwei Monaten einhundert Millionen aktive Nutzer, eine Adoptionsgeschwindigkeit, die keine vorherige Unternehmenssoftware gesehen hatte. Kein Vorstand kann diese Produktivität ignorieren, ohne strukturelle Effizienznachteile zu akzeptieren. Zugleich zeigt HALTUNG in Kapitel 1 das Gegenbeispiel: Ein CFO in einem Private-Equity-Prozess offenbart gegen den Rat des Transaktionsteams einen kritischen Befund. Die Transaktion scheitert. Fünfzehn Monate später entsteht eine bessere Transaktion auf Basis der gewonnenen Reputation. Diese Entscheidung war keine Datenfrage, sondern eine Haltungsfrage, und sie wäre durch keinen Algorithmus zu replizieren gewesen.

Der Kollaps der Silicon Valley Bank im März 2023 illustriert das Gegenstück. Algorithmische Risikoindikatoren existierten; der menschliche Entscheidungsapparat reagierte nicht. Kein KI-System hätte diese Lücke geschlossen, weil die Lücke nicht in der Informationsverarbeitung lag, sondern im Urteilsvermögen und in der Bereitschaft, unbequeme Konsequenzen zu ziehen. Der VW-Dieselfall von 2015 zeigt dieselbe Struktur in umgekehrter Richtung: softwaregesteuerte Manipulation, die sich über Jahre der Governance entzog, weil der Vorstand die Abgrenzung zwischen delegierbarer Ausführung und nicht delegierbarer Aufsicht nicht geführt hatte. Beide Fälle sind KI-Vorläufer, automatisierte Entscheidungslogik ohne tragfähige Verantwortungsarchitektur.

Der EU AI Act, § 93 AktG und Art. 22 DSGVO: Der rechtliche Rahmen

Der rechtliche Rahmen für KI-gestützte Führungsentscheidungen ruht auf drei Pfeilern: dem EU AI Act, Verordnung 2024/1689, der aktienrechtlichen Sorgfaltspflicht nach § 93 AktG, und Art. 22 DSGVO für automatisierte Einzelentscheidungen. Gemeinsam konstituieren sie eine Haftungskette, die beim Modellanbieter beginnt und beim verantwortlichen Organ des einsetzenden Unternehmens endet.

Der EU AI Act trat am 1. August 2024 in Kraft. Die Pflichten für General-Purpose-AI-Modelle greifen ab August 2025, die vollständigen Anforderungen an Hochrisikosysteme ab August 2026. Als Hochrisiko klassifiziert die Verordnung unter anderem KI in der Personalauswahl, der Kreditwürdigkeitsprüfung, der Strafverfolgung und in kritischer Infrastruktur. Für diese Systeme fordert der AI Act ein Risikomanagementsystem, Datenqualitätsnachweise, technische Dokumentation, menschliche Aufsicht und Genauigkeitsprotokolle. Die Konformitätsprüfung nach Art. 43 ist nicht optional. Verstöße können nach Art. 99 Sanktionen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes auslösen, je nachdem, welcher Betrag höher ist. Die BaFin hat in ihrem Merkblatt zum KI-Einsatz in der Finanzbranche zusätzlich klargestellt, dass die Verantwortung für Modellentscheidungen beim regulierten Unternehmen verbleibt, unabhängig vom Zulieferer.

§ 93 AktG ergänzt diese externe Regulierung um die interne Haftungsebene. Ein Vorstand, der ein Hochrisiko-KI-System ohne dokumentierte Validierung, ohne Bias-Prüfung und ohne revisionssichere Protokollierung einsetzt, verliert den Schutz der Business Judgment Rule. Art. 22 DSGVO verbietet darüber hinaus ausschließlich automatisierte Entscheidungen mit rechtlicher Wirkung für Betroffene, etwa bei Bonitätsentscheidungen oder Personalauswahl. Der EuGH hat in der Sache SCHUFA vom 7. Dezember 2023, C-634/21, den Anwendungsbereich weit gezogen und automatisierte Scoring-Entscheidungen als regulierungsbedürftig qualifiziert. Wer Haftung ernst nimmt, führt keine Schein-Kontrolle, sondern substanzielle, dokumentierte menschliche Prüfung in jeder relevanten Entscheidungsklasse.

Wie systematische Haltung KI-Governance im Vorstand verankert

Systematische Haltung verankert KI-Governance durch drei Elemente: explizite Wertgrenzen vor dem Modelleinsatz, nachvollziehbare Eskalationspfade zwischen Modell und Mensch, sowie persönliche Rechenschaft für jede Entscheidungsklasse. Haltung ersetzt keine Compliance; sie gibt ihr Richtung. Sie entscheidet, was überhaupt automatisiert werden darf, bevor die Frage des Wie technisch geklärt wird.

Das in HALTUNG, Kapitel 12, entwickelte Entscheidungs-Framework lässt sich direkt auf KI-Governance übertragen. Erste Ebene: Lageklärung, also welche Entscheidung der Algorithmus tatsächlich trifft und welche Daten ihn trainieren. Zweite Ebene: Wertverankerung, also welche Grenzen nicht verhandelbar sind, unabhängig von Effizienzgewinnen. Dritte Ebene: Optionsraum, also welche Kontrollmechanismen installiert werden, welche Revisionsrechte bestehen, und wie Fehlerquoten fortlaufend überwacht werden. Vierte Ebene: Entscheidung und Commitment, konkret, wer im Vorstand persönlich für den Einsatz zeichnet. Dieses Framework ist kein Compliance-Ritual. Es ist die Entscheidungsarchitektur, die im Haftungsfall den Unterschied zwischen dokumentierter Sorgfalt und persönlicher Inanspruchnahme nach § 93 Absatz 2 AktG markiert.

Der Kontrast zwischen VW 2015 und den in HALTUNG, Kapitel 13 beschriebenen werteorientiert geführten Private-Equity-Fonds ist instruktiv. Das eine Unternehmen trennte Code von Verantwortung; das andere verankerte Haltung über zehn Jahre konsistent in jeder Investmentthese. Dr. Raphael Nagel (LL.M.) argumentiert, dass Haltung ein skalierbarer Wettbewerbsvorteil ist, weil sie Vertrauen akkumuliert, das in regulierten und reputationsabhängigen Märkten ökonomisch messbar wird: geringere Kapitalkosten, kürzere Due-Diligence-Zyklen, höhere Talentbindung. In der KI-Ära wird dieser Vorteil schärfer: Wer Algorithmen mit sichtbarer menschlicher Verantwortung koppelt, senkt regulatorisches Risiko, gewinnt aufsichtsrechtlichen Vorlauf und reduziert die Wahrscheinlichkeit, dass ein Modellversagen zum Governance-Skandal eskaliert.

Die Frage, die in europäischen Vorstandsetagen aktuell falsch gestellt wird, lautet: Wie schnell können wir KI einsetzen? Die richtige Frage lautet: Wo verläuft die Grenze zwischen delegierbarer Informationsverarbeitung und nicht delegierbarer Verantwortung, und wer im Vorstand zeichnet persönlich für diese Grenze? Dr. Raphael Nagel (LL.M.) beantwortet diese Frage in HALTUNG mit analytischer Klarheit: KI verschiebt Führung, indem sie den informationellen Unterbau beschleunigt. Sie ersetzt Führung nicht, weil Verantwortung an die Bereitschaft einer Person gebunden ist, im Krisenmoment für Konsequenzen einzustehen. Diese Bereitschaft ist nicht algorithmisierbar. Tactical Management begleitet Gesellschafter, Vorstände und Aufsichtsräte an exakt der Schnittstelle zwischen regulatorischer Anforderung, aktienrechtlicher Haftung und operativer KI-Governance. Der strategische Ausblick ist eindeutig: In den kommenden zehn Jahren wird sich der Wert einer Führungspersönlichkeit weniger an ihrer Fähigkeit bemessen, KI-Systeme zu bedienen, und mehr an der Fähigkeit, die irreduzibel menschlichen Funktionen, Urteilsvermögen, Ownership und Haltung, unter Algorithmusdruck sichtbar und konsistent zu tragen. Wer diese Disziplin jetzt aufbaut, wird nicht nur compliant sein. Er wird der Referenzpunkt, an dem sich die anderen orientieren.

Häufige Fragen

Wer haftet, wenn ein KI-System im Unternehmen eine fehlerhafte Entscheidung trifft?

Die Haftung bleibt beim Vorstand, nicht beim KI-Anbieter und nicht beim Modell selbst. § 93 Absatz 2 AktG begründet die Innenhaftung des Vorstands für Pflichtverletzungen, und der EU AI Act ergänzt die externe Pflicht zur dokumentierten menschlichen Aufsicht. Der Anbieter haftet vertragsrechtlich und nach Produktsicherheitsrecht, was die aktienrechtliche Verantwortung des einsetzenden Unternehmens jedoch nicht verdrängt. Vorstand und Aufsichtsrat müssen nachweisen können, dass sie Modell, Trainingsdaten, Bias-Prüfung und Eskalationspfade pflichtgemäß geprüft haben. Wer diesen Nachweis nicht führen kann, verliert den Schutz der Business Judgment Rule nach § 93 Absatz 1 Satz 2 AktG.

Darf der Vorstand operative Entscheidungen vollständig an KI delegieren?

Nein, nicht bei Entscheidungen mit rechtlicher Wirkung für Betroffene oder mit wesentlicher Geschäftsrelevanz. Art. 22 DSGVO verbietet ausschließlich automatisierte Einzelentscheidungen in diesen Konstellationen, und der EU AI Act verlangt menschliche Aufsicht über alle Hochrisikosysteme. Darüber hinaus gilt die aktienrechtliche Grundregel: Leitungsentscheidungen nach § 76 AktG sind nicht delegierbar, weder an Dritte noch an Maschinen. Dr. Raphael Nagel (LL.M.) formuliert in HALTUNG: Verantwortung kann nicht an Algorithmen delegiert werden. Zulässig ist algorithmische Vorbereitung, nicht algorithmische Letztentscheidung in Fragen, die den Kernbereich der Unternehmensleitung betreffen.

Welche KI-Anwendungen gelten nach dem EU AI Act als Hochrisiko?

Der EU AI Act, Verordnung 2024/1689, definiert in Anhang III unter anderem folgende Bereiche als Hochrisiko: KI in der Personalauswahl und Leistungsbewertung, in der Kreditwürdigkeitsprüfung natürlicher Personen, in der Strafverfolgung, in der Verwaltung kritischer Infrastruktur, im Bildungszugang, in der Migrations- und Asylverwaltung sowie in der Justiz. Für diese Systeme gelten Pflichten zu Risikomanagement, Datenqualität, technischer Dokumentation, Protokollierung, menschlicher Aufsicht, Genauigkeit und Cybersicherheit. Die vollen Anforderungen werden ab August 2026 durchsetzbar. Unternehmen, die entsprechende Systeme betreiben, müssen die Konformität nach Art. 43 nachweisen.

Wie dokumentiert der Vorstand KI-gestützte Entscheidungen rechtssicher?

Rechtssichere Dokumentation umfasst vier Ebenen: erstens die Dokumentation des Modells selbst, inklusive Trainingsdaten, Testverfahren und Bias-Analysen; zweitens die organisatorische Einbettung mit Freigabeprozessen, Eskalationspfaden und klaren Rollen; drittens die einzelne Entscheidung, also welcher Mensch die Modellausgabe wann geprüft und freigegeben hat; viertens die laufende Überwachung mit Fehlerquoten, Drift-Indikatoren und Modellabweichungen. Ohne diese vier Ebenen greift der Schutz der Business Judgment Rule nach § 93 Absatz 1 Satz 2 AktG nicht. Tactical Management empfiehlt, diese Dokumentation in die bestehende Revisions- und Aufsichtsratsberichterstattung zu integrieren, statt parallele Strukturen aufzubauen.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie