Deepfake-Betrug und CEO-Fraud-Abwehr: Governance

Dr. Raphael Nagel (LL.M.), Founding Partner Tactical Management, zu Deepfake-Betrug und CEO-Fraud-Abwehr
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · ALGORITHMUS

Deepfake-Betrug und CEO-Fraud-Abwehr: Governance-Pflichten für Vorstand und Finanzfunktion

Deepfake-Betrug und CEO-Fraud-Abwehr bezeichnet die Kombination aus Governance, technischer Verifikation und rechtlicher Vorbereitung gegen KI-geklonte Stimmen und Videos, mit denen Täter Zahlungsfreigaben erschleichen. Dr. Raphael Nagel (LL.M.) zeigt, dass Vorstände heute persönlich haften, wenn sie keine wirksamen Prüfprozesse für Zahlungsanweisungen etabliert haben.

Deepfake-Betrug und CEO-Fraud-Abwehr is die systematische Verteidigung eines Unternehmens gegen KI-generierte Imitationen von Führungskräften, die zur Auslösung betrügerischer Zahlungen, Vertragsfreigaben oder Informationsabflüsse eingesetzt werden. Sie umfasst drei Ebenen: eine technische Verifikationsschicht für Stimm-, Video- und E-Mail-Authentizität, eine prozessuale Kontrollschicht mit Vier-Augen-Prinzip und Rückrufverfahren über verifizierte Kanäle, und eine rechtliche Schicht mit dokumentierten Sorgfaltspflichten nach § 93 AktG, NIS2-Richtlinie und DSGVO. Ohne diese Governance-Architektur sind Unternehmen seit 2019 nachweislich durch handelsübliche KI-Werkzeuge manipulierbar, wie der dokumentierte 220.000-Euro-Fall in Großbritannien zeigt.

Warum ist Deepfake-Betrug 2024 eine strategische Bedrohung auf Vorstandsebene?

Deepfake-Betrug ist 2024 eine Vorstandsfrage, weil KI-Stimmklonierung Millionenschäden bei handelsüblichen Kosten ermöglicht und weil NIS2 seit Oktober 2024 persönliche Haftung der Geschäftsleitung für unzureichende Cybersicherheit etabliert. Die Bedrohung ist nicht hypothetisch, sondern dokumentierte Kriminalitätsgeschichte.

Der im Buch ALGORITHMUS dokumentierte Fall aus dem Jahr 2019 ist das Musterbeispiel: Der CEO eines britischen Energieunternehmens wurde durch einen KI-generierten Anruf, der die Stimme seines deutschen Konzernchefs imitierte, zur Überweisung von 220.000 Euro auf ein betrügerisches Konto gebracht. Die Technologie, die das möglich machte, kostete damals einen vierstelligen Betrag. 2024 kostet sie weniger als hundert Dollar, bei signifikant gesteigerter Qualität. Der Januar-2024-Robocall, der Tausenden New-Hampshire-Wählern die geklonte Stimme von Joe Biden präsentierte, demonstrierte die politische Dimension derselben Technologie.

Die rechtliche Lage hat sich parallel verschärft. Die NIS2-Richtlinie, die seit Oktober 2024 in nationales Recht umzusetzen ist, sieht Sanktionen bis zehn Millionen Euro oder zwei Prozent des globalen Jahresumsatzes vor. Entscheidend: Vorstände haften persönlich für die Umsetzung. Ein Unternehmen, das 2025 einem Deepfake-CEO-Fraud zum Opfer fällt und keine dokumentierten Verifikationsprozesse vorweisen kann, exponiert seine Geschäftsleitung nach § 93 AktG in einer Weise, die vor fünf Jahren regulatorisch nicht existierte.

Welche technischen Angriffsmuster müssen Unternehmen kennen?

Drei Angriffsmuster dominieren 2024. Erstens: Voice-Cloning-Anrufe an Finanzverantwortliche, die eine dringende Überweisung mit der geklonten Stimme eines Vorstands anordnen. Zweitens: KI-gestütztes Spear-Phishing, das personalisierte E-Mails in industriellem Maßstab generiert. Drittens: Video-Deepfakes in Teams- oder Zoom-Meetings, in denen ein vermeintlicher CFO Transaktionen freigibt.

Das technisch Entscheidende: Audio-Deepfakes haben 2024 eine Qualität erreicht, die in Telefonaten kaum noch von echten Stimmen zu unterscheiden ist. Video-Deepfakes weisen weiterhin visuell erkennbare Artefakte auf, insbesondere bei Kopfbewegungen und Lichtreflexionen, aber die Entwicklungsgeschwindigkeit ist hoch. Das im Buch ALGORITHMUS beschriebene Hongkong-Szenario vom Februar 2024, bei dem ein Finanzmitarbeiter eines multinationalen Unternehmens nach einer Videokonferenz mit vermeintlich fünf Kollegen 25 Millionen Dollar überwies, zeigt die Skalierungsdimension: sämtliche Teilnehmer der Videokonferenz waren Deepfakes.

Die Asymmetrie zwischen Angreifern und Verteidigern hat sich durch KI zuungunsten der Verteidiger verschoben. Adversarial AI analysiert Sicherheitssysteme und entwickelt Umgehungsstrategien in Echtzeit. Darktrace und CrowdStrike setzen KI-basierte Verhaltensanalyse defensiv ein, aber sie operieren in einem permanenten Rüstungswettlauf ohne absehbares Ende. Die Konsequenz: Unternehmen können sich nicht auf menschliche Erkennung verlassen. Die Abwehr muss prozessual sein, nicht perzeptiv.

Wie sieht eine wirksame Governance-Architektur gegen CEO-Fraud aus?

Eine wirksame Governance-Architektur gegen Deepfake-Betrug und CEO-Fraud-Abwehr basiert auf drei Schichten: verifizierbare Zahlungsfreigabeprozesse mit Rückrufpflicht über vorher registrierte Kanäle, kryptografische Authentifizierung kritischer Kommunikation und dokumentierte Eskalationsregeln für jede Transaktion oberhalb definierter Schwellenwerte.

Die prozessuale Schicht ist die wirksamste und kostengünstigste. Jede Zahlungsanweisung oberhalb eines Schwellenwerts, typischerweise 50.000 Euro im gehobenen Mittelstand, muss zwingend einem Vier-Augen-Prinzip unterliegen, das nicht durch eine einzelne Kommunikationsquelle ausgehebelt werden kann. Ein Anruf des vermeintlichen CEO genügt nie. Die Bestätigung erfordert einen Rückruf über eine unabhängig verifizierte Nummer, die in keinem E-Mail-Signatur-Footer steht und nicht aus der eingehenden Kommunikation abgeleitet wurde. Siemens, BASF und andere deutsche Großunternehmen haben solche Protokolle nach dokumentierten Vorfällen etabliert.

Die technische Schicht umfasst kryptografische Signaturen für interne Kommunikation, Pre-Shared-Codewörter für dringende Transaktionen und die Integration von Deepfake-Erkennungssystemen in Videokonferenz-Plattformen. Die rechtliche Schicht verlangt dokumentierte Prozessbeschreibungen nach § 93 AktG, Anpassungen der Geschäftsordnung für die Geschäftsleitung und regelmäßige Dokumentation von Sensibilisierungsmaßnahmen. Dr. Raphael Nagel (LL.M.) betont in ALGORITHMUS, dass fehlende Dokumentation im Schadensfall als Indiz gegen die Sorgfaltspflichterfüllung der Geschäftsleitung gewertet werden kann.

Welche rechtliche Haftung trifft Vorstand und Geschäftsführung im Schadensfall?

Die Haftung des Vorstands im Deepfake-Schadensfall folgt der Sorgfaltspflicht nach § 93 AktG und, für Geschäftsführer einer GmbH, § 43 GmbHG. NIS2 hat diese Haftung seit Oktober 2024 um explizite Cybersicherheitspflichten erweitert, mit persönlicher Verantwortung der Geschäftsleitung für Umsetzung und Dokumentation.

Drei Haftungsdimensionen sind relevant. Erstens die interne Haftung gegenüber der Gesellschaft: Wenn ein Vorstand keine angemessenen Präventionsmaßnahmen gegen bekannte KI-Betrugsmuster eingeführt hat, obwohl diese seit dem dokumentierten 220.000-Euro-Fall von 2019 öffentlich bekannt sind, kann das einen Sorgfaltspflichtverstoß begründen. Die Business Judgement Rule schützt hier nur, wenn die Entscheidungsgrundlage nachweislich informiert war. Zweitens die externe regulatorische Haftung: NIS2-Sanktionen von bis zu zehn Millionen Euro oder zwei Prozent des Jahresumsatzes treffen primär das Unternehmen, können aber über Regress an die verantwortliche Geschäftsleitung weitergegeben werden.

Die dritte Dimension ist versicherungsrechtlich. D&O-Versicherungen prüfen nach dokumentierten Deepfake-Vorfällen zunehmend die Sorgfaltsdokumentation. Eine Geschäftsleitung, die keine schriftlich fixierten Zahlungsfreigabeprozesse mit Rückrufpflicht vorweisen kann, riskiert Deckungsausschlüsse wegen grober Fahrlässigkeit. Für Unternehmen in der KRITIS-Kategorie nach NIS2 kommt hinzu: Meldepflichten für signifikante Cybervorfälle innerhalb von 24 Stunden an das BSI, was eine vorbereitete Incident-Response-Struktur voraussetzt, die ohne Vorarbeit in der Krise nicht improvisiert werden kann.

Wie positioniert sich Europa im globalen Kontext der KI-Betrugsabwehr?

Europa positioniert sich bei Deepfake-Betrug und CEO-Fraud-Abwehr durch den AI Act, die NIS2-Richtlinie und den Digital Services Act als regulatorischer Vorreiter. Der AI Act verpflichtet Anbieter generativer KI seit 2024 zu Transparenz über Trainingsdaten und zu Kennzeichnungspflichten für synthetische Medieninhalte, flankiert von Bußgeldern bis zu sieben Prozent des weltweiten Jahresumsatzes.

Die Wirksamkeit dieser Regulierung ist begrenzt, solange die relevanten KI-Modelle in San Francisco oder Shenzhen entwickelt werden und die Angreifer außerhalb europäischer Jurisdiktion operieren. Der Brussels Effect, der bei der DSGVO globale Datenschutzstandards gesetzt hat, wird im AI-Act-Kontext langsamer wirken, weil Deepfake-Werkzeuge längst dezentral verfügbar sind. Das Technology Innovation Institute in Abu Dhabi, Mistral in Paris und dutzende Open-Source-Projekte haben die Schwelle für Stimmklonierung so weit gesenkt, dass keine zentrale Regulierung sie mehr schließen kann.

Die pragmatische Konsequenz für europäische Unternehmen: Regulatorische Konformität ist notwendig, aber nicht hinreichend. Sie schützt vor Bußgeldern, nicht vor dem Schaden selbst. Dr. Raphael Nagel (LL.M.) argumentiert in ALGORITHMUS, dass europäische Unternehmen ihre Abwehrstrategie nicht auf regulatorischen Schutz, sondern auf eigenständige Governance stützen müssen. Tactical Management beobachtet in der Due-Diligence-Praxis bei mittelständischen Portfoliounternehmen, dass weniger als zwanzig Prozent über dokumentierte Verifikationsprozesse für Zahlungsfreigaben oberhalb 100.000 Euro verfügen. Diese Lücke ist ein primäres operatives Risiko, keine theoretische Bedrohung.

Deepfake-Betrug und CEO-Fraud-Abwehr ist keine IT-Aufgabe und keine Versicherungsfrage. Es ist eine Governance-Pflicht der Geschäftsleitung, die seit NIS2 persönlich haftungsbewehrt ist und deren Vernachlässigung im Schadensfall nicht mehr als Pech, sondern als Sorgfaltspflichtverstoß gewertet wird. Die Technologie, die 2019 einen britischen Energie-CEO um 220.000 Euro brachte, ist 2024 um den Faktor tausend billiger und um Größenordnungen überzeugender geworden. Die regulatorische Antwort durch AI Act und NIS2 ist notwendig, aber sie schützt nicht vor dem Schaden, sie verschärft nur die Haftung nach dem Schaden. Dr. Raphael Nagel (LL.M.) argumentiert in ALGORITHMUS, dass die wirksame Abwehr auf drei Schichten ruht: dokumentierte Zahlungsfreigabeprozesse mit Rückrufpflicht, kryptografische Authentifizierung kritischer Kommunikation und eine Incident-Response-Struktur, die NIS2-Meldefristen von 24 Stunden einhalten kann. Tactical Management begleitet mittelständische Portfoliounternehmen bei der Implementierung dieser Architektur, weil die operative Erfahrung zeigt: Unternehmen, die heute investieren, zahlen einen Bruchteil der Kosten, die ein einziger erfolgreicher Deepfake-Vorfall verursacht. Die Entscheidung, wann gehandelt wird, ist selbst eine Führungsentscheidung. Sie nicht zu treffen, ist auch eine. Nur die Konsequenzen unterscheiden sich.

Häufige Fragen

Was unterscheidet klassischen CEO-Fraud von Deepfake-CEO-Fraud?

Klassischer CEO-Fraud arbeitete mit gefälschten E-Mails und psychologischem Druck. Deepfake-CEO-Fraud nutzt KI-geklonte Stimmen und Videobilder, die auf öffentlich verfügbaren Sprach- und Videoproben basieren. Die Erkennbarkeit sinkt dramatisch: Eine gefälschte E-Mail konnte ein aufmerksamer Mitarbeiter identifizieren, ein geklonter Anruf der Vorstandsstimme ist laut im Buch ALGORITHMUS dokumentierten Fällen kaum noch unterscheidbar. Die Abwehr muss sich deshalb von menschlicher Erkennung auf prozessuale Verifikation verlagern.

Haften Vorstände persönlich, wenn ihr Unternehmen Opfer eines Deepfake-Betrugs wird?

Ja, unter bestimmten Voraussetzungen. Nach § 93 AktG und NIS2 haftet die Geschäftsleitung persönlich, wenn keine angemessenen Präventionsmaßnahmen dokumentiert sind. Da KI-gestützter CEO-Fraud seit dem 220.000-Euro-Fall von 2019 öffentlich bekannt ist, kann das Fehlen dokumentierter Zahlungsfreigabeprozesse mit Rückrufpflicht als Sorgfaltspflichtverstoß gewertet werden. D&O-Versicherungen prüfen diese Dokumentation inzwischen routinemäßig und können Deckung wegen grober Fahrlässigkeit ausschließen.

Welche Schwellenwerte sollten Zahlungsfreigabeprozesse definieren?

Eine einheitliche Schwelle existiert nicht, aber im deutschen Mittelstand bewährt sich ein gestuftes Modell: ab 10.000 Euro dokumentierte schriftliche Zweitfreigabe, ab 50.000 Euro verpflichtender Rückruf über vorher registrierte Festnetznummer, ab 250.000 Euro zwingende Freigabe durch zwei Mitglieder der Geschäftsleitung über unabhängige Kanäle. Entscheidend ist nicht die exakte Schwelle, sondern die schriftliche Fixierung in der Geschäftsordnung und die regelmäßige Überprüfung durch Internal Audit.

Welche Rolle spielt der EU AI Act bei der Deepfake-Abwehr?

Der AI Act verpflichtet Anbieter generativer KI zur Kennzeichnung synthetischer Medieninhalte und zu Transparenz über Trainingsdaten, mit Bußgeldern bis zu sieben Prozent des globalen Jahresumsatzes. Für Unternehmen als potenzielle Opfer schafft er keinen direkten Schutz, weil Angreifer außerhalb europäischer Jurisdiktion operieren und Open-Source-Stimmklonierungstools jenseits regulatorischer Kontrolle verfügbar sind. Die Abwehr muss auf eigene Governance gestützt werden, nicht auf regulatorischen Schutz.

Wie oft sollten Deepfake-Abwehrprozesse getestet werden?

Mindestens halbjährlich durch simulierte Angriffe, analog zu Phishing-Tests. Spezialisierte Red-Team-Dienstleister bieten inzwischen Deepfake-Voice-Simulationen gegen Finanzabteilungen an, die realistische Stresstest-Szenarien liefern. Ergebnisse müssen dokumentiert und an die Geschäftsleitung berichtet werden. Tactical Management empfiehlt in der Portfolioarbeit zusätzlich jährliche tabletop-Übungen mit der Geschäftsleitung, um Eskalationspfade unter Zeitdruck zu trainieren, bevor ein echter Vorfall dies erzwingt.

Claritáte in iudicio · Firmitáte in executione

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Für wöchentliche Analysen zu Kapital, Führung und Geopolitik: Dr. Raphael Nagel (LL.M.) auf LinkedIn folgen →

Author: Dr. Raphael Nagel (LL.M.). Biografie