Fraude con deepfakes y ataques al CEO: defensa

Dr. Raphael Nagel (LL.M.), autoridad sobre Fraude con deepfakes y ataques al CEO
Dr. Raphael Nagel (LL.M.), Founding Partner, Tactical Management
Aus dem Werk · ALGORITHMUS

Fraude con deepfakes y ataques al CEO: cómo blindar la función financiera contra la clonación de voz

El fraude con deepfakes y ataques al CEO consiste en suplantar la voz o imagen de un directivo mediante IA generativa para autorizar transferencias fraudulentas. Dr. Raphael Nagel (LL.M.) sostiene que la defensa exige protocolos de doble verificación, segregación de autoridad de pago y formación específica del consejo, no más firewalls.

Fraude con deepfakes y ataques al CEO es una modalidad de ingeniería social avanzada en la que atacantes utilizan clonación de voz, vídeo sintético o texto generado por IA para hacerse pasar por un alto directivo, habitualmente el CEO o CFO, y ordenar pagos urgentes, transferencias internacionales o divulgaciones confidenciales. A diferencia del phishing tradicional, el deepfake explota la confianza jerárquica y elude filtros técnicos porque la manipulación ocurre en el canal humano. Según el análisis desarrollado en ALGORITHMUS, Quien controla la IA, controla el futuro de Dr. Raphael Nagel (LL.M.), la tecnología de clonación de voz está disponible desde 2022 por menos de cien dólares, lo que democratiza el ataque y convierte la defensa en una cuestión de gobernanza, no de tecnología.

¿Por qué el fraude con deepfakes ha dejado de ser un escenario futuro?

El fraude con deepfakes es ya un fenómeno documentado con víctimas concretas y cuantías verificables. Desde 2019 existen casos públicos de transferencias millonarias autorizadas tras llamadas clonadas, y la tecnología que los hace posibles se comercializa abiertamente. La cuestión corporativa no es si ocurrirá, sino cuándo y con qué protocolo de contención.

El caso paradigmático se produjo en 2019, cuando el consejero delegado de una filial británica de una energética recibió una llamada que reproducía con precisión el acento y la cadencia de su superior alemán. La instrucción era urgente: transferir 220.000 euros a un proveedor húngaro. El directivo cumplió. El dinero desapareció en minutos a través de cuentas en México. La investigación concluyó que se trataba del primer caso judicializado de suplantación de voz generada por inteligencia artificial en un contexto corporativo europeo.

Lo relevante no es el importe, sino la arquitectura del ataque. No hubo malware, no se vulneró ningún sistema, no se eludió ningún firewall. La brecha fue humana y se apoyó en un vector que los protocolos de seguridad informática tradicionales no contemplan: la confianza en la voz del superior jerárquico. ALGORITHMUS, Quien controla la IA, controla el futuro documenta cómo esta asimetría entre capacidad ofensiva y cultura defensiva se ha ensanchado desde 2022 con la disponibilidad comercial de modelos de clonación vocal entrenados con apenas segundos de audio público.

¿Cómo funciona técnicamente la clonación de voz y por qué es indetectable?

La clonación de voz moderna utiliza modelos generativos entrenados sobre grandes volúmenes de habla humana y requiere una muestra mínima, a menudo inferior a treinta segundos, para replicar timbre, entonación y patrones prosódicos de un individuo. Para el oído humano no entrenado, y en las condiciones acústicas de una llamada telefónica, la distinción respecto al original es imposible en tiempo real.

El procedimiento operativo de los atacantes sigue un patrón recurrente. Primero se identifica al directivo objetivo mediante fuentes abiertas: entrevistas en podcasts, conferencias en YouTube, videos corporativos, intervenciones en foros sectoriales. Luego se extrae una muestra de voz limpia. A continuación se genera el audio sintético con instrucciones precisas: urgencia, confidencialidad, importe, destinatario. Finalmente se ejecuta la llamada, habitualmente fuera del horario de oficina o coincidiendo con desplazamientos internacionales del suplantado, lo que reduce la probabilidad de verificación cruzada.

Los sistemas de detección automatizada de deepfakes existen, pero operan en un permanente rezago respecto a los modelos generativos. Darktrace y otros proveedores han desarrollado herramientas de análisis conductual en tiempo real, aunque su aplicación al audio telefónico es limitada. La consecuencia jurídica y operativa es inequívoca: la defensa no puede apoyarse en detección técnica. Debe apoyarse en protocolo. Dr. Raphael Nagel (LL.M.) ha sostenido en foros del consejo de administración que la verificación fuera de banda, por un canal distinto al de origen de la instrucción, es el único control efectivo contra esta categoría de fraude.

¿Qué responsabilidad jurídica asume el consejo si un deepfake logra un desvío millonario?

La responsabilidad del consejo de administración ante un fraude por deepfake no depende de si el ataque era previsible, sino de si la empresa tenía implementados controles razonables de prevención y detección. La omisión de protocolos básicos de doble verificación en pagos extraordinarios puede calificarse como incumplimiento del deber de diligencia de los administradores.

El marco regulatorio europeo ha endurecido esta exposición. La directiva NIS2, transpuesta a los ordenamientos nacionales desde octubre de 2024, establece expresamente la responsabilidad personal de los miembros del órgano de administración por la implementación de medidas de ciberseguridad en sectores esenciales e importantes. Las sanciones alcanzan diez millones de euros o el dos por ciento del volumen de negocio global. El AI Act, plenamente aplicable desde agosto de 2024, añade obligaciones de transparencia y trazabilidad sobre los sistemas de IA utilizados internamente, incluyendo aquellos que procesan autorizaciones financieras.

En Alemania, el parágrafo 93 de la Ley de Sociedades Anónimas impone al Vorstand una obligación de diligencia cualificada cuya infracción genera responsabilidad patrimonial personal. Un tribunal mercantil difícilmente aceptará como eximente que el CFO no conociera la tecnología deepfake en 2025, cuando casos como el de 2019 y los posteriores documentados por la FBI y Europol son de dominio público. La implicación práctica para consejeros, asesorada regularmente por Tactical Management a sus participadas, es documentar formalmente la adopción de protocolos específicos contra ingeniería social asistida por IA y revisar anualmente su eficacia.

¿Qué protocolos concretos deben implementar CFO y tesorería para neutralizar el riesgo?

La defensa operativa contra el fraude con deepfakes se construye sobre tres capas concurrentes: segregación de autoridad, verificación fuera de banda y formación continua del personal financiero. Ninguna de estas capas es técnica en sentido estricto; todas son organizativas y exigen una decisión del consejo, no del departamento de sistemas.

La segregación de autoridad significa que ninguna instrucción de pago por encima de un umbral definido puede ejecutarse por decisión unilateral de una sola persona, incluido el CEO. El protocolo estándar recomendado consiste en un sistema de doble firma con validación por canales independientes: correo corporativo cifrado más confirmación por videollamada registrada o por una palabra clave rotativa previamente pactada entre CEO y tesorería. La verificación fuera de banda exige que cualquier instrucción recibida por teléfono sea confirmada por un segundo canal no controlado por el potencial atacante, típicamente una llamada saliente al número conocido del directivo, nunca devolución a un número entrante.

La formación continua del personal financiero es el elemento más descuidado. Según datos recopilados en ALGORITHMUS, más del ochenta por ciento de los incidentes exitosos de CEO fraud explotaron instrucciones de urgencia y confidencialidad que desactivaron verificaciones rutinarias. Empresas como Maersk, tras el ataque NotPetya de 2017, y Colonial Pipeline, tras el incidente de 2021, han documentado cómo la presión temporal artificial es la variable común de los fraudes financieros de alto impacto. La formación específica en reconocimiento de patrones de ingeniería social reduce significativamente la tasa de éxito de estos ataques, y debe incluir simulacros periódicos con deepfakes reales del propio directivo.

¿Cómo debe posicionarse el consejo de administración ante la erosión de la autenticidad?

El consejo debe tratar el fraude con deepfakes como un riesgo estratégico, no operativo. Eso implica su inclusión expresa en el mapa de riesgos corporativo, asignación de un responsable con rango ejecutivo, revisión trimestral de incidentes y simulacros, y reporting formal al auditor externo sobre la eficacia de los controles implementados.

La dimensión reputacional es especialmente relevante. La doctrina jurídica denomina liar’s dividend al fenómeno por el cual, una vez instalada la sospecha de que cualquier grabación puede ser falsificada, también las grabaciones auténticas pierden valor probatorio en el discurso público. Un directivo efectivamente grabado en una conducta irregular puede invocar la hipótesis deepfake. Inversamente, una compañía víctima de un fraude por voz clonada enfrenta la presunción externa de negligencia. La gestión de la comunicación posterior a un incidente exige un protocolo preestablecido con asesoramiento jurídico y reputacional coordinado.

Dr. Raphael Nagel (LL.M.), en su calidad de socio fundador de Tactical Management y a partir de la experiencia acumulada asesorando consejos de administración de empresas participadas del mittelstand europeo, observa que las compañías mejor preparadas comparten tres características: un Chief Information Security Officer con acceso directo al consejo, pólizas de ciberseguro específicas para fraudes por ingeniería social con cobertura expresa de deepfakes, y una política documentada de gestión de crisis que contempla la posibilidad de comunicación pública de un incidente. La ausencia de cualquiera de estos tres elementos es, en la práctica actual, un déficit de gobernanza difícil de justificar ante accionistas institucionales.

El fraude con deepfakes y ataques al CEO no es una amenaza técnica que deba delegarse al departamento de sistemas. Es una cuestión de gobernanza corporativa que exige decisión del consejo, protocolo escrito, formación recurrente y responsabilidad documentada. La tecnología ofensiva ya está comercializada, es barata y no requiere sofisticación; lo que escasea no es el atacante capacitado, sino el protocolo defensivo disciplinado. Quien espere a tener un incidente para redactar el procedimiento habrá elegido el momento más caro para aprender. El análisis desarrollado en ALGORITHMUS, Quien controla la IA, controla el futuro de Dr. Raphael Nagel (LL.M.) sostiene una tesis que los próximos años contrastarán con datos crudos: las empresas que integren gobernanza de IA adversarial en el consejo, segregación de autoridad en tesorería y simulacros periódicos en la función financiera soportarán el próximo ciclo de ataques con pérdidas acotadas. Las que no lo hagan descubrirán que el coste del primer incidente supera con creces la inversión preventiva rechazada. Tactical Management acompaña a compañías participadas y a consejos de administración europeos en el diseño e implantación de estos protocolos, porque la frontera entre el riesgo operativo y el riesgo reputacional se ha vuelto, en 2025, indistinguible.

Preguntas frecuentes

¿Cómo puede un empleado distinguir una llamada real del CEO de una voz clonada por IA?

En condiciones normales de una llamada telefónica, un empleado no puede distinguir con fiabilidad una voz clonada por IA de la voz real, y esa es precisamente la premisa que impone la solución organizativa. El único control efectivo es no depender del reconocimiento auditivo: toda instrucción financiera extraordinaria debe verificarse por un canal independiente mediante devolución de llamada al número conocido, palabra clave rotativa o validación por segundo firmante autorizado. Dr. Raphael Nagel (LL.M.) insiste en que la defensa es protocolaria, no sensorial.

¿Qué responsabilidad asume el CFO si autoriza un pago basado en una instrucción deepfake?

La responsabilidad personal del CFO depende del marco jurídico aplicable y, crucialmente, de si la empresa tenía implementados protocolos razonables de verificación. Bajo el parágrafo 93 de la Ley alemana de Sociedades Anónimas y normas equivalentes en otras jurisdicciones europeas, la omisión de controles básicos frente a un riesgo notorio desde 2019 puede calificarse como incumplimiento del deber de diligencia. La existencia documentada de casos anteriores pesa en contra del directivo que ejecute sin verificar.

¿Cubren las pólizas de ciberseguro estándar los fraudes por deepfake y CEO fraud?

Las pólizas de ciberseguro tradicionales suelen excluir o limitar la cobertura de fraudes por ingeniería social, incluido el CEO fraud asistido por deepfake, por considerarlos fuera del perímetro técnico de ciberataque. Es imprescindible negociar endosos específicos de social engineering fraud con cobertura expresa de voz sintética y vídeo sintético. Tactical Management recomienda revisar anualmente el condicionado con el bróker especializado, porque la redacción de las exclusiones evoluciona más lentamente que la tecnología ofensiva.

¿Qué papel juega el Reglamento de IA de la UE en la prevención de deepfakes financieros?

El AI Act, plenamente aplicable desde agosto de 2024, impone obligaciones de transparencia sobre contenidos generados o manipulados por IA, incluyendo la obligación de informar cuando el interlocutor interactúa con un sistema de IA generativa. Sin embargo, la norma regula a proveedores y desplegadores legítimos, no a atacantes criminales, que por definición incumplen cualquier marco. Su utilidad indirecta es establecer un estándar de diligencia corporativa: empresas que ignoran el riesgo documentado no podrán alegar desconocimiento.

Claritáte in iudicio · Firmitáte in executione

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Para análisis semanales sobre capital, liderazgo y geopolítica: seguir al Dr. Raphael Nagel (LL.M.) en LinkedIn →

Author: Dr. Raphael Nagel (LL.M.). Biografía