CEO-Fraud mit Deepfake-Stimmen – Verteidigungsperspektive

CEO-Fraud bezeichnet den gezielten Betrug, bei dem sich Täter als Geschäftsführer, Führungskraft oder andere autorisierte Personen ausgeben, um Mitarbeiter zu Zahlungen oder vertraulichen Handlungen zu bewegen. Mit der Weiterentwicklung von KI-Technologien ist eine neue Dimension hinzugekommen: Deepfake-Stimmen. Täter können die Stimme von Führungskräften nahezu perfekt imitieren und so Betrugsversuche in Telefonaten oder Sprachnachrichten glaubwürdig erscheinen lassen. Für potenzielle Beschuldigte bedeutet dies ein erhebliches strafrechtliches Risiko, selbst wenn keine realen Aufnahmen verwendet werden.

Strafrechtliche Relevanz

Die zentralen Straftatbestände liegen im Bereich des Betrugs (§ 263 StGB). CEO-Fraud mit Deepfake-Stimmen erfüllt die Voraussetzungen des Betrugs, sobald ein Vermögensnachteil erzwungen oder ein Vermögensvorteil erschlichen wird. Auch die Vorbereitung und das bewusste Einsetzen täuschender Techniken zur Täuschung anderer Personen können strafverschärfend wirken. Ergänzend können auch §§ 269 StGB (Fälschung beweiserheblicher Daten) oder §§ 202a/b StGB (Ausspähen und Abfangen von Daten) relevant werden, insbesondere wenn digitale Kommunikationswege und Unternehmenssysteme involviert sind.

Ermittlungsrisiken

In der Praxis lösen solche Fälle oft sofort Ermittlungsverfahren aus. Strafverfolgungsbehörden analysieren Kommunikationsprotokolle, IP-Adressen, Metadaten von Audiofiles und interne Sicherheitsprotokolle von Unternehmen. Für Beschuldigte können Hausdurchsuchungen, Beschlagnahme von Computern oder Mobilgeräten und digitale Sicherstellungen drohen. Jede eigenmächtige Handlung, wie das Löschen von Spuren oder unkoordinierte Kontakte mit Ermittlern, verschärft die Situation.

Verteidigungsstrategie

Aus Verteidigersicht liegt der Fokus zunächst auf der Prüfung der Tatbestandsmerkmale. Es muss geklärt werden, ob der Beschuldigte tatsächlich in die Täuschung involviert war oder ob die Nutzung der Deepfake-Technologie ohne Vorsatz geschah. Technische Gutachten sind häufig entscheidend, um die Erstellung der Deepfake-Stimme, deren Verbreitung und die Beteiligung des Beschuldigten nachzuweisen.

Zudem kann die Kooperation mit den Ermittlungsbehörden und eine transparente Kommunikation mit den betroffenen Unternehmen strafmildernd wirken. Ziel der Verteidigung ist es, die eigene Verantwortung zu begrenzen und das Verfahren frühzeitig zu steuern.

Risiken für Beschuldigte

Die Kombination aus Täuschung, finanzieller Ausbeutung und professioneller Kriminalität macht CEO-Fraud mit Deepfake-Stimmen besonders schwerwiegend. Das Strafmaß kann hoch sein, insbesondere wenn Vermögensschäden in erheblichem Umfang entstanden sind oder die Handlung systematisch geplant war.

CEO-Fraud durch Deepfake-Stimmen ist ein modernes und hochriskantes Betrugsphänomen. § 263 StGB greift bereits bei der Androhung oder Verwirklichung eines Vermögensnachteils unter Einsatz täuschender Technologien. Potenzielle Beschuldigte müssen die Tragweite ihres Handelns erkennen und frühzeitig professionelle rechtliche Unterstützung in Anspruch nehmen, um die eigene Position zu sichern, technische und rechtliche Aspekte zu prüfen und eine effektive Verteidigungsstrategie zu entwickeln.