Deepfakes mit ChatGPT, DALL-E und Midjourney – rechtliche Risiken

KI-Bildgeneratoren und multimodale Sprachmodelle sind längst keine Nischenprodukte mehr. Tools wie Midjourney, DALL-E oder die Bildgenerierungsfunktionen von ChatGPT sind für jedermann kostenlos oder günstig zugänglich und erzeugen auf einfache Texteingabe hin täuschend echte Bilder, Gesichter und Szenen. Was für viele Nutzer nach harmlosen Experimenten klingt, kann schnell in strafbares Territorium führen – und zwar ohne dass die wenigsten Betroffenen das ahnen. Wer mit einem Ermittlungsverfahren konfrontiert wird, das auf die Nutzung solcher Tools zurückgeht, braucht sofort kompetente anwaltliche Unterstützung.

Wie funktionieren ChatGPT, DALL-E und Midjourney?

ChatGPT ist ein großes Sprachmodell des Unternehmens OpenAI, das in seiner aktuellen Version auch Bilder generieren kann – über die integrierte DALL-E-Technologie. DALL-E ist OpenAIs eigenständiges Bildgenerierungsmodell, das auf Basis von Textbeschreibungen fotorealistische oder stilisierte Bilder erzeugt. Midjourney ist ein unabhängiger Dienst, der über die Plattform Discord zugänglich ist und für seine besonders hochwertige, oft hyperrealistische Bildqualität bekannt ist.

Allen drei Tools ist gemeinsam, dass sie auf Basis sogenannter Prompts – also kurzer Textbefehle – in Sekunden Bilder erzeugen können, die realen Fotos täuschend ähnlich sehen. Werden dabei reale Personen nachgebildet, deren Gesichter in andere Zusammenhänge gesetzt oder kompromittierende Szenarien konstruiert, beginnt der Bereich des strafrechtlich Relevanten.

Wann wird die Nutzung dieser Tools strafbar?

Die Nutzung von KI-Bildgeneratoren ist nicht per se verboten. Entscheidend ist, was mit den erzeugten Inhalten geschieht und wen sie darstellen. In der Praxis sind vor allem folgende Konstellationen strafrechtlich relevant:

Erstellung und Verbreitung rufschädigender Bilder: Wer mithilfe von Midjourney oder DALL-E ein realistisches Bild einer real existierenden Person in einer kompromittierenden, erniedrigenden oder falschen Situation erstellt und dieses verbreitet, erfüllt je nach Inhalt den Tatbestand der Beleidigung (§ 185 StGB), der üblen Nachrede (§ 186 StGB) oder der Verleumdung (§ 187 StGB). Entscheidend ist dabei nicht, ob das Bild als KI-generiert erkennbar ist – maßgeblich ist die Wirkung auf den Betrachter und die Eignung zur Ehrverletzung.

Erstellung intimer oder sexualisierter Darstellungen: Werden reale Personen mithilfe von KI-Tools in sexuelle oder intime Kontexte gesetzt, kommt eine Strafbarkeit nach § 201a StGB (Verletzung des höchstpersönlichen Lebensbereichs) in Betracht. Seit der Reform des § 184k StGB ist zudem die Erstellung und Verbreitung sogenannter Nacktbildfälschungen – also täuschend echter Darstellungen einer Person ohne Kleidung – ausdrücklich unter Strafe gestellt, selbst wenn die Person in der Realität nie so abgebildet wurde.

Täuschung im Rechtsverkehr: Werden KI-generierte Bilder als echte Fotos ausgegeben, um andere zu täuschen – etwa als vermeintlicher Beweis in einem Streit, als gefälschtes Ausweisdokument oder zur Identitätstäuschung – kommt Urkundenfälschung (§ 267 StGB) oder Fälschung beweiserheblicher Daten (§ 269 StGB) in Betracht.

Betrug durch KI-generierte Inhalte: Wer mithilfe fotorealistischer KI-Bilder Vertrauen erschleicht und dadurch Vermögensvorteile erlangt – etwa durch gefälschte Profilbilder auf Dating-Plattformen oder betrügerische Produktangebote mit gefälschten Produktfotos – erfüllt den Tatbestand des Betrugs nach § 263 StGB.

Darstellungen von Minderjährigen: Besondere Vorsicht ist bei jeglicher Darstellung von Minderjährigen geboten. Wer KI-Tools nutzt, um sexualisierte Darstellungen von Kindern oder Jugendlichen zu erzeugen, macht sich nach § 184b StGB wegen Verbreitung, Erwerbs oder Besitzes kinderpornografischer Inhalte strafbar – und zwar unabhängig davon, dass kein reales Kind abgebildet wurde. Die KI-generierte Natur des Inhalts schützt nicht vor Strafbarkeit.

Die Rolle der Plattformbedingungen und ihre strafrechtliche Irrelevanz

Alle großen KI-Bildgenerierungsplattformen untersagen in ihren Nutzungsbedingungen die Erstellung von Inhalten, die reale Personen in kompromittierender Weise darstellen, sexualisierte Darstellungen nicht einwilligender Personen erzeugen oder zur Täuschung oder Schädigung anderer verwendet werden sollen. Ein Verstoß gegen diese Bedingungen kann zum Ausschluss vom Dienst führen.

Strafrechtlich relevant ist dieser Verstoß gegen Nutzungsbedingungen jedoch nicht direkt. Was zählt, ist allein das deutsche Strafrecht. Der Umstand, dass ein Tool die Erstellung bestimmter Inhalte technisch ermöglicht oder nicht aktiv verhindert hat, entlastet den Nutzer in keiner Weise. Auch der Hinweis, ein Bild sei „nur KI-generiert“ und daher harmlos, ist juristisch keine Verteidigung – maßgeblich ist der konkrete Inhalt und dessen Wirkung.

Wie ermitteln die Behörden?

Ermittlungsverfahren, die auf die Nutzung von KI-Bildgeneratoren zurückgehen, nehmen spürbar zu. Auslöser sind häufig Strafanzeigen von Betroffenen, die über soziale Netzwerke, Messenger-Dienste oder direkt mit den erzeugten Inhalten konfrontiert werden. Ermittler werten in solchen Fällen Plattformdaten aus, fordern von Anbietern wie OpenAI oder Midjourney Nutzungsdaten und IP-Adressen an und analysieren Metadaten der verbreiteten Bilddateien.

Für Beschuldigte können Hausdurchsuchungen mit Beschlagnahme von Smartphones, Laptops und Tablets folgen. Auch Konten bei den jeweiligen Plattformen, Zahlungsdaten und E-Mail-Verläufe können Gegenstand der Ermittlungen sein. Wer nach Bekanntwerden eines Verfahrens Dateien löscht, Konten deaktiviert oder Geräte zurücksetzt, riskiert zusätzliche strafrechtliche Konsequenzen wegen Verdunkelungsgefahr.

Besonderheiten der Verteidigung

Die Verteidigung in Verfahren wegen KI-generierter Inhalte erfordert sowohl technisches als auch strafrechtliches Know-how. Zentrale Fragen sind: Lässt sich zweifelsfrei nachweisen, dass der Beschuldigte das Bild erstellt hat? Welche Plattform wurde genutzt, und welche Daten wurden tatsächlich an die Ermittlungsbehörden übermittelt? Ist der dargestellte Inhalt einer konkreten realen Person zuordenbar – oder handelt es sich um eine rein fiktive Darstellung?

Daneben ist zu prüfen, ob der jeweilige Straftatbestand tatsächlich in seiner subjektiven Komponente erfüllt ist. Nicht jede unbedachte Nutzung eines KI-Tools begründet automatisch eine Strafbarkeit – der Vorsatz muss nachgewiesen werden. In bestimmten Konstellationen kommt auch eine Verfahrensbeendigung durch Einstellung gemäß §§ 153, 153a StPO in Betracht, insbesondere bei erstmaligem Auftreten und geringem Schaden.

Was tun bei Vorladung oder Hausdurchsuchung?

Wer eine Vorladung der Polizei erhält oder bei dem wegen des Vorwurfs der Erstellung oder Verbreitung KI-generierter Inhalte eine Durchsuchung stattgefunden hat, sollte sofort schweigen und umgehend einen Strafverteidiger kontaktieren. Keine Aussage zur Sache, keine freiwillige Herausgabe von Geräten oder Zugangsdaten, keine Deinstallation von Apps oder Löschung von Dateien. Jede dieser Handlungen kann das Verfahren nachhaltig belasten.

Die Zugänglichkeit von Tools wie ChatGPT, DALL-E und Midjourney täuscht über die rechtlichen Risiken ihrer missbräuchlichen Nutzung hinweg. Das deutsche Strafrecht kennt keinen Freibrief für KI-generierte Inhalte – wer reale Personen in rufschädigenden, sexualisierten oder täuschenden Zusammenhängen abbildet, riskiert empfindliche strafrechtliche Konsequenzen. Wer mit einem entsprechenden Vorwurf konfrontiert wird, sollte frühzeitig rechtliche Unterstützung suchen, um seine Position im Verfahren zu sichern und eine wirksame Verteidigungsstrategie zu entwickeln.