Deepfakes: Rea­lität, Fik­tion und das Pro­blem, sie vor Gericht zu kriegen

Gastbeitrag von Nico Kuhlmann

27.06.2020

Deepfakes sind auf eine bestimmte Art gefälschte Videos, Bilder und Tonaufnahmen. Rechtlich ließe sich dagegen einiges unternehmen – dafür muss man Deepfakes aber erst mal erkennen, zeigt Nico Kuhlmann.

Deepfakes könnten ein ernsthaftes Problem werden. Deepfakes sind Videos, Bilder oder Tonaufnahmen, die so manipuliert wurden, dass sie für den Durchschnittsbetrachter täuschend echt wirken, obwohl etwas wiedergegeben wird, was in der Realität nie passiert ist. Das können beispielsweise Videos von Prominenten sein – die etwas tun oder sagen, was in Wirklichkeit nie passiert ist.

Dieses Ergebnis wird mit Software erzielt, bei der Ansätze aus dem maschinellen Lernen verwendet werden. Die Software wird so trainiert, dass es charakteristische Merkmale der Person aus vorhandenen Daten abstrakt erlernt – etwa die Form der Nase oder die Position der Grübchen. Anschließend können die erlernten Merkmale mit denen einer in einem Video bereits vorhandenen Person ausgetauscht werden. Es wird darum grundsätzlich immer Ausgangsmaterial benötigt, einerseits Videos, Fotos oder Tonbandaufnahmen der Person, die transferiert werden soll, und andererseits regelmäßig auch ein Video oder ein Foto, in das diese Person hinein transferiert werden soll.

Diese Fähigkeit in Videos etwas darzustellen, das es in der Realität gar nicht gegeben hat, haben große Filmstudios seit langem. Das neue ist, dass mittlerweile auch Einzelpersonen ohne großen Aufwand, ohne große Kosten und ohne große Erfahrung ebenfalls erschreckend echt wirkende Videos am heimischen Computer herstellen können.

Diese Entwicklung und auch die Namensgebung gehen, soweit bekannt, auf einen Nutzer von Reddit zurück – eines der größten sozialen Netzwerke und dennoch in Deutschland in vielen Kreisen immer noch eher unbekannt. Im Herbst 2017 veröffentlichte ein anonymer Reddit-Nutzer unter dem Pseudonym "Deepfakes" mehrere Videos in denen die Gesichter von weiblichen Prominenten in pornographische Videos hinein transferiert wurden. Die Software, die dieser Nutzer dafür verwendet hat, ist mittlerweile unter der Bezeichnung FakeApp frei im Internet verfügbar.

Enormes Missbrauchspotenzial: Von privaten Katastrophen bis zu Wahlbeeinflussung

Mittlerweile sind unzählige Deepfakes bekannt geworden. Eines der bekanntesten ist ein Deepfake-Video, das vor Deepfakes warnt. Das Video des US-Schauspielers und Regisseurs Jordan Peele zeigt den früheren US-Präsidenten Barack Obama, der über die Gefahren von Falschinformationen und gefälschten Nachrichten spricht. Peele übertrug dabei die Gesichtszüge von Obama auf seine eigene Mimik. Die Stimme hat er zudem so verstellt, dass diese nach Obama klingt. Das Ergebnis ist täuschend echt und ziemlich lustig:

Mit Deepfakes kann man lustige Videos für den Hausgebrauch erstellen – wer hätte nicht gern ein Video von sich, auf dem man mit seiner Lieblingsband auf der Bühne steht und als Frontsänger sein Lieblingslied vor tausenden Konzertbesuchern singt? Man kann damit aber auch viel Schaden anrichten. Für die Betroffenen kann es privat und beruflich katastrophale Folgen haben, wenn gefälschte Videos mit pikanten Inhalten im Umlauf sind, die für echt gehalten werden. Zudem bieten Deepfakes auch Wirtschaftskriminellen ganz neue Möglichkeiten.

Bereits vermehrt vorgekommen ist beispielsweise die Deepfake-Variante des sogenannten Chef-Betrugs. Dabei kommt oft eine Software zur Imitation von Stimmen zum Einsatz. Diese Software erlernt die Stimme eines bestimmten Menschen anhand von Aufnahmen und kann diese anschließend täuschend echt nachahmen, inklusive der Sprachmelodie und des Akzents. Kriminelle nutzen diese Software dann, um mit der Stimme einer wichtigen Person aus einem Unternehmen bei einem Angestellten anzurufen und aus irgendwelchen Gründen die sofortige Überweisung einer größeren Geldsumme zu fordern.

Ein anderes potenzielles Problem: Die Beeinflussung von Wahlen. Man stelle sich nur vor, dass am Tag vor einer Wahl ein Video viral geht, in dem ein Spitzenkandidat sich angeblich rassistisch äußert oder Drogenkonsum befürwortet oder verteufelt – je nach politischer Zugehörigkeit. Ein solches Video könnte Wähler davon abhalten, am Wahltag die Stimme wie geplant abzugeben und der Betroffene hätte kaum Zeit auf diesen Vorfall zu reagieren.

Schließlich könnte in Zukunft im Rahmen der Beweisaufnahme bei Gerichtsverfahren immer häufiger der Einwand erhoben werden, dass die vorgelegte Video-, Bild- oder Tondatei ein Deepfake ist. Im Ergebnis werden dann wohl bei entsprechend substantiiertem Vortrag und einschlägigen Anhaltspunkten jeweils Sachverständige zum Einsatz kommen müssen. Bei einem Zivilprozess kann das Gericht beispielsweise nach § 372 Zivilprozessordnung (ZPO) anordnen, dass bei der Einnahme des Augenscheins ein oder mehrere Sachverständige hinzuzuziehen sind.

Rechtlich ist vieles ungeklärt: APR, KUG oder DSGVO?

Bisher ist trotz erster Beiträge in der Literatur* noch immer unklar, ob bereits die Herstellung oder erst die Verbreitung eines Deepfakes ohne die Zustimmung der abgebildeten Person rechtlich unzulässig ist. Auch bei der Frage, wie sich das Allgemeine Persönlichkeitsrecht, die Rechte aus dem Kunsturheberrechtsgesetz (KUG) und die Datenschutzgrundverordnung (DSGVO) zueinander verhalten, gibt es noch Klärungsbedarf.

Das KUG wäre wohl über die Öffnungsklausel des Art. 85 DSGVO anwendbar. Dann stellt sich die Frage, ob es sich bei Deepfakes um Bildnisse im Sinne des § 22 KUG handelt. Dies ist umstritten. Aber selbst für den Fall, dass ein Anspruch aus dem KUG von den Gerichten verneint werden sollte, steht den Betroffenen zumindest ein Anspruch aus dem Allgemeinen Persönlichkeitsrecht in Verbindung mit §§ 1004, 823 Bürgerliches Gesetzbuch (BGB) zur Verfügung. Eine weitere Schutzmöglichkeit kommt über die DSGVO in Betracht. Ein Betroffener wird also im Ergebnis regelmäßig unter anderem Unterlassung und auch Schadensersatz verlangen können.

Zudem kann die Herstellung und Verbreitung von Deepfakes auch strafrechtliche Konsequenzen haben. In Betracht kommt unter anderem ein Schutz der persönlichen Ehre der Betroffenen über die §§ 185 ff. Strafgesetzbuch (StGB) sowie ein Schutz des höchstpersönlichen Lebensbereichs über § 201a II StGB. Bei Vermögensschäden kommt zudem Betrug nach § 263 StGB in Betracht. Aus den strafrechtlichen Nebengesetzen können § 33 KUG, §§ 106, 108 Urheberrechtsgesetz (UrhG) sowie § 42 Bundesdatenschutzgesetz (BDSG) einschlägig sein.

Rechtfertigungsgründe werden bei Deepfakes regelmäßig nicht greifen. Denkbar sind höchstens enge Ausnahmen über die Kunstfreiheit des Art. 5 III S.1 Grundgesetz (GG) unter anderem für Satire.

Das Problem: Rechte durchsetzen im Internet

Das Problem ist im Ergebnis wie so oft die Durchsetzung der Rechtslage. Oft wird nicht bekannt sein, wer ein Deepfake erstellt und zuerst im Internet veröffentlicht hat. Selbst wenn der Verantwortliche bekannt sein sollte, sitzt dieser vielleicht im außereuropäischen Ausland und wäre damit für die deutsche Justiz nur schwer zu greifen. Und wenn ein Deepfake erst einmal viral geht und von vielen aus Unwissenheit weiter verbreitet wird, dann ist der Schaden meist eingetreten, egal was ein deutsches Zivil- oder Strafgericht später feststellt oder ausurteilt.

Soziale Netzwerke und sonstige Plattformen im Internet bieten diesbezüglich regelmäßig ein sogenanntes Notice-and-Take-Down-Verfahren an. Wenn den Betreibern im Rahmen dieses Verfahrens eine Rechtsverletzung gemeldet wird, dann werden die rechtsverletzenden Inhalte geprüft und beim Vorliegen der Voraussetzungen auch ohne Gerichtsurteil entfernt. Problematisch kann es aber werden, wenn die Deepfakes so gut sind, dass auch das geschulte Personal der Plattform-Betreiber mit den zur Verfügung stehenden Analyse-Tools nicht mehr sicher den Unterschied zwischen Realität und Fiktion erkennen können.

Wie groß ist die Gefahr wirklich?

Die ursprünglich unter anderem befürchtete Welle an politischen Deepfakes ist bisher ausgeblieben. Und ob es diese Welle überhaupt noch einmal geben wird, ist unter Experten umstritten. Gefährlicher als Deepfakes selbst ist im öffentlichen Bereich vielleicht auch eher der allgemeine Vertrauensverlust, der mit dem Aufkommen dieser Fälschungen einhergeht. Der US-amerikanische Bundesstaat Kalifornien hat zumindest 2019 ein Gesetz erlassen, das die Erstellung und Verbreitung von Deepfakes von Politikern 60 Tage vor einer Wahl grundsätzlich verbietet (Assembly Bill No. 730).

Wichtiger als neue Gesetze wird es sein, dass die Authentizität von Videos, Fotos und Tonbandaufnahmen immer mehr kritisch hinterfragt wird. Der entsprechende gesamtgesellschaftliche Lernprozess muss fortgeführt werden, um die Sensibilisierung für dieses Thema weiter zu erhöhen. Wer die eigenen Fähigkeiten zur Unterscheidung von echten und gefälschten Videos selbst einmal testen möchte, kann dies auf der Webseite detectfakes.media.mit.edu tun.

Insgesamt gilt es – wie immer – aufmerksam zu bleiben und kritisch zwischen glaubwürdigen und nicht so glaubwürdigen Quellen zu unterscheiden. Oder mit den oben abrufbaren Worten von Barack Obama: "Stay woke bitches."

*Lesetipps für Interessierte: Hartmann, DSRITB 2019, 563 sowie K&R 2020, 350; Lantwin, MMR 2019, 574 sowie MMR 2020, 78

Der Autor Nico Kuhlmann ist Anwalt bei Hogan Lovells Int. LLP in Hamburg im Bereich Intellectual Property, Media & Technology.

Kanzlei des Autors

Zitiervorschlag

Deepfakes: Realität, Fiktion und das Problem, sie vor Gericht zu kriegen . In: Legal Tribune Online, 27.06.2020 , https://www.lto.de/persistent/a_id/42020/ (abgerufen am: 19.03.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen