Deepfake-Einwand "Das ist in Wahrheit nie passiert": Die KI-Aus­rede

von Dr. Felix W. Zimmermann

29.04.2023

Die Diskussionen um täuschend echte KI-Aufnahmen kreisen bislang um Fälschungen. Doch das Beispiel Elon Musk zeigt: Deep-Fakes können auch eine willkommene Ausrede sein. Was bedeutet das für Gerichtsprozesse?

Walter Huangs Vertrauen in den Tesla-Autopiloten war groß. Zu groß. Während der Fahrt schaute er nicht auf die Straße, sondern auf ein Videospiel. Warnungen soll er ignoriert haben, es kam zum Unfall, an deren Folgen Huang verstarb. Das war 2018. Seine Familie verklagte daraufhin Tesla. Vor einem Gericht in Kalifornien führt sie eine Aussage von Tesla-Boss Elon Musk während einer Veranstaltung ins Feld, der Huang Glauben geschenkt haben soll. In dem nach wie vor auf YouTube abrufbaren Video von 2016 sagt eine Person, die exakt wie Elon Musk aussieht:

“Das Model S und Model X können jetzt schon autonom und sicherer fahren als eine Person. Schon jetzt." (Original: "A Model S and Model X, at this point, can drive autonomously with greater safety than a person. Right now.”)

Doch Tesla ließ sich eine gewagte Verteidigungsstrategie einfallen. Die Aussage könne eine mittels Künstlicher Intelligenz (KI) generierte Fälschung sein. Musk sei wie viele öffentliche Persönlichkeiten das Ziel von "Deepfake"-Videos und Audioaufnahmen, die vorgeben, ihn Dinge sagen und tun zu lassen, die er tatsächlich nie gesagt oder getan hat, so die Anwälte von Tesla laut einem Bericht von Reuters. Zur Überzeugungskraft dieser Argumentation später mehr. 

Ende der Beweiskraft von Bild- und Tonaufnahmen?  

Fest steht: Schon jetzt sind für das bloße menschliche Auge KI generierte Bilder nicht mehr von echten zu unterscheiden. Das gilt zunehmend auch für Personenbilder ("Deep Fake") und Tonaufnahmen ("Deep Voice). In den USA sind Fälle bekannt, in denen Straftäter Personen mittels "Deep-Voice"-Technik mit der Stimme von deren Verwandten angerufen und diese um Geld gebeten haben – der Enkeltrick 2.0. 

Die Möglichkeiten von KI-Programmen wie Midjourney, DALL-E und Co., kinderleicht täuschend echte Bild-, Ton, und Videoaufnahmen zu erstellen, hat für den Meinungsbildungsprozess zwei problematische Dimensionen. Bisher ist in der Diskussion die Gefahr der Fälschungen und damit einhergehende Verbreitung von Falschinformationen im Fokus. Doch je verbreiteter das Wissen um die Möglichkeit der KI wird, desto weniger werden Menschen Bild- und Tonaufnahmen überhaupt noch Glauben schenken. 

Das Problem wird sich in naher Zukunft vom Fake-Skandal aufgrund gefälschter Bilder zur Problematik verlagern, dass wegen der schwindenden Beweiskraft von Bild- und Tonaufnahmen echte Skandale ohne Konsequenzen bleiben. Auch das Vertrauen in Geschichtsdokumentationen könnte großen Schaden nehmen. Denn auch die Vergangenheit lässt sich nun ändern und inszenieren, mit der Folge, dass mehr Menschen auch historische Fakten in Frage stellen. Es droht eine Diffusion der Vergangenheit ins Irreale mit fatalen Folgen für den gesellschaftlichen Grundkonsens.            

Im Gegenwartskontext wird "It wasn't me" zur Standardausrede von Personen werden, die mit kompromittierendem Bildmaterial konfrontiert werden. Ein großes Problem auch für Journalistinnen und Journalisten, denen vermeintlich brisantes Material zugespielt wird, dem sie nur noch schwer trauen können. Wie das Beispiel Tesla zeigt, werden auch Richterinnen und Richter sich verstärkt mit dem Einwand beschäftigen müssen, ein Beweismittel sei gar nicht echt, sondern durch eine KI generiert. Sind sie darauf vorbereitet? 

Folgen für Gerichtsverfahren 

Nein, meint der der Rechtswissenschaftler und Cybercrimeexperte Dr. Christian Rückert im Gespräch mit LTO. Er konstatiert einen Unwillen in der deutschen Justiz, sich überhaupt mit digitalen Beweismitteln kritisch auseinanderzusetzen.  Schon unterhalb der Schwelle von KI generierten Deep-Fakes oder Tonaufnahmen müsse die Justiz hier "ordentlich aufholen". Beispielsweise hätten Gerichte etwa in den EncroChat-Fällen ohne weiteres die Ursprungsechtheit und Vollständigkeit von Chatverläufen angenommen, obwohl die französischen Behörden die Originaldaten nicht herausrückten. 

Auch WhatsApp-Chats würden in Gerichtsverfahren oft unkritisch als Beweismittel eingeführt, Ausdrucke von Chatverläufen etwa als belastbar angesehen. Das sei nachlässig, denn Im Netz gäbe es kostenlose Generatoren, mit denen Chat-Verlauf für WhatsApp nach Belieben zusammengestellt werden können, so Rückert. Würden Gerichte ihre Aufklärungspflicht ernst nehmen, müssten sie die Original-WhatsApp-Datei auf dem Smartphone untersuchen lassen, denn nur so ließen sich Manipulationen aufspüren.

Mit dem massenhaften Anstieg durch KI generierter Bilder steige die Notwendigkeit einer kritischen Beweiswürdigung und höheren Sensibilität durch Gerichte weiter. Richterinnen und Richter müssten stets im Kopf haben: "Was immer uns vorgelegt wird, könnte eine Fälschung sein", so Rückert. 

KI kämpft gegen KI 

Doch wenn das menschliche Auge oder Ohr Täuschungen nicht mehr erkennen kann, sind denn jedenfalls Experten dazu in der Lage?  Multimediaforensiker gehen der Frage nach, ob eine digitale Datei tatsächlich von der Person oder Organisation stammt, von der sie zu stammen vorgibt (Authentizität) und ob die digitale Datei, etwa ein Bild, nicht im Nachhinein manipuliert oder beschädigt wurde (Integrität). 

Allerdings: Angesichts immer besser werdender KI-Technik geraten die klassischen forensischen Methoden der Untersuchung von Bild- oder Audioqualität zunehmend an ihre Grenzen. Interessanterweise greifen daher auch die Forensiker inzwischen auf Künstliche Intelligenz zurück, um eben diese aufzuspüren. So wird KI etwa genutzt, um bestimmte typische KI-Muster in Text- oder Bilddateien aufzuspüren

"Es läuft auf einen dauerhaften Wettstreit zwischen KI-Generierern und KI-Entdeckern voraus", prognostiziert Stefan Hessel, Rechtsanwalt mit Schwerpunkt Informationstechnologie bei reusch law, im Gespräch mit LTO. Ähnlich wie beim Doping werde mal die eine, mal die andere Seite in diesem technischen Wettrüsten die Nase vorn haben. Oft würden Sachverständige nur Wahrscheinlichkeitsaussagen über die Echtheit von Bildern treffen können.

Welchen Beweiswert haben Bilder noch?

Der Beweiswert von Bildern werde jedenfalls insgesamt sinken, glaubt Hessel. Gerichte müssten in vielen Fällen Begleitumstände als Indizien für die Authentizität von Bildern heranziehen. Neben Zeugenaussagen, könne etwa dem Zeitstempel von Metadaten, der Aufschluss über den Zeitpunkt der Dateierstellung gibt, Beweiskraft zukommen. 

"Bilder stehen nie im luftleeren Raum", meint auch Christian Rückert. Gerichte müssten sich im Rahmen der freien Beweiswürdigung vermehrt dem Kontext zuwenden. Der pauschale Einwand eines Angeklagten im Strafprozess "Ich war das nicht", führe aber allein nicht dazu, dass ein Gericht einen Sachverständigen beauftragen müsse. Der BGH verweise in ständiger Rechtsprechung darauf, dass es für alternative Geschehensabläufe, also hier die Fälschung von Bildmaterial, tatsächliche Anhaltspunkte geben müsse. Der Angeklagte habe plausibel zu machen, weshalb ein Bild gefälscht worden sein sollte, so Rückert. 

Richterin ist "zutiefst beunruhigt"

Das führt zurück zum Schadensersatzprozess gegen Tesla und zur Elon Musk zugeschriebenen Aussage, wonach der Tesla-Autopilot sicherer fahre als ein Mensch. Alles spricht bislang für eine peinliche Schutzbehauptung der Tesla-Anwälte. Nichts deutet auf ein Deep-Fake-Video hin: Die Veranstaltung wurde von vom renommierten US-Medium recode ausgerichtet, das auch das Video auf YouTube online stellte. Dies ist fast sechs Jahre her. 2016 war künstliche Intelligenz noch nicht zu derart perfekten Deep-Fakes in der Lage. Auch die Art und Weise des Gesprächs, nämlich die Interaktion von Musk mit einem Zuschauer, lassen keine Fälschung vermuten. Entsprechend ungehalten reagierte die kalifornische Richterin Evette Pennypacker.  Sie nannte die Argumente von Tesla zutiefst beunruhigend, da sie auf eine Immunisierung berühmter Personen hinauslaufe, die Verantwortung für das, was sie tatsächlich gesagt und getan haben, zu vermeiden.  

Die Richterin griff durch und ordnete für Ende Juli eine vorläufig auf drei Stunden angesetzte Vernehmung des Tesla CEO an, um Musk über die Echtheit der Aussage auf der Veranstaltung zu befragen. Eine Veranstaltung an der übrigens jede Menge Zuschauer teilnahmen. Letztlich könnte Musk die Aussage also jedenfalls aufgrund des ältesten Beweismittels der Rechtsgeschichte zugeordnet werden können. Dem Zeugenbeweis. 

Deutsche Justiz vor Problemen

Der Fall zeigt: Die Möglichkeit, täuschend echte KI-Bilder zu erstellen, wird unweigerlich zu einem Mehraufwand für Gerichte führen. Angesichts fortschreitender Digitalisierung in der Gesellschaft werden auch die digitalen Beweismittel immer wichtiger. Gleichzeitig nehmen die Möglichkeiten zu, diese zu manipulieren. 

Für die deutsche Justiz wird die Möglichkeit der KI-Generierung von Bild- und Tonmaterial zeitnah zu einer großen Herausforderung, meint auch Rechtsanwalt Stefan Hessel. Für ihn bestehen viele ungelöste Probleme, vor allem seien Fachexperten rar und die für die Begutachtung anfallenden Kosten immens. 

Die deutsche Justiz muss also aufrüsten, was Know-How in Sachen KI angeht. Ein entsprechender Enthusiasmus auf Justizseite kann dabei ausgeschlossen werden. Schließlich geraten deutsche Richterinnen und Richter in Sachen Digitalisierung regelmäßig bereits in Panik, wenn es nur um eine einfache Ton- und Bildaufzeichnung eines Strafprozesses ab dem Jahre 2030(!) geht. 

Zitiervorschlag

Deepfake-Einwand "Das ist in Wahrheit nie passiert": Die KI-Ausrede . In: Legal Tribune Online, 29.04.2023 , https://www.lto.de/persistent/a_id/51665/ (abgerufen am: 01.03.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen