Falschbehauptungen durch Künstliche Intelligenz: ChatGPT gegen Pro­fessor X

von Dr. Alexander Heinze, LL.M.

03.05.2023

Wer ist verantwortlich, wenn ChatGPT Falschinformationen verbreitet? Am Beispiel der üblen Nachrede zeigt sich, dass bei der Regulierung von Künstlicher Intelligenz die althergebrachten Gesetzgebungsreflexe sinnlos sind, meint Alexander Heinze.

Seitdem im vergangenen Jahr OpenAI den Software-Agenten ChatGPT vorstellte – ein Chatbot in der Form eines sogenannten "large language models" – überbieten sich weltweit die gegensätzlichen Meinungen darüber: Anwendungsversuche stehen Ignorierungsplädoyers gegenüber, Revolutionserklärungen (der Ausbildung, des Journalismus, der Rechtsprechung) gegen Abgesänge (dergleichen), Regulierungsvorsicht (Großbritannien) gegen Verbot (Italien).  

Das ist kaum verwunderlich, denn die vor allem ethischen und erkenntnistheoretischen Hürden, die jeder Regulierungsansatzüberspringen muss, sind im Fall von ChatGPT ganze Gebirgszüge. Diese zu überqueren, kostet Zeit. Zeit, die diejenigen nicht haben, die schon jetzt durch ChatGPT Rechtsverletzungen erleiden. 

  Da ist zum Beispiel die Frage, wie mit den durch OpenAI ganz offen kommunizierten Falschinformationen umzugehen ist, die ChatGPT produziert. Dass diese Falschinformationen keine Lappalie sind, musste jüngst ein Juraprofessor (wir nennen ihn ab jetzt Professor X) in den USA feststellen: ChatGPT führte ihn in einer Liste mit anderen Kolleg:innen auf, denen angeblich sexuelle Übergriffe an Student:innen vorgeworfen wurden. ChatGPT zitierte dabei einen Zeitungsartikel, den es nie gab. 

Dreirad gegen Millennium Falcon 

Wie gehen wir mit solchen unwahren Behauptungen um? Der Kommunikationsrahmen ist bekannt: Irgendwo in den Weiten des Internets geistert eine unwahre Behauptung, die dann mittels Algorithmus oder eigener Software aufgegriffen und bereitgestellt wird.  

Für den Fall, dass diese bereitgestellten Informationen durch jemand anders verwendet werden, gibt es genügend juristische Instrumente, mit denen sich Betroffene wehren können. Etliche Plattformen haben ChatGPT inzwischen integriert (etwa Zalando in seinem "Fashion Assistent"). Darum geht es hier aber nicht.  

Vielmehr geht es um das Produkt Künstlicher Intelligenz (KI) selbst. Informationen, die durch die Autocomplete-Funktion von Google entstehen (Ich gebe ein: "Professor X", Google vervollständigt "hat eine Studentin auf einer Exkursion sexuell belästigt"), hat der BGH Google zugerechnet. Der Vergleich zwischen einer Autocomplete-Funktion und ChatGPT ist aber einer zwischen einem Dreirad und dem Millennium Falcon.  

Es geht, das weiß inzwischen jeder, um eine selbstlernende, hoch eloquente KI. Selbstlernend meint dabei das, was selbst KI-Enthusiasten Bauchschmerzen bereitet: dass ChatGPT in seiner eigenen Trainingshalle nicht nur die Textproduktion verbessert, sondern sein eigenes Programm. Das ist, als könnten wir im Fitnessstudio nicht nur Muskeln aufbauen, sondern unsere eigene DNA verändern. ChatGPT wird so zum eigenen (Mit-)Schöpfer.  

Eine Falschinformation wie die über Professor X kann zu Unterlassungs-, Gegendarstellungs- und Schadenersatzansprüchen bis hin zu einem Ermittlungsverfahren führen. Auch journalistische Sorgfaltspflichten sind betroffen. Aus Platzgründen wählen wir deshalb hier nur eine beispielhafte Vertreterin aus: Die Straftat der üblen Nachrede, § 186 des Strafgesetzbuchs (StGB). 

"Behauptet" hier ChatGPT etwas? 

Schon die Tathandlung ist schwer zu fassen. Die Tathandlungen bei § 186 StGB bestehen im nicht erweislich wahren "Behaupten" oder "Verbreiten" von Tatsachen in Beziehung auf einen anderen gegenüber einem Dritten. Eine Tatsache behauptet, wer sie nach eigener Überzeugung als wahr bzw. gewiss hinstellt. Wer hier "wer" ist, dazu kommen wir gleich.  

Zweifelhaft ist aber bereits, ob der erstellte Inhalt eine "Überzeugung" enthält. Streng genommen verknüpft ChatGPT nämlich wie ein Papagei - so beschreiben es einige Linguisten - nur Wortfolgen, - die mitunter völlig sinnfrei sein können. Zugegeben, es drängt sich die Frage auf: Was soll schon der Unterschied sein zwischen der zufällig erstellen Wortfolge "Professor X war auf einer Exkursion sexuell übergriffig" und einem Satz mit diesem Inhalt und dieser Bedeutung? Der Unterschied ist aber nichts Geringeres als der Unterschied zwischen ChatGPT und uns: Wir können zwischen Zeichenketten, Gedanken (Begriffe etc.) und Ausdrücken der Sprache unterscheiden, ChatGPT kann das nicht. Wir geben Ausdrücken Sinn und Bedeutung, ChatGPT nicht.  

ChatGPT greift stattdessen auf eine Fülle an Texten zurück und ermittelt Wahrscheinlichkeiten und Wahrheiten über einen Algorithmus. Wie ein Taschenrechner rechnet das Programm mit Ausdrucksmengen und Bedeutungsrahmen statt Bedeutungen, heißt: es sammelt Worte und stellt sie solchen mit gleicher Bedeutung gegenüber. Der auf menschliche Täter:innen ausgerichtete Gesetzestext des § 186 StGB passt da nicht.  

Einen Schatten werfen auf dieses Ergebnis diejenigen Fragen, die wir hier nur aus der Ferne betrachten wollen: Wer will denn schon so genau wissen, ob ChatGPTs innerer Arbeitsablauf mit der Handlung und dem Bewusstsein eines Menschen vergleichbar ist? Oder umgekehrt der altbekannte Determinismus-Indeterminismus-Streit: Können wir einen freien Willen bilden und wenn nicht, warum soll das dann von ChatGPT verlangt werden? Das führte an dieser Stelle aber zu weit. 

Ein Gerücht genügt bereits 

Wenn also der erstellte Text selbst keine unwahre Tatsachenbehauptung ist, kann er dann nicht trotzdem als solche behandelt werden? Dafür spricht, dass auch dann eine solche Behauptung vorliegt, wenn sie lediglich zu einer ehrverletzenden Schlussfolgerung führt. Die Schlussfolgerung muss sich dabei geradezu aufdrängen.  

Einmal angenommen, den Leser:innen des erstellten Textes ist es völlig klar, dass hier nur Worte aneinandergereiht worden sind; dennoch wird sich ihnen wohl die Schlussfolgerung aufdrängen, dass es für die Anschuldigung wohl irgendeine Quelle gegeben haben muss. Vergleichbar ist dies mit der Wirkweise von Gerüchten, wie sie bei § 186 StGB in der Variante "Verbreiten" (also Wiedergabe eines fremden Inhalts) diskutiert werden: Sogar dann, wenn keinerlei Verdachtsmomente bestehen, erfüllt die Weitergabe eines Gerüchts die Tathandlung "Verbreiten", weil eben viele weiterhin dem Mythos anhängen, dass jedes Gerücht einen wahren Kern beinhaltet.  

Was einen durch ChatGPT generierten Text zu einer Tathandlung werden lässt, ist also weniger die Betrachtung des Textes selbst, sondern derjenigen, die ihn lesen. Diese Adressatenperspektive führt auch dazu, dass eine Aneinanderreihung von Worten bei entsprechendem Inhalt geeignet ist, jemanden verächtlich zu machen: Die Einordnung von § 186 StGB als abstraktes Gefährdungsdelikt hat zur Folge, dass es ausreicht, wenn die Tatsachenäußerung abstrakt geeignet ist, die Person verächtlich zu machen oder in der öffentlichen Meinung herabzuwürdigen. Es ist hier also irrelevant, wenn OpenAI schreibt, dass die generierten Texte durchaus Falschinformationen enthalten können (dazu gleich). 

Wahrheitsmaßstab der Ehrverletzungsdelikte bald obsolet? 

Für eine üble Nachrede muss die Information, dass Professor X laut ChatGPT-Antwort sexuell übergriffig wurde, zudem "nicht erweislich wahr" sein. Verschiedene Wirklichkeitsauffassungen bei der Anwendung künstlicher Intelligenz sollen hier gar nicht das Thema sein. Denn auch wenn ChatGPT nur Wahrscheinlichkeits- und Wahrheitsprognosen anstellt, kommt es auch hier auf die Wirklichkeitsauffassung des Adressatenkreises an - und da gelingt zumindest in der Konstellation wie oben beschrieben der Nachweis nicht. 

Wie lange wir aber noch mit dem Wahrheitsmaßstab von § 186 StGB durchkommen, ist unklar. In der statistisch erfassten Textwelt von ChatGPT war die Behauptung über Professor X zwar unwahr, aber folgerichtig. In einer Wirklichkeit, die mit Falschmeldungen überschwemmt ist, ist die Wahrheit schwieriger zu ermitteln als die Verletzung des Achtungsanspruchs. Das spiegelt sich schon jetzt wider in der Strafverfolgungsstatistik, in der Verurteilungen wegen Ehrdelikten mit Wahrheitselement gegenüber der Beleidigung verschwindend gering sind.  

Das liegt auch an der Güter- und Interessenabwägung des § 193 StGB (Wahrnehmung berechtigter Interessen): Die Persönlichkeitsrechte von Professor X streiten gegen die Rechte von OpenAI, unter anderem also die Berufsfreiheit aus Art. 12 Grundgesetz (GG), da die Tochtergesellschaft OpenAI LP gewinnorientiert ist. 

Wer behauptet hier überhaupt etwas? 

Als Äußernde kommen folgende Kandidat:innen in die engere Auswahl: die Nutzer:innen des Programms, die ihre Suchfrage eingeben; ChatGPT selbst; sein Hersteller und sein Anbieter.  

Die Nutzer:innen setzen ChatGPT erst in Gang: ohne entsprechende Frage hätte ChatGPT keine Falschinformation über Professor X produziert. Offensichtlich werden sie aber dadurch nicht zu Subjekten einer Falschbehauptung, auch eine Zurechnung ist praxis- und realitätsfern. Die sich stellende Frage, ob ChatGPT als Computerprogramm selbst etwas behaupten kann, betrachten wir – wie oben angedeutet – nur aus der Ferne und behandeln ChatGPT vorerst nicht als sog. E-Person mit eigenen Rechten, auch nicht nur für Haftungsfragen. 

Es kommt also nur eine Verantwortlichkeit von OpenAI in Betracht, das sowohl Hersteller als auch Anbieter ist. Hier spricht viel dafür, die von ChatGPT erstellten Inhalte OpenAI zuzurechnen. Denn die selbstlernende Software hat OpenAI erst ins Leben gerufen und schließlich unter Trommelwirbel bereitgestellt.  

Natürlich kann auch sog. user generated content den Tatbestand der üblen Nachrede erfüllen, doch hat der Gesetzgeber für ähnliche Fälle Spezialvorschriften erlassen, unter anderem das Telemediengesetz (TMG), das Gesetz über den Datenschutz und den Schutz der Privatsphäre in der Telekommunikation und bei Telemedien (TTDSG), das Netzwerkdurchsuchungsgesetz (NetzDG) zur Verbesserung der Rechtsdurchsetzung gegen Hass und Hetze in sozialen Netzwerken und die DSGVO. Die EU-Kommission erließ den Digital Services Act und Digital Markets Act und hat Gesetzentwürfe in der Schublade wie den Entwurf für ein Gesetz über Künstliche Intelligenz, den Data Act und Media Freedom Act

ChatGPT-Antworten sind keine "eigenen" Informationen 

Als Diensteanbieter gilt für OpenAI zwar das TMG, über dessen § 7 Abs. 1 wird bei "eigenen" Informationen das Spezialgesetz aber sogleich wieder verlassen zugunsten der "allgemeinen Gesetze" - einschließlich § 186 StGB. Wer aber ehrlich ist, muss zugeben, dass die Zuschreibung eines von ChatGPT ausgeworfenen Textes als ein eigener OpenAI-Text realitätsfern und von der Angst diktiert ist, andernfalls ohne Verantwortlichen auskommen zu müssen.  

Wenn aber ChatGPT auch nur auf die lange Kette an (ungefilterten) Informationen im Internet zurückgreift, hinterlässt es ein flaues Gefühl, dem Betreiber das als "eigene"  Aussage zuzurechnen. Der Sorge um die Verantwortungslosigkeit selbstlernender Programme stünde die Sorge um eine pauschale Vorverurteilung wirtschaftlicher Betätigung des Betreibers in nichts nach, einmal abgesehen von der lähmenden Wirkung für jede KI-Entwicklung.  

Zuzurechnen ist der Inhalt doch eher den zahlreichen Berichten und Wortmeldungen im Web und ihren Urhebern. Dann aber sind wir wieder im Spezialgesetz TMG mit seinem Haftungsprivileg in § 10, der vereinfacht regelt: OpenAI lässt sich nichts zu Schulden kommen, wenn es den konkret ausgeworfenen Text nicht kennt oder schnell reagiert, sobald es von ihm Kenntnis erlangt. Daran ändert auch das Inkrafttreten des Digital Services Act im Februar 2024 nichts. 

Macht sich OpenAI den Text über Professor X zu eigen? 

In den Genuss des Haftungsprivilegs käme OpenAI nur dann nicht, wenn es sich den fremden Inhalt zu eigen machte. Die Idee dahinter ist, dass es Fälle gibt, in denen ein Anbieter zwar formal keinen eigenen Inhalt anbietet, ihn aber als eigenen Inhalt behandelt. Konsequenterweise gelten dann wieder die allgemeinen Gesetze – hier also beispielhaft § 186 StGB. 

Macht sich OpenAI also den Text zu eigen, der bei der Eingabe entsteht, Professor:innen aufzulisten, denen sexuelle Übergriffe vorgeworfen werden? Das ist dann der Fall, wenn sich OpenAI mit dem generierten Text identifiziert oder ihn zumindest billigt und, wie angedeutet, wie eigene Inhalte behandelt.  

Das eigenständige und lernfähige Arbeiten des Programms sprechen allerdings dagegen. Auch warnt OpenAI ganz offen vor den "limitations" von ChatGPT wie "crucial biases, hallucinations, and adversarial prompts".  

Solche "Disclaimer" schließen die Verantwortlichkeit von OpenAI zwar nicht per se aus – im Gegenteil, pauschale Disclaimer und Distanzierungen sind allzu oft Nebelkerzen, die verdecken sollen, dass sich der Anbieter durchaus mit dem bereitgestellten Text identifiziert. Dennoch wird der durch die KI erstellte Text – trotz pauschalem Hinweis auf die mögliche Fehleranfälligkeit – schwerlich als einer angesehen können werden, den sich OpenAI zu eigen macht. OpenAI stellt nur die technischen Voraussetzungen zur Verfügung, der Text entsteht davon unabhängig.  

Zudem kontrolliert OpenAI nicht die Informationsgrundlage von ChatGPT – also die Quellen, aus denen es sich speist. Das wäre sicherlich anders, wenn jemand ChatGPT so manipulierte, dass es nur noch Falschaussagen produziert.  

Muss OpenAI seine Texte kontrollieren? 

"Kontrolle" ist auch schon das entscheidende Stichwort für eine mögliche Strafbarkeit wegen Unterlassens (als Täter:in oder Gehilf:in): Muss OpenAI nicht dafür Sorgen tragen, dass die KI keine Texte generiert, die die Rechte anderer verletzen? Als sog. Überwachergarant hat der Host-Provider grundsätzlich eine Verkehrssicherungspflicht, die sich aus dem TMG ergeben kann. Weiß OpenAI von den Falschinformationen, muss es sich um deren Entfernung kümmern. Dabei geht es aber immer um die konkreten Falschinformationen – eine generelle Überwachungspflicht für OpenAI aller generierter Texte gibt es nicht. Eine Verantwortlichkeit ist damit so gut wie ausgeschlossen.  

Eine nachträgliche Kontrolle der Texte ist übrigens nicht nur unmöglich, sondern schlicht sinnlos, da die ehrverletzende Falschbehauptung längst in der Welt ist. Strafrechtlich ist sie also beendet, eine sukzessive Beihilfe durch Unterlassen – so man sie denn überhaupt anerkennt – läuft leer. 

Selbst wenn aber eine Kontrolle möglich wäre, wäre damit nur die Kenntnis selbst bedient, nicht aber der Kenntnisgegenstand, also die Falschinformationen und damit einhergehend die Ambivalenz der "Kenntnis von der rechtswidrigen Handlung". Den Text zu kennen, ist die eine Sache – zu wissen, dass er rechtswidrig ist, eine ganz andere.  

Natürlich kann OpenAI vorgeworfen werden, die Arbeitsweise des Programms nicht sorgfältig zu überwachen; doch ist die Arbeitsweise nicht gleichzusetzen mit den tatsächlich erstellten (rechtswidrigen) Inhalten. Anders wäre das nur bei einer KI, die von vornherein darauf angelegt ist, rechtswidrige Inhalte zu schaffen.  

Wer ist denn jetzt verantwortlich? 

Damit bleibt festzuhalten: Weder ChatGPT noch dessen Nutzer:innen, Hersteller und Betreiber sind für die Ehrverletzung von Professor X verantwortlich. Solche Straftaten ohne Straftäter:in lösen in aller Regel die üblichen Rufe nach Gefährdungstatbeständen, objektiven Strafbarkeitsbedingungen etc. aus.  

Die Möglichkeit, OpenAI auch bei fehlender Voraussehbarkeit der Ehrverletzung zur Verantwortung zu ziehen, erkauften wir uns dann zum Preis der rechtsstaatlichen Bedenklichkeit. Rechtsverletzungen durch Chatbots lassen sich aber nur präventiv begegnen: über Kontrolle und Kontrollpflichten. Darauf scheinen die genannten Regulierungsvorschläge zu setzen.  

Das ist besser, als die Notbremse eines Verbots zu ziehen, denn augenscheinlich birgt ChatGPT Chancen, durch die es sich lohnt, den Gebirgszug ethischer und erkenntnistheoretischer Probleme zu überqueren. Für Ehrverletzungen wird das auf lange Sicht bedeuten, die Ehrverletzungsdelikte mit ihrem Wahrheitsrigorismus grundsätzlich zu überdenken.  

Der Autor Dr. Alexander Heinze, LL.M ist Akademischer Rat a.Z. an der Universität Göttingen und Autor im gerade erschienenen Kommentar zum Medienstrafrecht (Nomos).

Zitiervorschlag

Falschbehauptungen durch Künstliche Intelligenz: . In: Legal Tribune Online, 03.05.2023 , https://www.lto.de/persistent/a_id/51680 (abgerufen am: 12.12.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen