Klagen von Angehörigen vor dem Supreme Court: Unter­stützen Google und Twitter das IS-Terror-Regime?

Gastbeitrag von Benedikt Gremminger

02.03.2023

Inwieweit sind Online-Plattformen (mit-)verantwortlich für terroristische Inhalte auf ihren Webseiten? Zwei Fälle vor dem US-Supreme Court könnten erhebliche Folgen für das Funktionieren der Plattformen haben, schreibt Benedikt Gremminger.

Anhörungen vor dem US-Supreme Court, dem Höchst- und Verfassungsgericht der USA, sind oft geprägt von den bohrenden Fragen der neun Richterinnen und Richter, mit denen sie die Schwächen der vorgetragenen Argumente durchleuchten. Bei den Anhörungen letzte Woche zu den Fällen Gonzales v Google LLC und Twitter, Inc. v Taanmeh schienen ausnahmsweise jedoch auch die Richter teilweise von der technischen Komplexität der Fragen überfordert. Im Laufe der Anhörung zu Gonzales brachte irgendwann Richterin Elena Kagan pointiert zum Ausdruck, dass sie (die neun Richter) als ein Gericht gerade nicht Experten zur Funktionsweise des Internets seien und somit nur eingeschränkt dazu geeignet, hierüber zu urteilen.

Die Bedeutung der Entscheidungen könnte derweil nicht größer sein. Die beiden Fälle revolvieren um die weitreichende Frage, inwieweit Online-Plattformen wie die zu Google gehörenden Videoplattform YouTube oder Twitter für die von den plattformeigenen Algorithmen empfohlenen Inhalte anderer Benutzer zivilrechtlich belangt werden können.

Hintergrund: IS-Propaganda auf YouTube

Beide Fälle beruhen auf tragischen Hintergründen. Nohemi Gonzales, eine 23-jährige amerikanische Studentin, wurde im November 2015 in Paris während eines Terroranschlags des "Islamischen Staats" (IS) von IS-Terroristen erschossen. Zuvor waren IS-Propagandavideos auf YouTube erschienen und dort auch anderen Benutzern empfohlen worden. Die Angehörigen von Nohemi Gonzales entschlossen sich daher, unter Berufung auf ein (2016 verschärftes) Anti-Terror-Gesetz – den Justice Against Sponsors of Terrorism Act (JASTA) – Google wegen der "Unterstützung einer internationalen Terrororganisation" auf Schadensersatz zu verklagen.

Google berief sich hingegen auf den Haftungsausschluss in 47 U.S.C. § 230(c)(1) (genannt Section 230), den entscheidenden Knackpunkt dieses Rechtsstreits.

Section 230 besagt, unter anderem, dass die Anbieter einer Online-Plattform (provider of an interactive computer service) nicht für die Inhalte anderer Benutzer auf dieser Plattform (zivilrechtlich) haftbar gemacht werden können. Gleichzeitig haben diese Plattformen das Recht, gutgläubig Inhalte auf ihrer Plattform zu moderieren, also selektiv Inhalte zu filtern oder gar zu sperren, ohne hierfür zivilrechtlich haften zu müssen (Section 230(c)(2)(A)). Nicht ohne Grund wird Section 230 daher auch als das "Gesetz, das das Internet ermöglichte" bezeichnet. Der Haftungsausschluss in Section 230 gilt dabei nicht uneingeschränkt, insbesondere ist eine urheberrechtliche, datenschutzrechtliche oder strafrechtliche Verantwortlichkeit der Plattformen weiterhin denkbar (Section 230(e)).

Unklar und daher Kern des Rechtsstreits ist hingegen, welche Rechtsfolgen Section 230 für das Verwenden von Algorithmen bereithält, die Online-Plattformen benutzen, um die Inhalte auszuwählen, die sie ihren Nutzern empfehlen.

Eigener Beitrag der Plattform durch Empfehlung?

Die Klägerseite um die Familie Gonzales trug vor, dass Google beim Verwenden von Algorithmen zur Auswahl der Vorschläge an seine Nutzer nicht vom Ausnahmetatbestand von Section 230 erfasst sei. So seien die Empfehlungen an die Benutzer anders zu behandeln als das bloße Bereitstellen der Plattform, da der Plattformanbieter durch die Empfehlung selbst bereits einen eigenen Beitrag leiste, für welchen der Plattformanbieter dann auch hafte.

Die unteren Bundesgerichte wiesen die Klagen jedoch ab und entschieden zugunsten von Google. Hierbei verwiesen die Bundesgerichte und Google zum einen darauf, dass das bloße Verwenden von Algorithmen für Vorschläge von Nutzerinhalten vergleichbar mit einem bloßen Zulassen von Nutzerinhalten auf der Seite des Anbieters und somit ebenfalls vom Haftungsausschluss in Section 230 erfasst sei. Insbesondere würden die automatisierten Algorithmen ihre Vorschläge auf Grundlage von Informationen zum vorherigen Nutzungsverhalten der Benutzer machen und somit gerade nicht eine autonome Auswahl der Empfehlungen treffen, die eine Haftung rechtfertigen würde.

Zum anderen würde die gegenläufige Rechtsauffassung, die die Ausnahmevorschrift in Section 230 enger lesen würde, zu einer massiven Haftungsausweitung von Online-Plattformen führen, welche deren Funktionieren und wirtschaftliche Existenz gefährden könnte.

Richter zeigen Tendenz gegen weite Haftung

In der mündlichen Anhörung am Dienstag ließ auch eine Mehrheit der neun Richter deutlich erkennen, dass sie eine Haftungserweiterung für die Plattformen kritisch sehen. So ließ der von Ex-Präsident Donald Trump ernannte Richter Brett Kavanaugh in seinen Fragen durchblicken, dass er die Sorge vor den Konsequenzen einer massiven Haftungsausweitung für Internetunternehmen teile. Richterin Ketanji Brown Jackson brachte zum Ausdruck, dass die Differenzierung zwischen Empfehlungen auf einer Plattform und dem bloßen Bereitstellen der Plattform sich als sehr schwierig erweise. Somit sei auch die Grenzziehung, ab der eine Haftung der Internetunternehmen unter Section 230 bestehen soll, schwierig.

Zeitgleich blieb offen, inwieweit die Argumentation von Google zur Entstehung von Empfehlungen für das Gericht oder Dritte überhaupt verifizierbar ist. Datenzugang und technische Selbsterklärung fehlen auf den Online-Plattformen nämlich grundsätzlich, was eine Nachvollziehbarkeit einzelner Algorithmus-basierter "Empfehlungen" wie im Fall Gonzales nahezu unmöglich macht.

Haftungsausschluss: Benachteiligung oder zu weitreichend?

Den Nerv vieler Beobachter traf dagegen eine Bemerkung von Richterin Elena Kagan, die eine Zuständigkeit für die Frage nach der Haftungsreichweite für Algorithmen beim Gesetzgeber verortete. Der US-Kongress, der schon 1996 die umstrittene Section 230 schaffte, hatte wohl damals die Gestalt und die Problematiken von modernen Online-Plattformen noch nicht vor Augen.

Tatsächlich ist Section 230 in den vergangenen Jahren mehrfach in das Kreuzfeuer der politischen Kritik geraten. So forderte Ex-Präsident Trump noch 2020 die Aufhebung des Gesetzes, weil deren Praxis der Content-Moderation zu einer Benachteiligung konservativer Inhalte auf sozialen Medien führe.

Die Kritik vieler demokratischer Politiker und Kommentatoren an Section 230 greift noch weiter. Unter anderen führe der weitreichende Haftungsausschluss dazu, dass die Techgiganten wie Google und Twitter ihr Recht zur Content-Moderation unzureichend wahrnehmen und so auf ihren Plattformen unkontrollierte Auswüchse von fake news und Hassrede entstehen lassen, von denen diese Plattformen gleichzeitig wirtschaftlich profitieren. Ein Reformvorschlag lautet daher, den Haftungsausschluss in Section 230 nur dann greifen zu lassen, wenn die Plattformen zuvor vernünftige Schritte zur Bekämpfung von schädigenden Inhalten auf ihrer Plattform unternommen haben.

Im Rahmen der Diskussion über die Reform über Section 230 könnte der amerikanische Gesetzgeber aber auch auf die andere Seite des Atlantiks blicken. Dort hat der europäische Gesetzgeber im vergangenen Jahr mit dem Digital Services Act (DSA) ein differenziertes Haftungsregime für auf Online-Plattformen veröffentlichte Nutzungsinhalte auf neue Beine gestellt.

Twitter v Taamneh

Der Parallelfall Twitter v Taamneh konzentrierte sich hingegen auf die (Vor)frage, ob Twitter überhaupt für IS-Terrorakte verantwortlich sein kann, weil der IS Twitter zur Verbreitung von Propaganda nutzte. Die Familienangehörigen eines Opfers eines IS-Terroranschlags in einem Nachtklub in Istanbul hatten Twitter auf Schadensersatz auf Grundlage ebendieses Anti-Terror-Gesetzes (JASTA) vor Bundesgerichten in Kalifornien verklagt.

Die zentrale Frage, die Twitter daraufhin dem Supreme Court vorlegte, ist, ob das bloße Erscheinen von IS-Inhalten auf Twitter eine "wissentliche, substanzielle Unterstützung" einer internationalen Terrororganisation im Sinne des Anti-Terror-Gesetz sein kann. Nach der Rechtsauffassung der Angehörigenfamilie reiche angesichts der Bedeutung der Twitterpräsenz des IS für dessen Aktivitäten bereits das bewusste Zulassen der Nutzung der Plattform (ohne wirksame Unterbindungsversuche) für eine Haftungsbegründung aus.

Twitter trug indes vor, dass eine solche weite Auslegung nicht von Wortlaut und Sinn des JASTA getragen sei. In der mündlichen Anhörung am Mittwoch zeigte dann die Mehrheit der Richter eher Sympathie für die Position von Twitter und machte auf die ansonsten zu befürchtenden massiven Haftungsausweitungen für Techunternehmen aufmerksam. Lediglich die liberalen Richterinnen Kagan und Sonia Sotomayor zeigten sich in Ansätzen für eine schärfere zivilrechtliche Verantwortung von Twitter offen. 

Weite Uneinigkeit schien bei der genauen Bedeutung des Wortlauts des JASTA zu herrschen: Ab wann ist ein Verhalten als "substanzielle Unterstützung" einer internationalen Terrororganisation einzustufen? Welche Anforderungen sind an die Kenntnis von Twitter bezüglich der schädlichen Konsequenzen ihres Handelns zu stellen?

Die Beantwortung dieser Auslegungsfragen im Sinne von Twitter könnte aber dem Gericht einen einfachen Ausweg bieten, um der schwierigeren Frage nach der Reichweite des Haftungsausschlusses in Section 230 in Google v Gonzales zu entgehen. Fällt nämlich das Verhalten dieser Online-Plattformen schon nicht unter den Anwendungsbereich des JASTA, erübrigt sich auch die Frage nach der Reichweite des Haftungsausschlusses.

AI eröffnet neue Fragen

Insgesamt hinterlassen die mündlichen Anhörungen den Eindruck, dass der Supreme Court zwar mit der genauen Reichweite und Anwendung des JASTA und Section 230 hadert, allerdings gleichzeitig wenig Appetit auf eine massive Haftungsausweitung für die Online-Plattformen hat, die deren Geschäftsmodell untergraben könnten.

Richter Neil Gorsuch wies in der Verhandlung zu Gonzales darauf hin, dass die rasante Verbreitung von artifizieller Intelligenz (AI) ganz neue Fragen für die Haftung von Online-Plattformen aufwirft. So gewinnt aktuell die Frage an Bedeutung, ob Section 230 auch für AI-Tools wie beispielsweise ChatGPT gilt, welche in den vergangenen Jahren rapide an Bedeutung gewonnen haben.

Auf all diese Fragen wird das amerikanische Recht noch Antworten finden müssen, während es seine Aufholjagd zu diesen rasanten technologischen Entwicklungen fortführt.

Benedikt Gremminger studiert Rechtswissenschaften an der Universität Bonn, zwischenzeitlich auch an der Université de Fribourg (Schweiz). Er schreibt regelmäßig für The New Federalist und The Brussels Times.

Zitiervorschlag

Klagen von Angehörigen vor dem Supreme Court: Unterstützen Google und Twitter das IS-Terror-Regime? . In: Legal Tribune Online, 02.03.2023 , https://www.lto.de/persistent/a_id/51203/ (abgerufen am: 19.03.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen