Nach einer selbst veranstalteten Umfrage schaltet Elon Musk das Twitter-Konto von Donald Trump wieder frei. Für Wolfgang Schulz ein scheindemokratisches Vorgehen. Plattformräte sollten der kommunikativen Macht von Musk Einhalt gebieten.
"Vox Populi, Vox Dei", schrieb Twitter-Inhaber Elon Musk und ließ den Account des zuvor gesperrten Ex-Präsidenten Donald Trump freischalten. Zuvor hatten etwa 15 Millionen Twitter-User bei einer Umfrage mitgemacht, die Musk auf seinem persönlichen Profil veröffentlicht hatte. 51,8% votierten für, 48,2% gegen die Entsperrung von Trumps Account.
Dass Elon Musk seine Abstimmung über das Twitter-Verbot von Trump mit einem lateinischen Zitat ("Vox populi vox dei" - Die Stimme des Volkes, die Stimme Gottes) kommentierte, hat vermutlich nicht gereicht, ihn bei deutschen Bildungsbürger:innen beliebt zu machen. Dennoch ist es ein guter Start in eine notwendige Debatte. Das englische Pamphlet aus dem Jahre 1709, das mit diesem Satz betitelt ist, plädiert nämlich nicht für direkte Demokratie, sondern dafür, dass das Volk sich unterschiedliche Regierungsformen aussuchen kann. Damit stellt sich – mit den heutigen Termini ausgedrückt – die Frage nach der richtigen Governance-Form für Social Media Angebote.
Regelungsstrukturen, die sich für Plattformen entwickelt haben, sind interessant und komplex. Zum einen ist der Bereich von privaten, vertragsrechtlichen Kommunikationsregeln geprägt – oft "Community Standards" genannt. Sie haben sich in den letzten Jahren zu umfangreichen privaten Gesetzbüchern ausdifferenziert. Gleichzeitig gelten staatliche Regelungen, die bestimmen, was auf Plattformen sagbar ist, etwa solche des Äußerungsrechts (bspw. §§ 185 Strafgesetzbuch).
Hybrid Speech Governance: Wenn "private Gesetzbücher" auf staatliche Regelungen treffen
Und zunehmend gibt es Verschränkungen dieser Regelungsebenen. So hat der BGH letztes Jahr für Facebook konkretisiert, wie die Drittwirkung der Meinungsfreiheit von Nutzenden nach Art. 5 Abs. 1 Satz 1 GG die Content Moderation der Plattform auf der Grundlage der privaten Kommunikationsregeln beeinflusst (Urt. v. 29.09.2021, Az. III ZR 179/20 und III ZR 192/20). Art 14 des Service Acts (DSA) (Verordnung 2022/2064) EU) verlangt nun, dass Anbieter bei Beschränkungen sorgfältig, objektiv und verhältnismäßig vorgehen und dabei die Rechte und berechtigten Interessen aller Beteiligten sowie die Grundrechte der Nutzer, die in der Charta verankert sind, etwa das Recht auf freie Meinungsäußerung, die Freiheit und den Pluralismus der Medien und andere Grundrechte und -freiheiten, berücksichtigen. Twitter müsste also in Europa wohl bei der Entscheidung über die Accountschließung eine:r Politiker:in die Art. 11 der EU Grundrechtecharta und das öffentliche Interesse an der Kommunikation berücksichtigen. Es wird spannend sein, zu beobachten, welche konkreten Regelungen daraus erwachsen.
Trump-Abstimmung nur scheindemokratisch
Wir nennen diesen Bereich der Überlagerung dieser Regelungsebenen Hybrid Governance und beginnen mit Forschung dazu. Auch die Frage, wer eigentlich entscheiden sollte, ob beispielsweise Trump twittern darf oder nicht, ist keineswegs trivial und bewegt sich in diesem hybriden Feld.
Eine Abstimmung durch die Nutzenden als Form ist offensichtlich problembelastet, schon weil das Twittern massive Auswirkungen auf Leute hat, die Twitter nicht nutzen (etwa wenn Trump sie beleidigt), sich also die Frage stellt, was das zur Entscheidung berufene „Volk“ dieser direktdemokratischen Aktion wäre. Weiter gab es keine an alle Twitter-User gerichtete Info über die Abstimmung, sondern Musk rief zu dieser persönlich auf, womit bereits eine Verzerrung eintritt, da die Follower von Musk nicht repräsentativ für alle Twitter-User sind. Dazu kommen die bekannten Schwächen direkter Abstimmungen, die nur ein situatives Stimmungsbild erzeugen können und Menschen mit starkem Interesse an dem Ausgang des Verfahrens überproportional motivieren.
Entsprechend sind derartige Abstimmungen nicht geeignet, die vielschichtigen Probleme und Konfliktfelder auf sozialen Plattformen zu lösen.
Plattformräte als Lösung?
Elon Musk hatte interessanterweise Ende Oktober noch selbst angekündigt, wichtige Entscheidungen sollte besser ein Rat treffen als er selbst. Bevor ein solcher Rat nicht geschaffen wurde, sollten keine wichtigen Entscheidungen getroffen werden.
Abgesehen davon, dass Musk sich nicht an die Zusage hielt, sind jedenfalls Diskussionen über Plattformräte, die das öffentliche Interesse in diesem hybriden Bereich repräsentieren können, gerade hoch im Kurs.
Der Koalitionsvertrag, der die Arbeitsgrundlage der Bundesregierung bildet, verspricht eine Auseinandersetzung mit dem Thema "Plattformräte". Facebook/Meta ist mit seinem Oversight Board, das nun seit zwei Jahren arbeitet, vorangeschritten. Es wäre wohl grundsätzlich offen dafür, auch andere Plattformen zu beraten, deren Appetit, sich einer Gründung von Mark Zuckerberg anzuschließen, scheint aber derzeit überschaubar. Der Bereich ist in Bewegung und mit Vorschlägen über neue Gremien zu rechnen. Die Menge der Entscheidungen über Content ist dabei das große Thema (der Kollege Robert Post der Yale Law School nennt das "Loss of Law in problems of scale"). 2020 fand eine Studie, dass Facebook jeden Tag 300.000 Fehler bei der Moderation von Inhalten unterlaufen. Angesichts dieses Skalierungsproblems kann die Funktion von Boards nicht bei Einzelentscheidungen liegen, sondern auf der Ebene der Regeln der Content Moderation.
Plattformräte müssen Gemeinwohl berücksichtigen
Will man diese Diskussion vorantreiben, gilt es, den Gemeinwohlbezug der unterschiedlichen Aktionen von Plattformen heraus zu arbeiten und zu analysieren, wie Gemeinwohlinteressen strukturell bei den Entscheidungen eingebunden werden können. Wir haben Erfahrungen mit Fragen dieser Art. Die ungeliebten Rundfunkräte haben weitergehende Aufgaben im deutschen Mediensystem (da die Anstalten der Gesellschaft "gehören" und nicht privaten Akteuren), aber man kann von ihnen lernen, wie Multi-Stakeholder Engagement organisiert werden kann (und auch, was man vermeiden sollte). Auch die Arbeit des Meta Oversight Boards ist ein wichtiger Referenzpunkt. Es geht in der Diskussion um Plattformräte um Legitimation und Akzeptanz von Entscheidungen etwa der Content-Moderation, aber auch um Grund- und Menschenrechtsverwirklichung – diese Funktionen sind auch in aktueller Forschung ein Thema.
Aktuell keine Regeln zur Machtbegrenzung von Musk
Auch wenn die öffentliche Debatte Plattformen in ihrer Bedeutung für gesellschaftliche Kommunikation zuweilen überbetont – Inhalte traditioneller Medien spielen weiterhin eine große Rolle für die Information – bedarf die kommunikative Macht von Plattformen der Beobachtung. Die Lösung wird aber komplexer sein, als einfach sicher zu stellen, dass sich Plattformen an geltendes Recht halten. Der EU-Kommissar Therry Breton twitterte in Anspielung auf eine Äußerung von Elon Musk unmittelbar nach dessen Übernahme des Dienstes Twitter: "In Europe, the bird (Twitter) will fly by our European rules." Das stimmt zwar grundsätzlich. Allerdings findet sich in keinem der Europäischen Regelungswerke – auch nicht in dem als Internet-Grundgesetz gepriesenen Digital Services Act (DSA) – bislang eine Vorschrift, die verhindert, dass Musk die kommunikative Macht, die er als Twitter Eigentümer hat, allein in seinem Interesse gebraucht.
Wir sollten uns als Gesellschaft an dem Bau einer adäquaten Ordnung für soziale Medien beteiligen, ganz im Sinne des oben genannten Pamphlets "vox populi", sonst behält, wie es dort heißt, "one Person […] the sovereign Administration of Affairs". Einen der wichtigsten Kommunikationskanäle der Welt dürfen wir nicht der Willkür einer einzigen Person aussetzen.
Prof. Dr. Wolfgang Schulz
ist Inhaber des Lehrstuhls für Medienrecht, Öffentliches Recht und Rechtstheorie an der Universität Hamburg, Direktor des Leibniz-Instituts für Medienforschung | Hans-Bredow-Institut, Direktor des Alexander von Humboldt Instituts für Internet und Gesellschaft sowie Inhaber des UNESCO-Lehrstuhls für die Freiheit der Kommunikation und Information.Leseempfehlung zur Vertiefung: Francke, J. (2022). Plattformräte: Können sie digitale Plattformen zur Verantwortung drängen? Digital society blog.
Plattformräte für Twitter: . In: Legal Tribune Online, 21.11.2022 , https://www.lto.de/persistent/a_id/50237 (abgerufen am: 05.10.2024 )
Infos zum Zitiervorschlag