Auf Soundcloud ist rechtsradikale Musik immer wieder frei zugänglich. Dabei müssten die Betreiber diese Inhalte löschen. Doch die Gesetze kommen den Handlungen im Netz nicht hinterher, beschreiben Martin Gerecke und Anne-Kristin Polster.
Soundcloud gilt als "kleines" YouTube des Audio-Streamings. In den vergangenen Tagen stand die Plattform im Mittelpunkt der Diskussion um die Frage, inwieweit soziale Netzwerke unbemerkt verfassungsfeindlichen Bewegungen Vorschub leisten. Im Rahmen einer koordinierten Durchsuchung der Plattform nach strafbaren Inhalten meldete das Bundeskriminalamt dem Musikdienst etwa 1.100 Inhalte, in denen gewaltverherrlichendes, rechtsextremistisches beziehungsweise terroristisches Gedankengut verbreitet wird. An der Aktion war Soundcloud selbst aktiv beteiligt.
Die Veröffentlichung vor allem rechtsextremer Inhalte auf der Plattform war in der Vergangenheit schon häufiger Gegenstand der Berichterstattung. Die Ergebnisse der aktuellen Untersuchung werfen die Frage auf, was Soziale Netzwerke leisten müssen, um die Verbreitung strafbarer Inhalte zu verhindern.
Nach der geltenden Rechtslage werden die Plattformen durchaus in die Pflicht genommen. Woran liegt es, dass illegale Inhalte trotzdem in solchem Umfang im Netz kursieren können? Und inwieweit lassen die geplanten EU-Gesetze eine Verbesserung der Problematik erwarten?
Bußgelder bei Verletzung der Löschpflichten
Die Verantwortlichkeit von Plattformen für Nutzerinhalte richtet sich in Deutschland unter anderem nach dem Telemediengesetz (TMG). Nach § 10 TMG müssen Plattformen unverzüglich tätig werden, das heißt insbesondere den gemeldeten Post löschen oder sperren, wenn sie zum Beispiel durch eine Nutzermeldung von einem rechtsverletzenden Upload erfahren. Kommen sie dieser Pflicht nicht nach, haften sie für den rechtswidrigen Inhalt. Das Haftungsprinzip des TMG ist insbesondere für ehrverletzende Äußerungen relevant.
Wenn Nutzer, wie im Fall der aufgedeckten Musikstreams auf Soundcloud, sogar strafbare Inhalte hochladen, ist zudem das Netzwerkdurchsetzungsgesetz (NetzDG) einschlägig. Für Betreiber von Sozialen Netzwerken, die gemäß § 1 Abs. 2 NetzDG mehr als zwei Millionen registrierte Nutzer in Deutschland haben, sind in § 1 Abs. 3 NetzDG strenge Pflichten normiert, wenn auf ihren Plattformen Straftaten begangen werden.
Durch das Verbreiten rechtsradikaler Musikvideos können die Tatbestände der Volksverhetzung gemäß § 130 StGB sowie das strafbare Verwenden von Kennzeichen verfassungswidriger Organisationen gemäß § 86a StGB verletzt sein. § 3 NetzDG verlangt, dass derart rechtswidrige Uploads innerhalb von 24 Stunden gelöscht werden, sofern die Strafbarkeit offensichtlich ist. Für die Prüfung von Posts, deren Strafbarkeit nicht offensichtlich ist, haben Plattformen in der Regel sieben Tage Zeit. § 4 NetzDG sieht die Verhängung von Bußgeldern für Anbieter vor, die ihren Lösch- und weiteren Pflichten nicht nachkommen.
Ob Soundcloud überhaupt dem NetzDG unterfällt, ist jedoch unklar. Das zuständige Bundesamt für Justiz führt keine offizielle Liste über die Anbieter, die durch das Gesetz verpflichtet werden. Soundcloud selbst hält sich mit der Veröffentlichung von Zahlen zurück. Weltweit umfasst das Netzwerk wohl über 75 Millionen registrierte Nutzer. Zahlen aus Deutschland veröffentlicht das Unternehmen – soweit ersichtlich – aber nicht. Dass Soundcloud regelmäßig Berichte zum Umgang mit gemeldeten Inhalten entsprechend § 2 Abs. 2 NetzDG veröffentlicht, ist jedoch zumindest ein Indiz dafür, dass das Unternehmen dem Gesetz unterfällt.
Gesetzeslage lässt Raum für illegale Inhalte
Plattformen müssen also gegen die Verbreitung rechtsverletzender und strafbarer Inhalte vorgehen. Allerdings ist der Anwendungsbereich der scharfen NetzDG-Regelungen begrenzt. Während Anbieter in der Größe von beispielsweise Facebook eindeutig vom Gesetz erfasst werden, laufen Plattformen mit weniger als zwei Millionen registrierten Nutzern in Deutschland unter dem Radar. Sie werden von den strengen Lösch- und Berichtspflichten nicht erfasst. Kleinere Plattformen können Berichte über ihr Content Monitoring im Sinne des NetzDG veröffentlichen, dies aber nur auf freiwilliger Basis.
Da zudem die Verantwortlichkeit der Plattformen sowohl nach dem TMG als auch nach dem NetzDG davon abhängt, ob sie Kenntnis von der jeweiligen Rechtsverletzung haben, müssen sie ihre Nutzerinhalte nicht ohne Anlass nach Rechtsverletzungen durchsuchen. Innerhalb der bestehenden Regelungen ist es dadurch möglich, dass sich auf einzelnen Plattformen Communities bilden, in denen strafbarer Content verbreitet und toleriert wird. Wenn die entsprechenden Inhalte schlicht nicht gemeldet wurden, können sich Plattformen hinter das Argument zurückziehen, dass sie keine Pflicht träfe, über die Verhinderung bekannter Rechtsverletzungen hinaus tätig zu werden.
Genauso problematisch ist, dass viele rechtswidrige Inhalte nach dem Löschen schlicht wieder hochgeladen werden. Der EuGH hat zwar bereits 2019 entschieden, dass sich die Löschpflichten von Plattformbetreibern nicht nur auf konkret gemeldete, sondern auch auf inhalts- beziehungsweise sogenannte kerngleiche Verstöße beziehen (EuGH, Urt. v. 04.10.2019, Az. C-18/18). In der deutschen Rechtsprechung gibt es aber erst seit kurzem ein Urteil, das diese Vorgabe konsequent umsetzt. Das LG Frankfurt verpflichtete Facebook, ab Kenntnis von einem ehrverletzenden Meme eigenständig nach weiteren Varianten des Posts zu suchen und diese ohne erneute Nutzermeldung zu löschen (LG Frankfurt, Urt. v. 08.04.2022, Az. 2-03 O 188/21).
Was bringt der Digital Services Act der EU?
Auf deutscher und europäischer Ebene gibt es weiterhin Bemühungen, die Bekämpfung illegaler Inhalte im Netz zu verbessern. Bei den Regelungen des NetzDG hat der Gesetzgeber seit der Schaffung des Gesetzes im Jahr 2017 schon mehrfach nachgebessert. Seit Februar 2022 sind Plattformen gemäß § 3a NetzDG zur Ermöglichung einer effektiven Strafverfolgung verpflichtet, Informationen zu Nutzern, die strafbare Inhalte hochladen, direkt an das Bundeskriminalamt weiterzuleiten. Da die Norm auf einen Eilantrag der Anbieter Google und Meta hin für unanwendbar erklärt wurde (VG Köln, 01.03.2022, Az. 6 L 1354/21), wird die Meldepflicht in der Praxis aber noch nicht umgesetzt.
Fest steht außerdem, dass die Moderation von Plattforminhalten künftig aufgrund der EU-Gesetzgebung eine neue Grundlage bekommt. Ende April haben die EU-Mitgliedsstaaten sich auf eine neue Verordnung über einen Binnenmarkt für digitale Diensteanbieter, auch bekannt als Digital Services Act (DSA), geeinigt. Die endgültige Textfassung dieses "europäischen NetzDG" wird derzeit finalisiert. Wenn die Verordnung aber wie geplant im kommenden Jahr in Kraft tritt, werden die Regelungen des NetzDG dadurch überschrieben.
Noch ist allerdings fraglich, ob das europäische Gesetz aus deutscher Perspektive eine effektivere Bekämpfung illegaler Inhalte im Netz bewirken kann oder nicht sogar eine Absenkung des derzeit bestehenden Schutzniveaus bedeutet.
Zwar werden durch den DSA prinzipiell auch kleine Plattformen in die Pflicht genommen und der Anwendungsbereich geht über die durch das NetzDG erfassten Straftatbestände hinaus. Eine zunächst angedachte feste Löschfrist nach dem Vorbild des NetzDG hat es aber nicht in das EU-Gesetz geschafft. Die 24-Stunden-Regelung wird auch in Deutschland keinen Bestand mehr haben können, wenn die Verordnung in Kraft tritt. So bleibt die wirksame Bekämpfung strafbarer Inhalte auf Plattformen weiter lückenhaft.
Dr. Martin Gerecke ist Partner und Rechtsanwalt bei der internationalen Wirtschaftskanzlei CMS Deutschland. Er ist Fachanwalt für Gewerblichen Rechtsschutz sowie für Urheber- und Medienrecht und ist auf das Recht der neuen Medien sowie auf den Bereich E-Commerce spezialisiert. Anne-Kristin Polster ist Rechtsreferendarin bei CMS Deutschland.
Strafbare Inhalte auf Soundcloud: . In: Legal Tribune Online, 23.06.2022 , https://www.lto.de/persistent/a_id/48834 (abgerufen am: 12.12.2024 )
Infos zum Zitiervorschlag