Stand: März 2025

I. Worum geht es?

Das Netzwerkdurchsetzungsgesetz (kurz: NetzDG) trat am 1. Oktober 2017 in Kraft und richtete sich gegen die Verbreitung von Hasskriminalität und anderen strafbaren Inhalten in Sozialen Netzwerken. Ziel war es, objektiv strafbare Inhalte, welche nicht mehr von der Meinungsfreiheit umfasst sind und daher für das friedliche Zusammenleben in einer demokratischen Gesellschaft große Gefahren bergen, unverzüglich zu entfernen. Hinzu kam der Anspruch, die Rechte von Nutzerinnen und Nutzern zu stärken. Dies sollte insbesondere durch einfachere Meldewege, die Möglichkeit zur Überprüfung von Entscheidungen und die Klarstellung der Zuständigkeit des Zustellungsbevollmächtigten erreicht werden. Daneben wurde die Pflicht zu aussagekräftigeren Transparenzberichten und eine Forschungsklausel eingeführt.

Die Mechanismen des NetzDG nahmen Diensteanbieter mehr als bisher in die Verantwortung, rechtswidrige Inhalte zu löschen, und ermöglichten die Anordnung hoher Bußgelder. Es war als deutscher Vorstoß zur verbesserten Rechtsdurchsetzung im Bereich Social Media bis dahin einzigartig in Europa. Mit Inkrafttreten des Digitale-Dienste-Gesetzes zur Durchführung des Digital Services Act (DSA) am 6. Mai 2024 wurde das NetzDG zu großen Teilen aufgehoben.

II. Was bedeutet das für die Praxis?

In der Praxis ergeben sich durch die Neuregelungen im Digital Services Act und Digitale-Dienste-Gesetz sowohl Kontinuitäten als auch wesentliche Änderungen. Ein Blick auf die wichtigsten Auswirkungen zeigt, was sich für Plattformen sowie Nutzerinnen und Nutzer verändert hat.

Welche NetzDG-Regelungen bestehen weiterhin?

Einzig die Regelung des NetzDG zur Benennung eines Zustellungsbevollmächtigten für Anbieter Sozialer Netzwerke hat weiterhin Bestand (§ 5 NetzDG). Eine vergleichbare Regelung enthält der DSA nicht. An den Zustellungsbevollmächtigten können Zustellungen in Gerichtsverfahren vor deutschen Gerichten wegen der Verbreitung oder wegen der unbegründeten Annahme der Verbreitung rechtswidriger Inhalte, insbesondere in Fällen, in denen die Wiederherstellung entfernter oder gesperrter Inhalte begehrt wird, bewirkt werden.

Welche NetzDG-Regelungen finden sich jetzt im DSA?

Der DSA greift mit seinen Moderationspflichten für Online-Plattformen den Ansatz des NetzDG auf. Die Plattformen werden verpflichtet, ein funktionierendes Melde- und Abhilfeverfahren zu schaffen, mit dem Nutzerinnen und Nutzer problematische Inhalte beanstanden können (Art. 16 Abs. 1 DSA, sog. notice and action).

Welche NetzDG-Regelungen sind durch den DSA bzw. das DDG unwirksam geworden?

Anders als im NetzDG finden sich im DSA jedoch keine strengen Löschfristen. Während im NetzDG offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden und sonstige rechtswidrige Inhalte innerhalb von sieben Tagen gelöscht werden mussten, soll laut DSA über gemeldete Inhalte in zeitnaher, sorgfältiger und objektiver Weise entschieden werden. Darüber hinaus regelt der DSA die Pflicht zur Übermittlung von Inhalten durch Online-Plattformen an Justiz- und Strafverfolgungsbehörden nun anders. Das NetzDG sah hier einen abschließenden Katalog konkreter meldepflichtiger Straftaten vor, der DSA beschränkt sich dagegen auf eine Meldepflicht für Straftaten, die eine Gefahr für das Leben oder die Sicherheit von Personen darstellen.

Bei schwer zu bewertenden Fällen konnten Plattformen die Entscheidung über die Rechtswidrigkeit von Inhalten an eine staatlich anerkannte Einrichtung der Regulierten Selbstregulierung übertragen. 2020 hat die FSM als erste und einzige Stelle diese Aufgabe übernommen. Im DSA und DDG wurde bisher auf die Verankerung einer staatlich anerkannten Regulierten Selbstregulierung verzichtet. Die FSM stellte daraufhin ihre Arbeit in diesem Bereich  zu Ende Juni 2023 ein. Die 230 Entscheidungen durch das FSM-Prüfgremium sind weiterhin in anonymisierter Form online zu finden.

Was spricht dafür, die Regulierte Selbstregulierung wieder einzuführen?

Als Selbstkontrolleinrichtung nach NetzDG konnte die FSM wichtige Schnittstellen zwischen Unternehmen, Behörden und Politik bedienen. Nach DSA gibt es vorerst keine wirksame Möglichkeit für Plattformen, auf rechtlich gesicherter Grundlage externe Expertise einzubeziehen. Zukünftig wäre es denkbar, das System der Regulierten Selbstregulierung auch über den Bereich von Hass und Hetze hinaus anzuwenden. So könnten ebenso die weiteren durch den DSA geregelten inhaltlichen Bereiche berücksichtigt werden.

Für eine Regulierte Selbstregulierung sprechen folgende Qualitätsmerkmale:

  1. Die Einbeziehung unabhängiger Expertinnen und Experten ist eine wichtige Ergänzung der internen Arbeit von Plattformbetreibern.
  2. Bei rechtlich schwer zu bewertenden Fällen schaffen Mechanismen der Regulierten Selbstregulierung einen wertvollen Orientierungsrahmen.
  3. Die Aktualität der geprüften Fälle und die transparente Veröffentlichung der Entscheidungen geben Einblicke in neue Phänomene von Hassrede und deren rechtliche Bewertung.
  4. Die externe Prüfung von Inhalten kann helfen, Overblocking zu vermeiden.
  5. Etablierte Prüfmechanismen ermöglichen schnelle Abhilfe für Betroffene.
  6. Die rechtliche Privilegierung gibt Plattformen Rechtssicherheit beim Mitwirken in der Regulierten Selbstregulierung.

Ausführlichere Informationen dazu finden Sie außerdem in unserem Factsheet.

 

Weiterführende Informationen