Moderation von Nutzerinhalten nach dem Gesetz über digitale Dienste – die 10 wichtigsten Hinweise

Die Festlegung von Regeln für die Moderation von Inhalten durch Anbieter digitaler Dienste war eines der Hauptziele bei der Verabschiedung der EU-Verordnung Gesetz über digitale Dienste (GdG). Die Verordnung legt zum einen das Verfahren und die Folgen der Durchführung bzw. Nichtdurchführung einer Moderation und zum anderen die Rechte der Nutzer, deren Inhalte diesem Verfahren unterzogen wurden, fest. Die Erfüllung dieser Anforderungen wirkt sich zum einen auf die mögliche zivil- oder strafrechtliche Haftung von Zwischenanbietern für die Verbreitung fremder rechtswidriger oder schädlicher Inhalte und zum anderen auf die verwaltungsrechtliche Haftung, die durch die Bestimmungen des Gesetzes über digitale Dienste (GdG) definiert wird (z. B. eine vom Koordinator für digitale Dienste gemäß Art. 52 Abs. 3 GdG verhängte Geldstrafe), unmittelbar aus.
Im Folgenden werden die zehn wichtigsten Hinweise zur Inhaltsmoderation aufgrund des Gesetzes über digitale Dienste erläutert.
1. Konzept der Moderation nach dem GdG.
Ein Beispiel für das Spektrum von Moderationsmaßnahmen ist in Art. 3 lit. t) des GdG aufgeführt, wonach es sich um Maßnahmen wie folgt handelt:
- Aufspüren und Identifizierung von rechtswidrigen, mit den anbieterseitigen Nutzungsbedingungen unvereinbaren Inhalten oder Informationen, die von den Empfängern des Dienstes (Nutzern) eingestellt werden,
- Bekämpfung solcher Inhalte, einschließlich der Durchführung von Maßnahmen, die die Verfügbarkeit, Sichtbarkeit und Zugänglichkeit solcher rechtswidrigen Inhalte oder Informationen beeinträchtigen, wie z. B:
- Depositionierung solcher Inhalte oder Informationen,
- Demonetisierung,
- Verhinderung des Zugangs zu solchen Inhalten oder Informationen oder deren Entfernung,
- oder Maßnahmen, die sich auf die Fähigkeit der Empfänger des Dienstes auswirken, solche Informationen bereitzustellen, wie die Schließung oder Aussetzung des Kontos des Empfängers.
Das Gesetz über digitale Dienste hat somitden Handlungsspielraum in Bezug auf Nutzerinhalteim Vergleich zur vorherigen Rechtslage, die durch die Bestimmungen der Richtlinie 2000/31/EG über den elektronischen Geschäftsverkehr festgelegt wurde,erheblich ausgeweitet.Neben der bereits bestehenden Möglichkeit zur Aussetzung oder Sperrung des Zugangs zu Inhalten sind neue Optionen hinzugekommen, wie etwa die Depositionierung.
2. Arten von Nutzerinhalten nach dem Gesetz über digitale Dienste.
Vor dem Hintergrund der Handlungspflichten von Zwischenanbietern, Maßnahmen in Bezug auf von Nutzern eingestellte Inhalte zu ergreifen, können im Rahmen des GdG drei Arten von Inhaltengenannt werden:
- rechtswidrige Inhalte (u. a. Art. 2g),
- Inhalte, die mit den Nutzungsbedingungen unvereinbar sind (u. a. Art. 3t),
- schädliche Inhalte (u. a. Erwägungsgrund 82).
3. Der Begriff der rechtswidrigen Inhalte.
Die Definition „rechtswidrige Inhalte“ ist in Art. 2 lit. g) GdG enthalten. Darunter ist„jede Information zu verstehen, die als solche oder unter Bezugnahme auf eine Handlung, einschließlich des Verkaufs von Waren oder der Erbringung von Dienstleistungen, gegen das Unionsrecht oder das Recht des betreffenden Mitgliedstaats, unabhängig von dem spezifischen Gegenstand oder der Art dieses Rechts, verstößt„.
Im Sinne der vorstehenden Definition sind rechtswidrige Inhalte sowohl Informationen, deren Verbreitung an sich eine rechtswidrige Handlung darstellt (z. B. Aufstachelung zum Terrorismus), als auch solche, die sich auf rechtswidrige Aktivitäten beziehen (z. B. die Verbreitung von Bildern von sexuellem Kindesmissbrauch).
Das Gesetz über digitale Dienste sagt nichts darüber aus, welche Inhalte rechtswidrig sind. Ihre Rechtswidrigkeit wird durch die Bestimmungen der gesondert erlassenen Rechtsakte der Europäischen Union oder durch die Gesetze der einzelnen Mitgliedstaaten (nationales Recht) determiniert.
Das Recht der Europäischen Union sieht insbesondere vier Arten von Inhalten als rechtswidrig an, die auch über das Internet verbreitet werden können:
- Aufstachelung zum Terrorismus,
- Darstellung des sexuellen Missbrauch von Kindern,
- Anstiftung zu Rassismus und Fremdenfeindlichkeit und
- Verletzung der Rechte an geistigem Eigentum.
Was hingegen Inhalte anbelangt, die gegen nationales Recht verstoßen, so sind sowohl Inhalte, die gegen öffentliches Recht (z. B. Strafrecht) als auch gegen Privatrecht (z. B. Zivilrecht) verstoßen, als solche zu betrachten.
4. Moderation von rechtswidrigen Inhalten.
Bei Inhalten, die nach EU-Recht oder nationalem Recht für rechtswidrig befunden wurden, ist der Zwischenanbieterverpflichtet, Maßnahmen zur Moderation (z. B. Entfernung) zu ergreifen . Bei Unterlassung geht er das Risiko ein – abgesehen von den diese Informationen einstellenden Nutzern -, für deren Verbreitung über seine Dienste haftbar gemacht zu werden.
5. Der Begriff des gegen die Nutzungsbedingungen verstoßenden Inhalts.
Inhalte , die mit den Nutzungsbedingungen unvereinbar sind, sind Inhalte , die zwar formal nicht rechtswidrig sind, deren Verbreitung aber vom Zwischenanbieter z. B. wegen Sittenwidrigkeit (z.B. Nacktheit) verboten ist.
6. Moderation von die gegen die Nutzungsbedingungen verstoßenden Inhalten.
Rechtsgrundlage für die Moderation von gegen die Allgemeinen Geschäftsbedingungen verstoßenden Inhalten ist das Vertragsverhältnis zwischen dem Anbieter und dem Empfänger der Dienstleistung (Art. 3 u).
Nach der im GdG verabschiedeten Lösung steht es den Zwischenanbietern –grundsätzlich – frei zu bestimmen, welche Inhalte sie als schädlich befinden und folglich von ihnen moderiert werden. Ein solches Konstrukt birgt die Gefahr, dass sie Ermessensentscheidungen treffen, die sich wiederum negativ auf die Meinungsfreiheit der Internetnutzer auswirken können. Aus diesen Gründen wurden in Art. 14 des GdG zwei Arten von Instrumenten zur Wahrung der Interessen der Nutzer aufgenommen. Erstens sollten die Nutzer unter den Nutzungsbedingungen über die Verfahren, Mittel und Instrumente zur Moderation von Inhalten informiert werden. Diese Informationen sollten nicht nur klar und unmissverständlich, sondern auch öffentlich und leicht zugänglich sein (Art. 14 Abs. 1) sein. Zweitens sind Online-Vermittler verpflichtet, bei der Moderation von Inhalten die gebotene Sorgfalt, Objektivität und Verhältnismäßigkeit walten zu lassen und dabei die Grundrechte und Interessen der betroffenen Parteien zu berücksichtigen (Art. 14 Abs. 4).
7. Der Begriff der schädlichen Inhalte.
Im Gesetzt über digitale Dienste gibt es keine Definition der „schädlichen Inhalte“. Das war eine bewusste Entscheidung des europäischen Gesetzgebers, wie es in der Begründung zum GdG hervorgehoben wurde: „Es besteht ein grundlegender Konsens unter den beteiligten Parteien, dass ’schädliche‘ Inhalte (auch wenn sie nicht oder zumindest nicht notwendigerweise rechtswidrig sind) nicht im Gesetz über digitale Dienste definiert werden und nicht der Verpflichtung zur Entfernung unterliegen sollten, da es sich um einen sensiblen Bereich mit schwerwiegenden Auswirkungen auf den Schutz der Meinungsfreiheit handelt.“ (Begründung zum Entwurf des Gesetzes über digitale Dienste, KOM(2020) 825 endgültig 2020/0361 (COD), S.11).
Als schädliche Inhalte gelten Inhalte, die zwar nicht formell rechtswidrig sind, aber aus anderen Gründen als unethisch und gesellschaftlich unerwünscht angesehen werden können (z. B. DesinformationGewalt, Rassismus, Fremdenfeindlichkeit). In den meisten Fällen wird es sich bei „schädlichen Inhalten“ auch um Inhalte handeln, die „gegen die Nutzungsbedingungen verstoßen“. Da es jedoch die Zwischenanbieter sind, die diese Bedingungen festlegen, ist es rechtlich möglich, dass aufgrund des Inhalts der spezifischen Nutzungsbedingungen sozial schädliche Inhalte Zwischenanbieter vom Zwischenanbieter nicht verbotenwerden. Die Zwischenanbieter sind nämlich rechtlich nicht verpflichtet, die Verbreitung schädlicher Inhalte in ihren Allgemeinen Geschäftsbedingungen (AGB) zu verbieten (siehe auch Punkt 8 unten).
8. Moderation von schädlichen Inhalten.
Das Gesetz über digitale Dienste sieht keine allgemeine Verpflichtung der Zwischenanbieter zur Moderation vor.
Ausnahmsweise wurden sogenannten sehr großen Online-Plattformen oder sehr großen Suchmaschinen Verpflichtungen zur Moderation schädlicher Inhalte auferlegt (Artikel 25 Absatz 1). Nach Art. 26 GdG sind sie verpflichtet, sogenannte Systemrisiken zu managen, einschließlich diesbezüglicher jährlicher Bewertungen, und erforderlichenfalls geeignete Maßnahmen zur Minderung dieser Risiken zu ergreifen (Art. 27). Zu diesem Zweck müssen sie sich auch unabhängigen Audits stellen (Art. 28).
Aus den vorstehenden Rechtsvorschriften geht hervor, dass sehr große Online-Plattformen oder sehr große Suchmaschinen ein Risikomanagementsystem einrichten müssen, das die möglichen negativen Auswirkungen ihrer Dienste auf die Verbreitung schädlicher Inhalte (z. B. Desinformation, Wahlmanipulation oder Cybermobbing) berücksichtigt. Bei der Durchführung einer solchen Risikobewertung sollten sehr große Online-Plattformen die Auswirkungen ihrer Systeme zur Inhaltsmoderation, ihrer Empfehlungssysteme und ihrer Systeme zur Auswahl und Anzeige von Werbung auf die Verbreitung rechtswidriger sowie schädlicher Inhalte berücksichtigen (Art. 26 Abs. 2).
9. Inhaltsmoderation – Benutzerrechte.
Das Gesetz über digitale Dienste stärkt die Rechtsstellung von Nutzern, deren Inhalte moderiert wurden, erheblich.
Hosting-Anbieter, einschließlich Anbieter von Online-Plattformen, wurden verpflichtet, Entscheidungen von Zwischenanbietern, die Verfügbarkeit von Inhalten wegen Feststellung ihrer Rechtswidrigkeit oder wegen des Verstoßes gegen die Nutzungsbedingungen einzuschränken, klar und deutlich zu begründen (Art. 17 Abs. 1). Darüber hinaus müssen die Anbieter von Online-Plattformdiensten sicherstellen, dass die Nutzer Zugang zu einem wirksamen internen System zur Bearbeitung von Beschwerden haben, das es ihnen ermöglicht, auf elektronischem Wege und kostenlos gegen eine Entscheidung des Online-Plattformanbieters Beschwerde einzulegen (Art. 20 Abs. 1) und zur Information über die Möglichkeit der außergerichtlichen Streitbeilegung durch die Nutzer des Dienstes (Art. 21 Abs. 1).
10. Inhaltsmoderation auf der Grundlage des GdG – Zusammenfassung.
Die wichtigste Unterscheidung im GdG ist die zwischen rechtswidrigen Inhalten und Inhalten, die gegen die Nutzungsbedingungen verstoßen. Ziel der meisten durch das GdG ins Leben gerufenen Einrichtungen ist es, rechtswidrige oder gegen die von den Zwischenanbietern definierten Nutzungsbedingungen verstoßende Inhalte zu moderieren. (z.B. Art.14, Art.17 ff.).
Für sehr große Online-Plattformen und sehr große Suchmaschinen wurde ausnahmsweise eine Verpflichtung zur Moderation schädlicher Inhalte eingeführt, unabhängig davon, ob es sich um rechtswidrige oder gegen die Nutzungsbedingungen verstoßende Inhalte handelt (Artikel 34 bis 35).
Der Umfang der Maßnahmen, die unter das Konzept der Moderation von rechtswidrigen, gegen die Nutzungsbedingungen verstoßenden und schädlichen Inhalten fallen, hat sich im Vergleich zur bisherigen Rechtslage erheblich erweitert.