Określenie zasad dotyczących moderowania treści przez dostawców usług cyfrowych było jednym z podstawowych celów uchwalenia Rozporządzenia unijnego pt. Akt o usługach cyfrowych (AUC). W Rozporządzeniu, z jednej strony określono procedurę i skutki dokonania/niedokonania moderacji, a z drugiej prawa użytkowników, których treści zostały poddane temu procesowi. Wypełnienie tych wymogów ma bezpośredni wpływ, po pierwsze na ewentualną odpowiedzialność cywilnoprawną lub karną dostawców usług pośrednich za rozpowszechnianie cudzych nielegalnych lub szkodliwych treści, a po drugie na odpowiedzialność administracyjną określoną przepisami Aktu o usługach cyfrowych (np. kara pieniężna nałożona przez koordynatora do spraw usług cyfrowych na podstawie art.52 ust.3  AUC).

Poniżej zostanie przedstawione dziesięć najważniejszych informacji dotyczących moderowania treści na gruncie Aktu o usługach cyfrowych.

1. Pojęcie moderacji na gruncie AUC.

Przykładowy zakres działań składających się na moderację jest określony w art.3 t) AUC, zgodnie z którym składają się na nią takie działania jak:

  • wykrywanie oraz identyfikowanie nielegalnych treści lub informacji niezgodnych z warunkami korzystania z ich usług, przekazywanych przez odbiorców usługi (użytkowników),
  • zwalczanie tego rodzaju treści, w tym wdrażanie środków, które wpływają na dostępność, widoczność i osiągalność takich nielegalnych treści lub informacji, takich jak:
    • depozycjonowanie takich treści lub informacji,
    • demonetyzacja,
    • uniemożliwienie dostępu do nich lub ich usunięcie,
    • lub które wpływają na możliwość przekazywania takich informacji przez odbiorców usługi, takie jak zamknięcie lub zawieszenie konta odbiorcy.

Akt o usługach cyfrowych istotnie poszerzył więc, w stosunku do dotychczasowego stanu prawnego wyznaczonego przepisami dyrektywy o handlu elektronicznym nr 2000/31/WE, zakres działań, które można podjąć w stosunku do treści użytkowników. Poza dotychczasową możliwością usunięcia lub zablokowania dostępu do treści, pojawiły się nowe opcje, takie jak np. ich depozycjonowanie.

2. Rodzaje treści użytkowników na gruncie Aktu o usługach cyfrowych.

Z punktu widzenia obowiązków podjęcia działań przez dostawców usług pośrednich w stosunku do treści umieszczanych przez użytkowników, na gruncie AUC wymienić można trzy rodzaje treści:

  • treści nielegalne (m.in. art.2 g),
  • treści niezgodne z warunkami świadczenia usług (m.in. art.3 t),
  • treści szkodliwe (m.in. motyw nr 82).

3. Pojęcie treści nielegalnych.

Definicja „nielegalnych treści” zawarta została w art.2g) AUC. Oznaczają one „wszelkie informacje, które same w sobie lub przez odniesienie do działania, w tym sprzedaży produktów lub świadczenia usług, nie są zgodne z prawem Unii lub z prawem danego państwa członkowskiego niezależnie od konkretnego przedmiotu lub charakteru tego prawa”.

W świetle powyższej definicji, treści nielegalne to zarówno informacje, których rozpowszechnianie samo w sobie jest działaniem nielegalnym (np. nawoływanie do terroryzmu), jak i te, które odnoszą się do nielegalnych działań (np. udostępnianie zdjęć przedstawiających seksualne wykorzystywanie dzieci).

W Akcie o Usługach Cyfrowych nie przesądzono, które treści są nielegalne. O takim ich charakterze decydują przepisy odrębnie przyjętych aktów prawnych Unii Europejskiej lub ustawodawstw poszczególnych państw członkowskich (prawo krajowe).

Prawo Unii Europejskiej za nielegalne uznaje w szczególności cztery rodzaje treści, które mogą być również rozpowszechniane w Internecie:

a) nawołujące do terroryzmu,

b) ukazujące wykorzystywanie seksualne dzieci,

c) namawiające do rasizmu i ksenofobii oraz

d) naruszające prawa własności intelektualnej.

Jeżeli natomiast chodzi o treści sprzeczne z prawem krajowym, to za takie należy uznać zarówno treści sprzeczne z przepisami prawa publicznego (np. prawem karnym), jak i przepisami prawa prywatnego (np. prawem cywilnym).

4. Moderowanie treści nielegalnych.

W przypadku treści uznanych prawem UE lub prawem krajowym za nielegalne, dostawca usług pośrednich jest zobowiązany do podjęcia działań moderacyjnych (np. ich usunięcia). W przypadku, gdy tego nie dokona, ryzykuje że – niezależnie od użytkowników zamieszczających te informacje – będzie ponosił odpowiedzialność za ich rozpowszechnianie za pomocą jego usług.

5. Pojęcie treści sprzecznych z warunkami świadczenia usług.

Treści niezgodne z warunkami świadczenia usług to treści, które formalnie nie są nielegalne, ale których zakaz rozpowszechniania, jako np. sprzecznych z dobrymi obyczajami, wprowadza dostawca usług pośrednich (np. nagość).

6. Moderowanie treści sprzecznych z warunkami świadczenia usług.

Podstawą prawną moderacji treści sprzecznych z warunkami usług jest stosunek umowny pomiędzy dostawcą, a odbiorcą usług (art.3 u).

Zgodnie z rozwiązaniem przyjętym w AUC, dostawcy usług pośrednich mają – co do zasady – swobodę w określeniu, które treści uznają za szkodliwe i w konsekwencji będą przez nich moderowane. Taka konstrukcja rodzi ryzyko dowolności podejmowanych przez nich decyzji, co z kolei może negatywnie wpływać na wolność wyrażania opinii przez użytkowników Internetu. Z tych przyczyn, w art.14 AUC wprowadzono dwojakiego rodzaju instrumenty zabezpieczające interesy użytkowników. Po pierwsze, w warunkach świadczenia usług użytkownicy powinni być poinformowani o procedurach, środkach i narzędziach moderowania treści. Informacje te powinny być nie tylko jasne i jednoznaczne, ale również publiczne i łatwo dostępne (art.14 ust.1). Po drugie, pośrednicy internetowi mają obowiązek zachowania należytej ostrożności, obiektywności i proporcjonalności podczas moderowania treści, uwzględniając przy tym podstawowe prawa i interesy zainteresowanych stron (art.14 ust.4).

7. Pojęcie treści szkodliwych.

W Akcie o usługach cyfrowych, nie zdefiniowano „szkodliwych treści”. Była to świadoma decyzja prawodawcy europejskiego, jak to bowiem podkreślono w uzasadnieniu do AUC: „Wśród zainteresowanych stron panuje zasadnicza zgoda, że treści „szkodliwe” (choć nie, lub przynajmniej niekoniecznie, nielegalne) nie powinny być zdefiniowane w akcie o usługach cyfrowych i nie powinny podlegać obowiązkom usunięcia, gdyż jest to delikatny obszar o poważnych konsekwencjach dla ochrony wolności wypowiedzi.” (uzasadnienie do projektu Aktu o usługach cyfrowych, COM(2020) 825 final 2020/0361 (COD), s.11).

Należy przyjąć, że treści szkodliwe to treści, które formalnie nie są nielegalne, ale z innych powodów mogą zostać uznane za nieetyczne i społecznie niepożądane (np. dezinformacja, przemoc, rasizm, ksenofobia). Przeważnie „treści szkodliwe” będą również treściami „sprzecznymi z warunkami świadczenia usług”, ponieważ jednak to dostawcy usług pośrednich określają te warunki, prawnie możliwa jest sytuacja, gdy z uwagi na treść konkretnych warunków świadczenia usług, treści społecznie szkodliwe nie będą zakazane przez dostawcę usług pośrednich. Dostawcy usług pośrednich nie mają bowiem prawnego obowiązku ustanawiania w warunkach (regulaminach) świadczenia usług zakazu rozpowszechniania treści szkodliwych (zob. też pkt 8 poniżej).

8. Moderowanie treści szkodliwych.

W Akcie o usługach cyfrowych nie wprowadzono generalnego obowiązku ich moderowania przez dostawców usług pośrednich.

Wyjątkowo, obowiązki moderowania treści szkodliwych nałożono na tzw. bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe (art.25 ust.1). Zgodnie z art.26 AUC są one zobowiązane do zarządzania tzw. ryzykiem systemowym, w tym dokonywania corocznych ocen w tym zakresie, a także – w razie potrzeby – podejmowania odpowiednich środków ograniczających to ryzyko (art.27). W tym celu muszą się również poddać niezależnym audytom (art.28).

Z powyższych przepisów wynika, że bardzo duże platformy internetowe lub bardzo duże wyszukiwarki internetowe muszą wprowadzić system zarządzania ryzykiem uwzględniający potencjalny negatywny wpływ ich usług na rozpowszechnianie szkodliwych treści (np. dezinformację, manipulację wyborczą czy cyberprzemoc). Przeprowadzając taką ocenę ryzyka, bardzo duże platformy internetowe powinny uwzględnić wpływ swoich systemów moderowania treści, systemów rekomendacji oraz systemów wyboru i wyświetlania reklam na rozpowszechnianie nielegalnych treści, jak również szkodliwych treści (art.26 ust.2).

9. Moderowanie treści – uprawnienia użytkowników.

W Akcie o usługach cyfrowych w istotny sposób wzmocniono pozycję użytkowników, których treści zostały objęte moderacją.

W stosunku do dostawców usług hostingu, w tym dostawców platform internetowych, wprowadzono wymóg jasnego i konkretnego uzasadnienia decyzji podjętych przez dostawcę usług pośrednich w zakresie ograniczenia dostępności treści z uwagi na uznanie ich za nielegalne lub sprzeczne z warunkami świadczenia usług (art.17 ust.1). Dodatkowo, dostawcy usług platform internetowych, zobowiązani są do zapewnienia użytkownikom dostępu do skutecznego wewnętrznego systemu rozpatrywania skarg, który umożliwia im elektroniczne i bezpłatne wnoszenie skarg na decyzję podjętą przez dostawcę platformy internetowej (art.20 ust.1) oraz informacji na temat możliwości korzystania przez odbiorców usługi z pozasądowego rozstrzygania sporów (art.21 ust.1).

10. Moderowanie treści na gruncie AUC – podsumowanie.

Zasadniczy podział w AUC, to podział na treści nielegalne i treści sprzeczne z warunkami świadczenia usług. Większość instytucji ustanowionych w AUC za przedmiot, ma moderację treści nielegalnych lub sprzecznych z warunkami świadczenia usług, określonych przez dostawców usług pośrednich (np. art.14, art.17 i n.).

W przypadku bardzo dużych platform internetowych oraz bardzo dużych wyszukiwarek internetowych, wyjątkowo wprowadzono obowiązek moderacji treści szkodliwych, niezależnie od tego czy mają one charakter treści nielegalnych lub treści sprzecznych z warunkami świadczenia usług (art.34.-35).

Zakres działań objętych pojęciem moderacji treści nielegalnych, sprzecznych z warunkami świadczenia usług oraz szkodliwych istotnie poszerzył się w stosunku do dotychczasowego stanu prawnego.