Jak oznaczać deepfake’i? Komisja Europejska opublikowała projekt Kodeksu postępowania w tym zakresie.

07 sty 2026

Dnia 17 grudnia 2025 r. Komisja Europejska opublikowała pierwszy projekt Kodeksu postępowania w sprawie przejrzystości treści generowanych przez sztuczną inteligencję.

Kodeks ma wesprzeć rynek w realizacji obowiązków z art. 50 ust. 2 i 4 AI Act. Dotyczy on więc zarówno obowiązków dostawców systemów AI, jak i podmioty, które korzystają z systemów generujących deepfake’i.

Treść kodeksu składa się z obszarów zwanych Zobowiązaniami (Commitments), które określają obowiązki danego podmiotu. Dzielą się one na Środki (Measures), które wskazują sposób realizacji danego elementu obowiązku.

Obowiązki sygnatariuszy Kodeksu zostały ujęte w ramach następujących Zobowiązań:

  1. Ujawnianie pochodzenia treści generowanych i modyfikowanych przez sztuczną inteligencję w oparciu o wspólną taksonomię i ikonę
    • Środkami jego realizacji są:
      • uspójnienie pojęć w zakresie deepfake’ów (wyodrębnienie treści wygenerowanych w pełni przez AI oraz treści wytworzonych z asystą AI);
      • ustalenie jednej, wspólnej, unijnej ikony identyfikacyjnej dla takich treści.
  2. Zgodność z przepisami, szkolenia i monitorowanie
    • Środkami jego realizacji są:
      • tworzenie wewnętrznej dokumentacji w zakresie zgodności z przepisami;
      • zapewnienie szkoleń dla personelu generującego deepfake’i;
      • współpraca z organami nadzoru oraz ułatwianie sygnalizowania naruszeń prawa w zakresie oznaczania deepfake’ów.
  3. Zapewnienie dostępności informacji dla wszystkich osób fizycznych
    • Środkiem jego realizacji jest realizacja wymogów dostępności w zakresie oznaczeń.
  4. Implementacja szczególnych środków dotyczących ujawniania deepfake’ów.
    • Środkami jego realizacji są:
      • wprowadzenie wewnętrznych procesów służących spójnej klasyfikacji deepfake’ów;
      • jasne i wyraźne ujawnianie deepfake’ów dostosowane do treści, którymi są, przez uwzględnienie specyfiki treści wideo w czasie rzeczywistym i nierzeczywistym, treści multimodalnych, obrazów i dźwięków;
      • dostosowanie ujawnienia do charakteru treści, kiedy te są chronionymi utworami.
  5. Implementacja szczególnych środków dotyczących ujawniania deepfake’ów w tekstach.
    • Środkami jego realizacji są:
      • wprowadzenie wewnętrznych procesów;
      • jasne i wyraźne ujawnianie deepfake’ów;
      • kontrola ludzka oraz redakcyjna, uwzględniająca procesy i dokumentację.

Propozycje logotypów z Kodeksu, wskazujące na możliwe kierunki w zakresie ustanowienia spójnej identyfikacji graficznej przy oznaczaniu deepfake’ów (str. 32 Kodeksu):

Przyjęcie kodeksu jest planowane na maj-czerwiec 2026 r.

Wcześniej Komisja zakłada pracę w grupach roboczych oraz publikację drugiej wersji projektu (marzec 2026 r.).

Wygląda więc na to, że niezależnie od prac nad wydłużeniem terminu rozpoczęcia stosowania art. 50 AI Act – Komisja planuje zakończyć prace nad Kodeksem przed rozpoczęciem stosowania tego artykułu w pierwotnym terminie wynikającym z AI Act (2 sierpnia 2026 r.).

Z pełną treścią projektu Kodeksu można zapoznać się tutaj.

Informacje o organizacji i harmonogramie prac nad Kodeksem można znaleźć tutaj.

Zapraszamy także do zapoznania się z artykułem naukowym omawiającym zagadnienie oznaczania deepfake’ów na podstawie AI Actu i nie tylko, który dostępny jest tutaj.