Jak oznaczać deepfake’i? Komisja Europejska opublikowała projekt Kodeksu postępowania w tym zakresie.
Dnia 17 grudnia 2025 r. Komisja Europejska opublikowała pierwszy projekt Kodeksu postępowania w sprawie przejrzystości treści generowanych przez sztuczną inteligencję.
Kodeks ma wesprzeć rynek w realizacji obowiązków z art. 50 ust. 2 i 4 AI Act. Dotyczy on więc zarówno obowiązków dostawców systemów AI, jak i podmioty, które korzystają z systemów generujących deepfake’i.
Treść kodeksu składa się z obszarów zwanych Zobowiązaniami (Commitments), które określają obowiązki danego podmiotu. Dzielą się one na Środki (Measures), które wskazują sposób realizacji danego elementu obowiązku.
Obowiązki sygnatariuszy Kodeksu zostały ujęte w ramach następujących Zobowiązań:
- Ujawnianie pochodzenia treści generowanych i modyfikowanych przez sztuczną inteligencję w oparciu o wspólną taksonomię i ikonę
- Środkami jego realizacji są:
- uspójnienie pojęć w zakresie deepfake’ów (wyodrębnienie treści wygenerowanych w pełni przez AI oraz treści wytworzonych z asystą AI);
- ustalenie jednej, wspólnej, unijnej ikony identyfikacyjnej dla takich treści.
- Środkami jego realizacji są:
- Zgodność z przepisami, szkolenia i monitorowanie
- Środkami jego realizacji są:
- tworzenie wewnętrznej dokumentacji w zakresie zgodności z przepisami;
- zapewnienie szkoleń dla personelu generującego deepfake’i;
- współpraca z organami nadzoru oraz ułatwianie sygnalizowania naruszeń prawa w zakresie oznaczania deepfake’ów.
- Środkami jego realizacji są:
- Zapewnienie dostępności informacji dla wszystkich osób fizycznych
- Środkiem jego realizacji jest realizacja wymogów dostępności w zakresie oznaczeń.
- Implementacja szczególnych środków dotyczących ujawniania deepfake’ów.
- Środkami jego realizacji są:
- wprowadzenie wewnętrznych procesów służących spójnej klasyfikacji deepfake’ów;
- jasne i wyraźne ujawnianie deepfake’ów dostosowane do treści, którymi są, przez uwzględnienie specyfiki treści wideo w czasie rzeczywistym i nierzeczywistym, treści multimodalnych, obrazów i dźwięków;
- dostosowanie ujawnienia do charakteru treści, kiedy te są chronionymi utworami.
- Środkami jego realizacji są:
- Implementacja szczególnych środków dotyczących ujawniania deepfake’ów w tekstach.
- Środkami jego realizacji są:
- wprowadzenie wewnętrznych procesów;
- jasne i wyraźne ujawnianie deepfake’ów;
- kontrola ludzka oraz redakcyjna, uwzględniająca procesy i dokumentację.
- Środkami jego realizacji są:
Propozycje logotypów z Kodeksu, wskazujące na możliwe kierunki w zakresie ustanowienia spójnej identyfikacji graficznej przy oznaczaniu deepfake’ów (str. 32 Kodeksu):

Przyjęcie kodeksu jest planowane na maj-czerwiec 2026 r.
Wcześniej Komisja zakłada pracę w grupach roboczych oraz publikację drugiej wersji projektu (marzec 2026 r.).
Wygląda więc na to, że niezależnie od prac nad wydłużeniem terminu rozpoczęcia stosowania art. 50 AI Act – Komisja planuje zakończyć prace nad Kodeksem przed rozpoczęciem stosowania tego artykułu w pierwotnym terminie wynikającym z AI Act (2 sierpnia 2026 r.).
Z pełną treścią projektu Kodeksu można zapoznać się tutaj.
Informacje o organizacji i harmonogramie prac nad Kodeksem można znaleźć tutaj.
Zapraszamy także do zapoznania się z artykułem naukowym omawiającym zagadnienie oznaczania deepfake’ów na podstawie AI Actu i nie tylko, który dostępny jest tutaj.