Na początku lutego 2023 r. Komitet Rady Europy do spraw Sztucznej Inteligencji opublikował „zerowy” projekt Konwencji w sprawie sztucznej Inteligencji, praw człowieka, demokracji i praworządności. Datowany na 6 stycznia 2023 r. dokument zawiera wstępną propozycję Rady Europy dotyczącą przyszłych ram regulacyjnych sztucznej inteligencji.

Geneza prac nad Konwencją

We wrześniu 2019 r. Rada Europy rozpoczęła prace, mające na celu zbadanie możliwości stworzenia ram prawnych, które zapewnią, że projektowanie, rozwijanie i wykorzystywanie systemów tzw. sztucznej inteligencji (AI) będzie odbywać się z poszanowaniem praw człowieka, demokracji i praworządności. Na początku 2022 r. Rada Europy powołała Komitet do spraw Sztucznej Inteligencji (Committee on Artificial Intelligence, CAI), który w lutym 2023 r. opublikował datowany na 6 stycznia 2023 r. „zerowy” projekt Konwencji w sprawie Sztucznej Inteligencji, Praw Człowieka, Demokracji i Praworządności (revised zero draft [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law)[1].

Charakter Konwencji  

Projektowana Konwencja ma na celu ustanowienie jedynie ogólnych ram prawnych dla stosowania rozwiązań z zakresu AI. Z analizy opublikowanego projektu (mimo jego wstępnego i roboczego charakteru) wynika, że przyszła Konwencja nie będzie nakładać obowiązków czy zakazów bezpośrednio na jednostki (osoby fizyczne lub prawne). Wynikające z niej zobowiązania będą dotyczyć wyłącznie państw, które zdecydują się przystąpić do Konwencji. To one będą zobowiązane do wprowadzenia w krajowych porządkach prawnych środków niezbędnych do realizacji zasad określonych przez Konwencję. Potencjalnie będzie to dotyczyło także państw członkowskich Unii Europejskiej, ponieważ zakres projektu Konwencji nie zawsze pokrywa się z unijnym projektem Rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji; dalej „Akt ws. AI”).

Konwencja ustanowi również mechanizmy, które będą wspomagać skuteczne wdrażanie jej postanowień, a także zobowiążą Strony Konwencji do wyznaczenia krajowych organów nadzorczych, odpowiadających za jej przestrzeganie.

Definicja systemu AI

Projekt Konwencji definiuje system AI jako każdy system algorytmiczny lub kombinację takich systemów, który, zgodnie z definicją zawartą w Konwencji oraz w prawie krajowym każdej ze stron Konwencji, wykorzystuje metody obliczeniowe wywodzące się ze statystyki lub innych technik matematycznych w celu realizacji funkcji, które są powszechnie kojarzone z ludzką inteligencją lub w inny sposób wymagałyby jej i które wspomagają bądź zastępują ludzką ocenę przy realizacji tych funkcji. Funkcje takie obejmują między innymi przewidywanie, planowanie, klasyfikację, rozpoznawanie wzorców, organizowanie, postrzeganie, rozpoznawanie mowy/dźwięku/obrazu, generowanie tekstu/dźwięku/obrazu, tłumaczenie języka, komunikację, uczenie się, reprezentację i rozwiązywanie problemów[2]. Jest to więc definicja bardzo szeroka i nieprecyzyjna, odbiegająca od definicji wynikającej z projektu Aktu ws. AI oraz wielu innych prawnych definicji (systemu) AI. Brakuje w niej m.in. zwrócenia uwagi na konieczność choćby częściowo autonomicznego działania czy możliwość uczenia maszynowego. Zawarto natomiast odwołanie do bardzo niejednoznacznego i rzadko spotykanego pojęcia „ludzkiej inteligencji”, a także „metod obliczeniowych wywodzących się ze statystyki lub innych technik matematycznych”.

Prawa i obowiązki wynikające z Konwencji

Ramy prawne, wprowadzane Konwencją, znajdą zastosowanie na etapie projektowania, rozwijania oraz wykorzystywania systemów AI w całym cyklu ich życia, niezależnie od tego, czy konkretne działania będą podejmowane przez podmioty publiczne czy prywatne. Nie będzie ona jednak miała zastosowania do systemów AI wykorzystywanych do celów związanych z obronnością.

W projekcie Konwencji wskazano kilka niezależnych grup obowiązków. Dotyczą one m.in.:

  • podstawowych zasad związanych z projektowaniem, rozwijaniem oraz wykorzystywaniem systemów AI,
  • środków bezpieczeństwa i zasad odpowiedzialności związanych z wykorzystywaniem systemów AI,
  • analizy ryzyka odnoszącej się do systemów AI,
  • wykorzystywania systemów AI przez władze publiczne oraz
  • wykorzystywania systemów AI do dostarczana towarów i usług.

Jako podstawowe zasady dotyczące projektowania, rozwijania i wykorzystywania systemów AI Konwencja wymienia konieczność:

  • przestrzegania zasady równości i niedyskryminacji przez systemy AI;
  • należytej ochrony danych wykorzystywanych przez systemy AI (w tym danych osobowych);
  • zapewnienia rozliczalności i odpowiedzialności prawnej za szkody lub naruszenia praw człowieka spowodowane przez system AI;
  • stworzenia mechanizmów nadzoru oraz wymogów w zakresie przejrzystości i możliwości dokonania audytu w odniesieniu do systemów AI;
  • spełnienia odpowiednich wymogów odnoszących się do bezpieczeństwa (w tym w zakresie jakości, integralności i bezpieczeństwa danych, a także cyberbezpieczeństwa i odporności systemu AI);
  • zapewnienia kontrolowanego środowiska regulacyjnego do testowania systemów AI pod nadzorem właściwych organów.

Co więcej, Strony Konwencji powinny wspierać i promować umiejętności cyfrowe, a także dążyć do tego, aby podstawowe kwestie związane z projektowaniem, rozwojem i wykorzystywaniem systemów AI były przedmiotem odpowiedniej publicznej dyskusji i wielostronnych konsultacji.

W odniesieniu do środków i zabezpieczeń zapewniających rozliczalność i możliwość uzyskania odszkodowania za szkodę wyrządzoną działaniem systemu AI, Konwencja wprowadza konieczność:

  • ustanowienia mechanizmu rejestrującego działanie systemów AI oraz umożliwienie przekazania zarejestrowanych informacji podmiotom dotkniętym działaniem systemu AI;
  • zagwarantowanie, że informacje te zawierają dane wystarczające do skutecznego zakwestionowania stosowania systemu AI lub zaskarżenia wydanej decyzji;
  • zapewnienia skutecznych mechanizmów odwoławczych;
  • zapewnienia, że gdy system AI w istotny sposób informuje lub podejmuje decyzje wpływające na prawa człowieka, będzie istniało prawo do kontroli tej decyzji przez człowieka;
  • zapewnienia, że każda osoba ma prawo wiedzieć, że wchodzi w interakcję z systemem AI;
  • zapewnienia każdej osobie – w stosownych przypadkach – możliwości wejścia w interakcję z człowiekiem oprócz lub zamiast systemu AI.

Należy jednocześnie zauważyć, że ograniczenia w korzystaniu z opisanych powyżej praw będą mogły być ustanawiane, gdy będzie to konieczne i proporcjonalne w celu realizacji uzasadnionego interesu publicznego.

Ponadto, Konwencja wprowadza szereg szczegółowych obowiązków w odniesieniu do systemów AI wykorzystywanych przez władze publiczne czy do dostarczania towarów i usług.

Porównanie Konwencji i Aktu ws. AI

Nie ulega wątpliwości, że regulacje zawarte w Konwencji mają w założeniu ramowy charakter i są zasadniczo mniej szczegółowe niż przepisy unijnego Aktu ws. AI. Oba akty prawne będą miały jednak ze sobą wiele wspólnego. Są one projektowane w celu zapewniania należytego standardu ochrony praw człowieka w dobie błyskawicznego rozwoju rozwiązań opartych o AI – położono w nich nacisk na wiele podobnych zagrożeń oraz zaproponowano wiele podobnych rozwiązań. W obu regulacjach zastosowanie znajduje również podejście oparte o analizę ryzyka.

Między projektem Konwencji i Aktu ws. AI występują również istotne różnice. Podmiotami zobowiązanymi na mocy Konwencji będą państwa, podczas gdy Akt ws. AI będzie nakładał szczegółowe obowiązki bezpośrednio na jednostki (osoby fizyczne i prawne). Definicja systemu AI wynikająca z Konwencji potencjalnie będzie szersza niż będzie to miało miejsce na gruncie Aktu ws. AI. Co więcej, Konwencja w wielu miejscach przewiduje wprowadzenie o wiele dalej idących obowiązków niż ma to miejsce na gruncie projektowanego Aktu ws. AI. Dotyczy to przede wszystkim przewidzianej w Konwencji konieczności zagwarantowania prawa do ludzkiej kontroli decyzji podejmowanych przez system AI oraz zapewnienia każdej osobie możliwości wejścia w interakcję z człowiekiem oprócz lub zamiast systemu AI.

Oznacza to, że nawet po uchwaleniu i wejściu w życie Aktu ws. AI zapewnienie pełnej zgodności z przepisami unijnego rozporządzenia nie będzie musiało gwarantować realizacji wszystkich wymogów prawnych odnoszących się do projektowania, rozwijania i wykorzystywania systemów AI.

Przyszłość Konwencji

Zakończenie prac nad ostatecznym tekstem Konwencji planowane jest we wrześniu 2023 r. Natomiast przekazanie go Komitetowi Ministrów Rady Europy ma nastąpić w listopadzie 2023 r. Na chwilę obecną nie wiadomo jednak, czy ten plan zostanie zrealizowany i kiedy uda się uchwalić ostateczny tekst Konwencji. Gdy już do tego dojdzie, Konwencja wejdzie w życie pierwszego dnia miesiąca następującego po upływie trzech miesięcy od dnia, w którym sześć państw (w tym co najmniej cztery państwa członkowskie Rady Europy) wyrazi zgodę na związanie się Konwencją – tj. dokona jej ratyfikacji, przyjęcia lub zatwierdzenia. Na ten moment nie wiadomo, ani jakie państwa zdecydują się przystąpić do Konwencji, ani w jakim tempie będą implementować do swoich porządków prawnych jej postanowienia. Konwencja nie przewiduje bowiem żadnego terminu na jej pełne wdrożenie.


[1] https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-public/1680aa193f

[2] “Artificial intelligence system” means any algorithmic system or a combination of such systems that, as defined herein and in the domestic law of each Party, uses computational methods derived from statistics or other mathematical techniques to carry out functions that are commonly associated with, or would otherwise require, human intelligence and that either assists or replaces the judgment of human decision-makers in carrying out those functions. Such functions include, but are not limited to, prediction, planning, classification, pattern recognition, organisation, perception, speech/sound/image recognition, text/sound/image generation, language translation, communication, learning, representation, and problem-solving.