Uwagi wstępne

W dniu 20 października 2020 r. Parlament Europejski przyjął trzy nowe i znaczące rezolucje odnoszące się do sztucznej inteligencji. Rezolucje dotyczą następujących obszarów:

  1. etyki AI – Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))[1],
  2. odpowiedzialności cywilnej za AI – Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))[2] oraz
  3. aspektów praw własności intelektualnej w stosunku do AI – Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI))[3].

Rezolucje nie odnoszą się konkretnie do jednego podmiotu czy też ich wyodrębnionej grupy. Przepisy w nich zawarte przeznaczone są dla szerokiego grona odbiorców, gdyż dotyczą różnych obszarów funkcjonowania.

Ważnym postulatem Parlamentu Europejskiego w odniesieniu do wszystkich rezolucji jest zastrzeżenie, że przy stosowaniu AI należy kierować się zasadą „ograniczonego zaufania”. Nie powinno się pozostawiać jej pełnej decyzyjności czy też dawać zbyt dużo swobody. Przede wszystkim Parlament Europejski podkreślił, że nie należy przekazywać systemom opartym na AI prawa do wydawania autonomicznych decyzji w momencie, gdy dotyczy to istotnych aspektów prawa i obowiązków obywateli. Chodzi tu o minimalizację ryzyka związanego z funkcjonowaniem AI oraz zbudowanie zaufania do pracy systemów przy zachowaniu racjonalności oraz odpowiedzialności.

Na rynku podnosi się, że ze względu na naciski ze strony Parlamentu Europejskiego na harmonizację przepisów dotyczących AI – spodziewać się w ich wyniku należy wydania rozporządzenia, a nie dyrektywy Unii. Sam Parlament Europejski zaznacza to w rezolucjach. Widoczne jest to np. w rezolucji dotyczącej aspektów praw własności intelektualnej w stosunku do AI, gdzie wskazano, że regulacje z zakresu AI powinny mieć formę rozporządzenia, a nie dyrektywy, aby ustanowić jednakowe standardy w całej Unii oraz uniknąć rozdrobnienia europejskiego jednolitego rynku cyfrowego i promować innowacje.

Rezolucja nr 1 – dotycząca etyki AI

Za inicjatywą ustawodawczą w tym zakresie kryje się wezwanie Komisji Europejskiej do przedstawienia nowych ram prawnych określających zasady etyczne i zobowiązania prawne, których należy przestrzegać przy opracowywaniu, wdrażaniu i wykorzystywaniu AI, robotyki i pokrewnych technologii w UE, w tym oprogramowania, algorytmy i dane. W szczególności, chodzi o zbudowanie zaufania obywateli Unii do AI w oparciu o szeroko rozumiane zasady etyki.

W tekście jednolitym przyjętym przez Parlament Europejski wskazano, że ramy prawne dla etyki AI powinny być oparte na prawie UE, Karcie praw podstawowych i międzynarodowym prawie praw człowieka oraz mieć zastosowanie w szczególności do technologii wysokiego ryzyka w celu ustanowienia równych standardów w całej UE.

Podkreślono, że przyszłe przepisy powinny być tworzone zgodnie z kilkoma zasadami przewodnimi: sztuczną inteligencją ukierunkowaną na człowieka i stworzoną przez człowieka („a human – centric and human – made AI”), bezpieczeństwem, przejrzystością i odpowiedzialnością, zabezpieczeniem przed uprzedzeniami i dyskryminacją, prawem do zadośćuczynienia, odpowiedzialnością społeczną i środowiskową oraz poszanowaniem prywatności i ochrony danych.

Parlament Europejski w swojej rezolucji podkreśla wielokrotnie cel nadrzędny AI, jakim jest dążenie do zwiększenia dobrostanu, dobrobytu i wolności jednostki (tzw. „human – centric approach”).

Ocena ryzyka

Parlament Europejski podkreśla, że w celu zapewnienia jednolitego wdrażania systemu oceny ryzyka oraz zgodności z powiązanymi zobowiązaniami prawnymi, należy stworzyć wyczerpujący i łączny wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka.

Parlament wskazuje, że ocena tego czy sztuczna inteligencja, robotyka czy powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, a tym samym podlegające rygorowi zobowiązań prawnych i zasad etycznych dotyczących AI powinna zawsze wynikać z bezstronnej, regulowanej i zewnętrznej oceny ex ante opartej na konkretnych i określonych kryteriach. W tym względzie, sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, jeżeli ich rozwój, wdrażanie i wykorzystywanie wiąże się ze znacznym ryzykiem spowodowania obrażeń ciała lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii. Do celów oceny, czy technologie AI wiążą się z takim ryzykiem, należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać. Pierwsze i drugie kryterium, tj. sektor i konkretne zastosowanie lub cel, należy rozpatrywać łącznie.

Europejska certyfikacja zgodności z zasadami etycznymi

Elementem rezolucji jest również opracowanie, skoordynowanych na szczeblu UE, wspólnych kryteriów i procedury składania wniosków w odniesieniu do wydawania europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru.

Zgodnie ze stanowiskiem Parlamentu Europejskiego, taki europejski certyfikat zgodności z zasadami etycznymi zachęcałby do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji. Wskazuje się, że w przypadku technologii wysokiego ryzyka certyfikacja ta stanowiłaby obowiązkowy warunek wstępny kwalifikacji do uczestnictwa w procedurach udzielania zamówień publicznych w zakresie systemów sztucznej inteligencji, robotyki i powiązanych z nimi technologii.

Ochrona prywatności

W rezolucji wyraźnie wskazano również, że jest ona skonstruowana w oparciu o przeświadczenie, że wytwarzanie i wykorzystywanie danych, w tym danych osobowych, takich jak dane biometryczne, wynikające z rozwoju, wdrażania i wykorzystywania AI, robotyki i powiązanych technologii szybko wzrasta, co podkreśla potrzebę poszanowania i egzekwowania prawa obywateli do prywatności i ochrony danych osobowych zgodnie z prawem Unii.

Tak więc, ochrona danych osobowych (w tym oczywiście przestrzeganie RODO) jest kluczowe dla prawidłowego wdrażania i funkcjonowania systemów w oparciu o AI, szczególnie tych dotyczących profilowania.

Rezolucja zakłada również, że wykorzystanie AI przez organy publiczne do celów istotnego interesu publicznego powinno zawsze być ujawniane, proporcjonalne, ukierunkowane do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii, z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie praw podstawowych.

Rezolucja nr 2 – dotycząca odpowiedzialności cywilnej za AI

O propozycji przepisów regulujących zasady odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję przedstawionych w dniu 4 maja 2020 r. przez komitet ds. prawnych Parlamentu Europejskiego pisaliśmy na naszym blogu tutaj.

W rezolucji nie znajdziemy nowych rozwiązań w zakresie odpowiedzialności za szkodę, a jedynie nakierowanie wskazujące, że obecne regulacje powinny być na bieżąco monitorowane i doprecyzowywane. Podkreśla się jednak, że w każdym wypadku użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące AI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń.

Parlament Europejski w swojej rezolucji wskazuje, że bezpośrednią lub pośrednią przyczyną szkody mogą być zarówno fizyczne jak i wirtualne działania systemów AI, same zaś szkody są niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego.

Parlament Europejski wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów AI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe. Przypomniał jednocześnie, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem AI. Wobec powyższego, Parlament Europejski zauważył, że nie ma konieczności nadawania systemom AI osobowości prawnej.

Odpowiedzialność zależna od rodzaju ryzyka i odpowiedzialność operatora

W rezolucji wskazuje się, że istotnym czynnikiem determinującym odpowiedzialność powinien być rodzaj systemu AI, nad którym sprawuje kontrolę dany operator. Im większe ryzyko jakie niesie ze sobą system AI, tym większe zagrożenie dla chronionych wartości takich jak życie, zdrowie, własność. Z tego względu postuluje się w rezolucji stworzenie powszechnego, surowego systemu odpowiedzialności dla autonomicznych systemów AI obarczonych wysokim ryzykiem (odpowiedzialność na zasadzie ryzyka). Operator systemu AI, który nie jest systemem obarczonym wysokim ryzykiem może być natomiast pociągnięty do odpowiedzialności na zasadzie winy.

Parlament Europejski uważa, że przy ustalaniu, czy system AI stanowi wysokie ryzyko, należy wziąć pod uwagę sektor, oraz charakter podejmowanych działań. Zaznacza ponadto, że znaczenie tego potencjału zależy od wzajemnego oddziaływania między dotkliwością ewentualnych szkód, prawdopodobieństwem, że ryzyko spowoduje szkodę lub uszkodzenie, oraz sposobem wykorzystania systemu AI.

Parlament zaleca też, aby wszystkie systemy AI wysokiego ryzyka zostały wyczerpująco wymienione w załączniku (aneksie) do proponowanego rozporządzenia (które ma powstać w oparciu o rezolucje). Uważa, że można stworzyć także specjalny komitet, który zajmowałby się monitorowaniem systemów AI wysokiego ryzyka.

Pojęcie operatora należy rozumieć szeroko, jako obejmujące zarówno operatora front-end, jak i back – end. Operator front-end to osoba fizyczna lub prawna, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu AI i korzysta z jego działania. Z kolei operator back – end to osoba fizyczna lub prawna, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu AI.

Parlament uważa ponadto, że ze względu na złożoność i łączność systemu AI operator będzie w wielu przypadkach pierwszym widocznym punktem kontaktowym dla osoby poszkodowanej.

Parlament Europejski zauważa też, że mogą zaistnieć sytuacje, w których występuje więcej niż jeden operator, na przykład operator typu back – end i front – end. W takim przypadku wszyscy operatorzy powinni ponosić solidarną odpowiedzialność, mając jednocześnie prawo do roszczeń między sobą. Jest to odpowiedzialność solidarna i proporcjonalna.

Ubezpieczenie

Parlament Europejski jest zdania, że wszyscy operatorzy systemów AI wysokiego ryzyka wymienionych w załączniku (aneksie) do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej.

PE stoi na stanowisku, że w zakresie odpowiedzialności cywilnej za AI, Komisja powinna rozważyć przyjęcie rozporządzenia. W zakresie regulacji dotyczących ubezpieczenia, proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw: do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń. Proponowane rozporządzenie powinno również obejmować istotne szkody niematerialne, jeśli dana osoba podniosła zauważalną, tj. możliwą do zweryfikowania szkodę ekonomiczna.

Rezolucja nr 3 – dotycząca aspektów praw własności intelektualnej w stosunku do AI

Zgodnie z najkrótszą rezolucją przedstawioną przez Parlament, w zakresie praw własności intelektualnej w odniesieniu do AI, ważne jest aby odróżnić twórczość człowieka wspomaganą przez AI od twórczości autonomicznie generowanej przez AI. Twórczość generowana przez AI autonomicznie wiąże się z koniecznością wdrożenia regulacji w zakresie ochrony praw własności intelektualnej, takimi jak kwestie własności, wynalazczości i odpowiedniego wynagrodzenia, a także kwestie związane z potencjalną koncentracją na rynku.

Wskazuje jednocześnie, że prawa własności intelektualnej na rzecz rozwoju technologii AI należy odróżnić od wszelkich praw własności intelektualnej przyznawanych w odniesieniu do twórczości wytworzonej przez AI oraz podkreśla, że w przypadku gdy AI jest wykorzystywana wyłącznie jako narzędzie wspomagające autora w procesie tworzenia, nadal zastosowanie mają obecne ramy własności intelektualnej.

Parlament podkreśla, że twórczość technologiczna tworzona przez technologie AI musi być chroniona w ramach praw własności intelektualnej, aby zachęcić do inwestowania w tę formę twórczości i zwiększyć pewność prawa dla obywateli, przedsiębiorstw i wynalazców, którzy obecnie należą do najczęstszych użytkowników technologii AI. Wskazuje się jednocześnie, że dzieła wyprodukowane samodzielnie przez sztuczne podmioty i roboty mogą nie kwalifikować się do ochrony na podstawie prawa autorskiego w celu poszanowania zasady oryginalności związanej z osobą fizyczną, ponieważ pojęcie „twórczości intelektualnej” odnosi się do osobowości autora. Jednocześnie jednak, jeżeli zostanie ustalone, że takie utwory mogą być chronione prawem autorskim zaleca, aby wszelkie prawa własności przysługiwały wyłącznie osobom fizycznym lub prawnym, które stworzyły utwór zgodnie z prawem, i wyłącznie za zgodą podmiotu praw autorskich, jeżeli wykorzystywane są materiały chronione prawem autorskim, chyba że mają zastosowanie wyjątki lub ograniczenia dotyczące praw autorskich.

Co dalej?

Omówione pokrótce rezolucje Parlamentu Europejskiego stanowią wytyczne dla Komisji Europejskiej. Po analizie wyników konsultacji, w pierwszym kwartale 2021 r. Komisja powinna zaproponować horyzontalny wniosek regulacyjny. Będziemy zatem na bieżąco monitorować prace nad przedmiotowymi regulacjami – które jak się wydaje – będą miały znaczący wpływ na rynek.


[1] Tekst rezolucji dostępny tutaj: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_PL.html,

[2] Tekst rezolucji dostępny tutaj: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_PL.html,

[3] Tekst rezolucji dostępny tutaj: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0277_PL.html.