W gorącej dyskusji nad rozwojem rozwiązań opartych na tzw. sztucznej inteligencji (AI), w ostatnim czasie prym wiedzie ChatGPT. Technologia, na której jest oparty, jeszcze do niedawna była traktowana jako pewna ciekawostka. Teraz, nagle wkroczyła z rozmachem w codzienne życie – w tym obszar obrotu gospodarczego. Dyskusja przeniosła się z poziomu naukowego czy wręcz futurystycznego na bardzo konkretne zagadnienia, istotne nie tylko w branży IT i technologicznej. W artykule przedstawiamy najważniejsze zagadnienia, które trzeba wziąć pod uwagę przy praktycznym stosowaniu ChatGPT (i podobnych rozwiązań) we własnej działalności, a także uwzględniając ryzyko korzystania z niego również przez pracowników, współpracowników i podwykonawców.

Podstawowe fakty

ChatGPT jest chyba najbardziej rozpoznawalnym ostatnio narzędziem (obok np. narzędzi do generowania grafiki takich jak DALL·E 2 czy Midjourney), opartym na rozwiązaniach tzw. sztucznej inteligencji (AI). Jest to „chatbot” czyli oprogramowanie służące do prowadzenia konwersacji w sposób naśladujący ludzką komunikację. Aplikacja oparta jest na systemie „GPT-3” („Generative Pre-trained Transformer[1]), będącym z kolei modelem językowym, wykorzystującym tzw. „głębokie” uczenie maszynowe („deep learning”) do generowania tekstu podobnego do tworzonego przez ludzi. Tym samym, jego podstawowym przeznaczeniem jest przygotowywanie odpowiedzi na zadane przez użytkownika pytania.

Cały model, w celu osiągniecia swojej funkcjonalności, został we wspomnianym procesie „głębokiego” uczenia maszynowego „wytrenowany” na podstawie analizy ogromnej ilości danych, w tym danych zawartych w publicznie dostępnych bazach. Z kolei dane zostały uzupełnione informacjami pozyskanymi w wyniku wchodzenia w interakcje z ludzkimi użytkownikami na etapie wcześniejszego rozwoju modelu GPT – w szczególności przez jego poprzednie wersje: GPT-1 oraz GPT-2.

Zastosowania

Jak odkryły już miliony osób na całym świecie (w tym autorzy tego tekstu), ChatGPT może precyzyjnie odpowiadać na pytania użytkowników i wykonywać dla nich określone zadania: od dokonywania płynnych i świetnej jakości tłumaczeń tekstów, przez generowanie rozwiązań różnego rodzaju problemów, aż po wytwarzanie złożonych tekstów czy pisanie programów komputerowych.

Ze względu na wręcz zaskakująco wysoki poziom generowanych odpowiedzi, okazało się, że w obecnej, publicznie udostępnionej wersji ChatGPT może być z powodzeniem wykorzystywany m. in. do tworzenia programów komputerowych, przygotowywania tekstów marketingowych i wpisów w mediach społecznościowych, automatycznego edytowania tekstu czy tworzenia prezentacji lub dokumentacji. Uzyskane rezultaty mogą być dalej modyfikowane przez system na podstawie dowolnie wybranych parametrów (np. przepisywane według innego stylu wypowiedzi). I co istotne, rezultaty otrzymywane są błyskawicznie.

ChatGPT i technologia, na której jest oparty, ma ogromny potencjał, żeby stać się narzędziem powszechnie wykorzystywanym komercyjnie do wykonywania (albo przynajmniej znaczącego ułatwiania) zadań, zarezerwowanych do tej pory wyłącznie dla ludzi (i przypisanych ludzkiej kreatywności). Tymczasem już zapowiedziano kolejną wersję rozwiązania, opartą na ulepszonej wersji modelu, tj. GPT-4, który „uczony był” na o wiele większej ilości danych i parametrów wejściowych.

Powyższe sprawia, że mnożą się praktyczne zastosowania ChatGPT i coraz więcej osób wykorzystuje go w swojej pracy i to nie tylko w wersji darmowej, ale również za pośrednictwem komercyjnych narzędzi opartych na GPT-3 (z wykorzystaniem udostępnionego API).

W związku z tym, naturalnie nasuwają się pytania czy oprócz osobistego użytku można wykorzystywać ChatGPT i oparte na nim narzędzia w ramach prowadzonej działalności (w tym gospodarczej), czy jest to bezpieczne i zgodne z prawem, a także jakie ryzyka mogą się z tym wiązać.

Poniżej przedstawiamy kluczowe kwestie prawne, niezbędne do znalezienia odpowiedzi na wymienione wątpliwości.

Po pierwsze – dane

Żeby uzyskać od ChatGPT jakiekolwiek rezultaty, trzeba najpierw wprowadzić do niego właściwe zapytanie. Z tego punktu widzenia, sposób korzystania z narzędzia można podzielić na dwa przypadki (w zależności od rodzaju wprowadzanych danych):

  • pierwszy, w którym konkretne polecenia, wprowadzane w celu wygenerowania zupełnie nowej treści, nie zawierają danych stanowiących informacje chronione lub objęte szczególnym reżimem prawnym (np. polecenie, żeby system wygenerował krótki artykuł na ogólny temat).
  • drugi, który wymaga wprowadzenia konkretnych danych, materiałów czy tekstu w celu ich zmodyfikowania, rozbudowy, poprawienia czy przygotowania odpowiedzi, przy czym wprowadzane treści mogą zawierać dane stanowiące informacje chronione lub objęte szczególnym reżimem prawnym, np. dane osobowe.

Dwa sposoby korzystania z ChatGPT, wynikające z zakresu przekazywanych danych, implikują odmienne ryzyka dla użytkowników.

Wprowadzane dane

Użytkownik, wprowadzając do ChatGPT jakiekolwiek dane, przekazuje je do wykorzystania przez dostawcę narzędzia – amerykańską spółkę OpenAI L.L.C.

Zgodnie z postanowieniami warunków korzystania z produktów i usług dostawcy („Service Terms[2] i „Terms of Use[3]), dostawca ma prawo do wykorzystywania treści przetwarzanych w ramach udostępnianych użytkownikowi narzędzi na potrzeby utrzymania, rozwijania i ulepszania swoich technologii. Mowa tu nie tylko o danych wejściowych („Input”, czyli np. wprowadzanych do ChatGPT przez użytkownika treści w celu ich podsumowania i skrócenia), ale również o danych wyjściowych („Output”, czyli uzyskanego rezultatu – w tym przypadku podsumowania i skrócenia tekstu).

Co prawda z treści warunków OpenAI wynika, że przetwarzanie danych nie jest dokonywane w zupełnie dowolnym zakresie, a dostawca przewiduje możliwość cofnięcia przez użytkownika zgody na przetwarzanie (przynajmniej przez niektórych użytkowników). Jednakże należy mieć na uwadze, że wszelkie wprowadzone do ChatGPT dane przekazywane są do wykorzystania i przetwarzania przez dostawcę, posiadającego swoją siedzibę w USA, a zakres tego przetwarzania nie jest precyzyjnie określony. Dodatkowo, na podstawie warunków korzystania, dostawca ChatGPT nie podejmuje wobec użytkownika konkretnych zobowiązań do zachowania poufności wprowadzanych informacji.

Powyższe oznacza, że użytkownik, wprowadzając do ChatGPT dane stanowiące tajemnicę przedsiębiorstwa lub objęte zobowiązaniem do zachowania poufności, przekazuje je podmiotowi trzeciemu do bliżej niesprecyzowanego użytku, wprost zezwalając mu na to. Co więcej, z dostępnych publicznie informacji wynika, że dostawca ChatGPT ma techniczną możliwość uzyskiwania dostępu do przetwarzanych informacji na potrzeby „uczenia” maszyny zarówno w sposób zautomatyzowany, ale również „manualny”, tj. bezpośrednio przez swoich pracowników czy podwykonawców.

Należy zatem założyć, że jeżeli użytkownik wprowadzi do ChatGPT dane, obejmujące np. opis strategii biznesowej, to tym samym implikuje ryzyko, że dokument będzie mógł być pozyskany przez personel dostawcy, ale też zaprezentowany innym użytkownikom (lub wykorzystany do stworzenia analogicznej strategii dla konkurencyjnego podmiotu). Podobnie, jeżeli przedsiębiorca wprowadzi poufne informacje dotyczące swojego klienta czy kontrahenta, potencjalnie będzie mogło zapoznać się z nimi nieograniczone grono osób po stronie dostawcy i podmiotów powiązanych.

Oznacza to, że wykorzystywanie ChatGPT w celach biznesowych, polegających na analizie wprowadzonych, poufnych danych, może doprowadzić do ujawnienia informacji prawnie chronionych (w tym tajemnicy przedsiębiorstwa czy innych tajemnic regulowanych szczególnymi przepisami prawa, jak np. tajemnica lekarska czy bankowa) i naruszenia w ten sposób zobowiązań umownych czy przepisów prawa.

Taki skutek powoduje, że zastosowanie ChatGPT w działalności gospodarczej wymaga właściwej kontroli, w tym przygotowania odpowiednich regulacji i wytycznych odnośnie możliwości i zakresu korzystania z narzędzia przez personel czy podwykonawców.

Dane osobowe

Odrębnym zagadnieniem jest regulacja w zakresie przetwarzania danych osobowych.

Zgodnie z postanowieniami polityki prywatności produktów i usług OpenAI, podczas korzystania przez użytkownika z udostępnianych narzędzi (w tym również ChatGPT), dostawca pozyskuje następujące dane dot. użytkownika: dane osobowe, informacje o komunikacji, dane o logowaniach, dane o użytkowaniu, dane analityczne, pliki cookies. Mogą one być wykorzystane między innymi do zapewniania, utrzymywania, ulepszania i analizowania świadczonych produktów i usług, prowadzenia badań, rozwijania nowych produktów i usług. Co więcej, dane te mogą być udostępniane różnego rodzaju podmiotom trzecim, a także mogą być przekazywane i przetwarzane na terytorium Stanów Zjednoczonych.

Niezależnie od powyższego, dane osobowe mogą być zawarte w treści wprowadzanej do ChatGPT i przetwarzanej na zasadach już wcześniej opisanych.

Nie ulega wątpliwości, że wykorzystanie omawianego rozwiązania przez polskich czy europejskich użytkowników w zakresie obejmującym przetwarzanie danych osobowych będzie wprost podlegało regulacjom RODO, a zatem powinno być dokonywane zgodnie z zasadami określonymi w przepisach. Co więcej, przy takim korzystaniu z ChatGPT potencjalnie może dochodzić do przekazania danych osobowych poza obszar EOG (na dzień sporządzania tego artykułu z dostępnych autorom informacji wynika, że infrastruktura ChatGPT, w ramach której przetwarzane są dane, znajduje się na obszarze Stanów Zjednoczonych).

Wskazuje na to sama treść polityki prywatności dostawcy ChatGPT. Wynika z niej, że użytkownik, który zamierza przetwarzać dane osobowe i tym samym będzie podlegał obowiązkom wynikającym z RODO, powinien zawrzeć z dostawcą rozwiązania dodatkową umowę przetwarzania danych („Data Processing Addendum”).

W razie wątpliwości, w celu usunięcia ryzyka prawnego związanego z korzystaniem z ChatGPT na gruncie przepisów dot. ochrony danych osobowych, można zastosować alternatywę w postaci usunięcia takich danych z wszelkich materiałów wprowadzanych do narzędzia.

Po drugie – trudne pytania o własność intelektualną

W dyskusji nad rozwojem systemów tzw. sztucznej inteligencji oraz ich wykorzystaniem w kolejnych zastosowaniach jako jeden z głównych wątków pojawia się oczywiście problem praw własności intelektualnej. Dotyczy on również ChatGPT. W tym zakresie można wyróżnić trzy główne zagadnienia prawne:

  1. problem ewentualnych naruszeń praw własności intelektualnej osób trzecich w toku „uczenia” systemu oraz jego uruchamiania;
  2. kwestia statusu i ochrony generowanych wyników;
  3. zagadnienie podmiotów uprawnionych do wykorzystania rezultatów.

Uczenie maszynowe a prawo autorskie

Kwestia uczenia maszynowego budzi duże emocje oraz już teraz przyczynia się do podejmowania konkretnych kroków prawnych, zwłaszcza składania pozwów przeciwko dostawcom rozwiązań opartych na tzw. „sztucznej inteligencji” (AI). W celu „wytrenowania” danego systemu niezbędne jest dokonanie systematycznej analizy i przetworzenia ogromnej ilości danych, w tym również danych będących utworami chronionymi na podstawie przepisów prawa autorskiego w różnych jurysdykcjach. Osią sporu jest prawo operatorów „uczących się” systemów do korzystania z dostępnych publicznie zbiorów danych. Głównym zarzutem stawianym operatorom takich systemów jest fakt, że bezprawnie dokonują one pozyskania i przetworzenia dostępnych danych w sposób masowy i automatyczny (czyli tzw. „web scrapingu”), które następnie są wykorzystywane do tworzenia własnych wyników. Według podmiotów zgłaszających roszczenia, takie działania mają stanowić naruszenie praw oryginalnych twórców lub innych podmiotów uprawnionych. W tym miejscu warto wskazać, że podobne roszczenia mogą zgłaszać podmioty posiadające prawa do baz danych, na których „uczą się” systemy oparte na rozwiązaniach z zakresu tzw. sztucznej inteligencji.

Powyższy problem został już wcześniej dostrzeżony przez ustawodawców w różnych krajach świata oraz Unii Europejskiej, gdzie częściowe ramy regulacyjne w tym zakresie wprowadzono tzw. Dyrektywą DSM[4]. Nakłada ona na ustawodawców krajowych obowiązek implementacji przepisów dających możliwość podmiotom trzecim zwielokrotnienia baz danych lub utworów w rozumieniu prawa autorskiego na potrzeby uczenia maszynowego (i to zarówno na potrzeby naukowe, jak i komercyjne, przy czym uprawniony ma prawo odmówić w przypadku zastosowań komercyjnych). Stosowne przepisy zostały przyjęte w niektórych państwach UE. W przypadku Polski proces legislacyjny nadal trwa i zmiany są ciągle procedowane (w dacie pisania niniejszego artykułu).

Powyższa kwestia jest bez wątpienia bardzo interesująca na gruncie prawnym. Jednakże w ocenie autorów, staje się ona kluczowa przede wszystkim dla twórców i dostawców takich systemów, biorąc pod uwagę praktyczne aspekty stosowania ChatGPT i podobnych narzędzi. To właśnie ich w pierwszej kolejności będzie dotyczyć ryzyko wynikające ze zgłaszanych roszczeń.

Utwór czy nie utwór?

Drugim zagadnieniem o dużo większym znaczeniu praktycznym dla użytkowników ChatGPT i podobnych rozwiązań jest status generowanych wyników. W tym zakresie za punkt wyjściowy do rozważań należy uznać pytanie – czy takie wyniki są utworami w rozumieniu przepisów prawa autorskiego. Dyskusja ekspertów nabrała dużego znaczenia, a rozstrzygniecie tej kwestii stało się palącym problemem. Wątpliwość wynika z faktu, że w większości porządków prawnych jednym z niezbędnych kryteriów uznania danego elementu za utwór w rozumieniu prawa autorskiego jest jego stworzenie przez człowieka (jest tak m. in. na gruncie prawa polskiego). Prawo autorskie w swoim założeniu ma bowiem chronić efekty ludzkiej działalności twórczej.

W związku z tym pojawiają się opinie, że nawet jeśli dany element wygenerowany przez ChatGPT posiada cechy identyczne jak materiał stworzony przez ludzkiego twórcę, to i tak nie będzie on uznawany za utwór w rozumieniu prawa autorskiego – gdyż nie spełnia ustawowej przesłanki, jaką jest ludzkie autorstwo. Skutkiem przyjęcia takiego podejścia jest uznanie braku ochrony prawnoautorskiej, co może umożliwić np. swobodne kopiowanie, przerabianie i ekonomiczną eksploatację takich elementów.

Pojawiają się również odmienne stanowiska, zgodnie z którymi elementy wytwarzane przez ChatGPT i podobne systemy mogą być uznawane za utwory na gruncie obowiązujących przepisów prawa autorskiego ze względu na fakt, że finalnie posiadają one ludzkiego twórcę. Propozycje są tutaj zróżnicowane, ale w tym podejściu jako twórcę wskazuje się m. in. operatora danego systemu (lub też podmiot, który go zbudował i „wytrenował”) czy też użytkownika końcowego (jako określającego kryteria tworzonego przez system elementu, a przez to wnoszącego fundamentalny elementy twórczy do powstającego wyniku).

Na ten moment powyższa kwestia jest nierozstrzygnięta. Wydaje się, że do usunięcia wątpliwości niezbędna będzie interwencja ustawodawców w konkretnych jurysdykcjach. Oczywiście potencjalne rozstrzygnięcia mogą przynieść również wyroki sądów w sprawach dotyczących powyższych zagadnień (pierwsze pozwy już trafiają na wokandy w różnych krajach świata).

W ocenie autorów w omawianym kontekście godna uwagi jest instytucja tzw. utworów generowanych maszynowo („computer generated works”), która funkcjonuje już od lat w niektórych jurysdykcjach (np. w Wielkiej Brytanii). Zgodnie z brytyjską regulacją (ustawa z 1988 r. Copyright, Designs and Patents Act), tego typu utwory definiowane są jako utwory wygenerowane komputerowo w okolicznościach, gdzie brak jest człowieka będącego autorem (twórcą) danego utworu („the work is generated by computer in circumstances such that there is no human author of the work”). Utwory te objęte są ochroną prawnoautorską, natomiast prawa autorskie do takiego utworu przysługują osobie, która podjęła działania niezbędne do jego wytworzenia. Więcej szczegółów odnośnie instytucji utworów generowanych maszynowo znaleźć można w artykule na naszym blogu.

Wśród licznych wątpliwości prawnych co do statusu wyników generowanych przez ChatGPT i podobne systemy warto też wskazać, że uznanie takich elementów za utwory otwiera kolejny obszar dyskusji obejmujący relację tych elementów do utworów, na podstawie których dany system (w tym ChatGPT) został „wytrenowany”. Według skrajnych stanowisk elementy generowane przez AI powinny być uznane za utwory zależne (lub odpowiedniki tej instytucji w innych jurysdykcjach) w stosunku do utworów, na których „uczył się” dany system. Zgodnie z tą koncepcją, wykorzystanie wyników generowanych przez dany system wymagałoby np. zgody twórców utworów pierwotnych, co w praktyce wiązałoby się z koniecznością dopełnienia niezbędnych formalności oraz zapłatą odpowiednich kwot na ich rzecz. Przyjęcie takiego założenia powodowałoby poważne skutki również dla użytkowników końcowych ChatGPT, gdyż wykorzystanie przez nich wyników generowanych przez AI we własnej działalności mogłoby stanowić naruszenie praw twórców utworów pierwotnych i w konsekwencji skutkować powstaniem bezpośredniej odpowiedzialności (niezależnej od odpowiedzialności dostawcy systemu).

W naszej ocenie powyższe stanowisko nie jest uzasadnione i wydaje się wynikać z braku świadomości „technicznego” sposobu działania ChatGPT i podobnych narzędzi. Jednakże doskonale pokazuje brak rozstrzygnięcia podstawowych kwestii dotyczących stosowania tej rewolucyjnej technologii oraz wysoki poziom niepewności na gruncie prawnym towarzyszący jej stosowaniu. Co gorsza, obecne ramy ochrony prawnoautorskiej oparte są na regulacjach tworzonych w czasach, gdy tzw. sztuczna inteligencja w ogóle nie istniała i była omawiana w kategoriach science-fiction, przez co podstawowe instytucje prawa autorskiego ewidentnie nie przystają do nowej rzeczywistości. Obecnie kluczowe staje się przemyślenie nawet tak podstawowych elementów regulacji, jak cechy utworu (w tym zakresie polecamy poniższy artykuł z naszego bloga). W związku z czym użytkownicy ChatGPT powinni z uwagą śledzić prowadzoną debatę. Może się bowiem okazać, że użycie uzyskanych elementów za jakiś czas będzie uznane za naruszenie praw osób trzecich.

Jeśli utwór – to czyj?

Idąc o krok dalej, jeżeli uznamy, że materiały generowane przez ChatGPT mogą być utworami w rozumieniu prawa autorskiego (o ile spełnią pozostałe ustawowe kryteria), to trzeba będzie odpowiedzieć na pytanie: komu przysługują prawa do nich.

Warunki korzystania z ChatGPT jednoznacznie nie rozstrzygają tej kwestii. Zgodnie z warunkami używania produktów i usług OpenAI, w zakresie prawnie dozwolonym OpenAI przenosi na użytkownika wszelkie prawa do wszystkich treści wygenerowanych przy użyciu oferowanych narzędzi, zatem również wytworzonych przez ChatGPT („OpenAI hereby assigns to you all its right, title and interest in and to Output”). Dostawca zastrzega sobie przy tym prawo wykorzystywania tych treści w zakresie niezbędnym do świadczenia i utrzymania swoich usług, a także przestrzegania prawa i wewnętrznych regulacji („OpenAI may use Content as necessary to provide and maintain the Services, comply with applicable law, and enforce our policies”). Użytkownik jest dodatkowo odpowiedzialny za zapewnienie, że wygenerowane treści nie będą naruszały prawa ani warunków użytkowania usług OpenAI. Co istotne, w przytoczonej regulacji wprost wskazano, że wygenerowane treści nie muszą mieć unikalnego charakteru i wielu użytkowników może uzyskać takie same lub bardzo zbliżone rezultaty. Ponadto postanowienia warunków korzystania nie przewidują wprost żadnych ograniczeń co do zakresu przeznaczenia uzyskanych treści (np. w celach komercyjnych).

Co ciekawe, zapytany o tę kwestię ChatGPT podaje odpowiedź, z której wynika, że wszelkie prawa do generowanych materiałów przysługują dostawcy (OpenAI) i nie można z nich korzystać w celach komercyjnych. Trzeba jednak pamiętać, że w dacie pisania tego artykułu, aktualność danych, na których bazuje ChatGPT, była ograniczona do 2021 r. (z pewnymi wyjątkami obejmującymi dane z 2022 r.), wobec czego punktem wyjścia powinna być bieżąca treść warunków korzystania.

Nie zmienia to faktu, że dostawca ChatGPT stoi na stanowisku, zgodnie z którym prawa do generowanych treści w pierwszej kolejności przysługują właśnie jemu, a następnie przenosi on je w maksymalnym zakresie na użytkownika końcowego. Oczywiście w dalszym ciągu kwestia ta budzi poważne wątpliwości na gruncie powszechnie obowiązujących przepisów prawa, jak już wskazywaliśmy powyżej. W związku z czym do stanowiska dostawcy należy podchodzić z dużą ostrożnością.

W naszej ocenie można jednak założyć, że opisane ukształtowanie postanowień warunków korzystania z usług OpenAI w istotnym stopniu ogranicza ryzyko użytku komercyjnego materiałów przez użytkownika końcowego. Bowiem można uznać, że dostawca udzielił użytkownikowi szerokiej licencji na korzystanie z tych elementów.

Takie podejście dostawcy jest w pełni zrozumiałe z biznesowego punktu widzenia. Zgodnie z komunikacją dostawcy, jego celem jest przede wszystkim komercjalizacja opracowanych technologii, a nie czerpanie finansowych korzyści z eksploatacji wygenerowanych utworów. Do osiągnięcia tego celu bez wątpienie niezbędne jest umożliwienie użytkownikom końcowym czerpania korzyści z treści wytworzonych przez m. in. ChatGPT w najszerszym zakresie.

Należy pamiętać, że nawet korzystne uregulowania zawarte w umowie z dostawcą ChatGPT nie będą stanowiły wystarczającej ochrony w przypadku uznania, że wygenerowane utwory naruszają prawa osób trzecich (np. twórców utworów, na których „uczył się” chat). Dlatego zawsze warto zachować ostrożność w korzystaniu z tych elementów, przede wszystkim w przypadku ich publikacji w niezmienionej formie, zwłaszcza że coraz częściej pojawiają się narzędzia do wykrywania treści wytworzonych przez ChatGPT.

Po trzecie – AI też ma prawo do błędu

Na koniec warto podkreślić, że treści wygenerowane przez ChatGPT nie zawsze będą prawidłowe i zgodne z prawdą, co OpenAI wyraźnie zaznacza w swojej komunikacji oraz w warunkach korzystania z usług, wyłączając przy tym swoją odpowiedzialność w maksymalnym zakresie.

Krótko mówiąc, wyniki otrzymywane z ChatGPT mogą być wadliwe i spowodować szkodę dla pytającego. Należy uznać, że użytkownik końcowy wykorzystuje je na własne ryzyko i odpowiedzialność, bez możliwości dochodzenia ewentualnych roszczeń wobec dostawcy.

ChatGPT – jak bezpiecznie korzystać już teraz

Bez wątpienia, w obecnej dyskusji dotyczącej prawnych aspektów rozwiązań tzw. sztucznej inteligencji (AI) więcej jest pytań niż odpowiedzi. Co więcej, rozstrzygnięcia wymagają najbardziej fundamentalne kwestie, przede wszystkim pytanie czy wyniki generowane przez tego typu narzędzia podlegają ochronie prawnej i na jakiej podstawie. Z drugiej strony zalety tego typu rozwiązań technologicznych są na tyle znaczące, że wiele osób i podmiotów już wykorzystuje je w swojej działalności lub będzie to rozważało, zwłaszcza że dostawcy umożliwiają ich komercjalizację w ramach dedykowanych narzędzi wykorzystujących udostępnione API.

Zatem, pomimo wskazanych wątpliwości prawnych, już teraz można sformułować pewne generalne zasady korzystania z ChatGPT i podobnych narzędzi:

  • należy unikać wprowadzania do nich treści, które zawierają dane osobowe, informacje stanowiące chronioną tajemnicę przedsiębiorstwa lub objęte zobowiązaniami do zachowania poufności, a także tajemnice zawodowe oraz wszelkie dane, które nie powinny zostać ujawnione osobom trzecim.

Warto pamiętać, że wszystkie treści wprowadzone do ChatGPT potencjalnie mogą zostać ujawnione lub wykorzystane przez dostawcę i podmioty powiązane;

  • trzeba mieć na uwadze, że użytkownik, korzystając z ChatGPT, przekazuje dane poza obszar Unii Europejskiej, tj. do dostawcy mającego siedzibę w Stanach Zjednoczonych;
  • konieczne jest uwzględnienie istotnych wątpliwości prawnych co do charakteru wyników generowanych przez ChatGPT (mogą one zostać uznane w przyszłości za naruszające prawa, w tym prawa autorskie czy osób trzecich);
  • powinno się mieć na uwadze, że treści generowane przez ChatGPT nie zawsze muszą być prawidłowe i można mieć do czynienia z brakiem podstawy do kierowania roszczeń z tego tytułu do dostawcy rozwiązania.

Trzeba również mieć świadomość, że nawet jeżeli my lub nasza organizacja nie zdecydujemy się na korzystanie z narzędzi opartych na rozwiązaniach podobnych do ChatGPT, to obecnie są one używane przez wiele podmiotów na rynku. Wraz z rozwojem tej technologii, zastosowanie jej będzie się upowszechniać. Z tego powodu warto już teraz wprowadzić rozwiązania, które zabezpieczą interes pojedynczych osób czy przedsiębiorstw.

  • Przede wszystkim, rekomendowane jest wprowadzenie stosownych postanowień umownych do umów z pracownikami, współpracownikami (w tym zwłaszcza w modelu B2B) czy zewnętrznymi wykonawcami. W ramach tych postanowień należy uregulować dopuszczalność korzystania z ChatGPT i podobnych narzędzi oraz konsekwencje użycia generowanych przez nie wyników w toku realizacji umowy (np. gdy okaże się, że korzystanie z tych elementów narusza prawa osób trzecich). Rozwiązaniem minimalnym jest wprowadzenie stosownego obowiązku informacyjnego o wykorzystywaniu takich narzędzi. Zaimplementowanie takich postanowień jak najwcześniej (np. przez aktualizację wzorów umów) przyczyni się do zmniejszenia kosztów i ograniczenia ryzyka powstania poważnych problemów w przyszłości.
  • Po drugie, warto rozważyć wprowadzenie generalnych polityk stosowania narzędzi opartych na tzw. sztucznej inteligencji (AI) – zwłaszcza w organizacjach, w których praca kreatywna stanowi istotny element działalności (np. podmioty z branży kreatywnej, nowych technologii lub producenci oprogramowania). W ramach tych polityk możliwe jest kompleksowe uregulowanie kwestii związanych z korzystaniem przez personel czy dostawców z systemów AI. Może to okazać się konieczne w celu zagwarantowania bezpieczeństwa i poufności danych przetwarzanych w organizacji, co obecnie stanowi jeden z kluczowych czynników warunkujących sukces przedsiębiorstwa. Wprowadzenie takich polityk na pewno będzie miało też skutek edukacyjny dla personelu i wykonawców, podkreślając potencjalne ryzyka i ograniczenia wynikające z używania ChatGPT i podobnych narzędzi.

Bez wątpienia powyższe działania zwiększą bezpieczeństwo organizacji na przyszłość, gdy tzw. sztuczna inteligencja prawdopodobnie będzie zjawiskiem tak powszechnym jak dzisiaj Internet.


[1] na dzień pisania tego artykułu w wersji 3.5

[2] https://openai.com/api/policies/service-terms/

[3] https://openai.com/terms/

[4] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE (Dz. U. UE. L. z 2019 r. Nr 130, str. 92).