Sztuczna inteligencja coraz mocniej wkracza w codzienność, przyspieszając i ulepszając wiele procesów. W ostatnim czasie na topie znalazł się ChatGPT, który jest w stanie napisać artykuł, stworzyć kod programistyczny czy opracować trasę zwiedzania Rzymu.

Szerokie możliwości ChatGPT sprawiają, że coraz więcej osób i organizacji zaczyna zastanawiać się nad jego wykorzystaniem w codziennych czynnościach zawodowych. Czy jednak jest to zawsze bezpieczne dla firm?

W pierwszym odcinku III sezonu TKP on air odpowiedzi na to pytanie udzieli mec. Marcin Ręgorowicz w rozmowie z mec. Michałem Sobolewskim.

Z odcinka dowiedzą się Państwo:

  • gdzie w biznesie może być wykorzystywany ChatGPT?
  • co dzieje się z wprowadzanymi danymi?
  • kto odpowiada za szkody powstałe wskutek używania ChatGPT?
  • jak przedsiębiorcy mogą zabezpieczyć się przed ryzykiem związanym z posługiwaniem się modelami językowymi przez pracowników czy kontrahentów?

Zapraszamy do wysłuchania podcastu!

 

Michał Sobolewski: Debata na temat przyszłości sztucznej inteligencji rozgorzała na dobre, a Chat GPT stał się jej głównym bohaterem. Według doniesień, liczba użytkowników tego modelu językowego w rekordowym tempie miała przekroczyć 100 milionów użytkowników, a Microsoft ogłosił, że zrewolucjonizuje wyszukiwanie dzięki zintegrowaniu Chatu GPT ze swoją wyszukiwarką Bing. Chat GPT pomaga weryfikować kody, pisać artykuły, tłumaczyć teksty, rozwiązywać zadania, a to tylko przykłady jego zastosowań. Pojawia się przy tym pytanie – czy i w jakim zakresie można legalnie korzystać z tego narzędzia? Jakie czają się przy tym ryzyka i jak można im zaradzić? O tym w dzisiejszym podcaście porozmawiamy z radcą prawnym Marcinem Ręgorowiczem, specjalistą prawa własności intelektualnej w zakresie branży IT oraz nowych technologii.

Marcin Ręgorowicz: Dzień dobry.

Michał Sobolewski: Marcin, mamy pasjonujący temat, o którym wszyscy mówimy od kilku miesięcy. Mam wrażenie, że być może doświadczamy prawdziwego przełomu w tym, jak będzie wyglądało nasze funkcjonowanie w sieci i na świecie. Chciałbym zacząć od otwartego pytania. Jakie było twoje pierwsze pytanie do Chatu GPT?

Marcin Ręgorowicz: O ile dobrze pamiętam, pytanie brzmiało mniej więcej: przygotuj dla mnie plan wycieczki po Rzymie i okolicach z uwzględnieniem wymienionych potem kryteriów, jak lokalizacja, okres historyczny, z jakiego najbardziej interesują mnie zabytki i najlepszej efektywności czasowej. Pierwsze zadanie polegało na przygotowaniu takiej rozpiski.

Michał Sobolewski: Jak mu poszło?

Marcin Ręgorowicz: Świetne! Muszę powiedzieć, że rewelacyjnie i też bardzo zgadzało się z moimi wcześniejszymi planami. Świetnie zagrało ułożenie marszruty i planu, żeby było efektywne. Także I was hooked i wciągnąłem się w to, bo zauważyłem, jak świetne jest to narzędzie.

Michał Sobolewski: Wiem, że to nie jest proste zadanie, ale spróbujmy w paru słowach opowiedzieć, czym konkretnie jest ChatGPT i na jakiej zasadzie działa?

Marcin Ręgorowicz: To zdecydowanie będzie odpowiedź w bardzo prostych słowach i z ogromnymi uproszczeniami. Po pierwsze, musimy pamiętać, że ChatGPT jest chat botem, czyli aplikacją służącą do prowadzenia konwersacji. Aplikacja bazuje na silniku, jakim jest właśnie GPT w tej chwili w wersji 3,5, czyli Generative Pre-trained Transformer.Jest to model językowy, który służy do generowania odpowiedzi na pytania zadane w języku naturalnym. Jego założeniem jest naśladowanie ludzkiej konwersacji, ludzkiej mowy i generowanie odpowiedzi na wprowadzone pytania. To jest warstwa zewnętrzna, taka funkcjonalna, którą widzimy. Żeby powiedzieć krótko, na czym polega to działanie, to już byśmy musieli wejść w bardzo skomplikowane zagadnienia. Ja też nie chcę udawać, że je do końca rozumiem w pełnym zakresie, bo obejmuje to tak naprawdę wyższą matematykę. Natomiast, w ogromnym uproszczeniu można powiedzieć, że istotą działania tego typu narzędzi, zwłaszcza modelu GPT, jest przewidywanie najlepszej statystycznie kontynuacji konwersacji czy odpowiedzi do informacji, które zostały wprowadzone do ChatGPT. Zasada działania ChatGPT polega na tym, że wprowadzamy pewien ciąg informacji w języku naturalnym. System rozbija to na pewne części składowe tzw. Tokeny.Następnie, posiadając wytrenowane algorytmy, jest w stanie przypisać tym znakom poszczególne wartości i stworzyć matematyczny model określający co oznacza wprowadzona przez użytkownika fraza i na tej podstawie może przewidzieć i wygenerować coś, co statystycznie powinno być najlepszą odpowiedzią na zadane informacje. To jest istota działania tego i podobnych systemów.

Michał Sobolewski: I to wszystko prowadzi do tego, że rozmawiając z takim chatbotem mamy wrażenie, że prowadzimy prawdziwą rozmowę jakby  ktoś był po drugiej stronie i nam odpowiadał w naprawdę niezłym stylu. Ale powiedz mi jeszcze, czy to jest jedyny taki model, który funkcjonuje na rynku, czy są jeszcze inne tego typu systemymoże działający na trochę innej zasadzie, ale o podobnym mechanizmie funkcjonowania?

Marcin Ręgorowicz: To, co opisałem wcześniej, to jest model, który możemy zastosować również do innych rozwiązań, jak na przykład drugi najbardziej popularny ostatnio sposób zastosowania tego typu systemów, czyli generowanie grafiki, które zrobiło się bardzo głośne i popularne. Zasada działania pozostaje bardzo zbliżona. Natomiast różnią się oczywiście techniczne modele, które stoją za poszczególnym narzędziem i są jego silnikiem. Różnią się oczywiście technicznie, tym co generują, jak działają, jak są trenowane algorytmy, na jakich danych się uczą. Natomiast z perspektywy użytkownika, popularnymi narzędziami, równie głośnymi są, tak jak wspomniałem, narzędzia generujące grafiki typu Stable Diffusion, Midjourney czy DALL-E również od Open AI, które również zdobyły ostatnimi czasy duży rozgłos przez to, że produkują naprawdę świetne grafiki, piękne obrazy i wyzwoliły ogromną kreatywność w rzeszach ludzi, którzy z pędzlem czy programem graficznym nie byli za bardzo za pan brat, a mogą teraz się stać wspaniałymi artystami.

Michał Sobolewski: Ja sam miałem okazję skorzystać z Midjourney i poprosiłem go o namalowanie prawnika grającego na gitarze w parku.

Marcin Ręgorowicz: I jak się udało?

Michał Sobolewski: Świetnie! Przepiękny obrazek, muszę go powiesić sobie nad łóżkiem.

Marcin Ręgorowicz: Ale też i tematyka wdzięczna, prawda? Efekty zastosowań są świetne. Ale oczywiście ich zastosowań czy dostępnych narzędzi jest sporo, bo to jest generowanie muzyki czy filmów. Słyszymy o tych deep fakach, czyli generowaniu zdjęć czy filmów na podstawie żywych obrazów czy tworzenie zupełnie nowych. Ale też schodząc na bardziej przyziemny i codzienny poziom, to zakładam, że spora część również z Państwa słuchających korzystała z takiego narzędzia jak Deepl, czyli translatora, który również oparty jest na tego typu zasadzie działania. Tych narzędzi jest mnóstwo. Są też narzędzia, które służą np. do generowania kodu programistycznego i tworzenia programów komputerowych.

Michał Sobolewski: Rozumiem, że te rozwiązania są na tyle uniwersalne, że tak naprawdę dla każdego znajdą zastosowanie. Ale czy przychodzą Ci do głowy konkretne branże, które będą mogły zrobić z nich największy użytek?

Marcin Ręgorowicz: Powiem teraz coś, co może zabrzmieć kontrowersyjnie i tu wyraźnie zaznaczam, że nie płynę teraz na fali tzw. hype’u. Moim zdaniem tego typu narzędzia czy narzędzia oparte na tej zasadzie działania będą miały ogromny wpływ i będą mogły być zastosowane tak naprawdę we wszystkich branżach, które w jakikolwiek sposób wykonują swoją pracę za pomocą komputera. Wydaje mi się, że ChatGPT oraz narzędzia generujące grafikę, takie jak DALL-E czy Midjouney, przełamały taką barierę, która nam się zawsze wydawała nieprzekraczalna, czyli barierę ludzkiej kreatywności, twórczości artystycznej. Więc skoro sztuczna inteligencja czy narzędzia na niej oparte potrafią generować obrazy, które są nierozróżnialne od obrazów tworzonych przez ludzkich artystów, to moim zdaniem można powiedzieć, że nie ma żadnych granic do zastosowania tego typu narzędzi i one zrewolucjonizują wszystkie branże. I wszystkie branże, które robią coś za pomocą komputerów mogą przyjąć, że te narzędzia będą dla nich bardzo użyteczne.

Michał Sobolewski: Nie wiem, czy słyszałeś, ale wydawnictwa są podobno zalewane opowiadaniami, które są generowane przez sztuczną inteligencję.

Marcin Ręgorowicz: Tak. Również wydaje mi się, że to nie jest żadna tajemnica, że spora część takich treści jak krótkie artykuły prasowe, zwłaszcza informacyjne, bardzo często nie jest już tworzona przez ludzkich twórców. Wydaje mi się, że tego typu zjawiska będą zachodziły tak naprawdę we wszystkich branżach, które tworzą coś lub wytwarzają jakieś produkty za pomocą komputera. Jeżeli nasza praca polega na siedzeniu przy komputerze, to w tej branży można się spodziewać rewolucji.

Michał Sobolewski: Widzimy gigantyczne szanse i wydaje się, że każdy, kto zetknie się z tymi modelami, o których rozmawiamy, też je zauważy. Dlatego chcemy dzisiaj skupić się nad czymś trochę innym, czyli na ryzykach, zwłaszcza od strony prawnej. Czy mógłbyś nam opowiedzieć na czym te ryzyka polegają i w jakich obszarach będą się pojawiały?

Marcin Ręgorowicz: Oczywiście. Prawnicy to zamiast cieszyć się z nowych technologii, muszą mówić o ryzykach. Oczywiście oprócz ogromnych szans i możliwości, które niosą te systemy, jest sporo ryzyk. I nie mówię teraz o takich ryzykach, jak skutki gospodarcze, dotykające poszczególnych branż, czy skutki społeczne. Natomiast chcę powiedzieć przede wszystkim o ryzykach prawnych, które już teraz mamy zidentyfikowane. Te ryzyka są istotne i dotyczą fundamentalnych kwestii związanych z istotą stosowania tych narzędzi. W centrum tego, co się dzieje, jest oczywiście własność intelektualna w kontekście tego, co te narzędzia przyjmują i wydają. To są rzeczy, które najczęściej objęte są prawami własności intelektualnej. Na tym polu jest bardzo dużo ryzyk. Po pierwsze, kwestia samego procesu uczenia czy trenowania tych modeli. One, oczywiście jak wiemy, potrzebują przeanalizowania i przetworzenia ogromnej ilości danych zawartych w różnych bazach danych czy dostępnych w Internecie. Pojawia się tu pierwszy problem z prawami osób, które takie dane umieszczają w tych bazach, czyli na przykład twórców grafik, twórców muzyki czy tekstów. Model potrzebuje przetworzyć te dane i tutaj się pojawia podstawowe ryzyko, czy nie są naruszane w tym procesie prawa tych osób. Drugie istotne ryzyko wiąże się z dużym prawdopodobieństwem, że taki model potrzebuje np. zgody oryginalnych twórców czy uprawnionych, żeby tak robić. Oczywiście np. legislacja europejska wprowadziła tutaj jeszcze niezaimplementowaną dyrektywę. Prace legislacyjne nad nowelizacją prawa autorskiego trwają. Dyrektywa ta wprowadza wyjątek umożliwiający korzystanie z takich danych i z utworów będących na przykład utworami w rozumieniu prawa autorskiego na potrzeby uczenia się maszynowego. Po trzecie, klasyfikację tego, czym jest utwór czy wytwór, wynik generowany przez sztuczną inteligencję i  czy to jest utwór.

Michał Sobolewski: Czyli to, co otrzymujemy jako użytkownicy? Prosimy o wygenerowanie odpowiedzi na nasze pytanie i ryzyko wiąże się z  tym, co z nią zrobimy.

Marcin Ręgorowicz: Dokładnie tak. Tutaj się pojawia oczywiście pytanie czym jest ten wynik, który jest generowany, czy on będzie utworem? A jeżeli tak, to jak będzie chroniony? Czy będzie chroniony jako utwór w rozumieniu prawa autorskiego, bo go zakwalifikują jako utwór, czy też nie będzie takim utworem. I co w takiej sytuacji? Czy będziemy go chronić na innej podstawie? A jeżeli byśmy przyjęli, że taki wytwór, który niczym się nie różni, np. grafika wygenerowana przez taki system, niczym się nie różni od takiej namalowany przez człowieka, to w takiej sytuacji, jeżeli przyjmiemy, że to jest jakiś utwór, to komu przysługują do niego prawa? I tu są bardzo różne poglądy, toczy się bardzo gorąca dyskusja na ten temat. My również w ramach kancelarii bierzemy w niej udział. Na naszym blogu można zapoznać się z artykułami na ten temat. I tutaj się oczywiście pojawiają pytania czy osoba, która za pomocą tego narzędzia coś tworzy, czy ona będzie uprawniona do tego utworu? Czy ona jest oryginalnym twórcą, a ten system jest tylko narzędziem, czy też nie, czy też to jest zupełnie coś innego. I ten efekt nie jest utworem lub prawa do tego, jeżeli uznamy, że przysługuje jeszcze komuś innemu.

Michał Sobolewski: Żeby trochę podsumować jest pytanie o to, czy jeżeli dostaniemy wytwór, nazwijmy to na razie tak, od oddanego modelu językowego, to po pierwsze czy ten wytwór on powstał za zgodą osoby, która pierwotnie wprowadziła dane, powiedzmy, do Internetu, wprowadziła oryginalne obrazy, którymi inspirował się generator, wprowadziła tekst, który był podstawą dla stworzenia określonego pierwiastka twórczego, który nam się nagle gdzieś pojawia po stronie użytkownika. A drugie pytanie jest od drugiej strony, że jeżeli my już mamy ten wytwór od generatora, to co my z nim możemy zrobić? Czy możemy go opublikować? Czy możemy go przetworzyć? Czy możemy go jakkolwiek komercyjnie wykorzystać? Czy dobrze to rozumiem?

Marcin Ręgorowicz: Tak. Jeśli chodzi o tę pierwszą część, to tutaj problem jest na etapie uczenia tych wszystkich narzędzi. Natomiast musimy pamiętać, że to, co jest generowane, to nie jest tak, że w pamięci systemu istnieją zapisane te wszystkie obrazy, na których on się uczył i on wycina ich fragmenty. To zupełnie nie tak działa. To, co jest generowane, nie ma bezpośredniego przełożenia w żaden sposób na to, na czym się uczył, bo on pracuje na danych. Na jednej z debat, na której byłem na ten temat usłyszałem, że to jest po prostu czysta statystyka matematyczna. Tutaj nie ma żadnego wycinania fragmentów. Natomiast w tym procesie oczywiście on potrzebuje przetworzyć dane, które mogą być utworami oryginalnych twórców, ale tutaj raczej można powiedzieć, że oprócz tych wyjątków, które są w legislacji europejskiej czy w doktrynie amerykańskiej, pojawiają się poglądy, że takie uczenie jest możliwe w ramach instytucji tzw. fair use, czyli takiej bardzo charakterystycznej dla prawa amerykańskiego instytucji. Tutaj raczej należy przyjąć, że jakaś zgoda pewnie będzie potrzebna tych twórców. Natomiast właśnie bardziej ciekawa dyskusja wydaje mi się już na tym drugim etapie, o którym wspomniałeś, czyli co możemy z tym robić? Czyje są prawa do tego, co nam taki np. Chat GPT wygeneruje?

Michał Sobolewski: Przejdźmy teraz jeszcze do innego problemu, który wydaje się taki dość widoczny, jak myślimy o pracy z modelami językowymi. Nie wiem czy pamiętacie film „Her” z Joaquinem Phoenixem. To był film o tym, że główny bohater jest samotny i ma słuchawkę, w której jest sztuczna inteligencja, która z nimi rozmawia i go wspiera. On jej opowiada o swoich trudnościach, ona go pociesza. Nawiązują ze sobą relacje. To jeszcze jest trochę futurystyczny film, ale wydaje się, że coraz mniej. Co jeżeli ktoś potraktuje model językowy jako prawdziwego kompana do rozmowy i zacznie mu się zwierzać, opowiadać o swoich codziennych doświadczeniach, będzie szukać porady? Może takiej nawet o charakterze terapeutycznym. Mamy tutaj ogromną ilość danych, które mogą być potencjalnie wrażliwe. Co się z tym wszystkim dzieje, czy to jest później gdzieś przetwarzane? Czy to będzie później podstawa do kreowania nowych odpowiedzi? Czy ja mogę jakoś wycofać te dane? Czy myśleliście już o tym?

Marcin Ręgorowicz: Tak, oczywiście. I żeby spuentować i w dowcipny sposób choć trochę przygnębiający odpowiedzieć na to pytania. Poruszyłeś ten wątek zwierzeń, kontaktu z taką sztuczną inteligencją. W takiej sytuacji może dojść do naruszenia np. tajemnicy przedsiębiorstwa lub naruszenia przepisów z zakresu przetwarzania danych osobowych. Jak słyszę taką romantyczną historię, i przypominam sobie ten film, to tak o tym myślę. Co się wtedy dzieje? Musimy tutaj pamiętać o tej warstwie również nie tylko out putu, czyli tego, co otrzymujemy z systemu, ale również tego, co do niego wprowadzamy. Bo oczywiście możemy wyjść od takich bardzo prostych zapytań typu wygeneruj mi kotka. Natomiast oczywiście te najbardziej użyteczne, to są zapytania bardziej konkretne, polegające na wprowadzaniu jakichś dane i oczekiwania ich zmodyfikowania, przetworzenia odpowiedzi, stworzenia tekstów na jakiejś podstawie czy zrobienia researchu. Czyli te rzeczy, które wymieniłeś i co się wtedy dzieje? My oczywiście coś do tego wprowadzamy. No i oczywiście pytanie co wprowadzamy do Chata GPT czy innych podobnych narzędzi? I jeżeli chcemy zastosować to profesjonalnie, to musielibyśmy często wprowadzać dane, które mogą być objęte tajemnicą przedsiębiorstwa. Bo jeżeli myślimy o tym, żeby, żeby GPT nam opisał, nie wiem, jakąś strategię marketingową albo sprzedażową i wprowadzimy tam dane sprzedażowe, to te dane komuś przekazujemy. Jeżeli w tym, co wprowadzamy, będą dane osobowe, to oczywiście te dane komuś przekazujemy. Komu je przekazujemy? Przekazujemy je dostawcy takiego rozwiązania czy jego operatorowi. To oczywiście jest regulowane przez Terms of Service, warunki korzystania i różnego rodzaju umowy. To też jest regulowane różnie w zależności od konkretnego dostawcy, ale problem generalnie jest ten sam – udostępniamy komuś jakieś dane. Zwłaszcza przestrzegam przed używaniem tych bezpłatnych wersji, tych wszystkich narzędzi, bo tutaj mamy najmniejszą kontrolę nad tym, co robimy, nie mamy żadnych osobnych, szczególnych zasad i przekazujemy te wszystkie informacje operatorowi. Co prawda są na nasz użytek, ale operator, jak sobie patrzymy w takie Terms of Service, zastrzega sobie zawsze możliwość ich użycia na potrzeby np. dalszego uczenia się tego systemu. W przypadku np. danych osobowych może dojść wprost do przekazania danych osobowych również poza Europejski Obszar Gospodarczy, bo większość tych operatorów ma siedzibę w Stanach Zjednoczonych. Na razie, dopóki oczywiście tam serwery się nie przeniosą, to może być tak, że wprost te dane osobowe tam będziemy przekazywali. I oczywiście już nie mówię o takiej sytuacji, że przekazujemy dane, które są np. zastrzeżoną tajemnicą przedsiębiorstwa czy objętą np. tajemnicą zawodową. Jak wspomniałeś o poradach psychologicznych czy lekarskich, możemy przekazać tajemnicę lekarską, czyli takie bardzo wrażliwe dane i dajemy je operatorowi zgodnie z tą Terms of Service, tymi umowami oczywiście zezwalamy na to, czy możemy to robić czy nie, no ale działamy przy takim założeniu, że zezwalamy temu operatorowi na korzystanie z tych danych, na ich dalsze przetwarzanie. Musimy też pamiętać, że potem nie wiemy, co się będzie się działo z tymi danymi. Czy nie mogą być np. wykorzystane potem, żeby komuś innemu wygenerować podobny wynik. Wydaje mi się, że dużo uwagi się skupia w tej dyskusji na tych wątpliwościach prawnych utwór czy nie utwór i takich bardzo głębokich rozważaniach prawnych. Natomiast tak naprawdę w mojej ocenie największe ryzyko jest tak naprawdę na poziomie tego in putu, czyli danych, które my temu systemowi przekazujemy. I o tym należy pamiętać. Przestrzegam, żeby robić to z dużą ostrożnością, bo można wprost i w taki bardzo oczywisty sposób naruszać umowy, czy wprost przepisy prawa.

Michał Sobolewski: Czyli jaka byłaby Twoja porada? Po prostu ostrożność?

Marcin Ręgorowicz: Rozsądek i ostrożność. Świadomość również wydaje mi się bardzo istotna. Bo co można zrobić z takimi danymi? Można je w bardzo prosty sposób oczywiście zanonimizować. Jeżeli mamy jakieś dane, które załóżmy same w sobie nie są tajemnicą przedsiębiorstwa, ale zawierają dane osobowe, to przed wrzuceniem ich do Chata GPT czy innego podobnego narzędzia po prostu usuńmy z nich te dane osobowe. I tutaj już tej wątpliwości nie mamy. Oczywiście drugą fazą jest zawarcie np. umowy z dostawcą tego systemu. Już się pojawiają komercyjne rozwiązania, które na to pozwalają. Widać w tych Terms of Service zapowiedzi możliwości modyfikacji tego, co się tam dzieje, czyli np. wyłączenia tych danych, które przekazujemy od uczenia czy rozwijania dalej tego systemu. To na pewno się będzie rozwijało w trakcie wdrażania tych systemów, przede wszystkim dla rozwiązań komercyjnych. I trzecia rzecz, musimy pamiętać, że być może nasi kontrahenci czy współpracownicy będą z tego korzystać i to warto sobie również regulować np. w umowach.

Michał Sobolewski: A co z odpowiedzialnością za wynik, za jego jakość? Co się dzieje w sytuacji, w której dostajemy błędną odpowiedź od danego modelu językowego, ale później ją na niej polegamy i ją gdzieś komercyjnie wykorzystujemy?

Marcin Ręgorowicz: Oczywiście to jest trzecia istotna grupa ryzyk. I poruszyłaś wtedy bardzo istotną kwestię. Trzeba przyjąć, że korzystając z tego typu narzędzi, przynajmniej na tym etapie, korzystamy z tego tylko i wyłącznie na własne ryzyko. Dlatego również, mimo takiego dużego hype’u na to i korzystania powszechnego z tych narzędzi, trzeba pamiętać, że tam również mogą być błędy. System działa na zasadzie statystycznej. Tutaj ciężko mówić, że system wygenerował nieprawidłowy wynik, bo ten wynik w ramach pewnych założeń statystycznych, matematycznych jest jak najbardziej prawidłowy matematycznie. A to, że on udziela językowo błędnej odpowiedzi na zadane pytanie, to nie oznacza nawet, że nasz operator źle wykonał swoją umowę z nami, w której jest zobowiązał do generowania tych wyników. Musimy pamiętać, że na każdej pierwszej stronie tego typu narzędzia mamy wyłączenie odpowiedzialności, wyraźne zaznaczenie, że dostawca nie gwarantuje prawidłowości wyników, wręcz zaznacza, że mogą być wprost nieprawidłowe. Oczywiście we wszystkich Terms of Service mamy wprost wyłączoną odpowiedzialność za jakość tych wyników. Otrzymujemy je „as is”, czyli tak jak je widzimy i dostawca dalej umywa ręce. Musimy o tym pamiętać. Wydaje się to uzasadnione, bo przy takiej ilości, przy takim poziomie złożoności tych systemów, przyjęcie na siebie odpowiedzialności za prawidłowość konkretnej odpowiedzi. jest de facto niemożliwe. Zwłaszcza, że spora część pytań nie ma jednoznacznie, nawet logicznie prawidłowej odpowiedzi. Dlatego trzeba przyjąć, że korzystamy z tych systemów na własne ryzyko i sami będziemy ponosili ich konsekwencje. Dlatego zalecam we wszystkich branżach tak naprawdę, żeby je sprawdzać, żeby zawsze ktoś potem ten wynik obejrzał, sprawdził, zmodyfikował i po prostu według swojej wiedzy i doświadczenia sprawdził, czy wynik jest prawidłowy, czy nie robimy czegoś niedobrego, czy jak to zastosujemy, to nie narobimy jakichś głupot, mówiąc kolokwialnie.

Michał Sobolewski: Chyba nie budzi wątpliwości, że korzystanie z tych narzędzi, tak jak z obecnych translatorów, wspominałeś o Deepl, stanie się powszechne w naszej codziennej pracy i inne organizacje będą musiały się jakoś zmierzyć z tym, że ich pracownicy i personel będą wykorzystywać te narzędzia do swojej pracy. Tak po prostu będzie się działo. Odwróćmy trochę to pytanie i powiedzmy, co mogą zrobić przedsiębiorcy, żeby przygotować się na stosowanie Chatu GPT czy innych modeli językowych innych modeli sztucznej inteligencji w swoich firmach?

Marcin Ręgorowicz: Wydaje mi się, że pierwszą radą jest wyłączenie z tych wszystkich rozmów czasu przyszłego, że będzie stosowany, będzie korzystał. Już jest, już jest stosowane powszechnie. To świadomość czasami nie jest w stanie dogonić. Już wychodzi coraz więcej problemów. Również my dostajemy zapytania od klientów albo pytają programiści co teraz możemy? Czy możemy traktować to jako utwór? Co mamy z tym robić? Bo z tego korzystamy. Dając przykład tego Githubowego Copilota, który stanowi świetne narzędzie do tworzenia programów. I pytanie tutaj znowu kto jest do tego uprawniony? Co mogą oczywiście zrobić organizacje? Przede wszystkim kluczowa jest świadomość tego, że się tak dzieje. Należy mieć świadomość, że to nie jest żadna przyszłość i że nam to wchodzi do organizacji, to znaczy nie musimy tego my robić osobiście, ale nasz współpracownik może z tego sobie korzystać, żeby sobie ułatwić pracę, nasz dostawca czy jego personel może korzystać z takich rozwiązań, żeby sobie ułatwić pracę. I z tym wiążą się też bardzo poważne ryzyka paradoksalnie, ponieważ jeżeli załóżmy mamy dostawcę IT, jakiegoś rozwiązania, ktoś nam tworzy jakiś system czy jakieś jego komponenty i umawiamy się z nim, że dostarczy nam istotny komponent naszego systemu, który my np. dalej sprzedajemy klientom w ramach jakieś usługi, za 3 lata okaże się, że to co zostało wytworzone, zostało stworzone przez Chata GPT i inne podobne narzędzie, bo powstały narzędzia do wykrywania tego typu działalności. I teraz, jeżeli ustabilizuje się pogląd, że to nie jest utwór albo że prawa do niego przysługują komuś innemu, to się nagle okaże, że my sprzedajemy klientom coś, czego sami nie możemy mieć praw. Wtedy będziemy nienależycie wykonywać naszą umowę i klient będzie miał do nas roszczenia lub może się wręcz okazać, że to wcale nie jest utwór czy nie jest chroniony, gdybyśmy przyjęli taki pogląd i można to wtedy dowolnie kopiować i przerabiać na przykład. Pomijam oczywiście kwestie tajemnicy przedsiębiorstwa. I znowu mamy bardzo poważny problem biznesowy, którego źródła się zaczynają teraz, bo dzisiaj już pracownicy, personel kontraktowy, wykonawcy zaczynają z tego typu narzędzi korzystać. Więc pierwsza kluczowa rzecz to jest właśnie sama świadomość. To znaczy to nie czas przyszły, to się dzieje już teraz, Tak się będzie działo na pewno dalej. Co możemy z tym realnie zrobić? Po pierwsze kwestia informacji, tzn. warto ten temat poruszyć w swoich organizacjach. Zapytać ludzi czy korzystają, czy wprowadzając np. jakieś wewnętrzne regulacje, dotyczące tego typu narzędzi. Dajemy też świadomość naszemu personelowi i współpracownikom, kontrahentom, że korzystanie z tego typu narzędzi, wiąże się z pewnymi ryzykami, że trzeba to jakoś uregulować i trzeba to robić z rozsądkiem. Już samo rozpoczęcie tej konwersacji pewnie wiele problemów i ryzyk na przyszłość nam wyłączy. Druga rzecz, którą na pewno warto zrobić w ramach organizacji, to jest przygotowanie, tak jak wspomniałem, stosownych regulacji, czyli przykład dla pracowników lub dla naszych współpracowników, np. programistów modelu B2B posiadamy jakiś regulamin, wytyczne, zasady, które sobie określają. I tutaj polecam przede wszystkim, poinformowanie swojego przełożonego czy odbiorcę naszej pracy o tym, że z takich narzędzi korzystamy. Uzyskać jego zgodę, wskazywać mu, jakie elementy tak wykorzystujemy, czy na przykład jakoś dokumentować ten proces twórczy. Najczęściej to będzie tak, że nie dajemy wyniku jeden do jednego, tylko gdzieś go przerabiamy. I warto, żeby ten proces twórczy był nawet na przyszłość, w razie wątpliwości udokumentowany, co stworzone zupełnie bez użycia tych narzędzi, a co przy ich pomocy. Sama taka polityka, oprócz wartości oczywiście przede wszystkim edukacyjnej, daje nam też możliwość potem kontrolowania tego, jak również zakazania pracownikowi jakiegoś zastosowania ze względu na te ryzyka. To oczywiście pomoże też pracownikom, współpracownikom, kontrahentom, dostawcom i odbiorcom zrozumieć, że skorzystanie z tych narzędzi wiąże ze sobą ryzyka, o których rozmawialiśmy, czyli dane osobowe czy tajemnica przedsiębiorstwa. To już często nam pomoże. Oczywiście np. z naszymi dostawcami warto sobie zmodyfikować umowy. Wprowadzić obowiązek informacyjny o stosowaniu tych narzędzi, wprowadzić np. wprost odpowiedzialność za przekazywanie do tego typu narzędzi danych osobowych czy wprost zakazać tego w umowie czy w tych wszystkich regulaminach. Tu się już po prostu zabezpieczamy, regulujemy, kontrolujemy, co się dzieje i to już samo w sobie bardzo obniży nasze ryzyko. Da nam możliwość oczywiście też po prostu zakazania tego w pewnych sytuacjach, więc rekomendujemy wewnętrzne regulacje, podnoszenie świadomości i oczywiście to co polecamy, to uwzględniać to w umowach z naszymi dostawcami, odbiorcami, czyli w umowach na wykonanie czy wdrożenie jakiegoś systemu, czy świadczenie jakichś usług. Możemy o tym mówić nie tylko w branży IT, ale także w marketingu, w branży prasowej, we wszystkich branżach, zwłaszcza tych kreatywnych. Warto już teraz wprowadzać takie postanowienia do umowy, gdzie np. mamy uregulowana odpowiedzialność, bo co będzie, jak się za 3 lata okaże, że do nas ktoś przyjdzie z roszczeniami wynikającymi z tego, że nasz dostawca lub podwykonawca dostarczył nam coś z wykorzystaniem Chatu GPS czy innego tego typu narzędzia. Więc jeżeli ktoś pomyśli zapobiegliwie i doda dwa postanowienia do umowy, to teraz będziemy mieć np. dalsze roszczenia. Już teraz warto to regulować.

Michał Sobolewski: To dzieje się już teraz, już teraz warto być na to przygotowanym. Myślę, że to jest dobra puenta dla naszej całej dzisiejszej rozmowy. Dziękuję Ci bardzo Marcin i mam nadzieję, że jeszcze nie raz będziemy mogli o sztucznej inteligencji w ramach naszego podcastu porozmawiać.

Marcin Ręgorowicz: Ja również dziękuję i do usłyszenia.