Czy dostawcy narzędzi AI obronią swoich klientów przed pozwami o naruszenie praw własności intelektualnej?

Kwestia praw autorskich do wytworów sztucznej inteligencji to jeden z głównych obszarów ryzyka, z jakim borykają się przedsiębiorcy korzystający z AI w ramach prowadzonej działalności. Ich obawy szybko zostały dostrzeżone przez niektórych dostawców systemów. W ostatnim czasie wielu z nich promuje swoje rozwiązania, wprowadzając mechanizmy zmierzające do zabezpieczenia użytkowników przed potencjalnymi naruszeniami praw autorskich. Do tak reklamowanych narzędzi należy jednak podchodzić z należytą ostrożnością, gdyż oferowana ochrona ma swoje ograniczenia i wymaga zazwyczaj spełnienia szeregu dodatkowych warunków.
W większości przypadków ochrona zapewniana przez dostawców systemów AI przybiera formę albo umownego zwolnienia użytkownika z odpowiedzialności przez dostawcę, albo zobowiązania dostawcy do pokrycia kosztów potencjalnych odszkodowań, w tym kosztów prawnych. W praktyce oznacza to zgodę dostawcy na przejęcie odpowiedzialności lub zapłatę odszkodowania w imieniu swoich klientów, jeśli zostaną oni pozwani przez osoby trzecie za naruszenie praw autorskich wskutek korzystania z AI. Taka ochrona może obejmować tylko wybrane rodzaje roszczeń, w szczególności powstałe w wyniku wykorzystania wygenerowanych przez AI rezultatów, które potencjalnie mogą naruszać prawa innych osób.
Jednymi z pierwszych dostawców, którzy oferują swoim klientom ochronę przed potencjalnymi naruszeniami praw własności intelektualnej, są:
- Microsoft Corp. – w odniesieniu do klientów komercyjnych korzystających usług Copilot AI, a także GitHub Copilot i Bing Chat Enterprise,
- Adobe Inc. – w odniesieniu do generatora Firefly,
- Google LLC – w odniesieniu do platformy deweloperskiej Vertex AI oraz systemu Duet AI, który działa na platformach Google Workspace i Cloud,
- Shutterstock Inc. – w odniesieniu do klientów komercyjnych korzystających z generatora obrazów AI,
- IBM Corp. – w odniesieniu do usługi generatywnej sztucznej inteligencji Watsonx,
- Amazon Inc. – w odniesieniu do modelu sztucznej inteligencji Titan i usługi generowania kodu CodeWhisperer,
- Canva Inc. – w odniesieniu do komercyjnych użytkowników narzędzi do projektowania opartych na sztucznej inteligencji.
Pierwszą rzeczą, na którą należy zwrócić uwagę, jest fakt, że ochrona dotyczy tylko określonych produktów dostarczanych przez tych dostawców. Po drugie, taka ochrona ma swoją cenę, ponieważ przewidziana jest wyłącznie dla klientów komercyjnych, co oznacza, że nie ma zastosowania do bezpłatnych wersji narzędzi AI oferowanych przez tych samych dostawców.
Ponadto, oferując mechanizmy ochronne, dostawcy przewidują różnego rodzaju warunki i ograniczenia. Niektóre z nich są oczywiste, jak na przykład wyłączenie ochrony w przypadku, gdy użytkownik celowo tworzy lub wykorzystuje wygenerowane treści w sposób niezgodny z prawem. Inne mogą być bardziej zniuansowane, np. użytkownik może być zobowiązany do używania specjalnych oznaczeń „poświadczenia treści” dla wszystkich generowanych rezultatów. Pewne ograniczenia są także istotne z punktu widzenia określenia poziomu ryzyka, przykładowo, sama odpowiedzialność dostawcy może być limitowana do pewnej kwoty, podczas gdy pozostałe koszty i tak pokrywa użytkownik.
Biorąc pod uwagę powyższe, przed użyciem lub wdrożeniem systemu AI w danej organizacji, kluczowe jest przeanalizowanie szczegółowych warunków korzystania z takiego systemu, aby sprawdzić, czy i w jaki sposób dostawca chroni użytkownika. Konieczność spełnienia pewnych warunków dla realizacji ochrony może znacznie ograniczyć użyteczność tych systemów dla niektórych zastosowań. Mając to na uwadze, każdy przypadek użycia powinien być dokładnie przeanalizowany w celu weryfikacji, czy oferowana przez dostawcę ochrona obejmuje planowane zastosowanie AI.