Niewiele jest obecnie w prawie własności intelektualnej zagadnień bardziej popularnych niż kwestie związane ze sztuczną inteligencją. Doniosłości tej problematyki nie można zanegować, jednakże pewną przeszkodą w dotychczasowej dyskusji zdaje się to, że eksperci w sprawach własności intelektualnej mają z reguły niewielką wiedzę na temat sztucznej inteligencji (sprowadzającą się do znajomości kilku podstawowych pojęć), a specjaliści z zakresu sztucznej inteligencji nie znają się na prawie własności intelektualnej.

Dla prawa własności intelektualnej (rozumiem przez to przepisy i konstrukcje prawne służące ochronie i korzystaniu z dóbr niematerialnych, takich jak wynalazki, utwory prawnoautorskie, wzory przemysłowe itd.) sztuczna inteligencja oznacza przede wszystkim szereg pytań, na które dotychczas nie udzielono dobrej odpowiedzi. Pierwsze dotyczy tego, czym tak naprawdę jest sztuczna inteligencja i jak powinno się ją zdefiniować na potrzeby prawne. Problemem jest przede wszystkim ustalenie progu, od którego przyjmować będziemy brak ludzkiego udziału w stworzeniu danego dobra. Oczywiście zagadnienia te nabiorą zupełnie innego wymiaru, w przypadku gdyby sztuczna inteligencja zaczęła wykazywać przejawy świadomości, w tym autonomiczność decyzyjną.

Przedmiot niematerialny stworzony przez sztuczną inteligencję charakteryzuje się z reguły tym, że żaden człowiek nie może wykazać spełnienia przez jego decyzje i wybory przesłanek, od których zależy ochrona danego dobra. Przykładowo: w przypadku utworów żadne ludzkie zachowanie nie nadaje wytworowi sztucznej inteligencji cechy takiej jak indywidualny charakter. Na tym etapie  pojawiają się dalsze fundamentalne zagadnienia: czy taki wytwór ma podlegać ochronie – a jeśli tak, to w jaki sposób i kto ma być tej ochrony beneficjentem. Zasadniczy problem z wytworami sztucznej inteligencji polega na tym, że nie czerpią one swych właściwości od twórcy będącego człowiekiem. Jeśli więc dane prawo własności intelektualnej skonstruowano tak, iż wymaga, by decydujące o ochronie cechy przedmiotu niematerialnego zostały mu nadane przez człowieka (tak będzie choćby w prawie autorskim), wytwór tego rodzaju nie będzie mógł stanowić przedmiotu ochrony (na przykład nie zostanie uznany za utwór). Z każdego innego punktu widzenia wytwór będzie miał jednak takie cechy, że gdyby tylko stworzył go człowiek, jego ochrona nie budziłaby wątpliwości. Przed nastaniem sztucznej inteligencji przykładów tego typu dostarczała twórczość zwierząt. W odróżnieniu jednak od tych przypadków, które może i są ciekawe, a niekiedy także urocze, lecz mają nikłą praktyczną doniosłość, wytwory sztucznej inteligencji będą miały duże znaczenie. Jeśli więc będziemy pryncypialnie utrzymywać, że wytwory te nie podlegają ochronie, pojawić się może wiele niepożądanych zjawisk – może na przykład dochodzić do przedstawiania wytworów sztucznej inteligencji jako ludzkich (mogą być nie do odróżnienia). W przypadku gdy taki zabieg nie będzie możliwy, brak ochrony może z kolei osłabiać bodźce dla rozwijania sztucznej inteligencji lub wzmagać pasożytnictwo.

Załóżmy więc, że co do zasady wytwory takie trzeba chronić. Ale jak to robić? Co najmniej kontrowersyjne byłoby przyznanie im ochrony odpowiadającej zakresem istniejącym prawom własności intelektualnej. Jest choćby wysoce wątpliwe, by zakres monopolu autorskiego, nie mówiąc o czasie jego trwania, był uzasadniony wobec dzieł sztucznej inteligencji. Wydaje się zatem, że zmierzać należałoby raczej w kierunku prawa sui generis, lecz prawo sui generis ma to do siebie, że trzeba je od początku wymyślić, a następnie przekonać największe światowe jurysdykcje do jego przyjęcia. O wiele łatwiej jest przyjąć, jak to kiedyś uczyniono w przypadku programów komputerowych, że do ochrony zostanie wykorzystana znana już kategoria praw. Takie rozwiązanie prowadzi jednak do regulacji nieoptymalnej, której wady ujawniają się niemal na każdym kroku.

W obu tych scenariuszach powstanie jakieś prawo, a wraz z nim pytanie, kto ma być jego podmiotem. Będzie to więc pytanie o właściciela wytworów sztucznej inteligencji o niematerialnym, intelektualnym charakterze. Tu także nie ma idealnego rozwiązania. Czy ma to być osoba, która posłużyła się programem? Osoba ta jednak nie wniosła żadnego intelektualnego wkładu w ostateczny rezultat, a jedynie wydała polecenie. Czy może ma to być uprawniony do programu? On co prawda także nie determinuje rezultatów końcowych, ale przynajmniej wniósł intelektualny wkład (lub za niego zapłacił) w stworzenie sztucznej inteligencji. Czy to nie dawałoby mu jednak nadmiernej kontroli nad użytkownikami? Bez cienia wątpliwości ten element wymaga odrębnej regulacji. Nawet gdyby na podstawie dziś istniejących przepisów (z pominięciem unormowań tworzonych w tych nielicznych państwach, które postanowiły zmierzyć się z omawianym problemem już teraz) można było przyjąć, że wytwór sztucznej inteligencji jest chroniony, pojawiłby się ogromny problem z ustaleniem, kto ma posiadać prawa do niego. Stopień trudności byłby jednak różny dla różnych praw własności intelektualnej. Rozwiązanie dla praw sui generis dla baz danych czy dla praw ochronnych na znaki towarowe wydaje się łatwiejsze niż dla prawa autorskiego. W tym ostatnim rozważano różne koncepcje (łącznie z twórczością pracowniczą), ale żadna tak naprawdę nie przystaje do realiów sztucznej inteligencji.

Kiedy już pokonamy wszystkie te podstawowe problemy, okaże się, że regulacje dotyczące twórczości sztucznej inteligencji zaczną wpływać także na zasady ochrony wytworów kreowanych przez ludzi. Jeśli przykładowo uważamy w prawie autorskim, że istotne dla ochrony utworu jest to, ile twórca miał do dokonania wyborów (i uznajemy, że nawet kilka z nich, jak w przypadku fotografii, wystarczy) lub czy prawdopodobne jest, by inna osoba wykonała to samo zadanie twórcze tak samo, to jaki sens będą mieć takie kryteria w przypadku, gdy tworząc „utwór”, oprogramowanie sztucznej inteligencji wytworzy równolegle miliony możliwych wariantów?