Stale rosnący wzrost popularności aplikacji opartych na sztucznej inteligencji, takich jak ChatGPT, stanowi spore wyzwanie w kontekście regulacji prawnych. Istnieje wiele zastosowań tej technologii, a jej imponujące możliwości rodzą ważne pytania dotyczące własności treści, a także odpowiedzialności za ewentualne nadużycia.
Aplikacje oparte na sztucznej inteligencji (ang. Artificial Intelligence – AI) zyskały ogromną popularność wśród twórców treści na całym świecie. Modele takie, jak Chat GPT lub mniej znane Dall-E czy Midjourney, powoli stają się narzędziami wspomagającymi codzienną pracę. Dzięki nim można szybko tworzyć wiele rodzajów treści – od contentu na strony internetowe, po kampanie marketingowe, czy nawet kody źródłowe oprogramowania.
Chat GPT a prawa autorskie
Chat GPT może generować teksty, które będą podlegać ochronie prawnej. Istnieje zatem pytanie, kto w tym przypadku jest właścicielem praw autorskich do wygenerowanych treści: czy jest to twórca modelu AI, osoba, która dostarczyła dane, czy może użytkownik korzystający z systemu? Wiele osób deklaruje, że Chat GPT stworzył im np. opisy na stronę internetową czy fragment pracy informatycznej. Czy takiemu programowi przysługują zatem prawa autorskie? Polskie prawo autorskie mówi o tym, że chronione jest wszystko, co jest przejawem działalności twórczej, przy czym utwór musi być stworzony przez twórcę. W polskim prawie takim twórcą może być tylko człowiek. Możemy założyć więc, że jeśli po otrzymaniu przez Chat GPT zapytania uzyskamy odpowiedź i przerobimy te dane w taki sposób, aby ostateczny efekt mógł być uznany za utwór w rozumieniu prawa, to wówczas użytkownik Chatu będzie twórcą i to jemu będą przysługiwały prawa autorskie do zmodyfikowanego oryginału pochodzącego od sztucznej inteligencji.
„Zgodnie z prawem autorskim, aby coś było objęte ochroną prawną, musi być wytworzone przez człowieka. Tymczasem w przypadku AI, ten twórca pojawia się jedynie w momencie wpisania zapytania, ale nie jest już obecny na etapie otrzymanych wyników. Obecnie to, co generuje system sztucznej inteligencji nie jest w żaden sposób w Polsce uregulowane prawnie. Dlatego ogromnym wyzwaniem będzie stworzenie zmian w obecnych zapisach, a przede wszystkim udzielenie odpowiedzi: kto jest faktycznym twórcą powstałego utworu? Jeśli to zostanie sprecyzowane, wówczas uregulowanie pozostałych zasad będzie o wiele łatwiejsze” – komentuje Konrad Gierula Regional Legal Counsel Central Europe, Luxoft.
Sztuczna inteligencja a kwestie nadużyć
Kolejnym aspektem jest odpowiedzialność za wygenerowane treści. Jeśli Chat GPT zostanie użyty do wytworzenia np. treści zniesławiających lub obraźliwych – na kogo wówczas spadnie odpowiedzialność prawna? Czy to użytkownik, który korzysta z AI, ponosi odpowiedzialność za treści wygenerowane przez system czy może twórca samego modelu AI? W tym kontekście kluczowy jest rozwój narzędzi i algorytmów, które pomogą w identyfikacji i filtrowaniu treści niezgodnych z prawem lub obraźliwych. Konieczne jest inwestowanie w badania i rozwój technologii, które będą w stanie skutecznie wykrywać i ograniczać potencjalne szkody wynikające z wykorzystania Chat GPT i innych systemów opartych na sztucznej inteligencji.
Jednak w tej chwili to właśnie na użytkownikach spoczywa obowiązek upewnienia się, że sposób, w jaki korzystają z tych treści, nie narusza żadnych przepisów.
„Po pierwsze każda jednostka, która może, chce i widzi ryzyka związane z korzystaniem z systemów AI, powinna to na własny wewnętrzny użytek uregulować w sposób odpowiedni. W firmach mogą być to np. wewnętrzne regulacje systemów AI. Drugim aspektem jest mocna edukacja – szkolenia, nie tylko te związane z wykorzystaniem Chatu czy innych systemów AI, ale też te dotyczące poufności danych osobowych, czy tajemnicy przedsiębiorstwa. Regulacje prawne to podstawa, jednak świadomość ludzi dotycząca zagrożeń spowodowanych zbyt daleko idącym zaufaniem do tego, co nam proponuje Chat czy inne narzędzie oparte na AI jest kluczowa, aby wszystko mogło działać poprawnie.” – wyjaśnia Konrad Gierula.
Jeśli tego typu regulacje nie zostaną wdrożone, praktycznie każda organizacja będzie np. musiała podejmować indywidualne działania prawne mające na celu wykazanie, że jest właścicielem prac wykorzystywanych przez sztuczną inteligencję. Wyraźne spisanie tych „zasad” nie dotyczy tylko przedsiębiorstw, ale również państw. Jeśli rządy nie podejmą konkretnych działań regulacyjnych, istnieje zagrożenie, że wszystkie materiały chronione prawem autorskim będą mogły być wykorzystywane przez innych bez zgody pierwotnego autora.
Jak widać, wykorzystanie Chat GPT i sztucznej inteligencji w kontekście praw autorskich stanowi ogromne wyzwanie, które wymaga uwagi i regulacji. Istnieje potrzeba opracowania odpowiednich ram prawnych dla każdego kraju, które będą chronić prawa autorskie, określać odpowiedzialność za wygenerowane treści oraz promować transparentność i odpowiedzialne wykorzystanie tych technologii.
Źródło: komunikat prasowy