Stale rosnący wzrost popularności aplikacji opartych na sztucznej inteligencji, takich jak ChatGPT, stanowi spore wyzwanie w kontekście regulacji prawnych. Istnieje wiele zastosowań tej technologii, a jej imponujące możliwości rodzą ważne pytania dotyczące własności treści, a także odpowiedzialności za ewentualne nadużycia.
Chat GPT a prawa autorskie
Zgodnie z prawem autorskim, aby coś było objęte ochroną prawną, musi być wytworzone przez człowieka. Tymczasem w przypadku AI, ten twórca pojawia się jedynie w momencie wpisania zapytania, ale nie jest już obecny na etapie otrzymanych wyników. Obecnie to, co generuje system sztucznej inteligencji nie jest w żaden sposób w Polsce uregulowane prawnie. Dlatego ogromnym wyzwaniem będzie stworzenie zmian w obecnych zapisach, a przede wszystkim udzielenie odpowiedzi: kto jest faktycznym twórcą powstałego utworu? Jeśli to zostanie sprecyzowane, wówczas uregulowanie pozostałych zasad będzie o wiele łatwiejsze
komentuje Konrad Gierula Regional Legal Counsel Central Europe, Luxoft.
Sztuczna inteligencja a kwestie nadużyć
Po pierwsze każda jednostka, która może, chce i widzi ryzyka związane z korzystaniem z systemów AI, powinna to na własny wewnętrzny użytek uregulować w sposób odpowiedni. W firmach mogą być to np. wewnętrzne regulacje systemów AI. Drugim aspektem jest mocna edukacja – szkolenia, nie tylko te związane z wykorzystaniem Chatu czy innych systemów AI, ale też te dotyczące poufności danych osobowych, czy tajemnicy przedsiębiorstwa. Regulacje prawne to podstawa, jednak świadomość ludzi dotycząca zagrożeń spowodowanych zbyt daleko idącym zaufaniem do tego, co nam proponuje Chat czy inne narzędzie oparte na AI jest kluczowa, aby wszystko mogło działać poprawnie.”
wyjaśnia Konrad Gierula.