Jak sztuczna inteligencja zmieni biznes? Jakie są zagrożenia i szanse związane z jej powszechnym wykorzystaniem? Jak wygląda tworzenie prawa dotyczącego AI? – To sprawdzian polityczny i etyczny. Niektórzy giganci technologiczni sugerują, że jeśli prawo unijne będzie zbyt restrykcyjne, to nie udostępnią oni swoich usług na tym terenie – mówi dr Paula Skrzypecka, starszy prawnik, w rozmowie z twoj-biznes.pl.
Do kogo należy to, co tworzy sztuczna inteligencja?
Sztuczna inteligencja to technologia, która wytwarza treści, grafiki czy nagrania – szeroko rozumiany kontent. Każdy kontent funkcjonuje w określonym otoczeniu prawnym. Może być reklamą i wtedy podlega przepisom dotyczącym reklam. Może być oceną pracowników i wtedy będzie podlegać kodeksowi pracy. Może mieć dyskryminacyjny charakter i wtedy będzie oceniany np. przez przepisy dotyczące dóbr osobistych.
Jednak brakuje klasyfikacji prawnej, która pozwoliłaby określić, czym właściwie jest ten kontent, np. jakimś utworem szczególnego rodzaju, stworzonym przez maszynę czy przez komputer albo za pomocą oprogramowania X. Nie mamy takiej kategorii w prawie. Więc kiedy widzimy grafikę stworzoną przez sztuczną inteligencję i zastanawiamy się, czy ktoś ma do niej prawa autorskie, trzeba to określić za pomocą już istniejących instytucji.
Czy to znaczy, że można określić, do kogo należy tekst, który stworzył ChatGPT?
Jeśli używamy tego, co stworzy chatbot w takiej postaci, w jakiej program nam to przedstawił, to praw autorskich de facto nie ma, bo nie ma utworu, do którego mogłyby zostać przypisane. Dzieje się tak dlatego, że w świetle obecnych regulacji, prawa autorskie mogą przysługiwać tylko człowiekowi. Problem może się pojawić, kiedy ktoś ten materiał obrobi, wykorzysta fragmenty, doda coś od siebie.
Dlaczego to może stanowić problem?
Dana osoba albo agencja może sprzedawać takie treści klientowi i na nich zarabiać. Na ten sam pomysł mogą wpaść kolejne osoby i agencje. I jeśli nasza konkurencja wykorzysta taki sam fragment, powstały z użyciem ChatGPT, to nie możemy mieć do niej żadnych roszczeń. Musimy akceptować sytuację, że na rynku posługujemy się tym samym materiałem.
Pozwy się jednak zdarzają. Z czego to wynika?
Opowiem na przykładach. Pierwsza sytuacja zdarzyła się w Polsce. Jeden z domów mediowych wystąpił z roszczeniami do agencji o naruszenie jego praw autorskich. Ten dom mediowy stworzył oryginalną grafikę reklamową. Jednak z agencji wrzuciła ją do narzędzia opartego o AI, które wygenerowało kolejny kontent reklamowy. W ocenie domu mediowego to naruszyło jego prawa autorskie.
Podobny przypadek miał miejsce w USA. Getty Images pozwało Stable Diffusion, twierdząc że firma wykorzystała ich zdjęcia bez licencji i użyła je do trenowania własnego narzędzia AI, służącego do tworzenia grafik. Stable Diffusion sprzedaje tak powstałe grafiki. Firma broni się tym, że ich narzędzie jest przeznaczone do tworzenia kolaży. A to jest już odrębny przedmiot prawny.
Czy w takich przypadkach można udowodnić, że ktoś korzystał z naszej pracy bez zezwolenia?
Ciężko to udowodnić. Na rynku są już dostępne oprogramowania, które sprawdzają, czy dany wytwór powstał przy pomocy sztucznej inteligencji. Ale to nie rozwiązuje problemu, bo ktoś mógł jeszcze dodać coś od siebie do tego wytworu.
W całym tym łańcuszku uczestniczy klient, bo przecież agencje nie tworzą kontentu dla siebie. Na tym etapie firmy, które posługują się narzędziami AI, mogą zawierać odpowiednie umowy z klientami.
Co może się znaleźć w takiej umowie?
Informacja, że „produkt” powstał z użyciem sztucznej inteligencji. To jak stwierdzenie: „Będziemy korzystać z narzędzi AI, bo jesteśmy innowacyjni i to sprawia, że możemy być tańsi od konkurencji. Ale ty kliencie musisz wiedzieć, że dostawca narzędzia, z którego korzystamy, nie daje żadnej gwarancji, że produkt nie będzie naruszał niczyich praw”.
Najczęściej stosowanym rozwiązaniem jest poinformowanie klienta w umowie, że tak się dzieje. Klient może to zaakceptować i na przykład zobowiązać się do refundacji kosztów poniesionych przez agencję na skutek ewentualnego pozwu. Może też zobowiązać się, że przejmie te roszczenia.
Brzmienie umowy może być różne. Chodzi o to, żeby agencja zawsze miała regres, czyli możliwość zażądania zwrotu poniesionych przez nią kosztów od klienta, dla którego to robiła.
A co, jeśli agencja nie przyzna się w umowie, że korzysta ze sztucznej inteligencji?
To najpewniej w sytuacji konfliktowej będzie ze szkodą dla niej. Jeśli dojdzie do naruszenia czyiś praw, to agencja poniesie odpowiedzialność – i nie będzie ucieczki.
Przykładem może być tutaj raport, na który przetarg ogłosił Uniwersytet Wrocławski. Przetarg wygrał Uniwersytet Jana Kochanowskiego w Kielcach. Jak się okazało, raport kosztował milion złotych, a został wygenerowany m.in. przez ChatGPT. Uniwersytet Wrocławski zorientował się i odmówił wypłaty wynagrodzenia. Powołał się na to, że zamówił dzieło, które miało zostać stworzone przez przedstawicieli uczelni, a powstało przy użyci technologii, na którą UW się nie zgadzał. A na dodatek jakość pracy była zła.
Myślę, że takich przypadków będzie więcej. Jeśli agencja, dom mediowy, czy uniwersytet sprzedaje coś, co sam stworzył, może mieć pewność, że dzieło powstało legalnie. W przypadku sztucznej inteligencji nie ma takiej pewności. Firmy, które korzystają z narzędzi AI i sprzedają powstałe w ten sposób produkty, muszą mieć tego świadomość.
Myślę też, że w przyszłości się to zmieni – rynek wyspecjalizuje się. Cześć firm, które sprzedają produkty i usługi, powstałe z użyciem AI, będzie dawać gwarancję legalności źródeł. Za tym pójdzie zapewne wyższa cena. Przykładowo najnowsza wersja Adobe Photoshop zawiera narzędzia AI, ale twórcy gwarantują, że na wszystko mają licencję. Myślę, że to jest bardzo dobry kierunek. Wymaga wysiłku od dostawcy, ale szanse, że spotka się on z roszczeniami, są niskie.
Unia Europejska pracuje już nad osobnym prawem dotyczącym sztucznej inteligencji.
Tak. Przyjęte zostało rozporządzenie AI Act. Skupia się na tym, jakie warunki muszą spełnić podmioty, które chcą dostarczać na terytorium Unii Europejskiej narzędzia oparte na sztucznej inteligencji.
Bazuje na takim samym podejściu, jak prawo dotyczące RODO, czyli: „nie zabraniamy stosowania technologii opartych o AI, mówimy tylko, jakie wymagania mają one spełniać. Ty, dostawco musisz stale oceniać ryzyko związane z tym, że te narzędzia mogą naruszyć nasze wymagania albo czyjeś prawa”.
Unia Europejska przedstawia więc katalog praktyk zakazanych, np. generowanie fake newsów i wpływanie na wyniki wyborów. Zakazane też będzie rozpoznawanie twarzy w czasie rzeczywistym i ocenianie osób rozpoznanych przez monitoring, czy są skłonne do popełnienia jakiegoś przestępstwa.
A to już się dzieje w niektórych państwach, np. w Chinach.
Zgadza się. Funkcjonuje tam rozpoznawanie twarzy i system ocen społecznych. Profilowaniem objęta jest m.in. grupa etniczna Ujgurów. Algorytm ocenia ich zachowania pozytywnie lub negatywnie i może obniżać ich „rating”.
I w Unii Europejskiej nie będzie to możliwe?
Prowadzenie tego typu działań zostanie zabronione. Nie będzie można dostarczać legalnie w ramach UE narzędzi, które to umożliwiają oraz stosować ich względem obywateli państw UE.
A czy w ogóle możliwe jest sprawdzenie, czy sztuczna inteligencja wpłynęła na wyniki wyborów?
To jest bardzo trudne do zweryfikowania, zwłaszcza w czasie rzeczywistym, kiedy manipulacja się dzieje. Ocena, czy doszło do naruszenia prawa, będzie miała miejsce już po fakcie.
Czyli myślisz, że AI Act może być prawem, które będzie funkcjonować tylko w teorii?
Może tak się zdarzyć. Być może skończy się na wielkich słowach, jak było w przypadku RODO. Ostatecznie przyjęliśmy dyktat gigantów technologicznych, np. Google’a, Facebooka, które nie zrezygnowały z gromadzenia i przetwarzania, w tym profilowania, danych osobowych na ogromną skalę. W dodatku mamy ograniczone możliwości zweryfikowania, czy jesteśmy obiektem takiego procesu. Big techy wprowadziły za to do regulaminu zasadę, że jeśli ktoś chce korzystać z ich usług, musi się na te praktyki zgodzić.
Oczywiście cyklicznie obie firmy są karane przez organy ochrony danych osobowych, ale systemowego nacisku na zmiany nie ma. Tak może się też stać w przypadku narzędzi opartych na AI. To, co ma szansę, uczynić to prawo mniej pozornym i życzeniowym, to odwołanie się do praw podstawowych.
Jakie to prawa?
Ochrona naszej prywatności, równości, dobrego imienia, godności. Przyznajemy im prymat i do nich odwołujemy się w przypadku naruszeń. Jednak takie procesy byłyby niezwykle trudne. Kto miałby je prowadzić i w jakiej formule? To są pytania, na które obecnie nikt nie zna odpowiedzi. Dlatego jako prawnicy-praktycy skupiamy się w dużej mierze na tym, co jest łatwiejsze do uchwycenia, czyli wykorzystaniu AI w biznesie.
Losy ostatecznego tekstu AI Act jeszcze się ważą. Rozporządzenie będzie obowiązywać we wszystkich państwach Unii Europejskiej, ale z pewnością różne kraje będą też wdrażać swoje własne mechanizmy. Może się zdarzyć, że będą one kolidować z rozporządzeniem UE albo osłabiać niektóre przepisy.
Kiedy AI Act wejdzie w życie?
Najwcześniej w 2025 roku. Przez ten czas może się wiele zdarzyć. Sztuczna inteligencja rozwija się bardzo szybko. Odbędą się wybory w kilku krajach, w tym w Polsce. A póki co wszystko jest dozwolone, jeśli chodzi o AI.
Musimy też mieć świadomość, że nawet jeśli zakażemy stosowania pewnych narzędzi i usług, to i tak mogą znaleźć się osoby i firmy, które będą chciały ominąć prawo i wykupić je poza terytorium Unii Europejskiej, a później wykorzystać w politycznych celach. To jest ryzyko, którego nie jesteśmy w stanie przewidzieć ani wyeliminować w całości.
Część aktorów sprzeciwia się wykorzystaniu ich wizerunku przez narzędzia oparte o AI. Co o tym sądzisz?
To problem trudny do rozwiązania. Musiałby powstać nowy system zarządzania prawami autorskimi, który zakładałby rekompensaty w takich przypadkach albo możliwość rozwiązania licencji. Takie postulaty mogliśmy już usłyszeć np. podczas protestu hollywoodzkich aktorów i stowarzyszenia SAG-AFRA.
Gdy utwór artysty jest grany w radiu, dostaje on tantiemy, czyli zapłatę. Artyści sprzeciwiają się, że nie ma takich rozwiązań w narzędziach opartych o AI, a ich wizerunek i tak jest wykorzystywany.
I słusznie. Kiedy wchodzili na rynek, funkcjonowali w innej rzeczywistości. Sztuczna inteligencja zmieniła zasady gry. Myślę, że próby uregulowania tych kwestii będą podejmowane, ale nie wiem, czy uda się to urzeczywistnić. Nacisk szeroko rozumianej grupy artystów może jednak okazać się na tyle silny, że ktoś w końcu zajmie się tym problemem „na serio”.
Parlament Europejski już dwa lata temu przyjął rezolucję dotyczącą własności intelektualnej w kontekście sztucznej inteligencji, wskazując, że dostrzega ten obszar i że będzie on wymagał dalszej regulacji. Jednak póki co skupiono się na kwestiach biznesowych wykorzystania AI.
Bez wątpienia jest to problem systemowy. Ostatnio na rynek wszedł chatbot Google’a – Bard. W polityce prywatności jest napisane, że program korzysta z publicznie dostępnych danych, które może o nas znaleźć w wyszukiwarce.
I nikt nie pytał nas o zgodę.
Dokładnie tak. Powstaje pytanie, co możemy zrobić, żeby temu zapobiec. Google deklaruje, że okres wykorzystywania tych danych jest ograniczony, ale nie jesteśmy w stanie tego zweryfikować. Nie mamy do tego żadnego narzędzia.
Możemy zwrócić się do Google’a o wysłanie kopii danych, które o nas ma. To nie stanowi problemu. Za to problematyczne jest usunięcie lub częściowe usunięcie tych danych. Czasami wyniki wyszukiwania podpięte pod nasze nazwisko, mogą być dla nas niekomfortowe z różnych przyczyn. Na przykład ktoś był oskarżony o jakieś przestępstwo, a później uniewinniony, a w sieci pozostają te pierwsze informacje.
Załóżmy, że byłam oskarżona o coś, czego nie zrobiłam. Proces trwał pięć lat i zostałam uniewinniona. Wyrok się uprawomocnił, a w sieci cały czas można znaleźć informacje o tym, że ja jestem o coś oskarżona. Chodzi o artykuły z datą, kiedy proces dopiero się zaczynał.
I Bard z tych danych korzysta. Nie mam żadnych gwarancji, że tekst, który stworzy na ich podstawie, będzie zawierał aktualne i prawdziwe informacje o mnie.
Czy można z tym jakoś walczyć?
Ma powstać narzędzie, które będzie pozwalało usunąć te dane. Na ten moment można żądać usunięcia danych osobowych albo wyników wyszukiwania na nasz temat, bazując na przepisach o dobrach osobistych. W praktyce ciężko jest to wyegzekwować. Można pisać do wydawcy, aby usunął z artykułu dane wskazujące, że chodzi o moją osobę.
Z drugiej strony odbiorcy mają prawo do informacji, czyli mają prawo wiedzieć, że osoba publiczna była o coś oskarżona. Gdyby mnie, jako dziennikarkę, ktoś prosił o usunięcie takich informacji, odmówiłabym.
Prawo do informacji też jest ważne. I tu się zderzają dwie racje. Sztuczna inteligencja może zaognić tę batalię. Stwarza też pole do nadużyć i wyrządzania szkód lub krzywd, m.n. przez generowanie fake newsów i deepfake’ów.
Nie ma żadnego narzędzia prawnego, które sprawi, że nikt nie będzie mógł wygenerować deepfake’a ze mną. Bo mnie nie lubi albo zrobi to dla zabawy. Ja mam tylko narzędzia do dochodzenia roszczeń za puszczenie tego w obieg, jeżeli w ogóle uda mi się zidentyfikować, kto to zrobił. Ale nie mogę temu zapobiec.
Sztuczna inteligencja będzie katalizatorem tego typu problemów. Będzie ich jeszcze więcej i będą jeszcze trudniejsze do rozwiązania niż obecnie.
To, że narzędzia oparte o AI są łatwo dostępne, proste w użyciu i często bezpłatne, sprawa, że łatwiej będzie tworzyć fake newsy i deepfaki to na większą skalę.
Rozwiązanie tych problemów będzie trudne?
Rozwiązaniem ma być m.in. AI Act, który gwarantuje ściganie wszystkich dostawców technologii AI, którzy dostarczają narzędzia niezgodne z prawem unijnym, czyli takie, które mogą służyć do popełniania przestępstw.
Natomiast nie da się całkowicie uszczelnić i uregulować tych kwestii, bez jednoczesnego zabetonowania rozwoju. Zresztą nie uważam, żeby to była dobra droga. Nie jesteśmy w stanie opisać i objąć regulacją każdego scenariusza z wykorzystaniem technologii. A proces legislacyjny jest długi. To, co ustalimy teraz, za dwa lata może być już nieaktualne. Po tym czasie mogą pojawić się już zupełnie inne problemy.
Prawo zawsze będzie kroczyło za technologią. Możemy jedynie wymagać od prawodawcy, żeby to prawo nie było „ściągnięte” z innych przepisów. Wtedy z pewnością nie będzie odpowiadało na aktualne potrzeby.
Tworzenie prawa dotyczącego sztucznej inteligencji to też sprawdzian polityczny i etyczny. Jesteśmy w takim momencie, w którym niektórzy giganci technologiczni sugerują, że jeśli prawo unijne będzie zbyt restrykcyjne, to nie udostępnią oni swoich usług na terenie UE. Tak, jak było w przypadku RODO.
Z drugiej strony zależy nam, żeby rynek unijny był konkurencyjny.
Oczywiście. Jeśli nie ugniemy się pod presją big techów, pewnie część firm ucieknie z naszych terenów i będzie rejestrować działalność na drugim końcu świata. Ale wiele firm z pewnością zostanie i będą też pojawiać się nowe.
Taki scenariusz nie oznacza, że Unia Europejka utraci swoją innowacyjność. Przykładowo giganci technologiczni, tacy jak Ericsson, odnieśli się bardzo pozytywnie do AI Act.
Mówimy o problemach związanych z AI. Ta technologia ma też mnóstwo pozytywnych zastosowań.
Tak. Będzie minimalizować naszą najbardziej powtarzalną, żmudną i bezsensowną pracę. W każdym zawodzie są tego typu czynności, które póki co musimy wykonywać sami.
Część osób jednak straci pracę, już się to dzieje. Czy da się temu zapobiec przez przepisy prawne?
Tworzenie prawa, które chroniłoby przed zwolnieniem, nie jest dobrym pomysłem. Byłaby to sztuczna i z pewnością obchodzona regulacja. Można za to zabezpieczyć sam proces zwalniania. Tak jest w przypadku zwolnień grupowych – są odpowiednie procedury, pracownicy dostają odprawę.
Sztuczne utrzymywanie miejsc pracy, czy limitowanie wykorzystania narzędzi sztucznej inteligencji, jest według mnie złym pomysłem. Nie zbuduje kultury przestrzegania przepisów. Zmiany są nieuniknione, a rynek będzie się przemodelowywał.
Czy Polacy mają się czego obawiać?
Nie sądzę, żeby zmiany na rynku, związane z AI, zachodziły w Polsce z dnia na dzień. Jedne miejsca pracy będą znikać, ale będą pojawiać się inne.
Czy sądzisz, że niektóre zawody znikną, np. programiści?
W Polsce myślimy o programistach, jako o wybitnym zawodzie. A okazuje się, że sztuczna inteligencja powoli uczy się programować i wkrótce wygryzie tych przeciętnych. Nie zastąpi jednak ekspertów. Oni nadal będą mieli umiejętności pożądane na rynku. Dzięki sztucznej inteligencji będą bardziej wydajni.
A czy myślisz, że apokaliptyczne scenariusze, związane ze sztuczną inteligencją, są realne?
Najpopularniejsza apokaliptyczna wizja to bunt maszyn. Pojawienie się robotów, które będą chciały wyeliminować ludzkość z planety. Myślę, że jest to mało prawdopodobne. Ta wizja bazuje na lęku przed technologią i naszej potrzebie, żeby go jakoś upostaciowić.
Powstaje wiele fake’ów z wykorzystaniem robotów stworzonych np. przez Boston Dynamics. Na filmikach dostępnych na YouTube roboty strzelają do ludzi i wygląda to bardzo realistycznie. Liczba filmów jest ogromna, na jeden z nich sama prawie się nabrałam.
To podsyca lęk przed sztuczną inteligencją. Jest teoria, że AI zyska samoświadomość, ale szansa na to jest niewielka. Bardziej prawdopodobne jest, że roboty oparte o AI zaczną coś niszczyć, ale na polecenie człowieka.
Natomiast osobiście większe zagrożenie widzę w wizji, że sztuczna inteligencja będzie wszędzie. Że algorytm będzie w czasie rzeczywistym badał każdą naszą aktywność, nawet pozornie „niekontrowersyjną”, i sprawdzał, na ile jesteśmy skłonni do dokonania takich, czy innych zakupów. Następnie będzie wyrokował, czy mamy zapłacić wyższą składkę OC, bo np. jesteśmy bardziej lekkomyślni albo mamy takie czy inne poglądy polityczne.
Myślę, że jest to zdecydowanie bardziej prawdopodobny scenariusz – z jednej strony ciągłej inwigilacji i kontroli, a z drugiej olbrzymiej przestrzeni do manipulacji naszymi zachowaniami i wyborami. A za tym scenariuszem na końcu stoi człowiek, który będzie chciał nam sprzedać dany produkt, usługę lub polityczny kryzys.
I to budzi we mnie większy lęk niż wizja jak z filmu „Terminator”.