Do sądu trafiła pierwsza w Polsce sprawa kradzieży głosu przez AI. Chodzi o rozpoznawalnego lektora telewizyjnego, znanego z dialogów wielu hollywoodzkich hitów. Podobne fałszywki są coraz bardziej powszechne. Jak się przed nimi bronić?
Jego znajomi myśleli, że reklamuje szamba i ze zdziwieniem podesłali mu link. Trudno pomylić ten głos. Choć w tym przypadku był nieco nienaturalny i robotyczny, to jednak odpowiadał w stu procentach barwą jednemu z najbardziej rozpoznawalnych lektorów w Polsce. Kojarzy go pewnie każdy, kto przez ostatnich 30 lat od czasu do czasu włączał telewizor. To on czyta dialogi wszystkich części „Szklanej Pułapki”, „Szeregowca Ryana” czy w superbohaterskich hitach Marvela. Do tej pory nie nie zachęcał jednak do założenia przydomowej oczyszczalni ścieków.
„Pomyślałem, że to są słowa wypowiedziane moim głosem, ale nie wypowiadane przeze mnie” – mówił Jarosław Łukomski przed sądem. Lektor i jego prawnicy twierdzą, że padł ofiarą kradzieży głosu, a zewnętrzna firma bezprawnie wykorzystała próbki jego dialogów, by wytrenować swój „automat” sztucznej inteligencji, który wypowiedział tekst użyty w klipie.
„Automaty” na rynku funkcjonują od wielu lat, od kilku bardziej przypominają naturalne głosy. Zwykle to głosy anonimowe, choć bywa, że swoich próbek użyczają również profesjonalni lektorzy.
Dla branży to drażliwy temat, niektórzy twierdzą, że w ten sposób psuje się rynek, z którego wypierane są prawdziwe głosy. Te syntetyczne coraz częściej odczytują hasła reklamowe, narrację do filmów na YouTubie, słychać je również w audiobookach i podcastach. Działa wiele firm oferujących swoje banki głosów, z których można korzystać w zupełnie legalny sposób. Są też bazy funkcjonujące niezgodnie z prawem.
Przedsiębiorca, który wykorzystał głos Łukomskiego, przekonuje, że nie miał świadomości korzystania z jednej z nich.
„Byliśmy przekonani, że postępowaliśmy zgodnie z prawem. Spółka nie miała w intencji naruszenia praw żadnej osoby. W spornych materiałach nie wykorzystywano danych ani wizerunku lektora i nie były one tworzone w celu identyfikacji konkretnej osoby” – mówił Mirosław Majewski, prezes pozwanej spółki.
„Tu i teraz jest moja sprawa, ale chodzi też o to, co może spotkać inne osoby ze środowiska w przyszłości” – mówił Łukomski. Jego sprawa jest precedensowa. Do tej pory w Polsce nikt w takiej sytuacji nie wszedł na drogę sądową, choć na takie przypadki narażeni mogą być wszyscy użytkownicy platform społecznościowych. Chodzi zarówno o głosowe, jak i wizualne fałszywki. „Problem dotyczy każdej osoby, której wizerunek lub głos można pozyskać. Należy jednak mocno pokreślić, że aktualnie nie obserwuje się interaktywnych ataków ze sklonowanym cudzym głosem lub wizerunkiem” – mówią nam eksperci z portalu Niebezpiecznik.pl.
Oznacza to, że nie występuje na razie scenariusz rodem z „Mission: Impossible”, gdy wydaje nam się, że rozmawiamy ze znaną lub znajomą nam osobą, która naturalnie reaguje na nasze wypowiedzi. „Przestępcy mimo to coraz częściej tworzą deep fake celebrytów (polityków czy aktorów) i w formie filmu publikują go jako reklamę, na przykład na Facebooku, aby zachęcić do oszukańczych inwestycji”.
Przypadek Łukomskiego jest nieco inny – reklamowany biznes był legalny. Użycie głosu lektora – już nie.
„Teoretycznie nie mamy do czynienia z głosem lektora, jest to jego syntetyczna wersja, natomiast faktycznie słyszymy jego głos. Technologia komplikuje sprawę i nadaje jej wyjątkowości. Według naszej wiedzy w Polsce nie było wcześniej takiego przypadku, zwykle sprawy dotyczyły materiałów deepfake wykorzystujących wizerunek raczej niż głos, w tym np. treści pornograficznych” – mówi w rozmowie z OKO.press Wiktoria Stasiewicz, prawniczka reprezentująca Łukomskiego.
„Rezultat jest jednoznaczny: ten sztuczny głos można zidentyfikować jako głos pana Łukomskiego, a on nie wyrażał zgody na jego wykorzystanie. Jego barwa jest powszechnie znana, więc odbiorcy materiałów reklamowych są wprowadzani w błąd. Na podstawie naszych rozmów z ekspertami firmy Mikrofonika, z którą współpracuje pan Łukomski, możemy powiedzieć, że nie da się uzyskać tak podobnego do oryginału głosu bez korzystania z próbek »oryginału«. To w naszej ocenie żerowanie na renomie znanego głosu celem osiągnięciu finansowego zysku” – wyjaśnia Stasiewicz.
W komentarzach do sprawy czasem słychać, że przecież nie ma co się dziwić: w końcu w internecie takie rzeczy mają prawo się zdarzyć, nic nie jest tam do końca naszą własnością.
To błędne rozumowanie – przekonuje mecenas Tomasz Ejtminowicz, również zajmujący się sprawą kradzieży głosu.
„Argumentacja mówiąca o tym, że w internecie wszystko jest darmowe i nic nas w nim nie chroni, jest zupełnie niedostosowana do obecnych realiów. A jeśli rzeczywiście strona pozwana nie miała świadomości, jaki głos wykorzystuje, i że nie został on wykorzystany w konkretnej bazie w legalny sposób, to możemy mówić o rażącym zaniedbaniu. To, czy firma wiedziała o tym, jaki głos wykorzystuje, ma też drugorzędne znaczenie. Wyobraźmy sobie, że wykorzystujemy w reklamie obraz wygenerowany przez AI, łudząco podobny do wizerunku konkretnego pana Kowalskiego. Pan Kowalski zobaczył swoją twarz w reklamie i w ten sposób zostało naruszone prawo do ochrony jego wizerunku, nawet jeśli nie było to wykorzystanie intencjonalnie” – mówi nam Tomasz Ejtminowicz.
Podobnych przypadków jest więcej – również w Polsce. Swój głos w YouTube'owym materiale usłyszał Konrad Skotnicki, publikujący popularnonaukowe treści w mediach społecznościowych jako Doktor z TikToka. Barwa głosu użytego w narracji filmu była doskonale podrobiona. Fejk zdradzała jednak neutralność i mechaniczność intonacji, a także wyraźniej wymówione „r”.
„W Polsce to dopiero się zaczęło, na Zachodzie, szczególnie w USA, duzi twórcy często są okradani ze swojego głosu lub nawet całego wizerunku. Na YouTubie zdarza się to rzadziej, ale w przypadku krótkich form na Instagramie czy TikToku to większy problem” – mówi nam Skotnicki.
„Ale nie zajmowałem się tym od strony prawnej. Moim zdaniem jedyną drogą są regulacje dotyczące dużych platform cyfrowych. Państwo nie nadrobiło do tej pory zbyt dobrze istnienia internetu. Platformy miały przez wiele lat opcje zgłaszania naruszenia praw autorskich – w przypadku działania YouTube działa to dobrze. Jeśli w moim filmie na tej platformie oznaczę cytat z innego twórcy, to w przypadku jego protestu dostaję tak zwany copyright strike, a platforma może odmówić zarobku na takim filmie, albo przekierować monetyzację do twórcy, którego zacytowałem. To działa z automatu. Nie ma podobnej opcji, by oznaczyć kradzież głosu. W sieci pojawia się coraz więcej takich materiałów i obawiam się, że nie da się z tym wygrać. Dlatego nic z tym nie robiłem, ale mam nadzieję, że platformy się tym zajmą” – wyjaśnia internetowy twórca.
„Problem staje się więc coraz bardziej widoczny, ale państwo na razie nie chce go zauważyć” – przekonuje Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych. „Zmiany prawne są konieczne, gdyż technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę” – zauważał Wróblewski, przyznając, że niektóre paragrafy już teraz mają zastosowanie w takich sytuacjach.
Chodzi między innymi o regulacje prawa cywilnego mówiące o kradzieży tożsamości, rozpowszechnienia wizerunku nagiej osoby bez zgody, zniesławienia lub zniewagi czy oszustwa. Państwo powinno jednak zastanowić się, jak ułatwić szybkie usuwanie takich materiałów, które błyskawicznie zyskują ogromną widownię.
„Przykładowo Dania przygotowuje projekt nowelizacji prawa autorskiego, który doprowadziłby do tego, że obywatele mogliby żądać usunięcia deepfake’ów z platform online oraz dochodzić odszkodowania za naruszenia" – wskazuje UODO w swoim komunikacie.
Według prezesa państwowego organu platformy powinny też rozwijać systemy wykrywania materiałów, które powstały w taki sposób. Na razie Urząd próbuje interweniować w ekstremalnych sytuacjach. W 2024 roku zobowiązał Metę (właściciela Facebooka i Instagrama) do usunięcia materiałów rozpowszechniających fałszywe informacje na temat Omeny Mensah. Reagował też na nielegalną pornografię powstałą z wykorzystaniem AI, w której wykorzystano wizerunek prawdziwych osób.
„Osoba, której głos lub wizerunek jest publicznie dostępny, nie może się przed fejkiem zabezpieczyć. Dlatego powinniśmy stawiać na edukację społeczeństwa. Ludzie muszą mieć świadomość, że aktualnie, nawet jeśli widzą film z konkretną osobą i słyszą »jej« głos, to taki materiał może być wynikiem działania narzędzi do tworzenia deepfake'ów, a nie prawdziwym nagraniem – przekonują eksperci Niebezpiecznika.
„Istotne jest oczywiście tworzenie pewnych regulacji systemowych, mówiących o kulturze prawnej obowiązującej w całym społeczeństwie. Czyli tak jak RODO tworzy pewien system ochrony danych osobowych, tak również przepisy AI powinny tworzyć system ochrony, system regulowania tego, w jaki sposób treści AI mają funkcjonować w społeczeństwie. To jest praca na najbliższą przyszłość” – mówi nam mec. Wiktoria Stasiewicz.
Z drugiej strony mnożenie przepisów prawa nie musi pomagać, jeśli do ścigania takich przypadków nie zaangażuje się większych sił odpowiednich, a świadomość zagrożenia pozostanie niska – ocenia Tomasz Ejtminowicz.
„Kodeks cywilny jest instytucją z lat sześćdziesiątych, która ma korzenie jeszcze w prawie rzymskim, był napisany na tyle generalnie i abstrakcyjnie, że mieści w sobie wiele możliwych modeli zachowań. Z pewnością można bazować na istniejących przepisach i unikać nadprodukcji prawa. Już teraz się mówi, że AI act, który dopiero wchodzi w życie, będzie powoli się dezaktualizować” – przekonuje prawnik.
Internetowi twórcy i znane osobistości z nadzieją mogą patrzeć na unijny AI Act – zbiór przepisów, które wpływają również na sposób ochrony danych osobowych. Znajdują się w nich również zapisy o kradzieży tożsamości.
„AI Act można porównać do RODO. Reguluje zarówno wprowadzenie na rynek i obecność systemów AI, jak i ich wykorzystywanie przez prywatne firmy i administrację publiczną” – mówił w podcaście Drugi Rzut OKA dr Łukasz Szoszkiewicz, prawnik z Uniwersytetu im. Adama Mickiewicza w Poznaniu.
Unijne przepisy zostały zaakceptowane przez państwa członkowskie w 2024 roku. Wciąż jednak czekamy na ostateczny projekt polskiej ustawy o sztucznej inteligencji, który łapie opóźnienie.
Bezpieczeństwo
Media
Prawa człowieka
Unia Europejska
AI
AI Act
kradzież głosu
kradzież tożsamości
sztuczna inteligencja
Reporter, autor tekstów dotyczących klimatu i gospodarki. Absolwent UMCS w Lublinie, wcześniej pracował między innymi w Radiu Eska, Radiu Kraków i Off Radiu Kraków, publikował też w Magazynie WP.pl i na Wyborcza.pl. Jeden ze współautorów podcastu "Drugi Rzut Oka". Interesuje się tematyką transformacji energetycznej, transportu publicznego, elektromobilności, w razie potrzeby również na posterunku przy tematach popkulturalnych. Mieszkaniec krakowskiej Mogiły, fan Eurowizji, miłośnik zespołów Scooter i Nine Inch Nails, najlepiej czujący się w Beskidach i przy bałtyckich wydmach.
Reporter, autor tekstów dotyczących klimatu i gospodarki. Absolwent UMCS w Lublinie, wcześniej pracował między innymi w Radiu Eska, Radiu Kraków i Off Radiu Kraków, publikował też w Magazynie WP.pl i na Wyborcza.pl. Jeden ze współautorów podcastu "Drugi Rzut Oka". Interesuje się tematyką transformacji energetycznej, transportu publicznego, elektromobilności, w razie potrzeby również na posterunku przy tematach popkulturalnych. Mieszkaniec krakowskiej Mogiły, fan Eurowizji, miłośnik zespołów Scooter i Nine Inch Nails, najlepiej czujący się w Beskidach i przy bałtyckich wydmach.
Komentarze