0:00
0:00

0:00

Prawa autorskie: Fot. Kuba Atys / Agencja Wyborcza.plFot. Kuba Atys / Age...

Platforma Obywatelska opublikowała nowe materiały wyborcze uderzające w Zjednoczoną Prawicę. Pomysł jest prosty i sprawdzony: zderzając ze sobą różne wypowiedzi polityka można próbować przekonać odbiorców, że jest on dwulicowy. Hipokryzja nie ma dobrych sondaży!

Nagrania wideo wypowiedzi premiera Morawieckiego zestawiono z treścią maili, które wyciekły przez niefrasobliwość ministra Dworczyka. I nie byłoby w tym nic szczególnego, gdyby nie fakt, że treść maili odczytuje wygenerowany sztucznie głos do złudzenia przypominający głos szefa rządu.

Czy to był deepfejk?

Innymi słowy Platforma Obywatelska posłużyła się deepfejkiem. Co gorsza, na początku w materiałach tych nie było informacji, że nagrania głosu premiera zostały sfabrykowane. W czasie, gdy słyszymy te syntetyczne wypowiedzi, na ekranie widać zdjęcie szefa rządu i tekst maili.

PO dodało tę informację później, w wyniku zalewu krytycznych komentarzy.

„Absolutnie nie zgadzam się z opinią, że jest to deepfake, których stosowanie uważamy za naganne i których sami nigdy nie będziemy stosować” — twierdzi w wypowiedzi dla ”Gazety Wyborczej" Jan Grabiec, rzecznik PO.

Czy to się działaczowi PO podoba, czy nie, filmiki są deepfejkami. Termin ten odwołuje się do głębokiego uczenia maszynowego (ang. „deep machine learning”), oraz słowa „fake”, czyli „fałsz”, „fałszywy”.

Nagrania głosu przypominającego głos premiera Morawieckiego powstały przy pomocy narzędzia opartego o głębokie uczenie maszynowe. Same nagrania są „fałszywe” w tym sensie, że nie są faktycznym nagraniem głosu szefa rządu. Są sfabrykowane.

Złamanie tabu

Deepfejki nie są problemem nowym. Odpowiednie narzędzia, oparte o modele uczenia maszynowego (zwane potocznie „sztuczną inteligencją”), istnieją od lat, i od lat wykorzystywane są do tworzenia bardziej lub mniej udanych imitacji.

Używa się ich do mniej lub bardziej niewinnych żartów, parodii, ale również do celów zupełnie nieetycznych lub zgoła nielegalnych — jak choćby przekonania rodziców, że ich dzieci zostały porwane, w celu uzyskania okupu.

Nie zmienia to faktu, że użycie sfabrykowanego nagrania premiera w ramach kampanii wyborczej przez największą partię opozycyjną, jest złamaniem pewnego tabu, przekroczeniem Rubikonu.

To wprowadzanie tego narzędzia do głównego nurtu polityki, normalizowanie jego użycia w sytuacji, w której nie wypracowaliśmy jeszcze norm dotyczących ich użycia (o regulacjach nie wspominając).

Grabiec sugeruje też, że w sumie nie ma różnicy między wykorzystaniem głosu lektora a sfabrykowaniem głosu premiera. „Tutaj po prostu zamiast lektora, który normalnie czytałby tekst, głos podobny do głosu premiera Morawieckiego podłożył komputer".

Czemu jednak w takim razie PO zdecydowała się użyć tego narzędzia zamiast lektora?

I czemu zdecydowano się wykorzystać syntetyczny głos do złudzenia przypominający głos właśnie szefa rządu?

Problemem nie jest samo wykorzystanie sztucznie wygenerowanego nagrania. Problemem jest fakt, że celowo wygenerowany został głos podobny do złudzenia do głosu premiera.

Przecież gdyby użyto lektora skutecznie udającego głos premiera, i nie zaznaczono faktu, że to nie jest oryginalne nagranie głosu szefa rządu, też byłaby to manipulacja! Gdyby, z drugiej strony, użyto syntetycznego głosu, który brzmiałby inaczej, problemu by nie było.

Fakt, że sfabrykowane nagranie nie było oznaczone, to wisienka na torcie

Przy czym nawet dodanie tego oznaczenia (które bez wątpienia powinno być obecne w samych filmikach!) nie rozwiązuje problemu. Nie widzę innego celu wykorzystania głosu podobnego do głosu konkretnego polityka, niż manipulacja odbiorcami. Przy czym nie jest specjalnie istotne, czy ten głos wygenerowany został sztucznie, czy wykorzystano odpowiednio uzdolnionego lektora.

I jeszcze jedna ważna uwaga: to nie komputer „podłożył” sfabrykowany głos szefa rządu

Komputer wygenerował tylko odpowiednie nagranie, na polecenie konkretnych osób.

Ktoś zdecydował, żeby zasymulować głos premiera Morawieckiego. I podjął decyzję, by tych nagrań użyć potem w filmikach wyborczych. Ktoś zdecydował też, że te filmiki będą udostępnione. Za stworzenie i opublikowanie deepfejków ze sfabrykowanym głosem prezesa Rady Ministrów nie odpowiada „komputer", tylko konkretni ludzie zaangażowani w kampanię wyborczą PO.

Jako wyborca chciałbym wiedzieć: kto dokładnie?

Konsekwencje

Nawet jeśli spojrzymy na sprawę zupełnie cynicznie, wyłącznie pod kątem skuteczności w walce politycznej, trudno tę kampanię nazwać sukcesem.

Zamiast rozmawiać o przekazie — o tym, czy premier jest dwulicowy; o pęknięciach i tarciach w Zjednoczonej Prawicy; o mailach Michała Dworczyka — rozmawiamy o problematycznym narzędziu, oraz tym czy i na ile jego wykorzystanie było nieetyczną manipulacją.

Każda kampania wyborcza w jakimś stopniu opiera się na manipulacjach i niedopowiedzeniach. Mimo to pewne działania uchodzą za niedopuszczalne (poza kontekstem parodii).

Na przykład publikowanie nieistniejących, sfabrykowanych cytatów przeciwników politycznych — nawet jeśli brzmią zupełnie jak coś, co dany polityk faktycznie mógłby napisać.

Publikowanie sztucznie spreparowanego nagrania czyjegoś głosu, choćby i opartego na czymś, co ta osoba faktycznie napisała, jest podobnie niedopuszczalne

Wykorzystanie deepfejków przez PO stanowi też otwarte zaproszenie dla innych partii, by zrobić to samo. Czy naprawdę gotowi jesteśmy na kampanię wyborczą, w której musimy zastanawiać się nie tylko nad tym, czy dane nagranie nie zostało wyrwane z kontekstu (jak niesławne „für Deutchland”), ale wręcz nad tym, czy samo nagranie nie zostało kompletnie sfabrykowane?

Coraz szersze wykorzystanie sztucznie generowanych nagrań, zwłaszcza jeśli trafiają do głównego nurtu debaty publicznej, umożliwia też „obronę z deepfejka".

Osoba, której niewygodne, ale autentyczne, nagranie zostało upublicznione, może próbować twierdzić, że zostało ono spreparowane.

Czy następnym razem, gdy pojawią się nagrania hajlujących prawicowców, również spróbują tej sztuczki?

Normy i regulacje

Normy dotyczące wykorzystania „sztucznej inteligencji” w debacie publicznej i walce politycznej dopiero się wykuwają. Uczymy się wszyscy jak rozpoznawać, że nagrania to nie fałszywki, i jak na fałszywki reagować.

W dobie coraz doskonalszych i coraz trudniejszych do rozpoznania deepfejków, z dnia na dzień ważniejsze staje się zaufanie do konkretnego źródła. Swoją chybioną kampanią PO to zaufanie bardzo poważnie nadwerężyła, i to w samym środku kampanii wyborczej.

Nie ułatwi to opozycji wygrania wyborów

A jeśli mimo to wygrać wybory jej się uda, PO prawie na pewno stanie przed zadaniem stworzenia regulacji prawnych dotyczących „sztucznej inteligencji”, w tym deepfejków. Jak się będzie wtedy tłumaczyć?

;
Na zdjęciu Michał rysiek Woźniak
Michał rysiek Woźniak

Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.

Komentarze