Trucizna dezinformacji kolonizującej ludzkie umysły to jedno z najpoważniejszych zagrożeń dla demokracji. Od tego, w jakim stopniu zdołamy oprzeć się truciźnie, zależy, czy w grudniu 2024 obudzimy się w świecie demokratycznym, czy też demokracja stanie się wspomnieniem
Polska jednak wciąż nie wydaje się być przejęta tym zagrożeniem. Prawdopodobnie to skala bieżących wyzwań sprawia, że politycy z rzadka tylko przypominają sobie o problemie dezinformacji. Tyle że trucizna wciąż się rozchodzi. A zaczął się właśnie globalny rok wyborczy.
Do urn w 2024 roku ma szansę pójść połowa ludzkości, w tym obywatele wszystkich unijnych państw. Wybory do Parlamentu Europejskiego są wyjątkowo mocno narażone na zewnętrzną ingerencję, manipulację i dezinformację. W Polsce nie jesteśmy przygotowani do obrony przed tego rodzaju działaniami.
Scenariusz dezinformacyjny, którego najbardziej obawiali się eksperci przed wyborami parlamentarnymi w Polsce, wydarzył się na Słowacji. Dwa dni przed głosowaniem, tuż przed ciszą wyborczą, w sieci pojawiło się fałszywe nagranie, osłabiające czołowego demokratycznego kandydata. Zanim udało się ustalić, że to wygenerowany za pomocą sztucznej inteligencji deep fake, materiał rozszedł się tysiące razy w mediach społecznościowych.
Dementi dotarło do znacznie mniejszej grupy ludzi, zaś sam kandydat miał ograniczone możliwości reagowania, bo trwała przecież wyborcza cisza. Efekt? Wybory wygrał populistyczny i prorosyjski kandydat. Już dziś Słowacy protestują przeciwko niemu podczas coraz większych manifestacji ulicznych. Ale nowy premier nie wydaje się tym przejmować.
Ten słowacki przykład z września 2023 roku aż za dobrze pokazuje, dlaczego dezinformacja jest dziś uznawana za fundamentalne zagrożenie dla demokracji.
„Jedno z najważniejszych zagrożeń naszych czasów nie polega na bombie, która może cię zabić, ale na truciźnie, która może skolonizować twój umysł” – mówił kilka dni temu podczas wystąpienia programowego Josef Borrell, szef unijnej dyplomacji. Prezentował właśnie drugi raport unijny na temat dezinformacji.
„Rok 2024 to kluczowy rok do walki z manipulacją i ingerencją w informacje zagraniczne” – podkreślał. I wyjaśniał: „Wybory staną się głównym celem złośliwych podmiotów zagranicznych. Dziś bezpieczeństwo nie jest już kwestią broni czy armii. To kwestia informacji, tego, w jaki sposób ludzie zdobywają pomysły i fakty, które później decydują o tym, w jaki sposób obywatele wybierają swoje rządy”.
2024 ma być krytyczny, jeśli chodzi o walkę między demokracją a dezinformacją, ponieważ to „globalny rok wyborczy”. Wybory odbędą się w państwach zamieszkiwanych przez około cztery miliardy ludzi, czyli połowę ludzkości. Wśród głosowań będą takie, na których wyniki prawdopodobnie będzie chciała wpływać Rosja, przede wszystkim za pomocą dezinformacji.
Za obarczone największym ryzykiem dezinformacyjnym uznano nadchodzące wybory prezydenckie w USA. Na drugim miejscu są wybory do Parlamentu Europejskiego.
Obywatele państw unijnych to dziś potężna armia, licząca 400 milionów głosów. Poza tym w Europie nowe władze wybierać będą mieszkańcy Wielkiej Brytanii, Finlandii, Islandii, Litwy, Rosji, Białorusi, Ukrainy, Gruzji, Mołdawii, Rumunii, Portugalii, Słowacji, Chorwacji, Belgii i Austrii.
W Azji najistotniejsze wydają się wybory w Indiach, Bangladeszu, Indonezji i Pakistanie. Do urn pójdą również m.in. obywatele Meksyku, Urugwaju, Republiki Południowej Afryki czy Rwandy.
Pytanie, czy demokracja przetrwa, wydaje się zasadne.
Nie tylko Borell ostrzega przed wpływem fałszywych informacji na wybory. Także eksperci na styczniowym Światowym Forum Ekonomicznym w Davos uznali dezinformację i propagandę, realizowane za pomocą sztucznej inteligencji (AI), za najpoważniejsze ryzyko krótkoterminowe. Długoterminowe obawy budzą przede wszystkim zmiany klimatyczne.
„Największym globalnym ryzykiem, które można przewidzieć w ciągu najbliższych dwóch lat, będzie wykorzystanie dezinformacji i propagandy przez podmioty zagraniczne i krajowe w celu dalszego podziału społecznego i politycznego” – wskazano w przygotowanym specjalnie na Forum raporcie organizacji Global Threats. Opiera się on na danych zebranych od ponad 1400 ekspertów z całego świata.
To tylko niewielka część ostrzeżeń przed dezinformacją, które opublikowali w styczniu eksperci w wielu krajach świata zachodniego. Nie chodzi tylko o kumulację wyborów.
W ogromnym tempie rośnie liczba narzędzi działających w oparciu o sztuczną inteligencję, które czynią dezinformację znacznie prostszą technicznie niż dotychczas. Jednocześnie, przynajmniej od 2016 roku, obserwujemy zewnętrzne ingerencje w wybory, polegające na próbach wpłynięcia przez państwa trzecie – głównie Rosję – na wyniki głosowań.
Dodajmy do tego fakt, iż Rosja ma dziś większą niż wcześniej potrzebę znalezienia sojuszników wśród przywódców państw zachodnich (ze względu na prowadzoną agresję przeciw Ukrainie). Te czynniki zestawione razem tworzą polityczno-technologiczną mieszankę wybuchową, która może eksplodować w wielu miejscach jednocześnie.
Od tego, w jakim stopniu obywatele różnych państw uwierzą w fałszywe doniesienia, będzie zależeć, czy w grudniu nadal będziemy żyć w demokratycznym świecie.
Jednym z zagrożeń mogą być deep fake'i. To zmanipulowane materiały audio i wideo, które dzięki narzędziom AI mogą niemal perfekcyjnie imitować prawdziwe nagrania. Jaką siłę rażenia może mieć polityczny deep fake, przekonali się Słowacy. Dwa dni przed jesiennymi wyborami parlamentarnymi w tym kraju w mediach społecznościowych pojawiło się nagranie rozmowy.
Wydawało się, że jest to zarejestrowany dialog liberalnego kandydata Michala Šimečki z dziennikarzem. I że ustalają kwestie związane z kupowaniem głosów oraz fałszowaniem wyników wyborów.
Niezależni weryfikatorzy stwierdzili, że to fałszywe nagranie, wygenerowane za pomocą sztucznej inteligencji. Ale wymagało to od nich sporego wysiłku. Nie ma dziś łatwych w użyciu narzędzi, które szybko odróżnią fałszywkę od prawdziwego zapisu rozmowy.
Ostatecznie pomogła analiza… pauz w deep fake'u. Właśnie pauzy były w stworzonej przez AI rozmowie nienaturalne i nietypowe. Ale zanim poinformowano o oszustwie, tysiące wyborców udostępniło nagranie w sieci, i to w czasie obowiązywania ciszy wyborczej.
Šimečka według sondaży realizowanych przed ciszą wyborczą wygrywał wybory. Ostatecznie jednak, po publikacji fałszywego nagrania, przegrał. Zwyciężył populistyczny i prorosyjski polityk Robert Fico, który właśnie zaczyna rozliczać słowackie służby za… szczepienia przeciwko COVID-19. Coraz bardziej dystansuje się także wobec wsparcia dla Ukrainy.
Właśnie takiego scenariusza najbardziej obawialiśmy się w Polsce przed wyborami parlamentarnymi. Gdzie zostanie rozegrany po raz kolejny, nie wiadomo, ale może się to zdarzyć w każdym z państw. Jak zauważa „The Financial Times”, dostęp do coraz bardziej wyrafinowanych narzędzi dezinformacyjnych oraz słabe środki zapobiegawcze sprawiają, że
„to, co eksperci określają jako »dezinformacyjny scenariusz zagłady« – zgodnie z którym niewykrywalny wirusowy deepfake będzie miał katastrofalny wpływ na proces demokratyczny – nie jest już wyłącznie teoretyczny”.
Dezinformację polityczną na świecie opisuje najnowszy unijny raport. Jego autorzy poinformowali, że wykryli 750 przypadków manipulacji i zagranicznej ingerencji w informacje. Najczęściej atakowana była Ukraina – 160 przypadków. W 58 zdarzeniach celem były Stany Zjednoczone. Polska znalazła się na trzecim miejscu – 33 zdarzenia, potem Niemcy (31), Francja (25) i Serbia (23).
W części przypadków celem nie były państwa, lecz organizacje lub konkretne osoby. Najczęstszymi ofiarami ataków dezinformacyjnych, były: Unia Europejska, NATO, ukraińska armia, ONZ, oraz największe media: Euronews, Reuters, Deutsche Welle czy New York Times.
Jeśli chodzi o ataki personalne, uderzano przede wszystkim w prezydenta Ukrainy Wołodymyra Zełenskiego.
Odnotowano również ataki dezinformacyjne oparte na dyskryminacji płciowej oraz skierowane przeciwko osobom LGBTIQ+.
Do wydarzeń, które wywołały najwięcej przypadków manipulacji i zewnętrznej ingerencji w przekazy, należały:
Najczęściej używanymi do dezinformacji platformami były: Telegram (496 razy) i X (452 razy). Ale używano także Facebooka, YouTube, rosyjskie platformy VKontakte (VK) i Odnoklassniki (OK), TikToka, oraz alternatywne, mniejsze platformy.
Cechą dzisiejszej dezinformacji jest jej wielokanałowość. Fałszywy materiał, pojawiający się choćby na Telegramie, jest błyskawicznie rozpowszechniany na innych platformach. Zapewnia mu to szeroki zasięg, utrudnia też jego faktyczne wyeliminowanie z przestrzeni publicznej.
Wciąż mamy za słabe środki zapobiegawcze wobec dezinformacji. To skutek ograniczonych działań stosowanych przez największe platformy społecznościowe, ale też nienadawania walce z dezinformacją priorytetu przez polityków wielu państw. W tym, niestety, także w Polsce.
Ze względu na wdrażany właśnie nowy akt unijny – Digital Services Act, platformy społecznościowe są pod stałym nadzorem unijnych ekspertów. Kontrolowali oni między innymi, czy platformy były w stanie wywiązać się z zobowiązań, zapisanych w unijnym kodeksie postępowania w zakresie dezinformacji. Kodeks powstał w 2022 roku. Firmy miały wybór, czy chcą go podpisać. Te, które się na to zdecydowały, zobowiązały się do przestrzegania jego zapisów, a instytucje unijne monitorowały ich działania.
Po osiemnastu miesiącach okazało się, że zabieganie dezinformacji stoi na bardzo niskim poziomie. Eksperci zrzeszeni w European Fact-Checking Standards Network stwierdzili, że większość platform nie realizuje przyjętych zobowiązań dotyczących weryfikacji faktów – nawet gdy twierdzi inaczej.
YouTube przekonywał na przykład, że informacje rozchodzące się w krajach unijnych weryfikują między innymi organizacje w Birmie i Indonezji.
A przecież nieznajomość lokalnego kontekstu jest podstawową przeszkodą w realizowaniu skutecznego fact-checkingu.
TikTok zapewniał, że stale weryfikuje materiały z państw unijnych. Kiedy eksperci zaczęli ustalać szczegóły, okazało się, że z niektórych państw sprawdzono zaledwie kilkanaście filmów przez pół roku.
W należącej do Microsoft wyszukiwarce internetowej Bing miały wyświetlać się zweryfikowane informacje w momencie, gdy ktoś zaczynał szukać materiałów o nieprawdziwych teoriach. A jednak (też przez pół roku) Bing ani razu nie wyświetlił takich informacji na pierwszej stronie wyników.
Z kolei platforma X (dawny Twitter) w maju 2023 roku poinformowała Komisję Europejską, że chce wycofać się z unijnego kodeksu postępowania w zakresie dezinformacji. Jednak zanim do tego doszło, zaczął obowiązywać Digital Services Act (DSA). Nakłada na platformy konkretne zobowiązania i nie opiera się już na dobrowolności. X także podlega tym przepisom.
Komisja Europejska wszczęła już pierwsze postępowanie o naruszenie DSA. Dotyczy ono właśnie platformy X.
Zróżnicowane jest także podejście państw unijnych do problemu dezinformacji. Niektóre powołują specjalne instytucje, zajmujące się tym zagrożeniem, zaangażowanie innych (w tym Polski) jest ograniczone. Po wybuchu wojny w Ukrainie w Polsce zajęto się intensywniej dezinformacją rosyjską.
Zespoły zwalczające dezinformację lub zajmujące się uodpornieniem na nią społeczeństwa działają w kilku ministerstwach lub podległych im jednostkach (Ministerstwo Spraw Zagranicznych, Ministerstwo Obrony Narodowej, Instytut NASK, zespół CERT).
Nie są jednak one zsieciowane, mają problemy z wymianą informacji między sobą. A także ze skutecznym dotarciem do obywateli czy z bieżącą komunikacją z mediami.
Nie stworzono także ścieżki szybkiego reagowania w przypadku istotnych incydentów wyborczych. Dziś nie wiadomo byłoby, co robić, gdyby na przykład powtórzył się scenariusz ze Słowacji.
Brakuje wielu elementów systemu skutecznego przeciwdziałania dezinformacji i nie widać, by miało się to szybko zmienić.
Na razie, jak ustaliliśmy, Ministerstwo Sprawiedliwości chce, aby kwestia penalizacji (czyli karania) dezinformacji była jednym z tematów dyskutowanych przez komisję kodyfikacyjną, której powstanie zapowiedział minister sprawiedliwości Adam Bodnar.
Nad nową strategią cyberbezpieczeństwa pracuje także Instytut NASK. Jednym z jej istotnych elementów ma być właśnie zapobieganie dezinformacji.
Jednak samo powstanie strategii nie oznacza jej realizacji. Do tego trzeba zaangażowania ze strony polityków oraz zrozumienia przez rządzących, że poza konwencjonalnymi konfliktami zbrojnymi państwo musi dziś chronić swoich obywateli także przed wojną informacyjną – z równym zaangażowaniem.
To oznacza uznanie zwalczania dezinformacji za jeden z politycznych priorytetów rządu. Żadna z dotychczasowych wypowiedzi premiera Tuska czy jego ministrów nie wskazuje, że taki priorytet został przyjęty.
Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.
Propaganda
Wybory
Unia Europejska
deep fake
dezinformacja
dezinformacja rosyjska
ingerencje w wybory
Słowacja
wpływy Rosji
Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press
Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press
Komentarze