Prorządowe media i politycy PiS powtarzają, że ostatnie protesty społeczne w obronie niezależnych sądów są podejrzane. Ruch w polskim internecie przeanalizowali międzynarodowi badacze. Okazuje się, że większość kont na Twitterze uznanych za podejrzane prezentuje prawicowe poglądy i afiliacje. Publikujemy analizę Katarzyny Szymielewicz z Fundacji Panoptykon
Utrudnianie komunikacji między protestującymi, sianie teorii spiskowych, zniekształcanie przekazu, który wydostaje się na zewnątrz, to niestety całkiem skuteczne taktyki. Czy można ustalić, kto pociąga za sznurki? Jakich środków potrzeba, by samemu włączyć się do gry? Czy można wygrać z botnetem, nie wynajmując własnego?
Polityczna wojna na boty to nie tylko polska specjalność. Już w czasie arabskiej wiosny (szczególnie w latach 2009-10) po to narzędzie sięgali egipscy i syryjscy dyktatorzy, by zniekształcać, tłumić lub zakłócać przekaz protestujących. Podobne działania władzy zostały udokumentowane i opisane w Meksyku (2015) i wielokrotnie w Rosji.
Nawet w krajach, w których protestujący muszą się liczyć z poważniejszymi zagrożeniami, manipulowanie ruchem w mediach społecznościowych to realny problem.
Dziwne rzeczy działy się w ostatnich – gorących od politycznej mobilizacji – tygodniach w polskich mediach społecznościowych. Podczas gdy protestujący przeciwko „reformie” Sądu Najwyższego organicznie i stopniowo (między 17 a 24 lipca) wyrastali na milionowy ruch skupiony wokół hashtagów #wolnesady, #3XWeto czy #ŁańcuchŚwiatła, 21 lipca pod krytycznymi wobec działań rządu treściami na Facebooku i Twitterze zaczęły się pojawiać automatycznie generowane wpisy (np. „Precz z Kaczorem – dyktatorem!”), świadczące o pewnej aktywności botów.
Prorządowe media natychmiast podłapały temat rzekomej manipulacji w mediach społecznościowych. W ciągu zaledwie 24 godzin została wylansowana teza o astroturfingu, czyli odgórnym sterowaniu ruchem, który miał wyglądać na spontaniczny. Aktywność zagadkowego botnetu w polskim Internecie, wykorzystującego zagraniczne konta (przede wszystkim z Ameryki Łacińskiej), stała się podstawą wygodnej dla rządu narracji: normalni obywatele w Polsce nie protestują, ludzie na ulicach jedynie „spacerują dla zdrowia”, a ruch w sieci generują „obce” boty.
Wynająć botnet może każdy, wystarczy niewielki budżet. Ustalić, kto nim kieruje, jest już dużo trudniej... Tu jesteśmy skazani na spekulacje.
Wynająć botnet, który zaśmieca Twittera dowolnymi komunikatami (od reklamy leku na potencję, przez hasła pseudo-protestacyjne, aż po przypadkowe ciągi znaków), nie jest trudno. Wystarczy zapytać wyszukiwarkę, by przekonać się, że to tania i stosunkowo dostępna usługa (cena ok. 0,2 dolara za komentarz).
O wiele trudniejsze niż uruchomienie takiej operacji, jest dojście do tego, kto zapłacił. Firma obsługująca przejęte konta (botnet) z pewnością takiej informacji nie ujawni, a sama analiza danych z Twittera może nas doprowadzić, co najwyżej, do przybliżonej lokalizacji komputera, z którego obsługiwane były automatyczne komunikaty. Można próbować analizy heurystycznej, wykorzystującej np. kalki językowe, aby przybliżyć się do źródła (np. czy możliwe jest, że botnet obsługują Rosjanie, Polacy, a może sam George Soros?), nadal jednak pozostajemy w sferze spekulacji.
Na tej niepewności i spekulacjach co do aktywności „zewnętrznego gracza” w ruchu protestacyjnym najwięcej zyskują ci, którym merytoryczna dyskusja jest nie na rękę.
Autentyczny, milionowy ruch obywatelski nie miał nic do zyskania na „przyłączeniu się” do niego kilkuset botów powtarzających, jak zdartą płytę, ten sam komunikat. Co innego rząd, który mógł przekierować uwagę swojego elektoratu z zarzutów, jakie stawiali protestujący, na teorię spiskową.
W tym właśnie kierunku prowadzi nas obserwacja, że sam hasztag #astroturfing pojawił się na polskim Twitterze jak kometa i w ciągu jednego dnia zyskał zasięg ok 1,6 miliona użytkowników (przy czym 75 proc. wpisów o bardzo niezróżnicowanej treści wygenerowano w ciągu kilku godzin). Dla porównania, treści związane z protestacyjnymi hasztagami były różnorodne i generowane stopniowo przez wielu użytkowników.
Ben Nimmo, doświadczony badacz z Atlantic Council's Digital Forensic Research Lab, wykazał, że pojawienie się kontrowersyjnej tezy o astroturfingu w polskiej sieci było... wynikiem astroturfingu.
Nimmo tę dynamikę opisał i zilustrował (graf poniżej) na łamach Medium. Zaintrygowany nagłym pojawieniem się tezy o rzekomej manipulacji w polskich mediach społecznościowych, przeanalizował zasięg i częstotliwość komunikatów oznaczonych hasztagami #AstroTurfing, #StopAstroTurfing i #StopNGOSoros.
Naukowiec udowodnił, że eksplozja „spiskowych” hasztagów została spowodowana w krótkim czasie przez niewielką sieć nadnaturalnie aktywnych (13,000 tweetów tylko między 19:00 a 21:00 22 lipca!) i wzajemnie wzmacniających się kont na Twitterze, co samo w sobie wskazuje na wykorzystanie botnetu i próbę manipulowania trendem w mediach społecznościowych. Próba się jednak nie powiodła – po 22:00 ruch spadł niemal do zera. Sztucznie wygenerowany strumień po prostu nie zyskał popularności wśród prawdziwych użytkowników Twittera.
Kazus – rzekomego (#wolnesady) i faktycznego (#AstroTurfing, #StopAstroTurfing) – sterowania debatą w mediach społecznościowych dobrze ilustruje dlaczego możliwość zidentyfikowania faktycznych aktorów wpływających na debatę polityczną ma znaczenie.
Jako obywatele mamy prawo wiedzieć, jaką rolę w generowaniu komunikacyjnych trendów odgrywają partie polityczne i media (szczególnie publiczne).
Czy te trendy odzwierciedlają autentyczne postawy społeczne, czy próbują kreować sztuczną rzeczywistość i stają się narzędziem propagandy? Taka analiza sytuacji staje się coraz trudniejsza, wraz ze wzrostem roli mediów społecznościowych, podatnych na niejawne, rozproszone formy dezinformacji.
Rolę botów w politycznej grze od lat bada Samuel Woolley z Uniwersytetu w Oxfordzie i jego zespół w ramach projektu Computational Propaganda Research Project (COMPROP). Próbują nazwać i przeanalizować związki algorytmów, automatycznej komunikacji i polityki, w tym wpływ botów na opinię publiczną i trendy w mediach społecznościowych, rozprzestrzenianie się fałszywych treści, mowy nienawiści i dezinformacji.
To właśnie zespół COMPROP udowodnił, że polityczny przekaz działający na korzyść Donalda Trumpa i podważający wiarygodność Hillary Clinton, w dużej mierze był rozprzestrzeniany przez sieć botów. W dniu wyborów w USA armia botów wystawiona przez Trumpa przewyższała liczebnością boty pracujące dla Clinton w proporcji 5:1. Najbardziej zaskakujące w ustaleniach Woolleya jest to, że wykorzystywania botów do manipulowania debatą publiczną politycy nawet specjalnie nie ukrywają. Zarządy i właściciele firm obsługujących te sieci utrzymują bliskie związki z przedstawicielami rządów i wpływowymi politykami.
Jak ten krajobraz wygląda w Polsce? Robert Gorwa, badacz związany z zespołem COMPROP, przeanalizował „polityczny” ruch na polskim Twitterze pod kątem aktywności tzw. fałszywych wzmacniaczy (false amplifiers), w tym botów.
Jego raport opublikowany w lipcu tego roku („False Amplifiers and the Digital Public Sphere: Lessons from Poland”) ilustruje złożoność problemu, z jakim mamy do czynienia. Gorwa nie przechodzi do łatwych konkluzji, raczej stawia kolejne pytania niż dostarcza definitywnych odpowiedzi.
Drążąc temat, Gorwa przywołuje wcześniejsze opracowania (m.in. Centrum Stosunków Międzynarodowych oraz CERT), które wskazują na aktywność rosyjskich botów w polskich mediach społecznościowych. Sądząc po efektach, ich zadaniem jest eskalacja polsko-polskiego konfliktu i nastrojów narodowo-radykalnych, sianie dezinformacji w temacie konfliktu rosyjsko-ukraińskiego oraz zniechęcanie i zastraszanie użytkowników krytykujących politykę Rosji.
Sam badacz podkreśla jednak, że jednoznaczne zidentyfikowanie aktorów schowanych za sieciami twitterowych botów jest bardzo trudne. Nie ułatwia tego sam Twitter, który nie wymaga (w przeciwieństwie np. do Wikipedii) rejestracji takich podmiotów, nie udostępnia badaczom pełnych danych o ruchu w swojej sieci i w rzeczywistości nie dąży do blokowania ani ograniczania aktywności botów.
Posługując się metodą opracowaną i wielokrotnie testowaną przez zespół COMPROP, Robert Gorwa
zidentyfikował 500 kont aktywnych w debacie politycznej na polskim Twitterze, które wyglądają na tzw. fałszywych wzmacniaczy.
Główne czynniki, jakie badacze z Oxfordu biorą pod uwagę, to:
Wśród kont, które Gorwa uznał za podejrzane, większość (263 na 500) ujawniała prawicowe poglądy i afiliacje.
Te konta łącznie wygenerowały aż 20 proc. komunikatów w badanym zbiorze. W swoim raporcie Gorwa podkreśla, że to wysoki współczynnik przekładający się na istotne ryzyko manipulowania debatą polityczną w mediach społecznościowych.
Nawet w krajach, w których protestujący muszą się liczyć z najpoważniejszymi konsekwencjami występowania przeciwko władzy, manipulowanie ruchem w mediach społecznościowych i aktywność prorządowych botów to realny problem. Doświadczenia aktywistów z Turcji, Egiptu i Syrii w najgorętszym okresie arabskiej wiosny czy aktywistów meksykańskich w okresie antyrządowych protestów w 2015 roku (po ujawnieniu sprawy morderstwa grupy studentów z Ayotzinapa) pokazują, że kontrolowane przez rząd boty mogą skutecznie utrudnić przepływ informacji między obywatelami, jak również zakłócić ich zewnętrzny przekaz.
Nawet prymitywna metoda spamowania protestacyjnego hasztagu bezwartościowymi treściami może realnie zaszkodzić organizującym się w ten sposób obywatelom.
Najprostszą i często wykorzystywaną metodą zaciemniania przekazu i utrudniania komunikacji między aktywistami jest zalewanie ich kanałów bezwartościowym, automatycznie generowanym spamem. Taka taktykę zastosował meksykański rząd w odpowiedzi na rosnące w siłę, protestacyjne hasztagi #RompeElMiedo (przełam strach) i #YaMeCanse (jestem zmęczony).
Zdaniem analizujących to zjawisko - dziennikarki Erin Gallagher i blogera Alberto Escorcii, rząd skutecznie zamulił oba kanały komunikacji, do tego stopnia, że protestujący nie byli w stanie przekazywać sobie ostrzeżeń (np. mapek pokazujących zasięg działań policji) i byli w większym stopniu narażeni na aresztowanie lub pobicie.
Zalewając hasztagi bezwartościowymi komunikatami, boty zniekształcały także zewnętrzny przekaz protestujących, który wcześniej przedostawał się do mediów głównego nurtu i za granicę.
W czasach komunikacji sieciowej i platform społecznościowych obywatele nie mają gdzie się przenieść. Organizując się w masowy ruch jesteśmy w dużej mierze skazani na publiczne kanały, takie jak Twitter, Facebook i fora w mediach elektronicznych, podatne na opisane mechanizmy manipulacji i dezinformacji. Wynajmowanie botnetów będzie tylko łatwiejsze, a ich skala rażenia – większa.
Nie możemy biernie obserwować tego wyścigu zbrojeń – potrzebujemy skutecznych narzędzi przeciwdziałania dezinformacji, także na poziomie technicznym.
Zamiast zbierać środki na własny botnet i dołączać do wyścigu zbrojeń, możemy budować na tym, co pozytywnie wyróżnia autentyczne ruchy ludzi od automatycznych ruchów maszyn. Zdaniem Alberto Escorcii, aktywisty doświadczonego w meksykańskich bataliach, dobra wiadomość jest taka, że algorytmy mediów społecznościowych faworyzują nowe i unikatowe treści, oraz te, które są podawane dalej i cytowane przez autentyczne sieci użytkowników.
To dynamika charakterystyczna dla ruchu społecznego. Jeśli zatem dany hasztag angażuje różne kręgi ludzi, komunikujących się oddolnie i spontanicznie, w charakterystyczny i niepowtarzalny sposób, a jednocześnie tworzących sieć społeczną, z pewnością zyska większą widoczność niż jakikolwiek podbijany przez botnet. Jak pokazuje polskie starcie hasztagów #wolnesady i #astroturfing, czasem wystarczy poczekać, by ten sztucznie wygenerowany umarł śmiercią naturalną.
Ze względu na sposób działania algorytmów, autentyczny ruch społeczny w mediach społecznościowych ma szansę na większą widoczność niż konkurujący z nim botnet.
A jednak trudno spokojnie przyglądać się takiej batalii bez świadomości reguł gry i taktyki stosowanej przez przeciwnika. Najwięcej na ten temat mogłyby powiedzieć same platformy społecznościowe, gdyby zechciały wpuścić więcej światła do swojej kuchni. Na jakiej zasadzie ich algorytmy wyłapują trendy i tworzą hierarchię promowanych treści? Czy sztuczny ruch generowany przez boty nie powinien być traktowany jak spam i automatycznie odfiltrowywany? Dlaczego jeszcze nie rozmawiamy o systemie flagowania podejrzanych kont, skoro rozmawiamy o flagowaniu podejrzanych treści (tzw. fake news)?
To trudne pytania, a odpowiedzi na nie, siłą rzeczy, będą oscylować na pograniczu cenzury i budzić słuszne kontrowersje. Wydaje się jednak, że więcej mamy do stracenia, nie zadając ich wcale, niż godząc się na prawo silniejszego w mediach społecznościowych.
Tekst ukazał się na stronie panoptykon.org.
Katarzyna Szymielewicz jest prezeską Fundacji Panoptykon.
Komentarze