Eksperyment OKO.press potwierdza hipotezę, że w dyskusjach o szczepionkach – i to zarówno za, jak i przeciw – uczestniczą anonimowe konta. To mogą być prokremlowskie trolle, które próbują rozniecać podziały wewnętrzne, wzmacniać ekstremizmy, niszczyć racjonalną debatę. Byle trwała awantura

Po tym, jak w naukowym periodyku w USA opublikowano badanie, które wskazało na znaczny udział rosyjskich trolli i botów w podsycaniu internetowych dyskusji dotyczących szczepionek, postanowiliśmy sprawdzić czy podobne działania odbywają się również w polskojęzycznej sieci.

„Nie mam wątpliwości, że w Polsce też grają tym tematem” – napisał na Twitterze były ambasador RP w Kanadzie Marcin Bosacki. „Cel rosyjskiej wojny informacyjnej jest jeden: rozniecać podziały wewnętrzne. Wzmacniać ekstremizmy, niszczyć racjonalne centrum” – dodał.

A Sylwia Czubkowska, dziennikarka „Wyborczej” zajmująca się zjawiskami w sieci, stwierdziła, że „w ogóle by [jej] nie zaskoczył podobny scenariusz w Polsce”.

Rosyjskie trolle pisały o szczepionkach

Amerykański zespół przeanalizował 1,7 mln wpisów na Twitterze dotyczących szczepień, w tym używających tagu #VaccinateUS. Ten tag powiązano z kontami uznanymi za część rosyjskiej operacji, która ma wpływać na politykę w USA, w tym na wyniki wyborów. Takie działania prowadziła poprzez „fabrykę trolli” rosyjska Agencja Badania Internetu, powiązana z Kremlem. O ABI po raz pierwszy poinformowała  „Novaya Gazeta”.

Z amerykańskiego badania wynika, że rosyjskie konta o wiele częściej niż zwyczajni użytkownicy publikują treści dotyczące szczepionek.

Co ciekawe, są to treści zarówno anty- jak i proszczepionkowe.

„Rosyjskie trolle promowały rozłam. Konta udające prawdziwych użytkowników tworzą fałszywą symetrię, niszcząc publiczny konsensus względem szczepionek” – czytamy w publikacji.

Nie dziwi to Anny Mierzyńskiej, specjalistki z zakresu funkcjonowania polityki w sieci i współpracowniczki OKO.press, autorki tekstu o polskich portalach rozpowszechniających rosyjską propagandę.

„Wiadomo, że w ramach wojny informacyjnej konta prorosyjskie wspierają informacje silnie emocjonalne. Chodzi o potęgowanie podziałów i sianie strachu. Oni nie rozpoczynają dyskusji, tylko ją podbijają. Mają bardzo dobre rozeznanie w konfliktach społecznych” – mówi.

Według niej w obszarze zainteresowania rosyjskich trolli są tematy silnie polaryzujące polskie społeczeństwo: antyukraińskie, antyunijne, antyuchodźcze i antyislamskie, chemtrails, kryptowaluty, czy właśnie szczepienia.

Czy da się rozpoznać prowokatora?

W przeciwieństwie do USA czy Francji, dezinformacyjnej działalności rosyjskich fabryk trolli w polskim internecie oficjalnie nie udowodniono. Określenie z całą pewnością, kto jest opłaconym trollem, a kto po prostu zaangażowanym w sprawę użytkownikiem mediów społecznościowych, nie jest łatwe.

Tylko część fałszywych kont jest prowadzona po łebkach. Bez zdjęć, sensownej interakcji z innymi użytkownikami, przejawów własnej twórczości. Są za to zjadliwe wpisy i masowe udostępnienia podobnych treści. Reszta coraz częściej przybiera wyszukane formy i korzysta ze skradzionych tożsamości prawdziwych użytkowników.

„Odróżnienie ich było łatwe w 2014 roku, kiedy np. we wpisach trolli pojawiało się mnóstwo rusycyzmów, a ich listy kontaktów zawierały profile z »farm przyjaciół« w Maroku i Indiach” – mówi OKO.press Mateusz Bajek, związany z portalem Global.Lab analityk spraw wschodnich.

Bajek od czterech lat zajmuje się rosyjską propagandą i fabrykami trolli. „W polskiej sieci są trolle o profilach rozbudowanych i pustych. Nie ma reguły. Nie dysponując technicznymi szczegółami, takimi jak IP piszącego, trudno jest stwierdzić, autorem której treści jest troll, a której realny użytkownik. To sukces kierowanej ze wschodu machiny propagandowej” – przyznaje ekspert. Jak mówi,

rosyjskiej propagandzie niekoniecznie chodzi o to, żeby wprowadzać własną narrację (tak jak robi to w Rosji), a o to, by potęgować chaos.

Szukamy antyszczepionkowej manipulacji na polskim YouTubie

OKO.press ruszyło na poszukiwanie śladów trolli w dyskusji o szczepionkach w polskich mediach społecznościowych. Już przy przeglądaniu antyszczepionkowych treści w serwisie YouTube, uderzyło nas, jak wielu komentujących nie ma nawet ustawionego profilowego zdjęcia.

A przecież kiedy ktoś chce uczestniczyć w dyskusji, jakaś forma pokazania siebie (choćby był to obrazek ściągnięty z internetu) wydawałaby się sensownym zachowaniem – tym bardziej, że konto na YouTube powiązane jest z popularną pocztą Gmail.

Postanowiliśmy porównać komentatorów filmów szczepionkowych z komentarzami pod innymi filmami, które nie budzą kontrowersji i podziałów, a więc prowadzenie dezinformacji jest tam raczej bezcelowe.

Spośród wyników otrzymanych po wpisaniu hasła „szczepienia” w wyszukiwarkę serwisu wybraliśmy pięć filmów zawierających treści antyszczepionkowe oraz pięć o neutralnej tematyce (koty, domy piłkarzy, przejazd Fiatem 126p, receptura na pierogi i gra „Wiedźmin 3”).

Przy każdym wideo braliśmy pod lupę  10 pierwszych autorów komentarzy z sekcji „najlepsze” oraz „najnowsze” – razem 200 komentarzy pod 10 filmami. Zgodnie z wnioskami naukowców z USA, braliśmy uwagę wszystkie komentarze, nie tylko te antyszczepionkowe.

Sprawdzaliśmy czy użytkownik danego profilu ustawił jakikolwiek obrazek profilowy, czy jedynie pozostawił anonimową planszę otrzymywaną przy założeniu konta. Ogółem, spersonalizowanych profilów przy filmach o szczepionkach (grupa badana) było mniej – w sumie 48 zdjęć – niż w przypadku filmów na inne tematy (grupa kontrolna) – 73 zdjęcia.

Tylko jeden film zawierający treści antyszczepionkowe miał mniej anonimowych komentatorów niż którekolwiek wideo z drugiej grupy.

Podobnie wysoki poziom anonimowości występuje pod filmami poruszającymi inne kwestie dzielące Polaków, np. tymi o katastrofie smoleńskiej.

Anonimowe i nieanonimowe konta w komentarzach do filmów szczepionkowych i filmów o innej tematyce na Youtube (w proc.)

Filmy o szczepionkach
 
Filmy o innej tematyce

Nie można z pewnością określić, że profil pozbawiony obrazka oznacza obecność trolla. Jedna czwarta użytkowników z grupy kontrolnej również z jakiegoś powodu nie chce czy nie potrafi dodać zdjęcia do konta.

Niemniej wśród kont tworzących wpisy pod treściami będącymi w potencjalnym polu zainteresowań trolli, „anonimów” jest dwukrotnie więcej.

Część z nich nie ma także innych aktywności na profilu, takich jak polubione filmy czy subskrypcje kanałów.

Eksperyment potwierdza, że w dyskusji pod treściami kontrowersyjnymi częściej niż zazwyczaj udzielają się konta, których autentyczność budzi zastrzeżenia – chociaż z pewnością nie stanowią większości. Nie możemy też stwierdzić, że komentarze te tworzą akurat Rosjanie bądź pracujące dla nich osoby polskojęzyczne.

Jak tłumaczy Anna Mierzyńska, za wpisami może teoretycznie stać rosyjska propaganda, ale równie dobrze może to być skoordynowana grupa wolontariuszy.

Wniosek wydaje się jednak prosty: jeśli temat polaryzuje społeczeństwo, to większe prawdopodobieństwo, że w dyskusji o nim uczestniczą trolle, więc lepiej zachować czujność.

Jak nie dać się trollowi

„Osobiście nie czytam już praktycznie komentarzy w dużych portalach i mediach społecznościowych” – mówi Mateusz Bajek. „Dyskusja na poziomie odbywa się tylko w prywatnych wpisach albo pod artykułami prezentującymi ekspercką wiedzę, gdzie trolle nie dałyby sobie rady” – dodaje.

Jego zdaniem rozwiązaniem może być prawo do komentowania tylko dla zweryfikowanych profili. Tak robi np. „Gazeta Wyborcza”, gdzie komentują jedynie korzystający z płatnej prenumeraty. „Oczywiście możliwe, że trolle wykupią konta, ale po co propaganda miałaby finansować medium w nią wymierzone?”.

Bajek zauważa jednak, że o ile weryfikacja kont i wiązanie ich z konkretną osobą zwiększa wiarygodność, to w krajach takich Rosja internetowa anonimowość jest zbawienna dla działalności opozycji – zatem to rozwiązanie może mieć obosieczne konsekwencje.

Inny pomysł to zaangażowanie państwa. Według Bajka polskie służby mogą posiadać informacje na temat działalności trolli, a gdyby je udostępniły – tak jak stało się to w USA, gdzie opublikowano listę kont powiązanych z Kremlem – ucięłyby spekulacje i zwiększyły społeczną świadomość.

Jak dodaje,

państwo mogłoby także powołać niezależną instytucję sprawdzającą fakty, w skład której wchodziłyby osoby z prawej i lewej strony politycznej, które określałyby, jaka część publikacji w danym medium jest prawdziwa.

„W ten sposób także mediom głównego nurtu zaczęłoby zależeć na wiarygodności” – mówi badacz. Zaznacza, że nie chodzi tylko o informacje rozprowadzane przez Rosję, ale o fałszywki w ogóle.

Podobną rolę mogą odegrać korporacje informatyczne, które zarządzają serwisami społecznościowymi. W styczniu 2018 roku Facebook zapowiedział promowanie godnych zaufania źródeł i publikacji opartych na informacji, kosztem tych, które jedynie wabią krzykliwymi nagłówkami. Rozwiązanie to wprowadzono już w Indiach, Wielkiej Brytanii, Niemczech, Francji, Włochach, Hiszpanii i Brazylii.

Jak podkreśla Bajek, w dobrze wyedukowanych społeczeństwach, gdzie zaufanie do mediów jest wysokie, rosyjska propaganda nie odnosi sukcesów. Za przykład podaje Skandynawię, gdzie prokremlowską agencję informacyjną Sputnik News zamknięto przed upływem roku od otwarcia, a trollowych wpisów w większości wypadków próżno szukać w mediach społecznościowych oraz w komentarzach pod artykułami.

Maciek Piasecki (1988) – studiował historię sztuki i dziennikarstwo na Uniwersytecie Warszawskim. Zajmuje się relacjami między kulturą a sprawami społecznymi, takimi jak radykalizm polityczny czy dyskryminacja w dostępie do usług publicznych. Debiutował w „Machinie”, publikował m.in. w „Wysokich Obcasach”, „Dwutygodniku” i „VICE”. Prowadzi wolontariat „Kotexpol”, który pomaga w opiece nad kotami, promując adopcję ze schronisk.


Powiązane:

Lubisz nas?

Powiedz o tym innym