0:000:00

0:00

Aby ostrzeżenia o niewiarygodności zamieścić, weryfikatorzy newsów współpracujący z FB sprawdzili ponad 4 tysiące artykułów. Infodemia koronawirusa w mediach społecznościowych, o której od marca mówi WHO, ma swój realny, liczbowy wymiar.

Według analityków z Carnegie Mellon University prawie połowa kont na Twitterze, które rozpowszechniają fałszywe narracje o koronawirusie, to prawdopodobnie boty. Konta, których aktywność wygląda na zautomatyzowaną, szerzyły „newsy” o tym, że szpitale w USA zapełniane są manekinami zamiast ludzi oraz że koronawirus rozprzestrzenia się dzięki sieci 5G (obie narracje są nieprawdziwe).

Przeczytaj także:

Płonące maszty, czyli skutki dezinformacji w realu

Mimo działań, które podjęły już platformy społecznościowe, by przeciwdziałać dezinformacji na temat koronawirusa, problem wciąż istnieje. To dlatego Unia Europejska szykuje na czerwiec nowe wytyczne dla państw i platform społecznościowych, jak walczyć z infodemią.

Już dziś mówi się, że UE będzie dążyć do stworzenia jakiegoś systemu regulacji (choć podkreśla się jednocześnie, że chodzi o regulację jak najsłabszą).

Jednym z kluczowych elementów takiego systemu ma być przekazywanie przez platformy informacji na temat zaangażowania użytkowników w rozpowszechnianie fałszywych narracji, zwłaszcza tych, które pochodzą z Rosji i Chin. Dezinformacja, poza wymiarem zdrowotnym, ma bowiem także wymiar polityczny.

Komisja Europejska nie mogła dłużej nie zauważać destrukcyjnego wpływu, jaki fałszywe treści mają na rzeczywistość. Najbardziej widocznym przykładem z ostatnich miesięcy było podpalanie masztów nadajników telekomunikacyjnych, uważanych za maszty związane z technologią 5G.

Jak informował „Financial Times”, niemiecka Fundacja im. Heinricha Bolla policzyła to dokładnie. Teoria spiskowa, rozpowszechniana w mediach społecznościowych, iż koronawirus to tak naprawdę choroba popromienna wywoływana przez technologię 5G, doprowadziła

  • do 67 prób zniszczenia masztów 5G w Wielkiej Brytanii,
  • 22 w Holandii,
  • 17 we Francji,
  • 3 w Irlandii,
  • 2 na Cyprze
  • i po jednym w Belgii, Włoszech oraz Szwecji.

Wśród właścicieli platform społecznościowych chyba już powszechna jest świadomość, że regulacje narzucane przez państwa lub ich związki niedługo staną się powszechne. Jak pisze „Financial Times”, Marc Zuckenberg, twórca Facebooka, wręcz oczekuje na regulacje unijne.

Dopóki ich nie ma, istnieje ryzyko, że w świecie rozpowszechniać się będą regulacje wzorowane na modelu chińskim, które z demokracją i zachowaniem wolności słowa nie mają nic wspólnego. Model europejski regulowania działalności platform społecznościowych jest więc potrzebny „na już”, by zrównoważył sytuację.

60 organizacji fact-checkerskich weryfikuje newsy

Już dziś jednak social media walczą z infodemią z własnej inicjatywy. W Polsce Adam Bodnar, Rzecznik Praw Obywatelskich, uzyskał informacje na ten temat od trzech platform: Facebook, Twitter i wykop.pl.

Podane na początku artykułu dane liczbowe FB pochodzą właśnie z odpowiedzi przekazanej RPO.

„Dzięki postom edukacyjnym wyświetlanym na Facebooku i Instagramie oraz dzięki Centrum informacji o koronawirusie (COVID-19) udało nam się przekierować ponad dwa miliardy ludzi do zasobów informacyjnych WHO oraz innych instytucji zdrowia publicznego – w Polsce kierujemy użytkowników bezpośrednio do strony Ministerstwa Zdrowia” – poinformował Jacob Turowski, szef zespołu ds. polityki publicznej w Polsce i krajach bałtyckich z Facebooka.

Codziennie weryfikowane są setki nowych wpisów, które pojawiają się na tej platformie. Pracuje nad tym ponad 60 organizacji na całym świecie, w Polsce dwie: stowarzyszenie Demagog oraz specjalny oddział francuskiej agencji informacyjnej AFP.

Najgroźniejsze są te, które – jeśli uwierzą w nie odbiorcy – mogą zagrozić ich życiu lub zdrowiu To przede wszystkim fałszywe „porady zdrowotne” o tym, jak leczyć koronawirusa, czy posty przekonujące, że koronawirus nie istnieje, dlatego nie trzeba zachowywać żadnych obostrzeń. Tego rodzaju wpisy Facebook liczy w setkach tysięcy.

Trudno walczyć z popularnymi fake'ami

W Polsce jednym z najsłynniejszych było nagranie Jerzego Zięby, uchodzącego w sieci za „guru” medycyny niekonwencjonalnej, który na samym początku pandemii w Polsce przekonywał, że w ciągu siedmiu godzin wyleczył sam siebie z koronawirusa.

A dokonał tego podnosząc odporność organizmu przez stosowanie perhydrolu oraz „wit. C lewoskrętnej”. Na jego rewelacje zareagował nawet Główny Inspektor Sanitarny, wydając oświadczenie razem z prezesem Naczelnej Rady Lekarskiej, w którym stwierdzono, że informacje podawane przez Ziębę są całkowicie fałszywe.

Za to nagranie kanał Zięby na You Tube został zawieszony, a zawierające je posty na FB usuwano. To jednak dobry przykład, by pokazać, że walka platform społecznościowych z fałszywymi treściami często przypomina walkę z wiatrakami: nagrania z Ziębą za chwilę pojawiły się na innych kanałach, a jego zwolennicy ochoczo rozpowszechniają je na wszystkich platformach społecznościowych.

Podobna sytuacja dotyczy międzynarodowego hitu ostatnich tygodni, czyli filmu „Plandemic” z byłą amerykańską badaczka Judy Mikovits, która przekonuje, że padła ofiarą spisku, szczepionki zabijają ludzi, a wirus COVID-19 został „sporządzony w laboratorium”. (Film zawiera szereg nieprawdziwych informacji, dementuje je AFP. )

Mimo iż nagranie jest regularnie usuwane przez platformy społecznościowe ze względu na fake`owe dane, stale na nie wraca. Rozpowszechniający tego rodzaju treści już dawno nauczyli się korzystać z portali, które nie przejmują się żadnymi zasadami i na których można umieścić praktycznie każde nagranie. Publikują je więc tam, a potem wielokrotnie linkują na Facebooku czy na różnych kanałach udostępniają na You Tube.

Boty bardzo aktywne na Twitterze

Z badań amerykańskich informatyków, o pierwszych wynikach których właśnie poinformowały amerykańskie media, wynika, że w rozsiewaniu fałszywych treści o pandemii COVID-19 bardzo aktywne są boty.

Na 200 milionów tweetów, powstałych od stycznia 2020 r., aż 45 proc. pochodziło z kont, które zachowują się bardziej jak automaty niż ludzie.

Naukowcy przyznają, że działania przynajmniej niektórych z nich wyglądają na skoordynowaną akcję propagandową, ale nie są w stanie na razie wskazać, kto miałby stać za takim działaniem.

Wiadomo za to, że konta te upowszechniły ponad 100 fałszywych narracji o COVID-19. Twitter nie komentuje tych badań, ale poinformował, że

jego algorytmy ujawniły 1,5 mln kont, zajmujących się głównie sianiem fake'ów na temat koronawirusa.

Algorytmy mają problem

Administratorzy Twittera w odpowiedzi do RPO podkreślili jednak, że dezinformacja o koronawirusie jest trudna do wychwycenia przez algorytmy oparte na sztucznej inteligencji także dlatego, że programy te co chwilę muszą uczyć się nowych zwrotów używanych w kolejnych fake newsach i teoriach spiskowych.

Bez tej „nauki” nie są w stanie weryfikować nowych informacji. Inaczej to wygląda przy wykrywaniu mowy nienawiści: obraźliwe, wulgarne słowa powtarzają się, a ich zasób jest ograniczony, raz nauczone kluczowych fraz algorytmy działają więc sprawniej niż w przypadku np. teorii spiskowych.

Mimo to także Twitter, walcząc z infodemią, zmienił zasady oceniania publikowanych treści. Usuwane są przede wszystkim takie, które:

  • zaprzeczają udowodnionym faktom naukowym na temat wirusa (w szczególności możliwości zakażenia)
  • propagują szkodliwe i nieefektywne metody leczenia
  • podszywają się pod urzędników państwowych, by rozprzestrzeniać niepotwierdzone informacje o koronawirusie (zazwyczaj działania takie są podejmowane, aby szerzyć panikę w celach komercyjnych)
  • przedstawiają niepotwierdzone zarzuty dotyczące koronawirusa i działań podejmowanych w związku z nim, które mogą potencjalnie zachęcać ludzi do niszczenia np. masztów 5G, lub powodować powszechną panikę i niepokoje społeczne.

Z infodemią walczy także popularny w Polsce portal wykop.pl. Zapytany przez Rzecznika Praw Obywatelskich o zapobieganie szerzeniu szkodliwych dla zdrowia informacji, poinformował: „Artykuły oraz posty zawierające zmanipulowane informacje są możliwie szybko usuwane z serwisu, a ich autorzy blokowani. Dodatkowo monitorujemy również serwisy zajmujące się rozpowszechnianiem fałszywych informacji - publikowanie takich domen, a także ich rozpowszechnianie jest blokowane w serwisie Wykop.pl.

W ciągu ostatniego roku podwoiliśmy liczbę osób zatrudnionych w zespole zajmującym się moderowaniem oraz usuwaniem treści. (…) Treści naruszające regulamin serwisu, w tym również artykuły rozpowszechniające informacje nieprawdziwe, usuwane są możliwie jak najszybciej”.

Jak przechytrzyć program, czyli grupy na FB

Jednak osoby wierzące w teorie spiskowe potrafią bez większych problemów przechytrzyć algorytmy: np. do linkowania zawierających je artykułów wykorzystują grupy na Facebooku, w których platforma do tej pory ingerowała minimalnie.

Jedna z najpopularniejszych polskich grup, szerzących teorie spiskowe na temat koronawirusa, która zrzesza osoby przekonane, że pandemia COVID-19 jest wymysłem polityków i mediów, ma dziś 67 tys. członków.

„Grupa ma na celu zjednoczenie osób, które czują się marginalizowane i terroryzowane przez resztę społeczeństwa ze wzg. na swoje poglądy odnośnie znikomej szkodliwości i śmiertelności koronawirusa” – napisano w jej opisie. Inna, z podobnym przekazem, liczy 15 tys. członków.

Jest też grupa związana z działaniami, których wiele państw boi się dziś najbardziej – namawiająca do niszczenia masztów 5G.

Na szczęście należy do niej niezbyt dużo osób i inaczej niż w wielu innych europejskich krajach, w prowadzonych dyskusjach nie widać, by Polacy mieli ochotę na podejmowanie tego rodzaju radykalnych działań.

Na razie przeciwnicy technologii telekomunikacyjnej 5G koncentrują się na drukowaniu ulotek informujących o – ich zdaniem – udowodnionej szkodliwości tej technologii dla zdrowia (to kolejna nieprawdziwa informacja, nie ma takich dowodów), zbieraniu podpisów pod petycjami czy organizowaniu (niewielkich) protestów.

Jacob Turowski podkreśla, że w obecnej sytuacji FB zmienia swą polityką także wobec grup: "Niektóre grupy zamykamy, innym redukujemy zasięgi czy ograniczamy ich widoczność. Przeprowadziliśmy także szkolenie dla administratorów grup, w jaki sposób radzić sobie z fałszywymi treściami i jak na nie reagować".

Miliony wpisów nienawistnych i szerzących terroryzm

Niestety, wzrost fałszywych informacji związanych z pandemią nie spowodował, że z social media zniknęły inne problemy.

Kilka dni temu Facebook opublikował swój kwartalny raport, za okres styczeń – marzec 2020, dotyczący przestrzegania standardów społeczności. Ujawnił w nim, ile podjął działań związanych z naruszaniem regulaminu (dane dotyczą wszystkich państw, w których działa FB).

Liczby przytłaczają wielkością. Nawet jeśli weźmiemy pod uwagę, co stale podkreślają autorzy raportu, że FB w tym czasie wprowadził nowe rozwiązania technologiczne, usprawniające wyszukiwanie treści naruszających zasady, wzrost w niektórych przestrzeniach i tak jest bardzo wysoki.

Jeśli chodzi o mowę nienawiści:

  • wykryto 9,6 mln zawierających ją postów (w porównaniu do 5,7 mln w czwartym kwartale 2019);
  • bardzo wzrosła liczba treści dotyczących zorganizowanych akcji nienawiści – z 1,6 mln w ostatnich miesiącach 2019 do 4,7 mln w pierwszym kwartale 2020.

Postów związanych z terroryzmem także było więcej: 7,5 mln, w porównaniu do 5,2 mln w poprzednim kwartale. Przy czym większość z nich została usunięta natychmiast po publikacji, dzięki czemu nie dotarły do odbiorców.

Wyraźny był też wzrost liczby wpisów z treściami terrorystycznymi na Instagramie – z 84 tys. do 405 tys. Miało to związek głównie ze śmiercią Ghassema Solejmaniego w styczniu 2020 r. – irańskiego generała, zabitego w amerykańskim ataku powietrznym w Bagdadzie.

W kwietniu z FB zniknęły też kolejne siatki kont i stron, rozpowszechniające w sposób skoordynowany dezinformację, a utworzone przez podmioty rządowe lub zagraniczne. Największe działały w Rosji, Iranie i Gruzji. W sumie zlikwidowano 793 strony, 732 konta i 200 grup na FB, oraz 162 konta na Instagramie.

„Wszystkie sieci zostały utworzone przez rozpoczęciem pandemii COVID-19, jednak osoby prowadzące te kampanie wykorzystywały posty związane z koronawirusem, aby zwiększyć liczbę odbiorców i przyciągnąć ludzi do swoich stron lub witryn internetowych, działających poza platformą” - poinformował Facebook.

;

Udostępnij:

Anna Mierzyńska

Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press

Komentarze