0:00
03 listopada 2021

Wina Facebooka? Odpowiedzialni za polaryzację społeczną są gdzie indziej [Analiza Mierzyńskiej]

Czy polaryzacja Polaków w sprawie kryzysu migracyjnego jest winą Facebooka? A zaostrzenie prawa aborcyjnego? Poparcie dla skrajnie prawicowych organizatorów Marszu Niepodległości? Czy to wszystko wynika ze zmiany algorytmu Facebooka w 2018 roku?

Wydrukuj

Ujawnienie tysięcy wewnętrznych dokumentów Facebooka, nazwanych #FacebookPapers, przez sygnalistkę Frances Haugen, byłą menedżerkę produktu w FB, wywołało w Polsce dyskusję na temat odpowiedzialności tego medium za polaryzację społeczną. Nie brakuje chętnych do obarczania Facebooka całkowitą winą za pogłębianie się podziałów między Polakami.

Jednak za polaryzację w Polsce odpowiadają nie tylko platformy społecznościowe (w tym Facebook), ale także politycy, partyjni spindoktorzy, media oraz zwykli uczestnicy debaty publicznej.

Pogłębianie się polaryzacji nie zaczęło się u nas od zmian algorytmu Facebooka w 2018 roku, na co wskazuje się w dyskusji związanej z #FacebookPapers, lecz od zmiany władzy dwa lata wcześniej. Zaś pierwsze „mierzalne” symptomy powiększania się podziałów widoczne były już w 2014 roku.

Wyliczyli to dokładnie amerykańscy naukowcy: Stephan Haggard i Robert Kaufman. Pisałam o tym w OKO.press:

Zmiana sposobu funkcjonowania social media, zwłaszcza ujawnienie ich algorytmów oraz nałożenie obowiązku moderowania treści, jest konieczna – ale to nie może być jedyne podjęte działanie. Aby sytuacja uległa poprawie, równolegle do regulacji nakładanych na platformy społecznościowe potrzebujemy poważnej refleksji wśród polityków. Czy są w stanie uznać, że istnieje nieprzekraczalna granica między dbaniem o ład społeczny (także w internecie!) a realizowaniem ich własnych, bieżących interesów?

#FacebookPapers

Trwa jeden z najpoważniejszych kryzysów Facebooka (czy raczej Meta - spółka właśnie zmieniła nazwę) w ostatnich latach.

Sygnalistka Frances Haugen po odejściu z firmy dostarczyła wewnętrzne materiały FB władzom USA oraz mediom, a 5 października 2021 zeznawała na ten temat przed jedną z podkomisji Senatu USA.

Powiedziała między innymi, że algorytmy Facebooka są tak ustawione, iż prowadzą do radykalizacji poglądów użytkowników i polaryzacji społeczeństw, umożliwiają również szerzenie mowy nienawiści i dezinformacji. Natomiast moderacja treści ze strony pracowników platformy dotyczy głównie użytkowników z USA, pozostałe kraje traktowane są po macoszemu.

Aż 87 proc. wszystkich środków przeznaczanych na walkę z dezinformacją jest wydawanych w Stanach Zjednoczonych, pozostałe 13 proc. ma zaspokoić potrzeby reszty kontynentów.

Ponure wrażenie robią też dane z wewnętrznego raportu FB z końca 2020 roku na temat zwalczania mowy nienawiści na Facebooku i Instagramie w krajach Bliskiego Wschodu. Okazuje się, że na Instagramie zdołano wykryć tylko 6 proc. arabskojęzycznych treści, zawierających nienawiść. Stamtąd trafiły one na Facebooka, na którym wskaźnik był wyższy - usunięto 40 proc. wpisów.

Jak podaje portal Politico: „W Afganistanie, w którym co miesiąc z FB korzysta 5 milionów osób, platforma zatrudniała do moderowania treści tylko kilka osób znających język lokalny, co skutkowało usunięciem mniej niż 1 proc. mowy nienawiści. Na całym Bliskim Wschodzie algorytmy wykrywające treści terrorystyczne, działając nieprawidłowo, usuwały treści arabskie wolne od przemocy - w 77 proc. przypadków, tym samym uniemożliwiając użytkownikom wyrażenie siebie w internecie”.

Na przykładzie talibów

Na początku 2021 roku, w czasie gdy talibowie (zakazani na FB, ponieważ są przez międzynarodowe organizacje uznawani za organizację terrorystyczną) przygotowywali się w Afganistanie do odzyskania Kabulu, na platformie pojawiły się dziesiątki wpisów, które albo wprost wspierały talibów, albo propagowały bliskie im poglądy etniczne i religijne.

Wiele z nich kwalifikowało się do mowy nienawiści. Ale gdy sprawdzono, ile z nich zostało usuniętych w ciągu 30 dni przez automatyczne narzędzia Facebooka, okazało się, że to tylko 0,2 proc. szkodliwych treści.

I choć szefowie Facebooka informowali, że inwestują w automatyczne narzędzia do identyfikacji szkodliwych treści w ponad 50 językach oraz że zatrudniają więcej pracowników mówiących w lokalnych językach – ich działania były zbyt słabe, by zapobiec rozprzestrzenianiu się mowy nienawiści w sieci. Zaś skutki tego rozprzestrzeniania wykraczają daleko poza internet.

Polskie partie miały oskarżać FB o pogłębianie polaryzacji

Polski wątek #Facebookpapers pojawił się w notatkach, w których opisano rozmowy z europejskimi politykami. Dotyczyły one zmiany algorytmu, wprowadzonej w 2018 roku przez Facebook.

Mark Zuckerberg, szef platformy, informował wówczas, że nowy algorytm będzie wspierał wpisy: wiarygodne, przydatne dla innych oraz odnoszące się do społeczności lokalnych. Czyli – o wysokiej jakości. Do tego zapowiedział promowanie treści wzbudzających największe zainteresowanie. Wsparcie mieli dostać lokalni wydawcy, trudniej miały mieć globalne marki.

Według ujawnionych notatek europejscy politycy twierdzili, że nowy algorytm zmienił politykę na gorsze, zaś konkretny przykład dotyczył właśnie Polski. Partie polityczne – PiS i PO - miały, jak opisuje „The Washington Post”, oskarżać media społecznościowe o pogłębianie polaryzacji politycznej w kraju.

Jedno ugrupowanie (nie ustalono, które) informowało nawet, że po zmianach w algorytmie Facebooka musiało tworzyć wpisy tak, by były one znacznie bardziej radykalne. Wcześniejszy układ, gdy publikowano mniej więcej równą liczbę wpisów pozytywnych i negatywnych, przestał być efektywny, wysokie zasięgi partia zyskiwała dopiero wtedy, gdy publikowała ok. 80 proc. wiadomości negatywnych, a tylko 20 proc. pozytywnych.

Kto zyskał?

"The Washington Post" wskazał również na Konfederację jako na tę partię, która - ze względu na radykalizm swoich treści – zyskuje na niejawnej polityce Facebooka.

Od tych informacji niedaleko do stwierdzeń, które po publikacji zaczęły pojawiać się w debacie publicznej w Polsce: że Facebook odpowiada za polaryzację społeczną w naszym kraju.

To daleko idące uproszczenie, na które nie można się zgodzić. Odpowiedzialność za polaryzację ponoszą przecież nie tylko media społecznościowe, ale również politycy oraz osoby decydujące o strategiach komunikacyjnych ugrupowań politycznych oraz inni wytwórcy dzielących treści.

Zaś jeśli chodzi o platformy społecznościowe, źle się dzieje nie tylko na Facebooku (o którego wewnętrznych decyzjach właśnie się dowiedzieliśmy), ale także na innych podobnych platformach (o których kulisach działania nie wiemy na razie nic).

2018 rok w Polsce: czy na pewno „wina Facebooka”?

Przyjrzyjmy się temu po kolei. W 2018 roku, tuż po zmianie algorytmu przez FB, w Polsce odbywały się wybory samorządowe. Każda kampania wyborcza to czas naturalnej społecznej polaryzacji – obywatele, nawet na co dzień niezaangażowani w politykę, muszą opowiedzieć się po którejś stronie.

W 2018 roku ostry bój rozegrał się w Warszawie – mierzyli się wówczas ze sobą: Patryk Jaki z Solidarnej Polski i Rafał Trzaskowski z PO. Obaj intensywnie wykorzystywali media społecznościowe. To wtedy informowałam o kontach działających jak boty, aktywnych w kampanii Patryka Jakiego na Twitterze, za co później zostałam zhejtowana w specjalnej twitterowej akcji zwolenników Jakiego.

Również na Twitterze prowadzono masowe ataki na Rafała Trzaskowskiego, poczynając od krytykowania jego akcji spotkań na ławeczce, przez wyśmiewanie przyklejenia taśmą szyby w drzwiach do pokoju podczas wizyty u warszawianki, po manipulacje dotyczące awarii warszawskiej oczyszczalni ścieków.

W ostatnich dniach przed wyborami sprawdzałam dane ilościowe z sieci. Pokazywały one, że obaj kandydaci budzą duże zainteresowanie w sieci – zarówno na Facebooku, Twitterze, jak i w Google Trends. Rozkładało się ono jednak w sposób zrównoważony, choć przed samymi wyborami na czoło wysunął się Rafał Trzaskowski (który wygrał wybory w Warszawie).

2018 rok był niewątpliwie okresem polaryzacji społecznej w Polsce. Trudno jednak uznać, że odpowiedzialność za nią ponosił Facebook i jego zmieniony algorytm.

Konfederacja nie zyskała od razu

„The Washington Post” wskazał Konfederację jako tę partię, która mogła zyskać na zmianach algorytmu. Jest to jednak trudne do oceny.

Po pierwsze – wciąż nie znamy szczegółów algorytmu. W ujawnionych dokumentach nie ma takich informacji i nie wiadomo, w jakim stopniu treści radykalne są automatyczne wspierane.

Po drugie - Konfederacja powstała w 2019 roku, przed wyborami do Parlamentu Europejskiego, nie ma więc możliwości porównania jej zasięgu na FB przed i po zmianie algorytmu.

Wiadomo natomiast, że konto jednego z liderów Konfederacji, Janusza Korwin-Mikkego przed 2018 roku było najpopularniejszym kontem polskiego polityka na Facebooku. Czy oznacza to, że wcześniejszy algorytm FB też promował radykalne treści?

Żeby jeszcze skomplikować obraz: pamiętajmy, że ludzie mają naturalną skłonność do emocjonalnego reagowania na informacje skandalizujące, negatywne oraz wywołujące podziw. To zjawisko znane od lat, niezwiązane z internetem, tylko z ludzką psychiką, wykorzystywane choćby przez brukowce, a teraz też przez platformy społecznościowe.

W pierwszej kampanii po powstaniu ugrupowania - do Parlamentu Europejskiego – Konfederacja wydała na reklamy na Facebooku ponad 184 tys. zł., najwięcej ze wszystkich polskich ugrupowań. Promowane posty rzeczywiście propagowały głównie negatywny, radykalny przekaz.

Zaś w ostatnim tygodniu przed wyborami nowych fanów tego ugrupowania na FB można było liczyć w tysiącach dziennie. Sprawdzałam to wówczas – na 200 analizowanych kont, reagujących pod dwoma popularnymi postami, aż 40 proc. z nich stanowiły konta puste, bez żadnej aktywności. Prawdopodobnie były fałszywe.

Facebook nie zdołał ich szybko wychwycić ani usunąć, choć powinien. To jest jego odpowiedzialność. Jednocześnie jednak ktoś te konta tworzył, a potem uruchamiał, i nie byli to pracownicy platformy.

Mimo tak wielkiego wysiłku włożonego w kampanię na Facebooku, Konfederacja nie przekroczyła wtedy progu wyborczego.

W kampanii parlamentarnej 2019 roku Konfederacja także biła rekordy w przyroście liczby fanów – dziennie przybywało jej ponad 1000 obserwatorów na FB, a w ostatnich dniach przed wyborami ich liczba rosła nawet o 3 tysiące. O takim wyniku reszta ugrupowań mogła tylko pomarzyć.

Niestety, nie wiadomo, czy stał za tym algorytm Facebooka, promujący treści skrajnie prawicowe, czy też działały duże grupy fałszywych kont, wykupionych specjalnie w celu generowania ruchu na fanpage'u, a może oba elementy razem dały efekt synergii.

Hołownia dowodem na tezę odwrotną

Konfederacja weszła do Sejmu, ale już w kampanii prezydenckiej 2020 roku Krzysztof Bosak, kandydat tego ugrupowania, nie cieszył się zbyt dużym zainteresowaniem w social media. Facebooka podbijał wówczas Szymon Hołownia.

Trudno jednak uznać Hołownię za politycznego radykała, który korzysta z polaryzacyjnego wsparcia algorytmu. Ten polityk mógłby być raczej dowodem na tezę przeciwną, gdyby ktoś chciał ją postawić – że na Facebooku mogą się wybić nie tylko radykalni politycy, ale też tacy, którzy potrafią generować duże zainteresowanie, niekoniecznie za pomocą negatywnych treści.

Potem zresztą na FB intensywnie zyskiwał Rafał Trzaskowski, regularnie zasięgami i liczbami reakcji prześcigając Andrzeja Dudę, a potem także Hołownię.

Wakacje z antyszczepionkowcami

Konfederacja zdobyła wysokie wyniki na Facebooku w drugiej połowie 2020 roku. Jej ofensywa zaczęła się latem, po wyborach prezydenckich. Gdy pozostałe partie udały się na wakacje, politycy tego ugrupowania zorganizowali akcję „Wakacje z Konfederacją” – były to spotkania w całej Polsce (w realu, nie w sieci).

Do tego zaczęli prowadzić konsekwentną narrację w mediach społecznościowych.

Podłączyli się pod rosnącą grupę Polaków, protestujących przeciwko pandemicznym ograniczeniem, tym samym zagospodarowując nowe środowiska, które nie miały reprezentacji politycznej.

Po drugie: systematycznie promowali liberalizację przepisów podatkowych oraz wsparcie przedsiębiorców. Był to okres między pierwszą a drugą falą pandemii, wiele firm upadało lub ich los był niepewny, wolnościowy przekaz Konfederacji znalazł sporą liczbę odbiorców.

Bieżące wyniki Konfederacji na Facebooku nadal są wysokie. W jakim stopniu odzwierciedlają rzeczywiste zainteresowanie partią, a w jakim jest to skutek niejawnego wsparcia dla tego rodzaju treści ze strony FB? Ustalenie tego byłoby możliwe dopiero po ujawnieniu całego algorytmu Facebooka. Przy czym najwięcej fanów na FB spośród liderów politycznych i partii ma dziś Szymon Hołownia, zaś konto skrajnie prawicowego Janusza Korwin-Mikkego zostało przez FB zawieszone.

Ktoś te treści tworzy i publikuje…

Kolejne dane pokazują jeszcze inny kontekst polskiej polaryzacji niż tylko „wina Facebooka”. Po kampanii do PE platformy społecznościowe przedstawiły Komisji Europejskiej, w jaki sposób walczyły z dezinformacją.

Google poinformowało, ile zablokowało reklam naruszających jego regulamin. Chodziło o reklamy świadomie wprowadzające odbiorców w błąd, najczęściej o podszywanie się pod jakąś organizację (także partię polityczną czy media) czy sugerowanie nieprawdziwych powiązań z osobą/organizacją.

Polska znalazła się w tym zestawieniu w czołówce – na 3. miejscu. Google zidentyfikował 1397 takich przypadków w naszym kraju, więcej było tylko w Niemczech i Wielkiej Brytanii. Podkreślmy: ktoś z Polski te fałszywe reklamy chciał opublikować. Nie robiła tego platforma społecznościowa, tylko podmioty zewnętrzne wobec niej.

Natomiast analitycy Twittera podali wówczas, jaki procent użytkowników z konkretnego państwa rozpowszechniał linki do tzw. „junk news” - zmanipulowanych lub nieprawdziwych newsów, pochodzących z mało wiarygodnych portali internetowych.

Wyniki europejskie były świetne: mniej niż 4 proc. źródeł wiadomości udostępnianych na TT przed wyborami do PE pochodziło z takich źródeł. Wyjątkiem była… Polska – u nas aż 21 proc. ruchu na TT wygenerowały posty z linkami prowadzącymi do „wiadomości śmieciowych”.

Znów: nie pojawiły się na platformie same z siebie, ktoś te treści stworzył, opublikował i udostępnił.

Konglomerat interesów

Przypomnijmy też raport o politycznej manipulacji w mediach społecznościowych z 2018 roku, dotyczący okresu przed zmianą algorytmu FB, autorstwa Samanthy Bradshaw i Philipa N. Howarda z Computational Propaganda Project Oxford Internet Institute.

Ujawniono w nim, że politycy w wielu państwach, także w Polsce, świadomie manipulują opinią publiczną w mediach społecznościowych, płacąc za to wyspecjalizowanym firmom. Jako podstawowe metody manipulacji w Polsce wymieniono: atakowanie opozycji i używanie trolli do nękania konkretnych osób, społeczności lub organizacji.

Nienawistne komunikaty miały być wykorzystywane systematycznie, a ich celem było prześladowanie grup mniejszości i sprzeciwu politycznego.

Podkreślę jeszcze raz: używanie takich metod w sieci na zlecenie polityków nie wynikało ze zmiany algorytmu FB, mowa o działaniach sprzed 2018 roku.

Za rozpowszechnianie mowy nienawiści, dezinformację i manipulację w przestrzeni informacyjnej odpowiedzialność ponoszą nie tylko platformy społecznościowe. Mamy tu do czynienia z prawdziwym konglomeratem interesów:

  • platformy zarabiają, korzystając między innymi z tego, że zainteresowanie ludzi najszybciej wzbudzają treści o wysokim poziomie emocjonalności;
  • zarabiają na tym również firmy, które wyspecjalizowały się w tego rodzaju nieetycznych działaniach w sieci;
  • zyskują też politycy oraz inne podmioty, wytwarzające radykalne, negatywne, skandalizujące treści wiedząc, że dotrą one do szerokiego grona odbiorców.

Kto na tym traci?

My wszyscy. Tracimy na tym jako społeczeństwa. Traci system demokratyczny, bo radykalizacja poglądów utrudnia merytoryczną debatę, wypracowywanie kompromisu, szukanie punktów wspólnych. Ale przekonanie, że wystarczy „naprawić” Facebooka, by naprawić rzeczywistość, jest mylne.

Już dziś choćby przeciwnicy szczepień, których wpisy i grupy są z Facebooka często usuwane, przenoszą się np. na platformę Telegram – i tam, w zamkniętych grupach, w dalszym ciągu się radykalizują.

Zmiany są konieczne, ale nie tylko regulacje dla platform

Amerykańscy naukowcy Stephan Haggard i Robert Kaufman w raporcie „Backsliding. Democratic Regress in the Contemporary World” wyliczyli części składowe polaryzacji. Są to:

  • brak uznania i szacunku elit politycznych dla argumentów ich politycznych konkurentów,
  • częstotliwość posługiwania się mową nienawiści w retoryce partii,
  • podziały społeczne,
  • poparcie dla antysystemowych ruchów i organizacji.

Platformy społecznościowe mogą odgrywać negatywną rolę w każdym z tych elementów. Ale u podstaw procesu polaryzacji nie leżą problemy z algorytmem Facebooka, lecz działania ludzi.

Uchodźcy, aborcja, narodowcy

Czy polaryzowanie Polaków w sprawie kryzysu migracyjnego przez polski rząd jest winą Facebooka?

Czy któraś z platform społecznościowych ponosi odpowiedzialność za zaostrzenie prawa aborcyjnego w Polsce (zmiana ta pogłębiła społeczne podziały)?

Czy poparcie dla skrajnie prawicowych organizatorów Marszu Niepodległości (wydarzenie odbywające się na masową skalę przynajmniej od 2010 roku) wynika ze zmiany algorytmu Facebooka w 2018 roku?

Wprowadzenie regulacji do sposobu działania platform społecznościowych jest konieczne. Ale na tym nie można zakończyć rozwiązywania problemu pogłębiania podziałów społecznych za pomocą internetu.

Potrzebujemy także prawa, które umożliwi skuteczną walkę z internetowymi hejterami; policji, która nie będzie lekceważyć zgłoszeń dotyczących zachowań w internecie; a nade wszystko - polityków świadomych tego, że zachowanie ładu społecznego i dobrych relacji międzyludzkich jest istotniejsze niż ich bieżące interesy.

Udostępnij:

Anna Mierzyńska

Analityczka mediów społecznościowych, specjalizuje się w analizie dezinformacji. Z OKO.press współpracuje od 2017 roku. Autorka książki "Efekt niszczący. Jak dezinformacja wpływa na nasze życie".

Komentarze

Komentarze będą wkrótce dostępne