Firma Meta zamyka swój program fact-checkingowy. Zmodyfikowała też politykę moderacji, usunęła m.in. niektóre zasady dotyczące mowy nienawiści. Meta twierdzi, że to wszystko w imię „wolności słowa”. No i jest efekt – mowa nienawiści na platformach Mety kwitnie
Zmiany ogłoszone zostały siódmego stycznia we wpisie na oficjalnym blogu firmy Meta oraz powiązanym nagraniu wideo Marka Zuckerberga. Zamiast organizacji eksperckich weryfikujących treści, na platformach firmy pojawi się system „notatek od społeczności” (ang. „Community Notes”), skopiowany – jak przyznaje autor wpisu – z X/Twittera. Meta twierdzi, że ma to prowadzić do mniejszej liczby błędnie oznaczanych i blokowanych treści i profili.
Jednocześnie firma zmieniła swoją politykę dotyczącą mowy nienawiści na platformie, również powołując się na wolność słowa i swobodę ekspresji. Dopuszczalne stało się, między innymi, nazywanie kobiet „własnością” lub „sprzętami domowymi”, a osób trans – „dziwolągami”.
Meta usunęła też zapisy zakazujące obwiniania konkretnych grup (etnicznych, religijnych, narodowościowych) o np. powodowanie pandemii COVID-19 oraz określanie osób należących do konkretnych grup mianem „brudu” czy ekskrementów.
Meta i Mark Zuckerberg w przemyślany, wyrachowany sposób próbują nas przekonać, że zwalczanie dezinformacji i walka z mową nienawiści stoją w opozycji do wolności słowa, do możliwości swobodnej ekspresji.
Jednocześnie na platformach firmy blokowane były lub wciąż są treści dotyczące aborcji, LGBTQ+, zmian klimatycznych; blokowane są linki do niezależnej alternatywy dla Instagrama – Pixelfed (który jest częścią Fediwersu); blokowane lub ograniczane są wpisy i konta polskich organizacji pozarządowych działających w obszarze praw cyfrowych.
Blokowane były linki do materiałów polskiego CERTu – zespołu reagowania na incydenty bezpieczeństwa komputerowego.
Fact-checking (z ang. „weryfikacja faktów”) ogólnie rzecz biorąc polega na weryfikacji doniesień medialnych, wypowiedzi, wpisów w mediach społecznościowych, czy innych treści dostępnych w przestrzeni publicznej.
Zajmują się nim często pół-profesjonalne lub profesjonalne organizacje, takie jak polski Demagog. Duże organizacje medialne często mają dedykowane wewnętrzne działy fact-checkeringu, weryfikujące każdy element tekstu przed jego publikacją.
Program fact-checkingowy firmy Meta polega (bo jeszcze się w pełni nie zakończył) na współpracy z niezależnymi organizacjami fact-checkingowymi, jak Demagog. Organizacje te muszą być certyfikowane przez jedną z dwóch dużych międzynarodowych sieci zajmujących się fact-checkingiem – IFCN lub EFCSN.
Co ważne, fact-checkerzy mogą wyłącznie oceniać prawdziwość wpisów. Nie mają możliwości ich usuwania ani blokowania:
Osoby zajmujące się fact-checkingiem skupiają się na autentyczności i trafności informacji. A my na podejmowaniu działań poprzez informowanie ludzi gdy dana treść została oceniona.
Decyzje dotyczące blokowania lub ukrywania konkretnych postów, w oparciu o analizy tych organizacji, podejmuje sama Meta. Tymczasem w swoim wpisie na temat zmian, firma napisała:
Eksperci, jak każdy, mają swoje uprzedzenia i perspektywy. To miało odzwierciedlenie w decyzjach niektórych z nich, dotyczących tego, co poddać weryfikacji, i jak.
Słowem, gigant zrzuca odpowiedzialność za własne decyzje dotyczące blokowania lub ukrywania treści na niezależne organizacje fact-checkingowe.
Ze stawianiem fact-checkingu w opozycji do wolności wypowiedzi zdecydowanie nie zgadza się dr Paweł Terpiłowski z Demagoga – „Nie widzę tutaj sprzeczności: wolność słowa nie powinna bowiem zwalniać z odpowiedzialności za kłamstwa.”
„Uważam, że program fact-checkingowy Mety jest, jak do tej pory, najskuteczniejszym mechanizmem przeciwdziałania dezinformacji, który został wdrożony przez platformy internetowe” – zaznacza w mailu.
„Z jednej strony dawał on gwarancję wolności słowa, ponieważ fact-checkerzy nigdy nie usuwali i nie usuwają z platform Mety jakichkolwiek treści. Nie mamy fizycznie takich możliwości. Naszym zadaniem jest przygotowywanie analiz w oparciu o wiarygodne źródła informacji i ich ocena zgodnie z ustaloną przez Metę metodologią.”
„Z drugiej strony zapewnia on dodatkowy kontekst i umożliwia użytkownikom zapoznanie się z wiarygodnymi źródłami odnoszącymi się do tematu poruszanego w treści wpisu”.
Na stronie programu fact-checkingowego Mety nadal można przeczytać, że:
Walka z dezinformacją jest nieustannie ewoluującym problemem, i Meta nie poradzi sobie z nim sama.
W odpowiedzi na moje pytania gigant technologiczny powołuje się na badania mające rzekomo wskazywać, że Community Notes (które mają zastąpić fact-checking) są „bardziej efektywne”. Nie podaje jednak żadnych źródeł. I nie precyzuje, w jakim sensie Community Notes miałyby być „bardziej efektywne”.
Efektywność można mierzyć na wiele sposobów. Na przykład: darmowa praca osób korzystających z platformy (bo tak wypada traktować Community Notes) będzie zapewne bardziej „efektywne kosztowo”, niż płacenie profesjonalnym organizacjom fact-checkingowym.
Zdecydowanie bardziej konkretnej odpowiedzi udziela mi dr Terpiłowski: „Przede wszystkim, w obecnej wersji Community Notes są bardzo podatne na skoordynowane akcje wpływające na ich widoczność. Oznaczenia pojawiają się i znikają, w zależności od ich ocen. Mieliśmy już do czynienia z przypadkami »znikających« notatek pod wpisami Elona Muska [na portalu X/Twitter – przyp. red.] w wyniku masowego downvote’ingu [głosowania przeciwko danej notce – przyp. red.] ze strony jego zwolenników.”
"Skuteczność programu fact-checkingowego Mety w przeciwdziałaniu dezinformacji potwierdzały zarówno dane samej platformy, jak też badania naukowców (tu, tu). Zgodnie z danymi Mety, jedynie ok. 3 proc. treści oznaczanych przez fact-checkerów przechodziło skuteczną procedurę odwoławczą.
Dla porównania, skutecznych odwołań od ograniczeń treści zawierających nagość było 79 proc., mowę nienawiści 63 proc., nękanie 92 proc., a przemoc 88 proc." – wylicza dr Terpiłowski.
„Pokazuje to, że praca fact-checkerów jest dużo bardziej wiarygodna niż procesy moderacyjne samej Mety.”
I zdecydowanie bardziej wiarygodna niż niczym niepodparte twierdzenia jej działu prasowego.
Podobnie z dehumanizującym językiem i mową nienawiści, skierowaną często przeciwko kobietom, osobom transpłciowym, osobom imigranckim. Osoby z grup dotkniętych tymi zmianami polityk, a korzystające z Facebooka, z którymi rozmawiałem, mówią mi, że już zauważyły znaczny wzrost intensywności skierowanej przeciwko nim mowy nienawiści. A to przecież przełoży się bezpośrednio na ich swobodę wypowiedzi na tych platformach.
Doskonale wie o tym Elon Musk – który wielokrotnie szczuł swoich zwolenników na X/Twitterze na osoby (zwłaszcza kobiety), które były mu niewygodne – czy ludzie stojący za zorganizowanymi grupami trolli internetowych atakujących w mediach społecznościowych dziennikarki np. z Indii.
„Wolność słowa”, której wersję próbują nam sprzedawać oligarchowie pokroju Muska czy Zuckerberga, oraz kontrolowane przez nich korporacje, jest karykaturalnym wykrzywieniem faktycznej swobody ekspresji. To naiwne, czysto mechanistyczne jej rozumienie – „operator platformy nie ingeruje bezpośrednio w sam akt komunikacji”.
Tyle że pewne akty komunikacji mogą same ograniczać czyjąś swobodę ekspresji. Przyzwolenie na stosowanie dehumanizującego języka w odniesieniu do konkretnych, często dyskryminowanych grup, to nie dbanie o wolność słowa – to odmawianie jej tym właśnie grupom.
Taki dehumanizujący język prowadzić może jednak do znacznie gorszych rzeczy niż ograniczenie swobody wypowiedzi. Dehumanizacja i agresja słowna to często pierwszy krok na ścieżce do agresji całkiem fizycznej. W skrajnym wypadku, ludobójstwa.
Pod koniec 2017 r. w Mjanmie brutalnie zamordowane zostały dziesiątki tysięcy osób należących do muzułmańskiej grupy etnicznej Rohingya. Kolejne kilkanaście tysięcy muzułmańskich kobiet i dziewczynek zostało zgwałconych. Nie było to pierwsze ludobójstwo przeciwko Rohingya w Mjanmie – ale było to pierwsze ludobójstwo, za które odpowiedzialność w istotny sposób ponosi firma Meta.
Na przestrzeni kilku lat gigant był wielokrotnie ostrzegany o istnieniu dużego ryzyka, że ułomna polityka moderacji, niewystarczająca liczba moderatorów i moderatorek znających lokalny język, w połączeniu z algorytmami zaprojektowanymi tak, by promować wpisy generujące najwięcej „zaangażowania” – mogą przyczynić się lub wręcz doprowadzić do tragedii.
Wewnętrzne dokumenty firmy, ujawnione w 2021 r. przez sygnalistkę Frances Haugen, potwierdzają, że Meta zdawała sobie sprawę z tych zagrożeń: „Mamy dowody z wielu źródeł, że mowa nienawiści, polaryzujące wypowiedzi dotyczące polityki i dezinformacja (…) wpływają na społeczeństwa na całym świecie. Mamy również przekonujące dowody na to, że kluczowe mechanizmy naszego produktu, takie jak wiralność, rekomendacje, optymizacja pod zaangażowanie, są istotną częścią powodów, dla których taki rodzaj wypowiedzi kwitnie na platformie”.
Meta ma już więc krew na rękach. A mimo to dziś usuwa część systemów bezpieczeństwa, które takim tragediom mogą pomóc zapobiegać. Nic dziwnego, że eksperci i ekspertki biją na alarm, na przykład w kontekście mowy nienawiści dotyczącej osób imigranckich.
Nawet ustanowiona i finansowana przez samego giganta Komisja Nadzoru (ang. „Oversight Board”), rzekomo niezależny organ nadzorujący moderację na platformach firmy, przyznała już w październiku zeszłego roku, że istnieją „poważne wątpliwości” dotyczące moderacji antyimigranckich wpisów.
Tymczasem najnowsze zmiany w polityce moderacji firmy – ogłoszone niecałe dwa miesiące później – znoszą (cytując za linkowanym wcześniej wpisem na oficjalnym blogu) „ograniczanie dotyczące tematów takich jak imigracja”.
Na moje pytanie dotyczące tego, w jaki sposób (zdaniem firmy Meta) zmiany te wpłyną na osoby korzystające z usług przez nią zarządzanych, odpowiedzi nie otrzymałem.
Są jednak grupy, którym Meta bez problemu odmawia swobody wypowiedzi w imię ochrony osób, o których się wypowiadają.
Szóstego stycznia tego roku – a więc na dzień przed ogłoszeniem zmian dotyczących fact-checkingu i polityki moderacji – do zarządu Meta dołączył m.in. Dana White. Dana White to szeroko znany i popularny w USA zawodnik mieszanych sztuk walki, a zarazem wielki zwolennik Donalda Trumpa.
Na ogłoszenie jego dołączenia do zarządu na wewnętrznych kanałach komunikacji firmy wiele osób dla niej pracujących zareagowało negatywnie. I choć publicznie Meta odmienia „wolność słowa” przez wszystkie przypadki, to wewnętrzne posty krytykujące nowego członka zarządu są bezceremonialnie kasowane. Dlaczego? „To ważne, by zachować szacunek w miejscu pracy” – brzmi wewnętrzne wyjaśnienie.
Można by się spodziewać, że zawodnik mieszanych sztuk walki, a zarazem multimilioner, którego aktywa wyceniane są na ok. pół miliarda dolarów i członek zarządu jednej z największych firm technologicznych na świece, poradziłby sobie emocjonalnie z krytyką ze strony szeregowych pracowników i pracownic tejże firmy.
Na moje pytanie o wewnętrzną cenzurę nie uzyskałem od firmy odpowiedzi.
Zapytałem też giganta wprost, czy na wspomniane zmiany polityk firmy wpływ miał wybór Donalda Trumpa na urząd prezydenta Stanów Zjednoczonych. Odpowiedzi do dziś nie otrzymałem.
Trudno jednak oprzeć się wrażeniu, że są to zmiany pisane pod Donalda Trumpa i szerszy ruch, który reprezentuje. Ruch atakujący osoby transpłciowe i homoseksualne, nakręcający nienawiść do imigrantów; ruch na wskroś mizoginiczny.
„Uważam, że decyzja Mety miała podtekst wyłącznie polityczny.” – zgadza się dr Terpiłowski.
Zadeklarowany zwolennik Donalda Trumpa dołączył do zarządu firmy szóstego stycznia. Zmiany w polityce ogłoszone zostały dzień później. Szósty stycznia to data znacząca w najnowszej historii Stanów Zjednoczonych – szóstego stycznia 2021 r. ruch zwolenników Donalda Trumpa, który właśnie przegrał był wybory prezydenckie, dokonał krwawego szturmu na Kapitol.
Mój rozmówca również wspomina o szturmie na Kapitol, podkreślając wagę dezinformacji. „W naszej pracy skupiamy się na najbardziej szkodliwych przykładach dezinformacji, takich jak próby oszustw, dezinformacja medyczna mogąca rodzić realne zagrożenie dla życia lub zdrowia, prorosyjska dezinformacja na temat wojny w Ukrainie, czy w końcu dezinformacja uderzająca w integralność wyborów. O tym, jakie mogą być skutki tej ostatniej, przekonaliśmy się przy okazji szturmu na Kapitol.”
Nie ulega przy tym wątpliwości, że na platformach Meta regularnie dochodzi do blokowania treści, które nie powinny być blokowane. Jak wspominałem, blokowane bywają wpisy polskich organizacji pozarządowych zajmujących się prawami cyfrowymi, linki do materiałów polskiego CERTu, posty dotyczące zmian klimatycznych.
Na moje pytania na ten temat, Meta przyznaje, że blokowanie linków do CERTu czy treści dotyczących LGBTQ+ było błędem. Firma jednak nie chciała albo nie była w stanie wyjaśnić, dlaczego takie nad-blokowanie dotyczyło tych akurat treści (poza przyznaniem, że ich zasięgi były ograniczone w wyniku błędu). Treści LGBTQ+ na Instagramie blokowane były od wielu miesięcy.
Do pytania dotyczącego wpisów na temat zmian klimatycznych firma się nie odniosła. Co do blokowania wpisów polskich organizacji pozarządowych, zostałem poinstruowany, aby przesłać linki do profili lub zrzuty ekranu pokazujące, jakie działania moderacyjne zostały podjęte.
To jest niedopuszczalne.
Gigant technologiczny, który ma roczne przychody na poziomie niewielkiego kraju, i który kontroluje komunikację kilku miliardów ludzi, albo nie jest w stanie, albo nie ma ochoty wytłumaczyć się ze swoich błędów dotyczących blokowania niewinnych treści.
Całymi miesiącami ukrywa ogromną kategorię wpisów. Blokuje posty znanych mu od lat organizacji pozarządowych – po wielokroć osoby reprezentujące Meta brały udział w panelach z przedstawicielkami i przedstawicielami wielu z nich!
Jednocześnie bezceremonialnie manipuluje debatą publiczną wokół „wolności słowa”, bezpodstawnie obwiniając organizacje fact-checkingowe za swoje własne działania, i próbując powiązać reagowanie na mowę nienawiści z „cenzurą”.
Moderowanie jakiejkolwiek społeczności zdecydowanie nie jest prostym zadaniem. Próba stworzenia spójnych zasad moderacji, które działałyby dobrze w kontekście wszelkich społeczności, na całym świecie, w dowolnym kontekście społeczno-politycznym – jest zadaniem zgoła niemożliwym.
Tyle że firma Meta sama postawiła się w tej sytuacji. Nikt Marka Zuckerberga nie zmuszał do tego, aby przekształcił małe forum akademickie w globalny, scentralizowany monopol społecznościowy. To była decyzja czysto biznesowa. Odpowiedzialność za jej skutki spoczywa na firmie i jej szefie.
Na nas wszystkich zaś spoczywa obowiązek wyciągnięcia wniosków na przyszłość. Żadna jedna firma czy organizacja nie może być odpowiedzialna za globalną komunikację miliardów ludzi. Centralizacja jest zagrożeniem dla demokracji.
Informacje o blokowaniu na Instagramie linków do usługi Pixelfed – zdecentralizowanej, nie kontrolowanej przez żadną wielką firmę alternatywy dla usługi Meta – pojawiły się prawie tydzień po ogłoszeniu zmian w zasadach moderacji. Informacje o blokowaniu na Instagramie informacji dotyczących tabletek poronnych i organizacji aborcyjnych pojawiły się dwa tygodnie po ogłoszeniu tych zmian.
„Celem systemu jest to, co robi” – brzmi ukuta przez Stafforda Beera maksyma.
Skutkiem działania Facebooka, Instagrama oraz Threads jest blokowanie tematów niewygodnych dla skrajnej prawicy w USA (aborcja, LGBTQ+, katastrofa klimatyczna) lub dla samej firmy Meta (Pixelfed, wpisy organizacji zajmujących się prawami cyfrowymi). Skutkiem ich działania było ludobójstwo Rohingya w Mjanmie; jest nim polaryzacja debaty publicznej i rozprzestrzenianie się dezinformacji; jest nim szczucie na imigrantów.
Na tym etapie nie ma znaczenia, czy to niebywała wprost niekompetencja, czy celowe złośliwe działanie. Efekt jest ten sam. A skoro firma nic z tym nie robi – wręcz przeciwnie, rozmontowuje polityki mające tym negatywnym skutkom efektom przeciwdziałać! – trudno nie dojść do wniosku, że jest to w jakimś sensie celowe.
„Jest dla nas ważne, żeby wszystkie społeczności czuły, że są bezpieczne i mile widziane na apkach firmy Meta” – czytam w mailu od firmy z krwią na rękach, której zdaniem nazywanie kobiet „sprzętami domowymi”, a osób trans „dziwadłami”, jest dopuszczalne.
Jeśli dostrzegasz problemy związane z wielkimi platformami technologicznymi, ale nie czujesz się na siłach, by z ich usług zrezygnować, nie jesteś sam/sama. Przejście na mniejsze, niezależne usługi może wydawać się trudne, ale jest możliwe. Alternatywy dla konkretnych usług znajdziesz tu.
Możesz zacząć od śledzenia informacji i poradników publikowanych przez organizacje takie, jak Fundacja Panoptykon czy Internet Czas Działać.
Jeśli korzystasz z mediów społecznościowych, rozważ też założenie konta w Fediwersie – zdecentralizowanej sieci społecznościowej. Da Ci to dostęp do porad społeczności, która tak jak Ty dostrzega te problemy i boryka się z tymi trudnościami. Pol.social lub Szmer mogą dobrym domem dla Twojego pierwszego konta na fedi. Więcej o Fediwersie przeczytasz tu.
Jeśli rozważasz zamknięcie konta na X/Twitterze, narzędzia takie jak Cyd pomogą Ci pobrać Twoje dane i usunąć je z platformy.
Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.
Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.
Komentarze