Dlaczego wspomagana technologicznie przemoc stała się na platformie Elona Muska codziennością i co powinny z nią zrobić polski rząd oraz Komisja Europejska – tłumaczy Marta Grundland (Amnesty International)
Mateusz Witczak: Swój raport zatytułowaliście: „Śmierć przez tysiąc cięć”, nawiązując w ten sposób do okrutnej chińskiej tortury, polegającej na nabiciu ofiary na pal, a następnie odcinaniu kawałków jej ciała (co odczuwała ona tym mocniej, że wcześniej podawano jej wyostrzające ból zioła). To dobra metafora sytuacji polskiej społeczności LGBTQIA+ na X (dawnym Twitterze)?
Marta Grundland, koordynatorka kampanii w Amnesty International: Użyła jej w rozmowie z Amnesty International Aleksandra Herzyk, aseksualna twórczyni komiksów, która swego czasu napisała na nim o zabiegu zmniejszania piersi, w związku z czym część użytkowników uznała ją (mylnie!) za transpłciową kobietę. „Czytasz różne rzeczy na swój temat, które nie są prawdą, ale jakoś zostają ci w głowie. To jak kara tysiąca cięć” – mówiła.
Takie cyfrowe cięcia mogą być bardzo bolesne. W dodatku wyoutowana osoba aktywistyczna, która przebywa na X, doświadcza ich tam każdego dnia – łącznie z nawoływaniami do samobójstwa albo „życzeniami”, by trafiła do komory gazowej. Przemoc została przez platformę znormalizowana, członkowie i członkinie społeczności spodziewają się jej, logując się na swoje konta. Tymczasem to nie powinna być żadna „norma”.
W swojej publikacji powołujecie się na ubiegłoroczny raport Stowarzyszenia „Nigdy Więcej”, którego autorzy i autorki udokumentowali 343 przykłady mowy nienawiści. Choć zgłoszono je administracji, zdecydowana większość nie została usunięta.
Z jakąkolwiek reakcją – niekoniecznie usunięciem – ze strony X spotkał się raptem co dziesiąty post, a przecież tych 343 komentarzy to wierzchołek góry lodowej! Moderacja na Twitterze nigdy nie była dobra, natomiast po przejęciu serwisu przez Elona Muska ona kompletnie leży. Pod hasłami „przywrócenia wolności słowa”, biznesmen przekształcił nieidealny system w niefunkcjonalny kadłubek.
Przypominam zresztą, że jednymi z pierwszych decyzji Muska po przejęciu Twittera było zwolnienie 80% inżynierów i inżynierek odpowiedzialnych za moderację treści oraz rozwiązanie rady ds. zaufania i bezpieczeństwa (ciała doradczego, w którym zasiadały organizacje pozarządowe – red.).
Można więc powiedzieć, że choć Musk obiecywał demokratyzację, X przestał słuchać społeczeństwa.
Nominalnie wsłuchuje się w jego głos – w miejsce „klasycznej” moderacji Musk wprowadził wszak notatki społeczności (ang. community notes), które przedstawiał jako remedium na dezinformację.
Powinien nas jednak zastanawiać fakt, że nie wiemy, na jakiej zasadzie algorytm decyduje, która z reakcji będzie wyświetlana pod postem. Musimy też oddzielić dezinformację od mowy nienawiści – ta ostatnia nie powinna być „opatrywana kontekstem”, tylko zdejmowana.
Nie jest. Sam ostatnio przeczytałem pod swoim artykułem komentarz: „obyś zdechł, pedale”, którego X nie usunął, choć przecież narusza on jego regulamin.
To nie tylko kwestia naruszeń regulaminu, ale przede wszystkim prawa Unii Europejskiej, a konkretniej: rozporządzenia DSA (Digital Services Act, pol. Akt o usługach cyfrowych – przyp. red.), które weszło w życie w lutym ubiegłego roku.
Zakłada ono ujednolicenie procedury usuwania nielegalnych treści, wprowadzenie unijnej kontroli nad moderacją oraz zapewnienie użytkownikom, których posty skasowano, skutecznej procedury odwoławczej.
Bardzo ważny jest także obowiązek przedkładania przez VLOP-y (Very Large Online Platforms, pol. bardzo duże platformy internetowe – red.) corocznych raportów, w których wykażą one zagrożenia związane ze swoją działalnością – mieszczą się tu nawoływania do przemocy, dezinformacja oraz np. wpływ na procesy demokratyczne i wybory – a także mitygowania wykrytych ryzyk.
Tyle że nadal zwlekamy z wdrożeniem DSA. W maju Komisja Europejska pozwała w związku z tym Polskę i cztery inne kraje do TSUE.
Rzecz w tym, że DSA nie wchodzi w życie wraz z chwilą implementacji przez Polską czy żaden inny kraj UE, zapisy rozporządzenia obowiązują już teraz. W myśl aktu każdy z nas powinien mieć możliwość zgłoszenia mowy nienawiści do krajowego koordynatora ds. usług cyfrowych, który mógłby zażądać od platformy ich usunięcia. Ten ostatni w teorii został przez Polskę wyznaczony, ale na razie to figurant. Musimy przyjąć w Sejmie ustawę, która dawałaby mu realne kompetencje, a także dostęp do funduszy, a co za tym idzie: monitorujących sieć zespołów eksperckich.
Dziś teoretycznie możemy zgłosić mowę nienawiści moderacji. Sęk w tym, że – to chyba najbardziej szokująca liczba waszego raportu – platforma zatrudnia raptem dwóch polskojęzycznych moderatorów. W dodatku jeden z nich nie jest native speakerem.
Z X korzysta 5,33 mln Polek i Polaków, 14% naszego społeczeństwa. Nie znam kompetencji tej dwójki moderatorów, z pewnością jednak nie są oni w stanie skutecznie realizować swoich obowiązków.
Dlaczego wdrożenie zapisów DSA się opóźnia, skoro odpowiada za nie Ministerstwo Cyfryzacji, na którego czele stoi lewicowy minister Krzysztof Gawkowski (w dodatku w randze wicepremiera!)?
To doskonałe pytanie, które jako Amnesty International kierujemy do zarówno ministerstwa, jak i osobiście do wicepremiera Gawkowskiego. Wdrożenie DSA to nie jest mechanika kwantowa; trzeba przegłosować ustawę, która jest zresztą gotowa. Na razie Polska świadomie i systematycznie łamie unijne prawo.
Sęk w tym, że sama debata o ingerencji w działalność platformy stanowiłaby otwarcie kolejnego frontu walki z prawicą. Kiedy w lipcu Grok, asystent AI na X, zaczął obrażać polityków i wychwalać Hitlera, Gawkowski zadeklarował, że mógłby „wyłączyć” X. Politycy PiS i Konfederacji natychmiast oskarżyli go o próbę ograniczania „wolności słowa”.
„Wolność słowa” bywa wytrychem, który ma zamknąć usta krytykom, bo przecież żaden liberalny czy lewicowy polityk nie chciałby, żeby przykleiła się do niego łatka „cenzora”... tyle że ona nie jest żadnym nadrzędnym prawem człowieka, niwelującym wszystkie inne. Przecież jeśli osoba queerowa dostarcza w sieci hejtu – jej prawa człowieka są łamane.
Zresztą, czy naprawdę „wolnością słowa” jest możliwość nawoływania do samobójstw i samookaleczeń?
Dlaczego „wolność słowa” ma się odnosić do osób przemocowych, a nie do tych, które doświadczają z ich strony przemocy? W związku z mową nienawiści osoby LGBTQIA+ często zaczynają się autocenzurować w mediach społecznościowych albo wręcz z nich odchodzą, X w istotny sposób ogranicza więc ich wolność.
W raporcie rekomendujecie spółce zwiększenie liczby moderatorów i poprawę współpracy z organizacjami społecznymi. Jak ona w tej chwili wygląda?
Otóż nie wygląda. Przygotowując raport, wysłaliśmy do X pytania, które pozostały bez odpowiedzi – a przecież Amnesty International jest gigantyczną, międzynarodową organizacją, lokalne fundacje i stowarzyszenia są w gorszej sytuacji.
Być może zresztą Elona Muska nie obchodzi sytuacja polskich użytkowników i użytkowniczek platformy, ale powinna ona obchodzić polski rząd, który wzywamy do wdrożenia DSA. To nie jest kwestia „tylko” społeczności LGBTQIA+, X stanowi także przestrzeń rosyjskiej dezinformacji, a niedawno pojawiły się na nim reklamy, przekonujące, że doniesienia o głodzeniu mieszkańców Gazy są fałszywe. Polska na własne życzenie pozostaje pod nieustającym wpływem big techów, sama nie mając nad nimi kontroli.
Cytowana przez was w raporcie Maja Heban, aktywistka Miłość Nie Wyklucza, mówi wprost: „Twitter to właściwie potok deadnamingu, misgenderowania, wyzwisk i grożenia śmiercią”. Pytanie, czy Elon Musk, który wszedł w publiczny spór ze swoją transpłciową córką, nazywając ją w rozmowie z Jordanem Petersonem „synem” (rzekomo „zabitym przez wirus woke’izmu”), to właściwy adresat utyskiwań na transfobię?
Zostawmy na boku prywatne opinie Elona Muska. Ważne, że stoi on na czele platformy społecznościowej, która ma ogromny wpływ na rzeczywistość, i w związku z tym ponosi odpowiedzialność za to, co się na niej dzieje.
Komisja Europejska prowadzi w tej chwili postępowanie przeciwko X. Jeżeli wykaże ono, że platforma nie zapewnia Europejczykom ochrony zgodnej z przepisami DSA, może nałożyć na nią karę sięgającą sześciu procent jej globalnego obrotu. To kwota, która mogłaby mocno uderzyć w spółkę, więc czy Elon Musk zgadza się z unijnym prawem, czy nie – powinien się nim przejmować.
W związku z tym, że VLOP–y nie ponoszą odpowiedzialności za szerzenie dezinformacji i mowę nienawiści, a w dodatku wymykają się naszemu systemowi podatkowemu, Ministerstwo Cyfryzacji ogłosiło prace nad podatkiem cyfrowym, który ma wynieść od 3,5 do 7 procent ich polskich przychodów z reklam. Tyle że od pomysłu błyskawicznie zdystansowali się premier i minister finansów. W dodatku Trump grozi krajom, w których toczą się prace nad digital taxes wyższymi cłami i ograniczeniem eksportu technologii.
Pamiętajmy jednak, że wielkie platformy cyfrowe mają wpływ na generowanie postaw społecznych, a więc rosnącą radykalizację przestrzeni publicznej. Powinno nam zależeć na tym, by działały one w sposób transparentny i współpracowały z krajami, w których prowadzą działalność. Przypomnę, że Facebook ponosi współodpowiedzialność za ludobójstwa w Mjanmie i Tigraju – według badaczy Organizacji Narodów Zjednoczonych, Meta przyczyniła się do dehumanizacji muzułmańskiej mniejszości, doprowadzając w ten sposób do masowych mordów.
W jaki sposób X i inne VLOP-y pogłębiają radykalizację?
Problemem jest ich model biznesowy, który napędza mowę nienawiści. X zależy na zebraniu jak największej liczby danych na temat swoich użytkowników i użytkowniczek, bo pozwalają one na skuteczne targetowanie reklam (stanowiących – według różnych źródeł – od 68 % do nawet 84 % przychodów platformy – red.).
Żeby jednak zebrać te dane, serwis musi wygenerować zaangażowanie, a więc zatrzymać naszą uwagę na dłużej. Jego algorytmy próbują skłonić nas do skomentowania tweetów albo wygenerowania własnych, podsuwając nam w tym celu treści, które wywołują największe emocje. Najczęściej, nikogo tu chyba nie zaskoczę, są to emocje negatywne.
Osobom, które obserwują Grzegorza Brauna, wyświetlają się więc posty aktywistów LGBTQIA+, wpisy Mai Heban docierają z kolei do narodowców. Nienawiść nie „rozlewa się” na X w sposób niekontrolowany, przeciwnie: platforma została zaprogramowana w taki sposób, by premiować skrajności. Dam przykład. Raptem dziś wróciłam do tweeta Konfederacji, który cytujemy w raporcie. Spójrz zresztą:
Gdy rozmawiamy, ma on prawie 100 tys. wyświetleń, choć od lipca 2023 r., gdy go opublikowano, był wielokrotnie zgłaszany jako przykład mowy nienawiści, i choć łamie on zarówno wewnętrzne wytyczne Twittera, jak i prawo UE.
A teraz rzućmy okiem na komentarze do niego, które zdobyły najwięcej lajków:
To nie są wypowiedzi ludzi, którzy popierają wypowiedź Brauna, tego posta widzą (i reagują na niego) przede wszystkim osoby, które się z Braunem nie zgadzają.
W raporcie twierdzicie, że odpowiedzialność za radykalizację ponoszą nie tylko big techy, ale również politycy, którzy coraz częściej stosują wobec społeczności LGBTQIA+ wrogi, stygmatyzujący język.
Ten i wcześniejsze raporty Amnesty International pokazują bardzo szkodliwą tendencję: nagonka na osoby queerowe ze strony PiS-u i Konfederacji doprowadziła do normalizacji mowy nienawiści.
To system naczyń połączonych. W naszym badaniu ilościowym, przeprowadzonym we współpracy z National Conference on Citizenship’s Algorithmic Transparency Institute, przeanalizowaliśmy treści, jakie algorytm podsuwa kontom obserwującym prawicowych polityków.
Wyszło nam, że mową nienawiści jest co czwarty wyświetlający się im post nt. LGBTQIA+.
Wykazaliśmy również, że prawie 4% treści zebranych dzięki kontom marionetkowym spełnia znamiona homofobii lub transfobii.
Kontom marionetkowym?
Badacze tworzą je od zera, obserwują za ich pośrednictwem polityków, a następnie sprawdzają, jakie treści są im podsuwane przez algorytm. Staramy się zmierzyć, w jakim stopniu amplifikuje on mowę nienawiści, co jednak nie jest łatwe. X działa w bardzo nieprzejrzysty sposób i wcale nie chce, by prowadzić za jego pośrednictwem badania naukowe, usuwa więc lub blokuje takie konta.
Poniekąd słusznie, bo firma powinna walczyć z fejkowymi profilami… ale tu wracamy do DSA, która zabezpiecza przestrzeń na prowadzenie w social mediach badań społecznych. Ich utrudnianie to zresztą jeden z wątków wspomnianego już postępowania, jakie wszczęła wobec X Komisja Europejska.
Publikacji raportu towarzyszą projekcja filmu, debata z ekspertami i ekspertkami oraz „Wyloguj nienawiść” – konkurs na grę wideo, realizowany przez was z Fundacją Kultura Interaktywna. Skąd takie działania?
Trudno mówić o trudnych tematach w przystępny sposób. Tymczasem niewielu ludzi interesuje się algorytmami, a VLOP-y wciąż cieszą się dużym zaufaniem społecznym – z badań wiemy, że są jednym z najczęstszych źródeł, z jakich czerpiemy informacje o świecie. Z pozoru wydaje się nam, że panuje na nich „wolność słowa”, ale to nie takie proste – X stworzył systemowy problem, który dotyczy każdego i każdej z nas.
Chcemy opowiedzieć o nim, wzbudzając emocje. Nie zapominajmy także, że gry wideo są dziś ważną przestrzenią do dyskusji o prawach człowieka, w zeszłym roku Amnesty International przyznało statuetki „Code the Rights”, którymi nagrodziło m.in. „This War of Mine” (polska strategia o życiu cywili w mieście dotkniętym wojną – red.) i „Baldur’s Gate 3” (RPG prezentujący różne, queerowe tożsamości, a także empatycznie podchodzący do sytuacji uchodźców – red.). Niedawno grałam w finansowaną przez hinduski NGOs grę „MISSING: Game for a Cause”, która mierzy się z niełatwą problematyką handlu ludźmi i seksualnego niewolnictwa.
Publikacja raportu to tylko punkt wyjścia do szerszej dyskusji. Jeżeli chcemy walczyć z nienawiścią, nie możemy na niej poprzestać.
***
Więcej informacji na temat kampanii „Wyloguj Nienawiść” Amnesty International można znaleźć tutaj: https://www.amnesty.org.pl/wyloguj-nienawisc/
Były redaktor naczelny serwisu PolskiGamedev.pl i magazynu „PolskiGamedev.pl”, wcześniej szef publicystyki w „CD-Action”. O grach pisał m.in. w „Playu”, „PC Formacie”, „Playboxie” i „PIXEL-u”, a także na łamach WP, Interii i Onetu. Współpracuje z „Repliką”, Dwutygodnikiem, „Polityką” i „Gazetą Wyborczą”.
Były redaktor naczelny serwisu PolskiGamedev.pl i magazynu „PolskiGamedev.pl”, wcześniej szef publicystyki w „CD-Action”. O grach pisał m.in. w „Playu”, „PC Formacie”, „Playboxie” i „PIXEL-u”, a także na łamach WP, Interii i Onetu. Współpracuje z „Repliką”, Dwutygodnikiem, „Polityką” i „Gazetą Wyborczą”.
Komentarze