Sąd nakazał Facebookowi odblokowanie profilu Konfederacji i zakazał ograniczania wyświetleń treści przezeń publikowanych. To nie pierwsze podobne orzeczenie polskiego sądu. Debata o tym, czy korporacja z Doliny Krzemowej powinna móc decydować, kto ma głos w Internecie, toczy się nie tylko w Polsce
Piątego stycznia 2022 roku Facebook zablokował profil Konfederacji. Jako powód podał naruszenia standardów społeczności tej platformy społecznościowej, w szczególności powtarzające się naruszenia zasad dotyczących mowy nienawiści i treści związanych z walką z COVID-19.
Konfederacja podała firmę Meta Platforms (właściciela Facebooka) do sądu, jednocześnie występując o zabezpieczenie w postaci przywrócenia profilu partii.
Sąd zgodził się z Konfederacją, że zabezpieczenie jest uzasadnione, i nakazał nie tylko przywrócenie profilu (w stanie z momentu zablokowania), ale również stosowanie wobec postów przezeń publikowanych "tych samych algorytmów wyświetlania stron, jakie są stosowane domyślnie dla większości użytkowników". Zakazał też ograniczania wyświetleń strony i ingerencji w treść postów.
Konto Konfederacji jest widoczne na Facebooku, ale to nowe konto, założone przez tę partię po blokadzie. [Poprzednia wersja tego tekstu zawierała mylną informację, że to oryginalne konto Konfederacji zostało przywrócone. Za pomyłkę przepraszamy - red.]
Nakaz stosowania "tych samych algorytmów wyświetlania stron, jakie są stosowane domyślnie dla większości użytkowników" jest istotny, ponieważ na tej platformie posty danego konta nie wyświetlają się przecież wszystkim śledzącym je osobom. O tym, kto zobaczy dany post, decyduje oprogramowanie na podstawie nieprzejrzystych (znanych tylko operatorom platformy) zasad.
Konfederacja mogłaby więc twierdzić, że zakaz ograniczania wyświetleń wymaga, by wszystkie jej posty były zawsze wyświetlane wszystkim osobom śledzącym jej konto. To w praktyce oznaczałoby promowanie konta tej partii w porównaniu z innymi kontami, których posty wyświetlają się — zgodnie z wynikiem działania algorytmu promocji postów — tylko niektórym osobom.
Stąd zapewne nakaz stosowania "tych samych algorytmów".
Co jednak jeśli przywrócone konto Konfederacji znów zacznie rozpowszechniać informacje fałszywe?
Mechanizm oznaczania nierzetelnych postów na platformie działa w oparciu o współpracę z organizacjami zajmującymi się weryfikacją faktów (ang. fact-checking). Takimi jak polski Demagog.
"Program weryfikacji treści nie obejmuje treści politycznych — czyli publikowanych albo przez partie polityczne, albo przez polityków na ich profilach" - mówi mi dr Paweł Terpilowski, redaktor naczelny Demagoga.
"Jest jedna jedyna możliwość, kiedy treść zamieszczona przez profil polityczny mogłaby zostać oznaczona: wtedy, kiedy udostępniona zostałaby przezeń treść wcześniej oceniona jako fałszywa".
Treścią może być na przykład film, obraz, link do artykułu. "Oznaczenie jest wówczas przyznawane z automatu dzięki algorytmowi, który wyłapuje nowe przypadki danego fake newsa".
Mój rozmówca zauważa przy tym jednak, że postanowienie sądu może być "wewnętrznie sprzeczne":
"Albo Meta ma przywrócić »te same algorytmy wyświetlania stron, jakie są stosowane domyślnie dla większości użytkowników stron na Facebooku«, co w konsekwencji będzie oznaczać, że każdy link, który ocenimy jako fałsz, a który wrzuci Konfederacja na swój profil, dostanie oznaczenie i redukcję zasięgów. Albo Meta nie ma prawa do ograniczania wyświetleń strony, ani ingerencji w treści strony Konfederacji na Facebooku, czyli w praktyce dostaje immunitet, jakiego nie ma żaden znany mi profil na Facebooku".
Trzeba tu podkreślić, że współpracujące z Metą organizacje weryfikujące informacje (takie jak Demagog) nie mają możliwości podejmowania żadnych decyzji dotyczących usuwania bądź oznaczania treści. "Nie zajmujemy się żadną moderacją wpisów albo komentarzy i nie usuwamy (nie mamy nawet takiej fizycznej możliwości) jakichkolwiek treści. To leży stricte w gestii kompetencji Mety, która ma swoje zespoły moderacyjne, które oceniają, czy dana treść łamie standardy społeczności, czy też nie".
"Jeśli dana treść łamie standardy społeczności, to Meta ją usuwa — ale to nie ma nic wspólnego z naszym fact-checkingiem. I to właśnie z tej przesłanki, a więc wielokrotnego łamania standardów społeczności, został usunięty profil Konfederacji".
Czy również za naruszenie standardów społeczności zablokowana została w 2018 roku facebookowa grupa Społecznej Inicjatywy Narkopolityki (SIN)?
Trudno powiedzieć, portal nie podał przyczyny nałożenia blokady. A niedługo później zablokował też oficjalny fanpage SIN.
SIN, z pomocą Fundacji Panoptykon, podała operatora platformy do sądu i skutecznie domagał się zabezpieczenia, m.in. w postaci zakazu blokowania nowych profili i stron, zakładanych przez Inicjatywę na Facebooku, oraz postów na nich publikowanych. Choć (w odróżnieniu od decyzji w sprawie Konfederacji) sąd nie zdecydował się nakazać przywrócenia grup i profili już zablokowanych.
Decyzje sądu w obu sprawach są na razie tylko tymczasowym zabezpieczeniem na czas trwania wytoczonych platformie społecznościowej procesów. Procesów, które dotykają szerszego problemu władzy, jaką nad debatą publiczną (nie tylko nad Wisłą) mają korporacje z Doliny Krzemowej.
Czy Facebook powinien mieć prawo blokować i usuwać treści publikowane przez partie polityczne? A co z treściami publikowanymi przez organizacje pozarządowe? Czy to, kto publikuje treści, powinno mieć w ogóle znaczenie, czy też treści uznane za fałszywe lub szkodliwe powinny być usuwane niezależnie od ich autorstwa? I kto decyduje, co jest treścią "fałszywą" lub "szkodliwą"?
Obserwując tę debatę można dostrzec dwa obozy. Pierwszy podkreśla, że żadna korporacja nie powinna móc cenzurować debaty publicznej, a do tego przecież — ze względu na jego popularność i pozycję — sprowadza się usuwanie czy blokowanie treści na Facebooku. Dziś zablokowana jest Konfederacja, jutro być może Lewica. Jak wpłynie to na możliwość dotarcia do wyborców?
Meta Platforms jest nie tylko operatorem platformy, gdzie debata publiczna on-line się toczy, ale często również przedmiotem i podmiotem tej debaty. Czy możemy ufać, że nie skusi się na ograniczanie zasięgów nieprzychylnych mu postów, skoro samo wspominanie o alternatywnych platformach społecznościowych do tego wystarcza?
Drugi obóz zwraca uwagę, że właśnie ze względu na popularność i pozycję Facebooka na operatorze tej platformy spoczywa ogromna odpowiedzialność za treści, które pomaga rozpowszechniać.
Za większością dezinformacji dotyczących szczepionek przeciw COVID-19 stało zaledwie dwanaście kont w mediach społecznościowych, wiele z nich właśnie na Facebooku. Poza tym, platforma ta ma swój regulamin i zasady społeczności, wymagające akceptacji przed otwarciem konta. Czemu więc miałaby nie móc blokować nie stosujących się do nich kont?
U podłoża tego nierozwiązywalnego — wydawać by się mogło — dylematu między cenzurą a naiwną, libertariańską wersją wolności słowa leży kilka kwestii.
Po pierwsze, monopolistyczna pozycja Facebooka. Nie jest to obserwacja nowa ani rewolucyjna — nawet Kongres w USA (instytucja raczej niechętnie używająca określenia "monopolista") pisze o tym w wypuszczonym dwa lata temu raporcie odpowiedniej komisji.
Zablokowanie konta na Albicli (platforma założona przez "Gazetę Polską") albo instancji Fediwersu nie miałoby przecież aż tak poważnych skutków praktycznych dla organizacji prowadzącej dany profil, a co za tym idzie nie wywoływałoby aż takich emocji.
Po drugie, nieprzejrzystość algorytmów promujących (lub zakopujących) treści oraz zasad, na których są oparte. Ta nieprzejrzystość oznacza, że decyzje mogą być (i często są) arbitralne; oznacza również to, że potencjalne błędy algorytmu mogą pozostawać niezauważone i nienaprawione miesiącami.
Pojawia się też pytanie, w jaki sposób SIN, Konfederacja, czy sąd mogą upewnić się, że wydane decyzje faktycznie zostały w pełni wdrożone?
Po trzecie: czas zastanowić się, czy powinniśmy Facebooka traktować bardziej jako organizacją medialną, czy jako infrastrukturę?
Organizacje medialne mają pełną kontrolę redakcyjną nad publikowanymi na ich platformach treściami, i mogą te treści swobodnie wykorzystywać.
Krytyka Polityczna prawdopodobnie nie przyjęłaby do publikacji tekstu Konfederacji, zaś Do Rzeczy zapewne nie opublikowałoby tekstu partii Razem. I nikt raczej nie stwierdzi, że to cenzura. Jako organizacje medialne, w dodatku nie monopolizujące całego segmentu rynku medialnego, mają pełne prawo decydować, czyje i jakie teksty publikują. Ponoszą jednak za nie odpowiedzialność, ze względu na swój zasięg.
Natomiast usługodawcy, których uznajemy za infrastrukturę (na przykład dostawcy Internetu czy operatorzy telefoniczni), co do zasady nie są odpowiedzialni za treści przesyłane za pomocą ich usług. Są jednak na ogół ściśle regulowani: mają na przykład obowiązek implementowania konkretnych technicznych standardów, nie mogą dobierać sobie klientów i mają bardzo ograniczone możliwości monitorowania (i wykorzystywania) przesyłanych za pomocą ich usług treści.
Nie czulibyśmy się komfortowo z operatorem telefonicznym, który blokuje czyjś numer na podstawie treści rozmów z niego wykonanych. Podobnie z dostawcą Internetu, który (załóżmy) próbowałby w jakiś sposób cenzurować wypowiedzi swoich klientów on-line.
Czemu infrastruktura objęta jest takimi ograniczeniami?
Dlatego, że jest niezbędna. Przysłowiowy Kowalski nie będzie miał najmniejszego problemu z funkcjonowaniem w dzisiejszym świecie bez możliwości publikowania w Krytyce Politycznej czy Do Rzeczy. Ale próba funkcjonowania bez telefonu czy dostępu do Internetu, choć oczywiście możliwa, związana będzie z szeregiem poważnych, codziennych trudności.
Termin "wykluczenie cyfrowe" nie wziął się znikąd.
Można powiedzieć, że Meta Platforms (i inne silosy społecznościowe, choć na razie znacznie mniej skutecznie) próbuje mieć ciastko, i zjeść ciastko.
Facebook jest bez wątpienia platformą medialną, umożliwiającą publikację treści o ogromnym zasięgu. Ma też swoje zasady, regulamin, standardy społeczności, i decyduje o tym, kto dostęp do tej platformy ma, a kto nie.
Z drugiej jednak strony, portal ten funkcjonuje jako infrastruktura, dla wielu osób (na dobre i na złe) zwyczajnie niezbędna. Facebook jest infrastrukturą prywatnej komunikacji ze znajomymi i rodziną oraz komunikacji grupowej w szkole i pracy. Jest też dostawcą tożsamości dla tysięcy stron i portali pozwalających zalogować się do nich kontem tego portalu.
Pytając o granice działań moderacyjnych Facebooka pytamy więc o kilka zasadniczo różnych rzeczy na raz: o publikacje, o prywatną komunikację z rodziną, o wymianę zdań w pracy, o możliwość logowania się do innych stron.
Nic więc dziwnego, że trudno nam znaleźć sensowną odpowiedź na pytanie o to, jak daleko powinna sięgać odpowiedzialność Facebooka za działania użytkowniczek i użytkowników tej platformy. "My, społeczeństwo, sami nie możemy się zgodzić co do tego, czego chcemy", zauważa w tekście "Jak naprawić Facebooka i Twittera" Jonathan Zittrain z The Atlantic.
Symptomatyczne, że nawet tak wolnorynkowa, tak promująca liberalizm gospodarczy partia jak Konfederacja sama najwyraźniej zauważa, że rynek tego nie rozwiąże.
Dopóki tego węzła gordyjskiego nie rozplączemy, skazani jesteśmy na debatę, która donikąd nie prowadzi. Już trzy lata temu Mike Masnick pisał w swoim eseju "Protokoły, nie platformy", że większość proponowanych publicznie rozwiązań problemu moderowania treści w scentralizowanych mediach społecznościowych nie dość, że jest nieskuteczna, to w dodatku "wiele z nich pogłębi te problemy lub będzie miało inne, równie szkodliwe skutki".
Problemem ostatecznie nie jest to, czy (i kiedy) Facebookowi wolno zablokować profil Konfederacji czy SIN. Problemem jest fakt, że samo pytanie ma zupełnie inny ciężar gatunkowy, niż: "czy Do Rzeczy wolno odmówić publikacji tekstów partii Razem".
Masnick przekonuje, że zamiast ogromnych, scentralizowanych platform, potrzebujemy protokołów komunikacji, na których bazie powstać mogą sieci społecznościowe zbudowane z niezależnych, ale komunikujących się ze sobą podmiotów. A więc model znany choćby z sieci telekomunikacyjnych czy e-maila.
Żaden podmiot nie kontrolowałby zatem całej, zbudowanej na danym protokole, sieci. Każdy, kto pamięta czasy monopolu Telekomunikacji Polskiej, łatwo może pojąć, jak rewolucyjna byłaby to zmiana. Zamiast jednego Facebooka, z jednym (nieprzejrzystym, nieelastycznym) zestawem zasad, mielibyśmy do czynienia z szeregiem dostawców, oferujących różne zasady moderacji, i aplikacje dostosowane do konkretnych rodzajów komunikacji (jak na przykład zupełnie różne, ale komunikujące się wzajemnie Pixelfed i Mastodon).
Dodatkową zaletą takiego podejścia byłaby zwiększona odporność na problemy techniczne: nawet poważna usterka u jednego z dostawców nie przekładałaby się bezpośrednio brak możliwości korzystania z całej sieci. Usterki się przecież zdarzają — wystarczy wspomnieć zeszłoroczną wielogodzinną awarię Facebooka.
Tę wizję wielu różnych, wzajemnie kompatybilnych dostawców usługi sieci społecznościowej warto uzupełnić o koncepcję ze wspomnianego wyżej tekstu Jonathana Zittraina: mianowicie, społecznego zarządzania przynajmniej częścią takiej infrastruktury.
Pewną namiastką takiego społecznego zarządzania jest rzecz jasna moderacja grup przez użytkowników i użytkowniczki na Facebooku, oraz raportowanie zachowań niezgodnych z zasadami społeczności.
Jest jednak namiastką nad wyraz niedoskonałą: decyzje moderacyjne muszą się mieścić w zasadach narzuconych przez operatora (Meta Platforms), i oparte są o jego chęć (bądź jej brak) egzekwowania własnych zasad. Zaś całkowite zablokowanie konta czy profilu — jak pokazuje przykład Konfederacji i SIN — ma potężne konsekwencje.
W zdecentralizowanej, opartej o standardowy protokół sieci społecznościowej, w której uczestniczy wielu dostawców — część zarządzana przez instytucje publiczne, część przez prywatne firmy, a część przez społeczności — fakt zablokowania takiego czy innego konta na jednej z wielu instancji byłby sprawą dość prozaiczną. Jak fakt, że Krytyka Polityczna tekstów Konfederacji raczej nie opublikuje.
OKO.press poprosiło firmę Meta Platforms o komentarz. Do czasu publikacji tekstu nie otrzymaliśmy odpowiedzi.
Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.
Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.
Komentarze