0:00
0:00

0:00

Prawa autorskie: Fot. Fundacja PanoptykonFot. Fundacja Panopt...

„Nasz algorytm cię pochłonie!” – zachęca i straszy jednocześnie nowy portal społecznościowy: „Vlop!”. Jego reklamę wyświetlała w poniedziałek i wtorek ciężarówka krążąca po Warszawie trasą zahaczającą m.in. o siedziby Google, Facebooka i TikToka.

Na ekranie pojawiają się stockowe klipy z kłócącymi się ludźmi czy malującą się dziewczynką, którym towarzyszą hasła „Patostreamy bez cenzury!”, „Konto dla dzieci bez limitu wieku!”. Film wieńczy wezwanie do pobrania aplikacji ze strony Vlop.me i obietnica: „Z nami nigdy nie zaśniesz!”.

Niepokojące? Jeszcze bardziej niepokoić może fakt, że większość Polek i Polaków ma już na nim konto. Jak to możliwe, skoro strona funkcjonuje dopiero od niedawna?

Tak naprawdę pod tym adresem nie kryje się żaden portal, lecz witryna kampanii społecznej autorstwa Fundacji Panoptykon. „Vlop” zaś to akronim rozwijający się w sformułowanie Very Large Online Platform – Bardzo Duża Platforma Online.

Pochodzi ono z aktu o usługach cyfrowych (Digital Services Act – DSA). Tej unijnej regulacji, która ma odpowiadać na wyzwania związane z gwałtownym rozwojem internetowych platform poświęcałem już teksty na łamach OKO.press.

Pierwszy raz, gdy w styczniu 2022 Europarlament zagłosował za przyjęciem dokumentu, i drugi, gdy po pół roku negocjacji trójstronnych przegłosował jego ostateczne brzmienie.

Intensywne zmagania różnych stron – lobbystów pracujących na rzecz big techu, strony społecznej, Francji przewodniczącej wówczas Radzie Unii Europejskiej i innych państw kierujących się partykularnymi interesami – sprawiały, że na różnych etapach prac szczegóły aktu ulegały istotnym zmianom.

Przez cały czas pewne było jednak, że to wielkie platformy i przeglądarki stanowią główny przedmiot zainteresowania regulatorów.

Kogo konkretnie obejmą nowe przepisy dowiedzieliśmy się 25 kwietnia 2023 roku. Komisja Europejska ogłosiła wówczas listę 17 platform i 2 przeglądarek, które obejmą najbardziej restrykcyjne przepisy DSA.

Znalazły się na niej w kolejności alfabetycznej:

  • Alibaba,
  • AliExpress,
  • Amazon Store,
  • Apple AppStore,
  • Bing,
  • Booking.com,
  • Facebook,
  • Google Play,
  • Google Maps,
  • Google Search,
  • Google Shopping,
  • Instagram,
  • LinkedIn,
  • Pinterest,
  • Snapchat,
  • TikTok,
  • Twitter,
  • Wikipedia,
  • YouTube,
  • Zalando.

Wszystkie spełniają kryterium posiadania przynajmniej 45 milionów użytkowników miesięcznie w Unii Europejskiej (co stanowi ok. 10 proc. ogółu konsumentów na jednolitym rynku).

W piątek 25 sierpnia cztery miesiące od daty decyzji Komisji, zaczęły obowiązywać wybrane przepisy aktu dla wymienionych podmiotów (pozostałe, dotyczące choćby małych i średnich przedsiębiorstw, zaczną obowiązywać od 1 stycznia 2024).

W teorii mają ukrócić patologie, na które swoją akcją wskazuje Panoptykon. A czy zmiany widać też w praktyce codziennego korzystania z platform?

Feed bez profilowania? Możesz wybrać

Z dużym zainteresowaniem spotkała się kwestia wprowadzenia na platformy nowych sposobów wyświetlania treści. Jak możemy przeczytać w artykule 37 rozporządzenia, „(…) dostawcy bardzo dużych platform internetowych i bardzo dużych wyszukiwarek internetowych, którzy korzystają z systemów rekomendacji, zapewniają co najmniej jedną opcję dla każdego ze swoich systemów rekomendacji, która nie jest oparta na profilowaniu”.

To wymóg o dużo większym znaczeniu niż mogłoby się wydawać.

Algorytmiczne profilowanie i rekomendowanie na jego podstawie treści stanowi bowiem trzon modelu biznesowego wielkich platform. Starają się utrzymać uwagę użytkowników i użytkowniczek treściami dopasowanymi nie tylko do ich zainteresowań, jak głosi oficjalna narracja portali społecznościowych.

Ale i fobii, lęków, tematów wzbudzających złość czy frustrację. „VLOP-ów nie napędzają wielkie idee, lecz chęć maksymalizowania zysków. Ich algorytmy, które sterują tym, co widzisz w swoim feedzie, celowo konstruowane są tak, by wykorzystywać dane o nas i o naszych słabościach” – tłumaczy na stronie Vlop.me Fundacja Panoptykon.

W przypadku części platform system rekomendacji nieoparty na profilowaniu to rewolucja.

TikTok pozwala wyłączyć personalizację

Tak jest choćby w przypadku TikToka, który swoją popularność zawdzięcza właśnie „magii” algorytmów personalizujących doświadczenie korzystania z aplikacji.

Jak możemy przeczytać w opublikowanym 28 sierpnia oświadczeniu prasowym przedsiębiorstwa, osoby korzystające z platformy w Europie mogą teraz wyłączyć personalizację kanału z treściami. Będą one im serwowane na podstawie „regionalnej relewantności i globalnej popularności”.

Facebook – powrót do przeszłości

W przypadku innych szczególnie starszych platform jak np. Facebook, chronologiczny feed to powrót do przeszłości. Do 2009 roku portal oferował jedynie chronologiczny Live Feed, obok którego pojawił się News Feed.

Przez następne 5 lat korzystające z niego osoby mogły wybrać, który tryb wyświetlania treści ma być domyślnym, jednak w 2014 zabrano im tę opcję.

Facebook bronił się, że w ten sposób chroni użytkowniczki i użytkowników przed potokiem spamu, zapewnia im odpowiednie „filtrowanie” rzeki postów, z czym jednak wiele osób, w tym badających platformy społecznościowe, polemizowało.

Zwracano uwagę, że za postawą troski o ludzi kryje się troska o własne interesy przedsiębiorstw, które ściśle związane są z wykorzystaniem algorytmów personalizujących do kontroli uwagi i zaangażowania

Widmo DSA sprawiło jednak, że już w lipcu 2022 Meta przywróciła chronologiczny feed. Niestety nie można uczynić go widokiem domyślnym, a dostęp do niego jest utrudniony, formalnie jednak spełnia najprawdopodobniej wymóg z artykułu 37.

W komunikacie prasowym wydanym z okazji rozpoczęcia obowiązywania aktu Meta poinformowała ponadto, że nowe systemy rekomendacji pojawią się też w innych częściach Facebooka i Instagrama niż główny kanał aktualności:

  • w sekcjach Relacje (Stories),
  • Rolki (Reels)
  • czy wewnętrznej wyszukiwarce.

Dla przykładu, o tej ostatniej funkcji Meta pisze, że użytkownicy i użytkowniczki w Europie „będą w stanie zobaczyć wyniki wyszukiwania oparte jedynie na słowach, które wpisali”.

Działanie portalu, które wydaje się oczywistością, musiało zostać wywalczone unijnym aktem.

Przeczytaj także:

Gra z algorytmami w otwarte karty

Co jeszcze wydarzyło się na wielkich platformach po 25 sierpnia?

„Wśród zmian, które użytkownicy powinni łatwo zobaczyć jest większa przejrzystość działania algorytmów rekomendacyjnych” – odpowiada Dorota Głowacka, prawniczka, ekspertka Fundacji Panoptykon.

„Platformy będą musiały wyjaśnić logikę ich funkcjonowania, w tym główne parametry, które odpowiadają za wyświetlanie w naszym feedzie konkretnych treści w określonej kolejności. Wcześniej platformy często ograniczały się do niewiele mówiącego komunikatu na zasadzie »wybieramy dla Ciebie to, co Cię najbardziej interesuje«.

Teraz powinny wyjaśnić, jakie sygnały wejściowe biorą pod uwagę (np. zawartość posta, historię aktywności użytkownika na platformie etc.), czy to, jak na widoczność postów wpływa liczba i charakter interakcji, które generują (np. jak na widoczność posta wpłynie to, że dostanie dużo »kciuków w górę«, a jak to, że sporo osób kliknie »wściekłą buźkę«)”.

Wściekła buźka – emotikon – na różnych platformach. Ze strony https://emojigraph.org/pl/pouting-face/

Rola wściekłej buźki

Ta ostatnia kwestia była przez lata owiana tajemnicą, a przez to stanowiła przedmiot kontrowersji. Dużo światła na ten problem rzuciły dokumenty ujawnione przez sygnalistkę Frances Haugen, tzw. Facebook Files. Jak donosił „Washington Post”, znalazła się w nich m.in. informacja, że przez jakiś czas

reakcje w postaci emotki wyrażającej złość były nawet pięciokrotnie bardziej premiowane przez algorytm od klasycznego polubienia.

O meandrach działania Facebookowego algorytmu i jego wpływie na politykę rozmawiałem też na łamach OKO.press z dr. hab. Dominikiem Batorskim, który dla waszyngtońskiej gazety przygotował analizę postów opublikowanych na oficjalnych stronach polskich partii politycznych na tym portalu od 2015 roku.

Zwracał wówczas uwagę, że rozgryzanie mechanizmów rządzących VLOP-ami jest trudne: „Pewien poziom transparentności wydaje mi się potrzebny” – mówił. – „Nie tylko względem użytkowników, którzy mogą chcieć wiedzieć, dlaczego dana treść jest im wyświetlana, ale na poziomie zasad działania samych algorytmów”.

DSA ma poprawić tę sytuację.

Przykładowo Facebook za sprawą nowych regulacji przygotował „Karty systemów rekomendacji”. To treści objaśniające zasady funkcjonowaniu tych systemów, a także tłumaczące, co zrobić, aby nie być poddawanym ich działaniu. Dotyczą nie tylko feedu, ale i np. tego, na jakich zasadach platforma rekomenduje nawiązywanie nowych znajomości czy szereguje Rolki.

„Jeśli platforma daje jakieś opcje zarządzania feedem, np. oferuje użytkownikowi możliwość zgłoszenia preferencji, że nie chce oglądać określonego typu treści czy materiałów pochodzących z danego konta, to takie opcje muszą być łatwo dostępne. Nie mogą być ukryte gdzieś w interfejsie. Ale także skuteczne, tj. jeśli użytkownik z nich skorzysta, powinien zobaczyć efekt” – tłumaczy Głowacka.

„Z istniejących badań, np. raportu Mozilla Foundation dotyczącego YouTube’a, czy naszego projektu Algorytmy Traumy dotyczącego Facebooka, wiemy, że użytkownicy często zgłaszali, że pomimo klikania w tego rodzaju opcje, nie widzieli zmian w swoim feedzie”.

Skuteczność czy też łatwość dostępu do nowych funkcji zweryfikuje czas. Można się spodziewać, że wiele organizacji pozarządowych czy nawet indywidualnych aktywistów i aktywistek wywierać będzie presję na VLOP-y, by jeszcze dokładniej przystosowały się do wymagań DSA.

Takie starania obserwujemy choćby od lat w przypadku RODO i słynnych banerów informujących o wykorzystywaniu przez stronę plików cookie.

W styczniu tego roku NGO noyb informowała, że złożyła ponad 700 skarg na banery niespełniające wymogów rozporządzenia.

Można się spodziewać, że podobne skargi kierowane będą wobec platform nierzetelnie realizujących obowiązki zawarte w artykule 27 DSA mówiącym o przejrzystości systemów rekomendacji.

Moderacja treści pod nadzorem

„Ważne zmiany dotyczą też moderacji treści” – mówi dalej Głowacka.

„Przede wszystkim platformy będą musiały uzasadniać swoje decyzje moderacyjne i wprowadzić jasne i skuteczne procedury odwoławcze – zarówno dla użytkowników, którzy zostali zablokowani i chcieliby to kwestionować, jak i tych, którzy zgłosili platformom bezprawną treści i zostali przez nie zignorowani.

Jest więc szansa, że osoby, które znalazły się w takich sytuacjach, nie będą już miały tak jak dotychczas poczucia »kafkowskiego procesu« i kompletnej bezradności wobec arbitralnych decyzji cybergigantów”.

Działanie nowych przepisów zaobserwować można na przykład na TikToku, który wprowadził nową funkcję zgłaszania nielegalnych treści dostępną tylko dla osób korzystających z platformy w Unii Europejskiej.

„Wszelkie zgłoszone treści zostaną zweryfikowane pod kątem naszych Zasad Społeczności i zasad dotyczących reklam – i usunięte globalnie, jeśli okaże się, że naruszają nasze zasady” – czytamy w komunikacie firmy.

„Jeśli tak się nie stanie, nasz nowy wydzielony zespół moderatorów i ekspertów prawnych oceni, czy treść narusza lokalne prawo, oraz czy dostęp do niej zostanie ograniczony w danym kraju. Zarówno osoba, która opublikowała treść, jak i osoba, która ją zgłosiła, zostaną poinformowane o decyzji i jej uzasadnieniu, z możliwością odwołania się, jeśli się z nią nie zgadzają”.

Na razie za wcześnie jest, by ocenić te rozwiązania. Należy także pamiętać, że nowe przepisy dotyczące moderacji to nie tylko wymogi wobec VLOP-ów, ale i te wobec państw członkowskich, które nie zaczęły jeszcze obowiązywać.

Koordynatorzy ds. usług cyfrowych w poszczególnych krajach certyfikować będą m.in. organy pozasądowego rozstrzygania sporów dotyczących decyzji platform – nie tylko tych bardzo dużych.

Cały ten system w teorii stworzy dużo lepszą od obecnej siatkę bezpieczeństwa dla osób korzystających z portali społecznościowych czy sprzedażowych. Użytkownicy i użytkowniczki będą nie tylko lepiej poinformowani, lecz także dostaną nowe narzędzia walki o swoje prawa. Na weryfikację ich skuteczności trzeba jednak jeszcze poczekać.

Czego nie będzie widać?

Oprócz skutków obowiązywania DSA, na które natrafić będziemy mogli w czasie codziennego scrollowania VLOP-ów, osobną kategorię tworzą efekty mniej widoczne, choć równie, a może i bardziej, istotne.

Należy do nich choćby kwestia tego, czego dzięki aktowi na portalach nie będzie widać. Najmłodsi użytkownicy i użytkowniczki platform nie zobaczą choćby więcej spersonalizowanych, śledzących reklam.

Z kolei wszystkim korzystającym VLOP-y nie mogą̨ prezentować opłaconych treści opartych na profilowaniu z wykorzystaniem danych wrażliwych (np. o poglądach politycznych, stanie zdrowia czy wyznaniu).

Czego jeszcze nie widać?

Chociażby prac nad zarządzaniem ryzykiem systemowym. „Najgłębsze zmiany, nad którymi pracują (oby!) wielkie platformy, i które dają największą szansę na realne ograniczenie najpoważniejszych szkodliwych skutków ich dotychczasowego sposobu działania, dzieją się »w tle«” – opowiada Głowacka.

„Platformy muszą regularnie dokonać oceny systemowych ryzyk, jakie niesie ze sobą m.in. działanie ich algorytmów oraz przyjąć odpowiednie środki w celu ich minimalizacji. Będzie to poddawane zewnętrznemu audytowi oraz nadzorowi KE.

Tych zmian użytkownicy tak łatwo mogą nie zobaczyć, ale liczymy, że z czasem rzeczywiście je odczują – zobaczą np., że platforma serwuje im więcej wartościowych treści, które faktycznie chcą oglądać, zamiast takich, które angażują, ale w negatywny sposób, napędzając lęki, zły nastrój czy uzależnienia”.

Wstęp za kulisy dozwolony

Choć prace nad mitygacją ryzyk dzieją się w tle, to nie znaczy to, że w zupełnej tajemnicy. Za kulisy zajrzeć będą mogły choćby organizacje eksperckie – i to na koszt wielkich platform. DSA w artykule 37 zobowiązuje je, by przynajmniej raz w roku poddawały się niezależnemu audytowi.

Nowe narzędzia do kontroli funkcjonowania platform zyskali także badaczki i badacze. Dla przykładu, w komunikacie dot. rozpoczęcia obowiązywania DSA Meta ogłosiła powstanie „Biblioteki treści”.

Podmioty, które zgłoszą się po dostęp do jej zasobów i zostaną zweryfikowane, będą mogły prowadzić bezpłatnie analizy publicznie dostępnych na Facebooku i Instagramie postów, filmów, ich metadanych czy statystyk.

Pod koniec lipca podobną inicjatywę dla badaczek i badaczy z Europy ogłosił TikTok.

Twitter się wyłamał

Z tego trendu wyłamał się (portal znany niegdyś jako) Twitter. Przez lata stanowił wzór w zapewnianiu dojścia do publicznych danych na potrzeby badawcze, czego efektem ubocznym była nadreprezentacja analiz opartych o treści z tej platformy wśród badań poświęconych mediom społecznościowym.

Pod rządami Elona Muska zmienił jednak kurs o 180 stopni, w praktyce odcinając bezpłatny dostęp osobom zainteresowanym eksploracją tweetów.

Tymczasem w punkcie 12 artykułu 40 DSA mowa jest o tym, że „Dostawcy bardzo dużych platform internetowych lub bardzo dużych wyszukiwarek internetowych udzielają bez zbędnej zwłoki dostęp do danych, w tym, o ile to technicznie możliwe, danych w czasie rzeczywistym, pod warunkiem, że dane te są publicznie dostępne na ich interfejsie internetowym dla badaczy (…)”.

Pytanie o to, czy kosztowne i ograniczone rozwiązania, które oferuje obecnie (portal znany niegdyś jako) Twitter, są realizacją tego wymogu doczeka się niedługo odpowiedzi.

Czas pokaże, kogo Komisja Europejska pokarze

W ten sposób dochodzimy do ostatniej kwestii: egzekwowania obowiązków i ewentualnych kar dla VLOP-ów.

„DSA przewiduje możliwość nakładania kar finansowych na platformy, a w skrajnych przypadkach nawet możliwość tymczasowego zawieszania świadczenia przez nie usług na terytorium UE” – mówi Dorota Głowacka.

„Ale po pierwsze, są to najpoważniejsze sankcje przewidziane w tej regulacji i jednocześnie środki, po które należy sięgnąć w ostateczności, gdy zawiodą mniej inwazyjne metody »perswazji«.

Po drugie, ich nałożenie poprzedza odpowiednie postępowanie, konieczność zgromadzenia dowodów etc. Dlatego najwcześniej spodziewałabym się jakichkolwiek kar dopiero w przyszłym roku.

Tym bardziej że możliwość nakładania sankcji ma nie tylko Komisja Europejska, ale w niektórych sytuacjach także krajowi Koordynatorzy Usług Cyfrowych według miejsca europejskiej siedziby platform, a termin na ustanowienie tych instytucji przez państwa członkowskie upływa dopiero w lutym 2024 roku.

Oczywiście, jeśli wielkie platformy rzeczywiście rzetelnie dostosują się do nowych wymogów, nie będzie potrzeby sięgania po kary. To byłby najlepszy scenariusz – i dla platform, i dla użytkowników” – mówi Głowacka.

Nie obejdzie się jednak bez tarć

Jak pokazały choćby wysiłki wkładane w lobbing przez VLOP-y podczas negocjowania treści DSA i DMA – aktu o rynkach cyfrowych – w regulacjach widzą zagrożenie dla swojego modelu biznesowego.

W publikowanych w ostatnich dniach komunikatach prasowych prezentują co prawda postawę gołębią, deklarując, że cele rozporządzeń są zbieżne z ich własnymi dążeniami.

Na co dzień to jednak raczej jastrzębie polujące na okazje, by powiększyć zyski.

Nic więc dziwnego, że portal Politico dzień przed rozpoczęciem obowiązywania aktu przedstawił potencjalną „kartę walk” – listę możliwych starć między VLOP-ami a Unią Europejską, których areną będzie przestrzeganie rozporządzenia. A zanim do nich dojdzie, pozostaje nam próbować korzystać z nowozdobytych praw i możliwości.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;

Udostępnij:

Jan Jęcz

Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.

Komentarze