Facebook zaostrzył walkę o uwagę użytkowników. W konsekwencji premiowane zaczęły być treści zdobywające ją najłatwiej: negatywne, szokujące, budzące złość czy strach. Uregulowanie jego algorytmów to nie panaceum, ale i tak jest konieczne. Bo sam się nie naprawi
W połowie września Wall Street Journal opublikował trzecią część cyklu „Facebook Files”, opartego na ujawnionych przez sygnalistkę Frances Haugen dokumentach. Po artykułach opisujących specjalne traktowanie niektórych użytkowników portalu oraz o wewnętrznych badaniach o potencjalnej szkodliwości Instagrama przyszedł czas na wprowadzone w 2018 roku zmiany w algorytmie FB.
Tekst zawierał niespodziewany „polski akcent”. W wewnętrznym raporcie Facebooka z kwietnia 2019 pojawił się następujący fragment:
„Zespół zarządzający mediami społecznościowymi jednej z [polskich — dop. mój] partii szacuje, że zmienił proporcje swoich postów z 50/50 pozytywnych/negatywnych na 80 proc. negatywnych, bezpośrednio w następstwie modyfikacji algorytmu”.
Pod koniec października dziennikarze portalu NBC News, analizując ujawnione przez Haugen dokumenty, zwrócili uwagę na inny fragment wzmiankowanego raportu. Jego autorzy, krytykując wpływ zmian w algorytmie na europejską politykę, stwierdzili, iż w Polsce wywołały one „społecznościową wojnę domową”.
Stwierdzenia te brzmią alarmująco — tym bardziej więc wymagają rzetelnej weryfikacji. Zadania tego podjął się dr hab. Dominik Batorski, badacz z Uniwersytetu Warszawskiego, współzałożyciel firmy Sotrender.
Dla "Washington Post" przygotował analizę postów opublikowanych na oficjalnych Facebookowych stronach polskich partii politycznych od 2015 roku. Jej rezultaty miały dać między innymi odpowiedź na pytanie, czy któreś z ugrupowań rzeczywiście dokonało po 2018 roku zmiany tonu komunikacji na bardziej negatywny, by wykorzystać zmiany w algorytmie.
Zanim omówimy wnioski z badania, zatrzymajmy się na chwilę przy jego metodologii oraz węzłowych pojęciach. Najważniejszym jest „algorytm Facebooka”. Co kryje się pod tym — często nadużywanym — terminem?
"Chodzi o algorytm, który decyduje o tym, jakie treści widzi użytkownik" — tłumaczy Batorski. "Dlaczego ten algorytm jest potrzebny? Typowy użytkownik Facebooka ma kilkuset znajomych, obserwuje także całkiem dużo stron. Ci znajomi wrzucają sporo treści, strony również często na tym portalu publikują.
Kilka lat temu przeciętny odbiorca mógł zobaczyć od około 2,5 do 3 tysięcy postów dziennie. Nawet osobom, które spędzają mnóstwo czasu na Facebooku, nie jest on w stanie ich wszystkich wyświetlić. Dlatego widzimy tylko część tego, co nasi znajomi czy strony publikują. Algorytm to jest rozwiązanie decydujące o tym, które z tych treści nam pokazać i w jakiej kolejności je wyświetlić".
Selekcjonowanie postów przez algorytm nie jest jedynym możliwym sposobem dostarczania ich użytkownikom. Dla przykładu, Twitter oferuje tryb chronologicznego wyświetlania wpisów (choć nie jest on trybem domyślnym), w którym najnowsze pojawiają się na górze kanału aktualności.
"Facebook odkąd pamiętam miał inne podejście" — mówi Batorski. "W pierwszej kolejności starał się wyświetlać rzeczy, które są ważne. Pytanie brzmi: co jest ważne? Jak to w ogóle określić, na jakiej zasadzie podejmować decyzję, co użytkownikowi pokazać, a czego nie pokazywać? Nie da się jednoznacznie odpowiedzieć, jaka metoda jest najlepsza. Osobiście uważam, że najlepiej by było dać kontrolę użytkownikom, aby mogli to konfigurować według własnych potrzeb".
Zdaniem Batorskiego, Facebook pracuje nad tego rodzaju rozwiązaniem, które może zostać wdrożone w niedalekiej przyszłości. Na razie jednak użytkownicy zdani są na działanie algorytmu.
Jak algorytm decyduje, co i w jakiej kolejności wyświetlać, jest w dużej mierze owianą tajemnicą. Nie brakuje teorii próbujących rozgryźć sekretne mechanizmy czy też porad, zwykle wątpliwych, sugerujących, jak wykorzystać jego arkana do własnych celów.
Bieżący stan wiedzy kompleksowo i w ciekawej wizualnie formie podsumował niedawno Washington Post. Artykuł jako istotną dla procesu poznawania algorytmu cezurę wskazuje styczeń 2018 roku. Wówczas to Facebook postanowił uchylić rąbka tajemnicy, ogłaszając zmiany w działaniu mechanizmu promowane hasłem o „Zbliżaniu ludzi” [„Bringing People Closer Together”].
"To był taki moment, gdy Facebook chciał trochę uciec od tego, że zaczyna być postrzegany jako medium, a nie tylko jako firma dostarczająca narzędzia do komunikacji" — mówi o przyczynach tych zmian Batorski. "Media podlegają różnym unormowaniom, odpowiadają za treści. Takie postrzeganie było dla Facebooka, obawiającego się regulacji, problematyczne. Zmiany miały iść w kierunku pokazywania ludziom częściej treści od znajomych, a nie ze stron".
Te ostatnie miały się liczyć z tym, że modyfikacje algorytmu przyniosą im spadki zasięgów. To, czy będą duże, miało zależeć między innymi od ilości interakcji między stroną a jej odbiorczyniami. Zaangażowanie już od dawna zresztą było jednym z kluczowych czynników dyktujących pozycję treści w news feedzie.
"Uznano, że jeżeli przykładowo trzeba wybrać jedną z trzech stron, z której informacja zostanie wyświetlona, to lepiej wskazać, wobec której użytkownik wykazywał wcześniej większą aktywność" — opowiada Batorski. "To się wydaje naturalne, co złego może być w takim rozwiązaniu? Jeżeli wcześniej użytkownicy byli aktywniejsi wobec treści publikowanych przez jakieś źródło, to może są one dla nich ciekawsze, może ich bardzo interesują. W końcu zaangażowanie jest jakimś wskaźnikiem zainteresowania.
Tymczasem okazuje się, że ludzi mocno angażują także te rzeczy, które ich wkurzają, wywołują większe emocje. Pojawia się więc niezamierzony efekt promowania takich treści".
Nie tylko skłanianie stron do rywalizacji o zaangażowanie budziło wątpliwości we wprowadzonych w 2018 roku zmianach. Istotną kwestię stanowiły treści sponsorowane. Jak mówi Batorski, stron na Facebooku było już wówczas ponad 100 milionów. Liczba reklamodawców wynosiła tymczasem niecałe 7 milionów.
"W sytuacji, w której treści było tak dużo, a wyświetlić użytkownikom można tylko część z nich, trzeba przyciąć komuś zasięgi. Można przycinać je znajomym użytkowników, lub też stronom, które nie płacą za reklamę. I spróbować w ten sposób skłonić je, by zaczęły płacić" — tłumaczy badacz.
Od początku 2018 roku do dziś wartość przychodów Facebooka (obecnie Mety) z reklam wzrosła niemal trzykrotnie. Na koniec trzeciego kwartału 2021 roku wyniosła ponad 28 miliardów dolarów. Część z tej kwoty stanowią wydatki na kampanie wyborcze — na Facebooku czy Instagramie, w przeciwieństwie do Twittera, można publikować reklamy polityczne.
Jak pisała w OKO.press Helena Chmielewska-Szlajfer, „Według firmy badawczej Borrell Associates wydatki na amerykańską prezydencką kampanię wyborczą w mediach społecznościowych w 2020 roku wyniosły prawie 3 miliardy dolarów i były ponad dwukrotnie wyższe niż w 2016 roku. Dla porównania, wszystkie wydatki na reklamy polityczne w Stanach Zjednoczonych w telewizji, radiu i internecie w latach 2019-2020 wyniosły około 8,5 miliarda dolarów”.
Tak duże inwestycje w internetowe reklamy mogą istotnie wpływać na wyniki wyborów. Szczególnie, gdy kampania wyborcza w sieci prowadzona jest w sposób wysoce nieetyczny, czego najlepszą ilustracją była afera Cambridge Analytica. Kiedy w 2019 roku pracownicy Facebooka odbywali wizytę w Europie przed wyborami do Europarlamentu (to jej dotyczył wspominany na początku raport), od ujawnienia skandalu mijał rok. Jak wspomina Batorski, uczestnik spotkań z przedstawicielami firmy z Menlo Park, transparentność reklam politycznych stanowiła wówczas kluczowy temat rozmów.
"Mam dosyć negatywne zdanie o tym, co Facebook zrobił w 2019" - mówi badacz.
"Frances Haugen zarzucała mu niedawno, że skupia się na Stanach Zjednoczonych, na anglojęzycznej części świata. Było to widać w podejściu do wyborów europarlamentarnych. Facebook skupiał się na reklamach, ich transparentności, bo w USA w 2016 roku okazały się istotnym problemem. Tymczasem takie gigantyczne kampanie reklamowe, jak te prowadzone w Stanach, to w Europie rzecz nie do zrobienia, ze względu na zupełnie inny model finansowania partii i kampanii wyborczych.
Oczywiście, przy okazji wyborów do Europarlamentu zdarzały się przypadki mikrotargetowania, jednak większym wyzwaniem było — i wciąż jest — wykorzystanie do celów politycznych nieoficjalnych stron i grup. Starałem się na nie zwrócić uwagę Facebooka, bo to są tysiące profili zakładanych tylko po to, by budować zasięgi i wykorzystywać je później politycznie. Niestety, do dziś Facebook niewiele w tym temacie zrobił, a problem pozostaje duży".
Na poruszoną przez Batorskiego kwestię uwagę zwracała także pierwsza sygnalistka z Facebooka — Sophie Zhang. We wrześniu 2020 opisała dziennikarzom BuzzFeed News liczne przykłady wykorzystania przez rządy czy partie polityczne Facebooka do celów manipulacji politycznej.
Sieci nieoficjalnych stron i fałszywych profili (tzw. pacynek), których aktywność miała służyć dezinformacji, zastraszaniu oponentów, czy też budowaniu wrażenia popularności polityków, powstawały w różnych miejscach świata, od Ekwadoru po Azerbejdżan. W zmaganiach z nimi Zhang nie otrzymywała wsparcia. Tak później przedstawiała swoją sytuację:
„Pewien menedżer z działu Strategic Response powiedział mi, że większość świata poza Zachodem to w rzeczywistości Dziki Zachód, w którym ja jestem dyktatorem na pół etatu - chciał, by to stwierdzenie było komplementem, ale ilustrowało ogromną presję, jaka na mnie spoczywała”.
"Nie mam poczucia, żeby Facebook robił odpowiednio dużo, jeśli chodzi o dopilnowanie tego, jakie treści się na nim rozpowszechniają, a jakie nie" — mówi Batorski. "Dla języka angielskiego jest to robione lepiej, tam te narzędzia fact-checkingowe rzeczywiście działają. Opublikowanie na anglojęzycznym Facebooku linka do treści uznanej przez podmioty zajmujące się weryfikacją informacji za wprowadzającą w błąd jest bardzo trudne, a nawet jak się uda, to informacja jest oznaczana jako nieprawdziwa. W Polsce takie mechanizmy bezpieczeństwa w zasadzie nie funkcjonują".
Jak zatem wygląda sytuacja w Polsce? Jak poważnie traktować trzeba tezę, że Facebook czyni ją krajem ogarniętym w internecie „społecznościową wojną domową”? Analiza Batorskiego miała na celu sprawdzić, czy algorytm portalu zaczął po 2018 roku promować treści negatywne, i czy wpłynęło to na zawartość postów polskich partii. To właśnie ich oficjalne profile były przedmiotem badania.
"Analizowaliśmy posty publikowane przez partie polityczne i reakcje użytkowników względem tych postów" — opisuje założenia badania Batorski. "Dodatkowo analizowaliśmy treść tych postów, używając zautomatyzowanego modelu maszynowego do oceny wydźwięku treści. Model ten został stworzony przez Sotrender dwa lata temu i jest dostosowany do języka polskiego i specyfiki treści z mediów społecznościowych. Co ważne, w tym badaniu analizowaliśmy tylko oficjalne profile, a trzeba pamiętać, że kanały nieoficjalne także mają bardzo duże znaczenie".
Jednym z pytań badawczych, na które odpowiedź miała dać analiza, było to, czy w przypadku któregoś z ugrupowań nastąpiła po 2018 roku zmiana proporcji publikowanych postów negatywnych i pozytywnych, z 50 do 50 na 80 do 20.
"W przypadku partii, które analizowaliśmy, niczego takiego nie zobaczyliśmy" — mówi o rezultatach badań Batorski. "Jedną istotną zmianą polegającą na przejściu na treści zdecydowanie negatywne zauważyliśmy w przypadku strony Platformy Obywatelskiej. Tyle tylko, że zmiana ta miała miejsce po przegranych wyborach w 2015 roku. Trudno wiązać ją z jakąś modyfikacją algorytmu. Z kolei w przypadku Prawa i Sprawiedliwości zauważyliśmy ruch w drugą stronę, od narzekania i krytykowania ku polityce chwalenia się. Tej zmiany, o której była mowa w Facebook Papers nie zaobserwowałem".
Nie oznacza to jednak, że tezy wiążące portal Zuckerberga z zaognianiem się nastrojów społecznych, społeczną polaryzacją, nie mają żadnego pokrycia w rzeczywistości. Badania prowadzone przez Batorskiego ujawniły pewne interesujące korelacje.
"Zauważyliśmy, że około marca 2018 roku posty o negatywnej treści zaczęły być przez użytkowników udostępniane znacznie częściej. Dotyczyło to zarówno Platformy Obywatelskiej, jak i Prawa i Sprawiedliwości, przy czym w przypadku tej pierwszej partii sytuacja się utrzymuje, a w przypadku drugiej zmieniła się w 2019 roku".
Badacz przestrzega jednak, że obserwowane zmiany niekoniecznie muszą być skutkiem modyfikacji algorytmu, który zaczął silniej promować treści budzące negatywne reakcje.
"Wydaje mi się, że część omówień tych badań posuwa się do nadinterpretacji. Dysponując danymi, jakie mamy, trudno jest stwierdzić, co jest rzeczywiście efektem działania algorytmu, a co tylko temu algorytmowi przypisujemy" — mówi Batorski. "Nie można pomijać innych czynników, choćby znaczenia mechanizmów selekcji społecznej, tego, że sami siebie zamykamy w bańkach poglądów" — tłumaczy.
Zwraca także uwagę, że nawet jeśli algorytm Facebooka wzmacnia polaryzację, to nie jest jedynym winny. "Inne podmioty również czynią duże szkody swoimi algorytmami. Moim zdaniem problemem jest przede wszystkim YouTube".
System rekomendujący treści na należącej do Google platformie wideo to jeden z najbardziej jaskrawych przykładów społecznie szkodliwego działania algorytmów. Niedawne badanie przeprowadzone przez Mozilla Foundation pokazało między innymi, że YouTube rekomenduje swoim użytkownikom filmy łamiące jego własne zasady społeczności, zaś badani żałowali obejrzenia polecanych wideo 40 proc. częściej niż obejrzenia klipów przez siebie wyszukanych.
Choć analiza Batorskiego była niekonkluzywna w ocenie wpływu Facebooka na rozprzestrzenianie się postów o negatywnej treści, to jednak zwraca on uwagę na inne badania ukazujące problemy z mechanizmami tej platformy.
"W 2019 roku na Northeastern University przeprowadzono badanie, które robił między innymi dr Piotr Sapieżyński. Eksperymenty na reklamach ujawniły, że Facebook przy decydowaniu, komu wyświetlić komunikaty reklamowe, bierze pod uwagę ich treść. Okazało się na przykład, że z treściami liberalnymi znacznie łatwiej jest docierać do Demokratów niż do konserwatystów — i odwrotnie. Na dodatek, jeżeli chcemy liberalną reklamą dotrzeć do konserwatystów, to zapłacimy za to znacząco więcej niż gdybyśmy do tych samych konserwatystów chcieli dotrzeć z treściami konserwatywnymi. Z kolei, jeżeli chcemy dotrzeć do grupy, która jest dobrze dopasowana — na przykład z treścią liberalną do wyborców Demokratów — to będzie to kosztowało mniej niż dotarcie do osób o niezdefiniowanych poglądach i jeszcze mniej niż dotarcie do konserwatystów".
Zjawisko to może mieć istotne implikacje społeczne. Jak piszą autorzy badania, "[…] nasze ustalenia budzą poważne obawy co do tego, czy Facebook i podobne platformy reklamowe nie wzmacniają w rzeczywistości politycznych baniek filtrujących poprzez ekonomiczne zniechęcanie do nadawania treści, które według nich nie są zgodne z poglądami politycznymi użytkowników. Mówiąc prościej, Facebook podejmuje decyzje o tym, które reklamy pokazać któremu użytkownikowi, w oparciu o własne priorytety (przypuszczalnie zaangażowanie użytkownika lub wartość dla platformy). Ale w kontekście marketingu politycznego, wybór Facebooka może mieć znaczące negatywne skutki zewnętrzne dla dyskursu politycznego w skali całego społeczeństwa”.
Istotne jest oczywiście, by nie skupiać się wyłącznie na Facebooku, lecz pamiętać o innych platformach czy mediach tradycyjnych. Jednocześnie jakikolwiek negatywny wpływ tego konkretnego medium jest niewspółmiernie większy w stosunku do pozostałych ze względu na jego skalę oddziaływania.
"Inne media też silnie polaryzują. Jestem daleki od przerzucania winy na Facebooka, oskarżania go o wszystko" — mówi Batorski. "Nie zmienia to jednak tego, że rola Facebooka w utrwalaniu podziałów jest niebagatelna i pod wieloma względami większa niż innych mediów. Przede wszystkim jest istotniejszym źródłem informacji. Do mediów tradycyjnych wiele osób, szczególnie młodszych, już nie sięga. To Facebook jest dziś dla nich filtrem informacji, bramą do innych stron. Ma więc ogromny wpływ na to, jakie treści będą do użytkowników docierały".
Jednym z najogólniejszych, ale i najważniejszych wniosków ze sprawy Facebook Papers jest to, że wewnątrz przedsiębiorstwa Zuckerberga świadomość odpowiedzialności, problemów, czy wyzwań jest bardzo duża. Media technologiczne czy organizacje pozarządowe rzadko kiedy uświadamiały jego pracowników na temat istnienia kłopotów z ich produktami — wiedzieli o nich znacznie wcześniej. Zewnętrzna uwaga, a przez to presja były jednak kluczowe, by wymusić odpowiednią reakcję.
"Mam takie przekonanie, że choć mnóstwo pracowników Facebooka jest przeświadczonych o potrzebie działań na przykład w zakresie prywatności, to jednocześnie zmiany są wprowadzane tak, by platformie nie zaszkodziły, a wręcz przyniosły korzyści. Dlatego jestem sceptyczny względem możliwości jej samoregulacji" — mówi Batorski.
"Nawet jeżeli w tych przedsiębiorstwach pracuje mnóstwo ludzi, którym realnie zależy na poprawie sytuacji, to nie oznacza, że ich własne działania wystarczą. Dlatego moim zdaniem potrzebna jest większa zewnętrzna kontrola, regulacje, a nie pozostawienie tych kwestii do załatwienia wewnątrz Facebooka czy innej firmy".
Potrzebę regulacji Batorski podkreśla także, mówiąc o przejrzystości algorytmów. Jako że brak informacji o regułach nimi rządzących nie dotyczy wyłącznie Facebooka, najlepsze byłyby rozwiązania systemowe, obejmujące różne platformy, choćby wspomnianego YouTube’a. Samą potrzebę odsłonięcia reguł rządzących dostarczaniem treści użytkowniczkom mediów społecznościowych Batorski ilustruje następująco:
"W tej chwili kontrola nad tym, jak działają algorytmy, jest stosunkowo niewielka. Przykładem są ograniczenia w targetowaniu reklam. Ogłoszenia o pracę czy dotyczące nieruchomości to w Stanach wrażliwa kwestia ze względów dyskryminacyjnych. Facebook z jednej strony deklaruje, że to istotny problem i nie pozwala reklamodawcom w tego typu reklamach używać kryteriów, które mogłyby powodować dyskryminację. Tymczasem, jeśli przyjrzeć się temu, jak algorytmy optymalizacyjne działają, to okazuje się, że dyskryminacja zaszyta jest w samych wewnętrznych mechanizmach. To są rzeczy, które wychodzą przy okazji różnych, niezależnych badań, analiz. Pewien poziom transparentności wydaje mi się potrzebny. Nie tylko względem użytkowników, którzy mogą chcieć wiedzieć, dlaczego dana treść jest im wyświetlana, ale na poziomie zasad działania samych algorytmów. Wiem, że wewnątrz Facebooka refleksja na ten temat jest obecna, no ale czas leci".
Jednym z takich „niezależnych badań” próbujących rozjaśnić zasady działania algorytmu dostarczającego reklamy do użytkowników jest projekt Fundacji Panoptykon „Algorytmy traumy”. We współpracy ze wspomnianym już dr. Piotrem Sapieżyńskim z Northeastern University przeprowadzono eksperyment. Badacz prześledził ponad 2000 reklam pojawiających się w newsfeedzie młodej matki, bohaterki eksperymentu.
"Nasze studium »Algorytm traumy« dotyczyło co prawda algorytmów reklamowych, a nie tych szeregujących treści niesponsorowane, ale dobrze ilustruje problem tego, jak ryzyko wykorzystywania słabości i podbijania szkodliwych treści jest wpisane w samą logikę biznesową Facebooka, która determinuje funkcjonowanie jego algorytmów" — tłumaczy ekspertka Panoptykonu Karolina Iwańska. "Zarabianie na reklamach wymaga tego, by ludzie spędzali na platformie jak najwięcej czasu, ponieważ wówczas tych reklam będzie im można pokazać więcej".
Mechanizm ten ilustruje sprawa bohaterki projektu „Algorytmy traumy”. Jako użytkowniczka Facebooka, wpadła w niewidzialne, słabo zbadane, lecz potencjalnie groźne tryby maszyny.
"Nasz mózg działa tak, że uwagę bardziej przykuwają treści, które przemawiają do emocji, zwłaszcza tych negatywnych. Tak było w przypadku bohaterki naszego eksperymentu, której niepokój związany ze zdrowiem sprawiał, że angażowały ją reklamy dotyczące chorych dzieci czy badań na raka. Próba pozbycia się tych reklam spełzła na niczym, ponieważ algorytm — zoptymalizowany właśnie na zaangażowanie — dał priorytet sygnałom, które mówiły mu, że uwagę Joanny przykuwają treści dotyczące zdrowia. A w konsekwencji algorytm dochodził do wniosku, że trzeba jej pokazać tych treści jeszcze więcej, żeby trudniej było jej zamknąć okienko przeglądarki" — opowiada Iwańska.
Jak do tej sprawy ma się kwestia zmian w algorytmie wprowadzonych w 2018 roku? Jakie nowe zjawiska wytworzył, a jakie jedynie wzmocnił? Gdzie kończy się wina algorytmu, a zaczyna problematyczne zachowanie reklamodawców?
"Zmiana algorytmu w 2018 r. sama w sobie nie wykreowała efektu wzrostu zasięgu treści nacechowanych negatywnie" — mówi Iwańska. "To, co ta zmiana moim zdaniem zrobiła, to unaoczniła go profesjonalnym użytkownikom Facebooka. Ponieważ ich zasięgi spadły, w większym stopniu musieli zdać się na treści podawane dalej przez zwykłych użytkowników. Zaczęło im się więc bardziej opłacać stawianie na bardziej skrajne, emocjonujące czy polaryzujące posty"
Powraca tu wątek poruszony wcześniej przez Batorskiego.
Zamiast „Zbliżać ludzi” pozytywnymi treściami, Facebook zaostrzył walkę o uwagę użytkowników. W konsekwencji premiowane zaczęły być treści zdobywające ją najłatwiej: negatywne, szokujące, budzące złość czy strach.
To, że wiele osób, instytucji, ugrupowań politycznych próbuje wykorzystać ten efekt, jest kwestią szerszych procesów społecznych — a przede wszystkim ich własnych wyborów. Skupianie uwagi wyłącznie na algorytmie Facebooka pozwala im łatwo odsunąć od siebie winę.
Między krytyką big techu a krytyką działań innych aktorów — polityków, reklamodawców, ale też prasy, telewizji — potrzebny jest balans. Polaryzacja społeczna, wpływ mediów na problemy nastolatków z samooceną, żerowanie przez marketing na lęku czy gniewie to zjawiska istniejące na długo przed 2018 czy 2004 rokiem, gdy Facebook został uruchomiony. Ten oczywisty fakt media społecznościowe wykorzystują jednak zbyt często jako wymówkę.
To, że nie są źródłem pewnych problemów społecznych, nie znaczy, że ich modele biznesowe nie mają możliwości, by w unikalny sposób i na wielką skalę je pogłębiać.
Dlatego tak ważne jest, by nie tracić z oczu kwestii regulacji technologicznych gigantów. Szansą na to, by uczynić algorytm Facebooka bardziej transparentnym i dać użytkownikom większą kontrolę nad tym, jak są profilowani, stanowi unijny Digital Services Act. W kontekście „Algorytmów traumy” Anna Obem i Dorota Głowacka piszą: „Jak pokazał nasz eksperyment, nie wystarczy wprowadzić ograniczeń dla reklamodawców dotyczących targetowania. Jeśli chcemy uporać się z problemem manipulacji w sieci, kluczowa jest regulacja algorytmów”.
Fundacja prowadzi starania, aby odpowiednie unormowania znalazły się w ostatecznej wersji aktu o usługach cyfrowych. W związku z tym zbiera historie przypadków ilustrujących szkodliwe oddziaływanie algorytmów — nie tylko tych Facebookowych. Przy braku przejrzystości platform, możliwości badania ich dokładnie i kompleksowo, anegdotalne studia przypadku są na wagę złota.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Komentarze