Rozmowy ze sztuczną inteligencją mogą szokować z wielu powodów, ale wulgarność nie jest jednym z nich. To zasługa m.in. pracowników firmy Sama, którzy całymi dniami czytali treści pełne nienawiści i przemocy, by ChatGPT nauczył się, jak je wykrywać.
Samoucząca się sztuczna inteligencja wbrew nazwie nie rozwija się sama. Konieczny jest wysiłek wielu osób, na przykład żmudne etykietowanie ogromnych ilości danych służących do trenowania modeli uczenia maszynowego. Tym właśnie zajmowali się pracownicy kenijskiego oddziału amerykańskiego przedsiębiorstwa Sama będącego podwykonawcą m.in. OpenAI, twórców ChatGPT, którzy ujawnili panujące w firmie ciężkie warunki pracy.
O sprawie po raz pierwszy napisał w styczniu Billy Perrigo, reporter Time. Anonimowi jeszcze wówczas zatrudnieni opowiadali o „torturach”, jakie przechodzą, zajmując się etykietowaniem tekstów pełnych opisów przemocy, w tym seksualnej i nie tylko względem ludzi, czy też mowy nienawiści. Z kolei wynagrodzenie, które za to otrzymywali, oscylowało w granicach 2 dolarów.
By nauczyć go, jak je rozpoznawać i ich unikać. Historia rozwoju czatbotów zna przypadki, gdy brak tego rodzaju filtra skutkował generowaniem przez sztuczną inteligencję szokujących, czy wręcz łamiących prawo wypowiedzi.
Na przykład zawierających kłamstwo oświęcimskie.
Negacjonistyczne wpisy były jednym z powodów wyłączenia w 2016 roku Tay, twitterowej botki rozwijanej przez Microsoft, którą korzystające z portalu osoby celowo zradykalizowały.
Ich użytkowniczek i użytkowników nie da się zaprogramować, by publikowali jedynie rzeczy nieszkodliwe. Do kontroli ich twórczości platformy wykorzystują zautomatyzowane systemy.
Nie mogą się jednak obejść także bez pracy moderatorskiej ludzi w różnych krajach, także w Polsce.
Przedsiębiorstwa rozwijające czatboty starają się tymczasem zakodować swoim produktom „moralny kompas”. W ten sposób chcą zagwarantować sobie spokój od pilnowania, co Bard czy ChatGPT wypisują w rozmowach. One również nie są jednak w stanie realizować swoich celów bez udziału rozsianych po świecie pracowniczek i pracowników.
OpenAI w procesie uczenia zastosowało swoistą terapię szokową. Badacze z przedsiębiorstwa w artykule z sierpnia ubiegłego roku opisują, że trenowali swój model m.in. treściami o charakterze seksualnym, przemocowym, dyskryminującym, pobranymi z Twittera czy Reddita. Kluczowa dla procesu treningowego jest, jak piszą, poprawność etykietowania danych przez „ludzkich anotatorów”. Wiele miejsca w pracy poświęcono więc sposobom dbania o jakość oznaczeń rodzaju i stopnia szkodliwości treści – jasności reguł podejmowania decyzji czy audytowi.
Dbaniu o jakość życia osób wczytujących się w niejednokrotnie szokujące teksty poświęcona została jedna, krótka sekcja.
„Przed wyrażeniem zgody doradcy uświadamiają anotatorów o ryzyku i potencjalnych szkodach związanych z pracą z wrażliwymi danymi. Nasi dostawcy danych zapewniają im dostęp do materiałów dotyczących zdrowia psychicznego i dobrego samopoczucia, a anotatorzy mają prawo do rezygnacji w dowolnym momencie” – piszą autorzy z OpenAI.
Przedsiębiorstwo na swojej stronie chwali się, że prowadzi „etyczne łańcuchy dostaw dla SI”. Dba też o dobrostan zatrudnianych osób, tworząc jakościowe miejsca pracy w krajach globalnego południa. Tymczasem Alex Kairu, jeden z pracowników zatrudnionych w biurze Samy w Nairobi, tak mówił Karen Hao i Deepie Seetharamanowi, reporterom WSJ: „Moje doświadczenia z tych czterech miesięcy były najgorszymi, jakie kiedykolwiek miałem, pracując w przedsiębiorstwie”.
Mophat Okinyi, pracownik zajmujący się treściami o charakterze seksualnym, opowiadał w podcaście WSJ, że przez swoją szczegółowość, opisy gwałtów czy zoofilii wywoływały w jego głowie wyraźne obrazy, co odciskało się piętnem na jego psychice i relacjach z bliskimi.
„Nie chciałem zbliżać się do mojej córeczki z powodu tekstów, które czytałem” – opisywał swoje doświadczenia. – „Gdy widzisz to dziecko, myślisz o tym, co przeczytałeś w tekście. Tak, dobry czas z żoną, to wszystko zostało zabrane. Stajesz się kimś, kto nie czuje już nic do partnerki”.
Okinyi’a twierdzi jednak, że sesje wellness sprowadzające się do pytań „Jak minął ci dzień?” były niewystarczające i potrzebował bardziej specjalistycznej opieki psychologicznej, której firma nie zapewniała. Zdaniem jej przedstawicieli, spowodowane było to brakiem świadomości skali i rodzaju potrzeb pracowników. Relacje sygnalistów, w których opowiadali o odmowach ze strony wyżej postawionych osób, temu jednak przeczą.
Wiarygodność Samy dodatkowo podważa fakt, że to nie pierwszy duży skandal z jej udziałem. Poprzedni także dotyczył złego traktowania osób pracujących z niebezpiecznymi dla zdrowia psychicznego treściami – i również ujawnił go Perrigo na łamach Times'a.
Sprawa dotyczyła łamania praw moderatorów treści na Facebooku, w tym prawa do tworzenia związków zawodowych.
Zdaniem oskarżających przedsiębiorstwo osób, rekrutacja odbywała się w sposób nietransparentny. Oferowane stanowiska opisywane były jako związane ze zwalczaniem fałszywych informacji czy też operowaniem call center. Dopiero przy podpisywaniu umów o zachowaniu poufności poznawali szczegółowy zakres swoich zadań.
Przez cały dzień zatrudniane przez Samę osoby muszą wpatrywać się w ekran, na którym pojawiają się obrazy czy filmy potencjalnie łamiące regulamin portalu. Na podjęcie decyzji, czy należy je usunąć, osoby moderujące mają kilkadziesiąt sekund. Dokładną liczbę wyznacza Average Handle Time, wskaźnik wyznaczający tempo pracy, z którego utrzymywania oraz jakości podejmowanych decyzji pracownicy są rozliczani.
Według relacji dzień pracy w biurze Samy mógł trwać nawet 9 godzin, co oznacza konieczność obejrzenia nawet ponad 500 postów przedstawiających często bestialskie okrucieństwo, wywołujących strach, obrzydzenie, szok.
Pracownicy z warszawskiego biura Accenture, korporacji świadczącej na rzecz Facebooka podobne usługi, opowiadali o nieco krótszych, 6-godzinnych dniówkach. Trudności, z jakimi się mierzyli, były jednak te same, co w Nairobi czy Manili.
Szczegółowo relacjonuje je reportaż Piotra Szostaka opublikowany w 2021 roku w „Gazecie Wyborczej”. W opowieściach z biur w Nairobi i Warszawie powtarzają się nawet takie detale jak negatywny stosunek do wellness coachów. „Części psychologów się też po prostu nie ufa, bo są parawanem ochronnym dla firmy. Cały program WeCare służy zrzuceniu odpowiedzialności za nasze zdrowie psychiczne z Facebooka oraz odsianiu słabszych lub niezadowolonych jednostek” – opowiadała Szostakowi jedna z moderatorek.
„Ci ludzie… To było trochę tak, jakbyśmy byli tam dla ich rozrywki, albo żeby po prostu mogli zarabiać”
– to z kolei słowa Daniela Motaunga, z którym rozmawiał Perrigo.
A wraz z nią odpowiedzialność za powodowane przez nią szkody, nie tylko do Kenii, Polski czy na Filipiny, lecz także do innych amerykańskich stanów.
Puszkę Pandory w temacie codzienności amerykańskich moderatorów Facebooka otworzył w 2019 roku reportaż Casey’ego Newtona opublikowany w „The Verge”, poświęcony pracownikom firmy Cognizant z Phoenix w stanie Arizona.
„Takie przedsiębiorstwa jak Meta zatrudniają moderatorów treści w jakiejś skali wszędzie”
– opowiada dr Karol Muszyński, adiunkt na Wydziale Socjologii Uniwersytetu Warszawskiego oraz post-doc w Centre for Sociological Research na belgijskim uniwersytecie KU Leuven. – "Mają moderatorów pracujących w Stanach Zjednoczonych czy Kanadzie z tego względu, że interesuje ich też context sensitive moderation. Chodzi o treści, które są bardzo trudne do moderowania, jeżeli nie jest się zakorzenionym w lokalnym kontekście – żarty, memy, tego typu rzeczy. Więc pomimo tego, że zdecydowana większość moderacji treści, szczególnie graficznej czy wideo, jest outsourcowana do globalnego południa, do Afryki, do Azji, to jakieś prace zostaną też w centrum.
Nawet w USA Meta korzysta z podwykonawców, powierzając im zatrudnianie osób do prac związanych z „czyszczeniem” swoich platform. Jak zwracał uwagę Newton, to proceder z długą historią, nierozerwalnie związaną z rozwojem wielkich, cyfrowych platform.
„To jest coś bardzo charakterystycznego w sektorze IT, czyli wielopiętrowe konstrukcje outsourcingowe”.
„Mówiąc inaczej, firma outsourcuje do firmy, która outsourcuje jeszcze dalej, która outsourcuje jeszcze dalej, która być może kogoś zatrudnia, a być może ma dalej niezależnych podwykonawców. To się wiąże ze zjawiskiem, które jest różnie opisywane w literaturze. Ja najbardziej lubię konceptualizację Davida Weila, który mówi o fissured workplace. Nie ma chyba dobrego tłumaczenia na język polski, może spękane przedsiębiorstwo czy spękane miejsce pracy” – mówi Muszyński.
„Bardzo często management tych firm niemalże strategicznie nie zdaje sobie sprawy z tego, w jaki sposób procesy są dostarczane” – tłumaczy. – „Jakbyśmy zapytali szefów OpenAI, czy oni wiedzieli, co się działo w Samie, to mogłoby się okazać, że realnie nie wiedzieli. Wynika to z tego, że firmy pękają tak bardzo, że pewne procesy są po prostu usuwane poza ich nadzór. I to jest strategiczne działanie. Być może strategicznym działaniem nie jest planowanie moderacji, by wyglądała tak, że będziemy mieć na końcu straumatyzowanych pracowników. Natomiast strategią jest uznanie, że to są proste czynności, które można outsourcować, więc szukamy najtańszych podwykonawców, którzy nam dostarczą usługi i nas nie obchodzi to, co się dzieje dalej”.
"Funkcjonowanie spękanych przedsiębiorstw dobrze obrazuje proces toczący się przeciwko firmie Meta w Kenii. Zwolnieni przez Samę moderatorzy pozwali nie tylko swojego bezpośredniego pracodawcę, lecz także właściciela Facebooka. Przedsiębiorstwo Marka Zuckerberga próbowało zdystansować się od sprawy, przedstawiając siebie jako wyłącznie klienta Samy. Jednak w czerwcu, w przełomowej decyzji kenijski sąd stwierdził, że Meta powinna być traktowana jako podmiot zatrudniający moderatorów. Jej podtrzymanie w głównym procesie może „przedziurawić cały model outsourcowania moderacji treści” – komentowała sprawę brytyjska NGO Foxglove wspierająca m.in. działania byłych pracowników Samy.
Można zakładać, że taki rozwój sytuacji byłby także po myśli osób wciąż aktywnych w tej branży i chcących dalej zajmować się bezpieczeństwem portali czy rozwijaniem narzędzi SI. „Chcemy, żeby koncern w końcu wziął za nas odpowiedzialność, ponieważ bez nas jego serwisy byłyby nie do użycia. Uważamy, że powinniśmy być zatrudnieni bezpośrednio przez Meta” – mówiły Szostakowi osoby zatrudnione przez Accenture.
Na problem outsourcingu jako nomen omen źródło problemu zwracali uwagę także sygnaliści z Samy, którzy wykonywali prace dla OpenAI. Przy wsparciu Foxglove oraz nairobijskiej kancelarii Nzili & Sumbi złożyli petycję do kenijskiego Zgromadzenia Narodowego. Stwierdzają w niej m.in., że „model outsourcingu jest powszechnie wykorzystywany przez duże firmy technologiczne z siedzibą w Stanach Zjednoczonych do eksportowania szkodliwej i niebezpiecznej pracy do kenijskiej młodzieży. Pracownicy zatrudniani w ramach outsourcingu otrzymują niskie wynagrodzenie i nie mają zapewnionej opieki, której potrzebują do wykonywania takich prac”.
– Na poziomie wizji uważam, że należy odwrócić trend ousourcingowy – mówi Muszyński. – Podstawowym zadaniem jest tak naprawdę insourcing pracy. Firmy, dla których dane czynności są niezbędne, w wypadku Facebooka moderacja treści, w przypadku OpenAI uczelnie algorytmów, powinny po prostu zatrudniać ludzi, którzy je wykonują. Nawet jeżeli geograficznie są gdzieś indziej, to są w tym samym przedsiębiorstwie, więc mają choćby zbliżone prawa.
Taka zmiana nie tylko poprawia sytuację osób zatrudnianych do niebezpiecznych prac, ale wymusza także zmianę modelu funkcjonowania „spękanych przedsiębiorstw”.
– Insourcing powoduje, że firma staje się odpowiedzialna za zatrudniane osoby – kontynuuje Muszyński. – Wówczas trudno jest uniknąć wizerunkowych ryzyk. To już nie jakiś podwykonawca OpenAI pokazuje ludziom treści pedofilskie. To jest OpenAI, które pokazuje TO swoim pracownikom. I nagle się pojawiają problemy: „Musimy moderować te treści, musimy nauczyć algorytmy, by były w stanie to identyfikować. Ale jak?”. A kiedy struktura przedsiębiorstw jest rozczłonkowana, firmom łatwo unikać odpowiedzialności. A nawet de facto nie wiedzieć, jak sprawa wygląda.
Out of sight, out of mind.
Ekspert jest jednak sceptyczny co do możliwości insourcingu. Do globalnej zmiany potrzeba inicjatywy amerykańskich, a nie tylko afrykańskich czy europejskich, regulatorów. Historia traktowania przez nich przedsiębiorstw z Doliny Krzemowej pokazuje zaś, że nie są skorzy, by nakładać na big tech ograniczenia.
„Regulatorzy patrzą z obojętnością na trudną sytuację armii współczesnych górników”
– komentował w 2019 reportaż o firmie Cognizant publicysta Forbes’a Kalev Leetaru.
Dla przykładu, pracownicy Cognizant otrzymali od Facebooka w drodze ugody 52 miliony dolarów zadośćuczynienia za szkody na zdrowiu psychicznym. Taki stan rzeczy sprawia jednak, że kolejni poszkodowani muszą od nowa podejmować kosztowną i długotrwałą walkę o swoje prawa, opierając się na precedensach.
W oczekiwaniu na rozstrzygnięcia wytaczanych Mecie i innym przedsiębiorstwom procesów, pracownicy danych organizują się. Pionierską próbę uzwiązkowienia afrykańskich moderatorów treści podjął w Samie w 2019 Daniel Motaung. Przypłacił ją zwolnieniem, za co, jak również za szereg innych uchybień, pozwał dawnego pracobiorcę. Choć na rezultaty procesu wciąż czeka, to jednak powstanie związku zawodowego moderatorów treści stało się niedawno faktem. W maju w Nairobi powołany został związek African Content Moderators Union zrzeszający osoby wykonujące prace dla m.in. Mety, OpenAI czy TikToka, który już dziś liczy ponad 150 członków i członkiń. Motaung był jednym z gości wydarzenia, w czasie którego powołano do życia organizację.
Sana Ahmad i Martin Krzywdzinski w pracy Moderating in Obscurity: How Indian Content Moderators Work in Global Content Moderation Value Chains wskazują jako przykład takiego procesu powstanie związków zawodowych zrzeszających pracowniczki i pracowników centrów obsługi telefonicznej w Indiach po kryzysie finansowym w 2008 roku. Z podobnym zjawiskiem, jak sugerują, możemy mieć niedługo do czynienia także wśród moderatorów i moderatorek treści.
Uzwiązkowienie może być także sposobem, by rosnące zapotrzebowanie na ich usługi mogli wykorzystywać jako kartę przetargową w kontaktach z amerykańskim czy chińskim big techem.
Moderacja i etykietowanie danych to procesy, bez których te przedsiębiorstwa nie są w stanie się obejść
Nie mogą też ich w całości zautomatyzować. A mimo to niezbędni do ich wykonywania pracownicy i pracowniczki nie czerpią z tej sytuacji korzyści.
W lipcu Fairwork, inicjatywa Uniwersytetu Oksfordzkiego i berlińskiego Centrum Badań Społecznych (WZB), opublikowała raport dotyczący platform oferujących cloudwork – prace (zwykle tzw. fuchy) wykonywane zdalnie i online. W tej formule często zlecane są także moderowanie i etykietowanie danych na potrzeby rozwoju modeli sztucznej inteligencji. Spośród 15 przebadanych portali, wśród których znalazły się m.in. Mechanical Turk od Amazona czy relatywnie popularne w Polsce serwisy Fiverr i Upwork, żaden nie zbliżył się nawet do minimalnych standardów uczciwości zatrudniania określonych przez badaczy. Najwyższy wynik wyniósł 5/10, a wymienione wyżej podmioty uzyskały kolejno 0/10, 1/10 i 2/10.
Mimo to nowych pracowników i pracowniczek nie brakuje. Przyciągają ich nie tylko możliwość pracy zdalnej. Także wysokie jak na lokalne standardy – choć groszowe z perspektywy korporacji – stawki lub niejasne opisy zakresu obowiązków. Przynajmniej część osób moderujących i etykietujących treści widzi w tej pracy także społeczną wartość. „Jestem bardzo dumny, że uczestniczyłem w projekcie mającym uczynić ChatGPT bezpiecznym. Ale teraz ciągle zadaję sobie pytanie: czy mój wkład był wart tego, co dostałem w zamian?” – mówił Karen Hao Mophat Okinyi’a. „Facebook i Instagram bez moderacji byłyby ściekiem. Widzimy, że bez nas platformy nie byłyby w stanie działać” — opowiadała Piotrowi Szostakowi analityczka z Accenture.
Nie jest to bynajmniej racjonalizacja, osoby czyszczące dane śmiało zaliczyć można do kategorii essential workers. Niestety, podobnie jak wieloma innymi niezbędnymi zawodami, tak i losem moderatorek czy anotatorów mało kto zdaje się przejmować.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Komentarze