0:00
0:00

0:00

Prawa autorskie: Iga Kucharska/OKO.pressIga Kucharska/OKO.pr...

W marcu 2023 r. firma Goldman Sachs – jedna z największych instytucji finansowych na świecie – przewidywała, że tak zwana sztuczna inteligencja zastąpi 300 milionów pracowników. Podobne prognozy dotyczące rychłego upadku rynku pracy w związku z narzędziami generatywnymi słyszymy przynajmniej od momentu premiery ChatGPT w 2022 r. Często ze strony firm i osób, które mają dużo do zyskania na pompowaniu tej bańki – jak inwestujący w infrastrukturę dla tych narzędzi Goldman Sachs.

Raport z Uniwersytetu Yale z października 2025 r. wskazuje jednak, że wpływ narzędzi generatywnych na rynek pracy jest znikomy. Na tym etapie nie powinno to już nas dziwić: prognozy dotyczące związanych z tymi narzędziami „nieuniknionych” rewolucyjnych zmian, które wiecznie są tuż za rogiem, to już osobny nurt literatury.

Przeczytaj także:

Bajki o AI

Ot, choćby bajki o niewyobrażalnych zyskach firm, które wdrożą narzędzia oparte o wielkie modele językowe. Firma konsultingowa McKinsey mówiła w 2023 r. o „bilionach dolarów”; wspomniany wcześniej Goldman Sachs o trzydziestoprocentowym wzroście zysków. Dwa lata później użycie narzędzi generatywnych wzrosło, ale zysków dla firm je wdrażających jak nie było tak nie ma. Jak pisze The Register, „zwrot z inwestycji jest fatalny!

Zyski z generatywnej gorączki złota oczywiście są, ale jak to w gorączkach złota – skupiają się przede wszystkim w rękach sprzedawców łopat i kilofów. W tym wypadku to Nvidia, produkująca niezbędne do uruchomienia i trenowania wielkich modeli językowych karty graficzne, oraz dostawcy infrastruktury jak Microsoft czy Amazon. Nawet firmy i organizacje tworzące te modele i oparte na nich narzędzia – jak OpenAI czy Anthropic – wciąż tracą horrendalne ilości pieniędzy.

Podobnie ze wzrostem produktywności. Pracodawcy mają wygórowane oczekiwania dotyczące wpływu narzędzi generatywnych na szybkość pracy. Do tego stopnia, że czasem zmuszają osoby w ich firmach zatrudnione do wykorzystywania tych narzędzi, grożąc zwolnieniami.

Tymczasem produktywność może wręcz spaść, bo wygenerowany fragment raportu czy ilustracja wymagają dodatkowej pracy w formie poprawek, weryfikacji źródeł czy też przepisania do formy faktycznie strawnej i przydatnej dla człowieka. Jednocześnie pracownicy skarżą się na zwiększony nakład pracy, związany z korzystaniem z tych narzędzi.

Czasem mogą tego nawet nie zauważać: badanie opublikowane w lipcu tego roku wskazuje, że programiści oceniają wpływ systemów generatywnych na ich szybkość pracy pozytywnie – mimo że faktycznie ten wpływ jest znacząco negatywny.

Błędem byłoby twierdzić, że narzędzia generatywne nie mają żadnej wartości i żadnych zastosowań. Automatyczne tłumaczenie na przykład jest jak najbardziej pomocne w konkretnych sytuacjach. Ale faktyczna przydatność tych narzędzi ma się nijak do absurdalnie napompowanych oczekiwań.

Dźwignia przeciwko pracownikom

Doniesienia o śmierci rynku pracy są więc przesadzone. Nie oznacza to, że absolutnie nic się nie zmienia. Bajera jest nakręcona, pracownicy martwią się o miejsca pracy, „sztuczna inteligencja” jest więc świetną dźwignią dla pracodawców przeciw prawom pracowniczym i związkom zawodowym.

Parę lat temu Klarna, szwedzka firma świadcząca internetowe usługi finansowe, ogłosiła, że zwalnia kilkaset osób z działu obsługi klienta, zastępując je czatbotem. Oczywiście szybko okazało się, że czatbot nie zastąpi człowieka, więc Klarna ponownie rekrutuje.

Ale uwaga! Za CNBC: "Siemiątkowski [szef Klarny] powiedział w osobnym wywiadzie (...), że firma będzie niedługo rekrutować więcej osób do obsługi klientów; mają one pracować w «systemie podobnym do Ubera»”

Szwedzki startup nie zastąpił więc pracowników „sztuczną inteligencją”.

Szwedzki Janusz biznesu (polskiego pochodzenia zresztą) wykorzystał bajerę AI jako dźwignię, by przepchnąć pracowników na śmieciówki.

NEDA, Amerykańska organizacja pomagająca osobom z zaburzeniami odżywiania, trochę zbyt serio potraktowała tę bajerę, i faktycznie próbowała zastąpić osoby obsługujące jej gorącą linię czatbotem. Organizacja miała dobry powód: pracownicy założyli związek zawodowy, a to, jak wiadomo, poważne faux-pas. Czatbot został wyłączony dosłownie kilka dni po uruchomieniu. Oferował „porady”, które były wprost szkodliwe.

Z kolei bank w Australii, który zwolnił dziesiątki osób, zastępując je rzekomo w pełni czatbotem, musiał zwolnione osoby przywrócić do pracy. Początkowo bank twierdził, że narzędzie (w tym wypadku w wersji audio) doprowadziło do dramatycznego zmniejszenia liczby telefonów od klientów – o dwa tysiące co tydzień. Okazało się to kłamstwem, a pracownicy, którzy nie zostali zwolnieni, musieli pracować nadgodziny. Sprawa wyszła na jaw dzięki zaangażowaniu związku zawodowego.

„Przyczyną niskiego wzrostu płac dla większości pracowników są celowe decyzje regulacyjne, które doprowadziły do ekstremalnej nierównowagi pomiędzy pracodawcami a zwykłymi pracownikami – postęp technologiczny, jak AI, ma z tym niewiele wspólnego i często jest wykorzystywany jako metoda odwrócenia uwagi od tych głębszych problemów” – czytam w raporcie amerykańskiego think-tanku Economic Policy Institute.

Nowe, kiepskie miejsca pracy

Ale są obszary, gdzie tak zwana sztuczna inteligencja tworzy nowe rodzaje miejsc pracy. Tyle że są one bardzo niskiej jakości.

Na przykład systemy „human-in-the-loop” (ang. „człowiek w pętli”), czyli systemy oparte o uczenie maszynowe, które nie działają autonomicznie – gdzieś siedzi człowiek i reaguje na ich błędy. Tak działają obiecywane od dekady „robotaksówki” Elona Muska. Mimo że mają się same prowadzić, Tesla zatrudnia kierowców. Tylko nie sadza ich za kółkiem, a w odległym biurze.

Podobnie robi inny amerykański startup reklamujący samoprowadzące się taksówki, Zoox. Zdaniem cytowanego przez New York Times Thomasa W. Malone, profesora Centrum Zbiorowej Inteligencji MIT, „Taniej pewnie byłoby płacić kierowcy za prowadzenie samochodu”.

„Sztuczna inteligencja (AI) jest często prezentowana jako rewolucyjna siła mająca zautomatyzować ogromne obszary gospodarki, wypychając pracowników, tworząc nową erę »postpracy«. Jednak za lśniącymi interfejsami i imponującymi możliwościami wielu systemów AI stoi niewidoczna siła robocza ludzi.” – pisała pod koniec 2024 roku afiliowana przy ONZ Międzynarodowa Organizacja Pracy. Siła robocza, która bardzo często niewiele zarabia i nie jest chroniona prawami pracowniczymi, dzięki czemu jest tania.

W podobnej sytuacji są osoby, które tagują i oznaczają dane treningowe dla systemów opartych o uczenie maszynowe. Za The Conversation: „W zakurzonych fabrykach, ciasnych kawiarenkach internetowych i prowizorycznych biurach domowych na całym świecie miliony ludzi siedzi przed komputerami i monotonnie oznacza dane. Ci pracownicy są kluczowi dla rodzącego się przemysłu sztucznej inteligencji (AI). Bez nich, usługi takie jak ChatGPT zwyczajnie nie mogłyby istnieć.”

Analityczna bajera

Znów więc chodzi nie o zastępowanie ludzkich pracowników mityczną „sztuczną inteligencją”, a o zmianę relacji, przemeblowanie rynku pracy tak, by skuteczniej pracowników wyzyskiwać. To jednak wymaga odwracającej uwagę bajery.

Bez obaw. Goldman Sachs na posterunku. Analitycy firmy twierdzili nie dawno, że AI „odblokuje 8 bilionów zysku ze wzrostu produktywności”, i że wcale nie jesteśmy w bańce. Taka ocena nie ma oczywiście nic wspólnego z faktem inwestowania przez firmę w ten rynek.

Zresztą, nawet jeśli w bańce jesteśmy, czemu Goldman Sachs miałby się martwić? Na poprzedniej bańce – pożyczek hipotecznych wysokiego ryzyka – też zarobili. A jak w końcu pękła (doprowadzając do globalnego kryzysu finansowego w 2008 roku), firma dostała miliardy dolarów kroplówki finansowej od rządu USA.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Na zdjęciu Michał rysiek Woźniak
Michał rysiek Woźniak

Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.

Komentarze