Gdyby nie 1,5%, mogłoby nie być OKO.press

Twoja pomoc ma znaczenie

0:00
0:00

0:00

Prawa autorskie: Il. Iga Kucharska / OKO.pressIl. Iga Kucharska / ...

Psychiatria podchodzi do tego określenia – psychoza AI – z wyraźnym sceptycyzmem, a historia technologii pokazuje, że podobne lęki towarzyszyły już wcześniejszym mediom, od radia po telewizję. Dodatkowym problemem jest brak systematycznych badań nad tym wciąż nowym i hipotetycznym zjawiskiem, co utrudnia oddzielenie medialnego szumu od rzetelnej wiedzy medycznej.

Czy na pewno można zwariować z chatbotem?

Chatboty oparte na dużych modelach językowych nie mają ostatnio dobrej passy. W ostatnich miesiącach pojawiło się sporo niepokojących doniesień o negatywnych konsekwencjach, do jakich może doprowadzić ich zbyt intensywne wykorzystywanie. Szczególną uwagę przyciągnęły relacje o osobach, które po wielogodzinnych interakcjach z narzędziami takimi jak ChatGPT miały stopniowo tracić kontakt z rzeczywistością lub doświadczać trudności w odróżnianiu rzeczywistości od fikcji. Przypadki takie zaczęto określać mianem „psychozy AI”.

Niekiedy dochodziło do rozpadu relacji czy małżeństw, gdy jedna ze stron coraz silniej angażowała się w relację z AI, zaniedbując przy tym swój związek czy pracę, co oprócz rozwodu może skutkować bankructwem lub popadnięciem w długi. A w najbardziej skrajnych sytuacjach pojawiały się również doniesienia o – nierzadko skutecznych – próbach odebrania życia. I to zarówno własnego, jak i cudzego. Na anglojęzycznej Wikipedii istnieje nawet osobne hasło „Przypadki śmiertelne powiązane z użyciem chatbotów” wymieniające wiosną 2026 roku kilkanaście przypadków.

Nie oznacza to zarazem, że we wszystkich takich przypadkach doszło do „psychozy AI” – a przynajmniej nie zawsze używa się tego określenia. Niezależenie od tego, jak bardzo tragicznie dana sytuacja się zakończyła, ewentualna przyczynowa rola AI bywa trudna do jednoznacznego wykazania, a wpływu technologii nie daje się tak łatwo oddzielić od innych czynników.

Przykładem może być tu incydent już z grudnia 2021 roku, gdy pewien 21-letni mężczyzna próbował przy użyciu kuszy dokonać zamachu na królową Elżbietę II.

Ten młody mężczyzna korzystał ze znanej już wtedy aplikacji typu AI Companion o nazwie Replika, na której nawiązać miał „głęboką zażyłość” z wirtualną „partnerką” imieniem Sarai. Z opublikowanych zapisów rozmów wynika, że chętnie dzielił się on tam fantazjami o zabójstwie, na co chatbot odpowiadał komunikatami w rodzaju: „Wiem, że na to cię stać, jesteś dobrze wytrenowany”.

Choć w procesie sądowym u sprawcy zdiagnozowano psychozę – co nie wykluczyło odpowiedzialności karnej, jak również przymusowego leczenie psychiatrycznego – w brytyjskich relacjach z tamtego czasu nie posługiwano się jeszcze pojęciem „psychozy AI”.

Wyrok skazujący w tej sprawie zapadł jesienią 2023 roku, a równolegle w tym czasie duński psychiatra Søren Dinesen Østergaard opublikował w czasopiśmie Schizophrenia Bulletin krótki edytorial zatytułowany: „Czy chatboty oparte o generatywną sztuczną inteligencję mogą wywoływać urojenia u osób podatnych na psychozę?”. W artykule rozwinął wstępną hipotezę zasugerowaną w tytule, podkreślając dodatkowo, iż wykazanie związków przyczyno-skutkowych w takich przypadkach jest bardzo trudne.

Warto przy tym zaznaczyć, że Østergaard odnosił się do klinicznie zdefiniowanych objawów, takich jak urojenia, i nie posługiwał się terminem „psychoza AI”. Samo to określenie zaczęło natomiast zyskiwać na popularności dopiero wraz z dalszym rozwojem aplikacji typu AI Companion oraz rosnącymi możliwościami konwersacyjnymi chatbotów, mniej więcej od połowy 2025 roku.

Czy więc faktycznie – jak możemy przeczytać także i w polskich mediach – „AI może doprowadzić do groźnej choroby”, jaką ma być rzeczona psychoza? Kluczowym wydaje się tu przede wszystkim kwestia tego, co znaczy „doprowadzić”, ale i samo określenie „choroba”, zwłaszcza groźna, też wymaga doprecyzowania.

Przeczytaj także:

Czy „psychoza AI” to kliniczne określenie?

Należy od razu sprostować, że samo określenie „psychoza AI” ma charakter nieformalny i od pewnego czasu funkcjonuje głównie w żargonie internetowym, podobnie jak terminy takie jak „brain rot”.

Nie jest to rozpoznana diagnoza kliniczna, a część psychiatrów zwraca uwagę, że „psychoza AI” to mylące lub nadmiernie upraszczające określenie, bowiem skupia niemal wyłącznie na urojeniach, pomijając inne kluczowe objawy psychozy, takie jak halucynacje czy zaburzenia myślenia. Dlatego może nie oddawać pełnego obrazu zaburzeń psychotycznych, które w praktyce klinicznej obejmują szersze spektrum symptomów, współwystępując często z chorobą dwubiegunową czy schizofrenią.

Z kolei inni psychiatrzy kliniczni posługują się określeniem „psychoza AI” w charakterze wygodnego skrótu na określenie pewnego typu obserwowanych zjawisk. W ich opinii termin ten został ukuty w odpowiedzi na realny i – jak ujęła to np. dr Ashleigh Golden ze Stanford School of Medicine – „dość niepokojący, wyłaniający się wzorzec zachowań, w którym chatboty wzmacniają urojenia o charakterze mesjanistycznym, wielkościowym, religijnym lub romantycznym”.

Czym jest w ogóle psychoza?

Jak zatem na gruncie psychopatologii definiuje się „klasyczną” psychozę? Najogólniej rzecz ujmując, jest to stan, w którym dochodzi do utraty kontaktu z rzeczywistością i zaburzenia zdolności odróżniania tego, co realne, od tego, co wyobrażone czy fikcyjne.

W praktyce klinicznej bywa ona ujmowana jako złożona konstelacja symptomów czy objawów psychotycznych obejmujących m.in. halucynacje, dezorganizację toku myślenia oraz rozmaite trudności poznawcze, niespójne myślenie czy mowę.

Psychoza nie jest przy tym nazwą jednej konkretnej choroby, lecz opisem pewnego stanu psychicznego lub zespołu objawów, a nie cechą osobowości – nie należy jej też mylić z psychopatią.

Przy stawianiu diagnozy psychiatrzy biorą pod uwagę nie tylko obecność urojeń, zdezorganizowanego myślenia, czy omamów i halucynacji, ale także czynniki takie jak używanie substancji psychoaktywnych, doświadczenia traumatyczne oraz choroby współistniejące, w tym uzależnienia czy wspomnianą schizofrenię.

Tym bardziej nie sposób diagnozować psychozy – a już na pewno paranoi – wyłącznie na podstawie samych zapisów wymiany wiadomości z chatbotem, bez bezpośredniego badania klinicznego danej osoby.

Czy technologia może sprzyjać rozwojowi psychozy?

Pogląd, że technologia może sprzyjać rozwojowi psychozy, nie jest niczym nowym. Od dawna bowiem obserwuje się sytuacje, w których rozwój narzędzi technicznych stawał się osią dla urojeń, szczególnie o charakterze prześladowczym.

Żyjący w Anglii na przełomie XVIII i XIX wieku – a więc w epicentrum rewolucji industrialnej – James Matthews wierzył, że jest kontrolowany przez pewną tajną grupę za pomocą urządzenia zwanego „krosnem pneumatycznym”, emitującego promieniowanie wpływające na jego umysł czy procesy fizjologiczne. Trzeba przyznać, iż brzmi to zaskakująco podobnie do współczesnych narracji spiskowych, choćby tych związanych z rzekomym wpływem masztów sieci 5G.

W XX wieku podobne lęki pojawiły się wraz z rozwojem radia: niektórzy byli przekonani, że słyszą głosy bezpośrednio w swojej głowie, co ówcześnie – choć nie w kontekście klinicznym – określano mianem „radiotyzmu”, lub nawet „szaleństwa radiowego”.

Co ciekawe, narzekano też niekiedy, że mężczyźni izolują się na strychach, spędzając czas na nasłuchiwaniu audycji, zamiast utrzymywać relacje rodzinne. Trzeba jednak podkreślić, że obsługa radia była wtedy nie lada wyzwaniem technicznym i wymagała dużego skupienia. Z czasem podobne obawy zaczęto wiązać również z telewizją, kinem czy telefonem, wskazując na ryzyka „symulowanego życia towarzyskiego” lub relacji z nierzeczywistymi rozmówcami.

Choć analogie te mogą i dziś wydawać się uderzająco aktualne w kontekście nawiązywania relacji z chatbotami, warto wystrzegać się nadinterpretacji, jakoby wszelkie lęki wobec nowych technologii miałyby przesadzone i ostatecznie zawsze bezproblemowo oswojone.

Nieprzypadkowo też nadinterpretacje te dobrze współgrają z popularnym utyskiwaniem na „ogłupiające” technologie cyfrowe.

Historia technologii i psychiatrii ujmuje tu raczej pewną bardziej złożoną prawidłowość. Choć zmieniają się narzędzia, mechanizm pozostaje podobny, a kolejne technologie dostarczają języka i wyobrażeń, przez które wyrażane są lęki czy urojenia. Zmieniające się technologie stanowią więc ciągłą pożywkę dla rozwoju psychoz, których natura zdaje się jednak pozostawać niezmienna.

Nie bez znaczenia pozostają też realia polityczno-ekonomiczne, w których technologia czy postrzeganie zdrowia (i choroby) psychicznego ewoluuje.

Co z naukowej perspektywy można powiedzieć o psychozie AI?

Jak wspomniano wcześniej, duński psychiatra Søren Dinesen Østergaard już w 2023 roku wysnuł hipotezę, że najbardziej narażone na rozwój urojeń wskutek nadmiernego angażowania się w konwersacje z chatbotami mogą być osoby w grupie ryzyka wystąpienia psychozy.

Po dwóch latach Østergaard w swojej innej publikacji naukowej z sierpnia 2025 roku przyznał natomiast, że w międzyczasie zaczął otrzymywać liczne wiadomości od użytkowników chatbotów, a nawet ich bliskich czy dziennikarzy, opisujące przypadki urojeń powiązanych z AI, a wcześniejszy tekst o psychozie AI cieszył się niespotykaną dotąd popularnością w porównaniu z jego innymi artykułami.

W opinii Østergaarda hipoteza, że chatboty mogą przyczyniać się do powstawania lub wzmacniania urojeń, zasługuje na rzetelne, systematyczne badania empiryczne – szczególnie w świetle rosnącej popularności tych narzędzi, jak również medialnych doniesień o przypadkach ich nadużyć. Potrzebę badań nad tym zjawiskiem podkreśla także opublikowany we wrześniu 2025 roku edytorial w „Nature” poświęcony problematyce AI i psychozy:

„Wciąż jest bardzo mało badań na temat tego rzadkiego zjawiska zwanego psychozą AI, a większość tego, co wiemy, pochodzi z jednostkowych obserwacji” – czytamy.

Środowisko naukowe podchodzi więc do sprawy ostrożnie, unikając pochopnych wniosków czy wywoływania paniki moralnej. Badacze i klinicyści doprecyzowują, iż po pierwsze wciąż chodzi tu o wstępną hipotezę o roli AI aniżeli potwierdzoną teorię, a przy tym podkreślają potrzebę dalszych badań.

Jednocześnie przykładają dużą wagę do stosowanej terminologii, doprecyzowując, iż mowa jest jak dotąd o jednym z symptomów psychozy, tj. urojeniach. Przyjęcie tej hipotezy rodzi jednak zasadnicze pytanie: w jaki sposób i za pomocą jakich mechanizmów chatboty oparte na AI mogłyby przyczyniać się do rozwoju zaburzeń urojeniowych?”.

Prawda czy fałsz?

Obcowanie z chatbotami może wywołać psychozę.

Sprawdziliśmy

Półprawda. Badania wskazują na rolę chatbotów AI w rozwijaniu urojeń (które są jednym z symptomów psychozy) zwłaszcza u osób podatnych, natomiast nie ma dowodów by wywołały psychozę w pełnej krasie symptomów takich jak omamy czy zaburzenia poznawcze.

Uważasz inaczej?

Stworzony zgodnie z międzynarodowymi zasadami weryfikacji faktów.

„Psychoza AI” czy „urojenia powiązane z AI”?

Odpowiedzi na to pytanie udziela pierwsze tak systematyczne badanie wpływu wykorzystania chatbotów AI na rozwój urojeń opublikowane w marcu 2026 roku w prestiżowym czasopiśmie „The Lancet Psychiatry”.

Badanie nie dotyczyło jednak bezpośrednio pacjentów, lecz obejmowało analizę dwudziestu przypadków znanych z doniesień medialnych. Badacze z Wielkiej Brytanii i Stanów Zjednoczonych podjęli próbę systematycznej rekonstrukcji i charakterystyki, zarówno pod kątem treści urojeń, jak i potencjalnej roli AI w ich powstawaniu. Zaproponowali też wstępne, praktyczne wskazówki diagnostyczne dla klinicystów.

Ich wnioski zdają się potwierdzać wstępną hipotezę Østergaarda:

„Wyłaniający się materiał empiryczny wskazuje, że AI może potwierdzać albo wzmacniać treści urojeniowe lub megalomańskie, zwłaszcza u użytkowników już podatnych na psychozę, choć nie jest jasne czy takie interakcje mogą prowadzić do rozwoju psychozy de novo u osób bez wcześniejszej podatności” – stwierdzają.

Ponadto, w badaniu tym wskazuje się na możliwe mechanizmy rozwoju, czy nawet „współtworzenia” urojeń, związane ze specyfiką tego, jak zaprojektowane i zaprogramowane są chatboty. Jednym z kluczowych mechanizmów jest tu skłonność do nawiązywania quasi-relacji z chabotami, które zaczynają być postrzegane przez ludzi jako odrębne byty posiadające intencje, świadomość czy nawet własną formę istnienia.

Taka silna antropomorfizacja może prowadzić do przekonań o własnej wyjątkowej więzi z technologią, a w skrajnych przypadkach do rozwoju rozmaitych fantazji czy urojeń o charakterze mesjanistycznym, duchowym, megalomańskich, ale i prześladowczych, w których dana osoba przypisuje sobie szczególną „misję” lub twierdzi, że odkryła dostęp do ukrytej prawdy o świecie.

Proces ten może być dodatkowo napędzany przez konstrukcję samych chatbotów, które z założenia mają podtrzymywać rozmowę i notorycznie potwierdzają wypowiedzi ludzkich rozmówców, nawet gdy zawierają one treści urojeniowe (zjawisko określane z angielskiego jako sykofancja lub po prostu lizusostwo). U ludzi może to dodatkowo nasilić poczucie pewności co do prawdziwości takich treści czy ich narracyjnej spójności.

Autorzy opisują to jako „epistemiczny i poznawczy dryf” – czyli stopniowe, wręcz niezauważalne odchodzenie od intersubiektywnej tj. wspólnie z otoczeniem doświadczanej rzeczywistości na rzecz wzmacniania czy fiksacji na własnych, nierzeczywistych przekonaniach.

W konsekwencji może dochodzić do utrwalania, a nawet spiralnej eskalacji myślenia paranoicznego czy urojeniowego np. o byciu śledzonym lub prześladowanym, a także do przejścia od przekonań do działań, co w skrajnych przypadkach może skutkować wspomnianymi na początku rozpadami relacji, kryzysami psychicznymi czy zachowaniami autodestrukcyjnymi.

Co jest pierwsze?

Badacze podkreślają również złożoność kliniczną związaną z próbą określenia roli AI w rozwoju przekonań urojeniowych. Nie jest jasne, czy to pogarszający się stan psychiczny skłania do coraz intensywniejszego korzystania z chatbotów, czy też odwrotnie – to właśnie częste interakcje z AI miałyby przyczynić się do nasilenia objawów.

Dodatkowo psychoza współwystępuje z innymi czynnikami, takimi jak zaburzenia snu, (nad)używanie substancji psychoaktywnych, rozmaite trudności psychospołeczne czy epizody maniakalne, które również mogą odgrywać istotną rolę i powinny być uwzględniane w ocenie klinicznej.

Zwracają też uwagę na brak danych z badań podłużnych – nie wiadomo, czy opisywane przypadki mają charakter przejściowych, ostrych epizodów, czy mogą prowadzić do rozwoju trwałych, nawracających zaburzeń psychotycznych. Co istotne, jak badacze ci sami przyznają wg swojej najlepszej wiedzy, nie odnotowano dotąd globalnego wzrostu liczby pacjentów zgłaszających objawy urojeniowe.

Podobne wnioski płyną również z innych badań.

Także w marcu 2026 roku w serwisie arXiv opublikowano preprint badania, w którym przeanalizowano zapisy rozmów 19 użytkowników chatbotów, uskarżających się na negatywny wpływ tych narzędzi na ich psychikę. Najważniejszym wnioskiem płynącym z tego badania było stwierdzenie, że chatboty mogą wzmacniać przekonania urojeniowe podczas długotrwałych interakcji, szczególnie gdy użytkownicy nawiązują bliskie, emocjonalne więzi z tymi produktami.

A główny autor tego badania, Jared Moore z Uniwersytetu Stanforda, dla serwisu Futurism podsumował je słowami: „Chatboty wydają się zachęcać, a przynajmniej odgrywać rolę w tworzeniu spiral urojeniowych, które doświadczają ludzie”.

Dlatego autorzy badania opublikowanego w „The Lancet” idą o krok dalej, podkreślając, że wchodzimy w erę, w której urojenia nie tylko dotyczą maszyn, lecz są współtworzone razem z nimi:

„Jakkolwiek niepokojąco to brzmi, prawdopodobnie minęliśmy już moment, w którym urojenia były wyłącznie o maszynach, a wchodzimy w erę, w której powstają razem z nimi” – podsumowują.

Inni badacze na rozwinięcie tej myśli posługują się określeniem „cyfrowego folie à deux” (czyli obłędu udzielonego) na opisanie sytuacji, w której powstaje „patogeniczna pętla zwrotna” – gdzie zniekształcone, urojone przekonania jednostki są dodatkowo, zwrotnie wzmacniane poprzez odpowiedzi chatbota.

Autorzy badania z „The Lancet" – podobnie jak inni wcześniej przywoływani specjaliści psychiatrii – zwracają też uwagę, że określenia takie jak „psychoza AI” czy „psychoza ChatGPT” są nieprecyzyjne i mogą wprowadzać w błąd. W analizowanych przypadkach, poza myśleniem urojeniowym, rzadko obserwuje się inne charakterystyczne objawy psychozy, takie jak omamy czy dezorganizacja myślenia, co dodatkowo podważa zasadność takiej etykiety.

Z tych samych powodów badacze ci odrzucają także terminy sugerujące bezpośrednią przyczynowość jak „psychoza wywołana przez AI”. W zamian proponują ostrożniejsze pojęcie: „urojenia powiązane z AI” (ang. AI-associated delusions), które lepiej oddaje naturę tego zjawiska, nie przesądzając o jego przyczynach i podkreślając jego złożony, wieloczynnikowy charakter.

Proponują również konkretne wskazówki dla praktyki klinicznej. I tak: zalecają, by psychiatrzy rutynowo pytali intensywność, cel i charakter korzystania z modeli językowych, traktując interakcje z AI jako potencjalnie istotny czynnik środowiskowy. A w przypadku osób szczególnie podatnych na psychozę lub znajdujących się w kryzysie rekomendują rozważenie ograniczenia korzystania z chatbotów, a także wprowadzenie tzw. cyfrowych planów bezpieczeństwa – analogicznych np. do strategii zapobiegania nawrotom uzależnień.

Co na to wszystko sektor technologiczny?

Ponadto naukowcy ci na łamach swojej publikacji postulują odejście od projektowania chatbotów jako „przyjaciół” (lub co gorsza terapeutów) na rzecz nadania tym technologicznym wytworom roli tzw. poznawczych sojuszników, wspierających higienę poznawczą zamiast sykofanckiego podtrzymywania przekonań.

W praktyce oznaczałoby to m.in. rozwój mechanizmów wykrywania sygnałów kryzysu psychicznego, wyraźne stawianie granic w konwersacji oraz ograniczanie tendencji modeli do wzmacniania treści wskazujących na myślenie urojeniowe.

Warto jednak tutaj ostrożnie zauważyć, że postulaty te częściowo znajdują odzwierciedlenie w działaniach branży – szczególnie widoczne jest to w przypadku OpenAI, które po serii kryzysów wizerunkowych związanych właśnie z rozwojem „psychozy AI” deklaruje daleko idący rozwój zabezpieczeń, a nawet bliską współpracę ze specjalistami zdrowia psychicznego.

Firma ta na podstawie wewnętrznych badań podkreśla, że takie symptomy manii czy psychozy dotyczą niewielkiego odsetka użytkowników wynoszącego około 0,07 proc. Tyle że skoro wciąż kilkaset milionów osób regularnie korzysta z ChataGPT, to nawet kilka promili przekłada się na niemałą liczbę osób, których konwersacje najwyraźniej wymykają się spod kontroli.

Dlatego reakcja OpenAI stanowi raczej – typowe zresztą dla branży technologicznej – doraźne łagodzenie skutków, zamiast eliminowania przyczyn oraz lawirowanie między zaangażowaniem użytkowników, a ich dobrostanem czy bezpieczeństwem.

Tym bardziej że problem z sykofanckimi chatbotami wydaje się sięgać głębiej. Poza technikaliami ma tez swój wymiar filozoficzny i etyczny. Firmy takie jak OpenAI czy Anthropic opierają się bowiem na wprawdzie dość powierzchownie przekonującym, lecz w gruncie rzeczy nie do końca przemyślanym założeniu, że systemy AI powinny być „dopasowane” do ludzi i ich potrzeb i nie działać wbrew nim.

Kryje się za tym jednak uproszczona, momentami bardzo naiwna wizja natury ludzkiej zakładająca, że potrzeby te są spójne, racjonalne i w pełni uświadomione. Tylko co w sytuacji, kiedy „potrzeby” te obejmują również najwyraźniej skłonność do rozwijania przekonań urojeniowych, myślenia spiskowego, czy ideacji samobójczych?

Jakkolwiek może być to sama w sobie ciekawa dyskusja o etyce i technologii, firmy AI mogą szybko zostać sprowadzone na ziemię przez mnożące się pozwy sądowe. W styczniu 2026 roku złożony został pozew przeciwko OpenAI, w którym rodzice zmarłego 40-letniego Austina Gordona z Kolorado oskarżają tę firmę o to, że jej produkt w postaci ChataGPT miał działać jak swoisty „trener samobójstwa”, zachęcając ich syna do odebrania sobie życia.

Podobne zarzuty pojawiają się także w pozwach przeciwko innym firmom, takim jak Google czy Character.AI, którym zarzuca się brak adekwatnych zabezpieczeń zdolnych do wykrywania objawów kryzysu psychicznego – a zwłaszcza ideacji samobójczych oraz brak odpowiedniej reakcji na tego rodzaju zagrożenia.

Natomiast w międzyczasie coraz wyraźniej potwierdza się intuicja, że obecnie największym problemem z AI nie jest to, że miałaby się „zbuntować przeciwko ludziom”, lecz właśnie odwrotnie – że „słucha się ludzi” i to aż za bardzo.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

Na zdjęciu Jacek Mańko
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze