0:00
0:00

0:00

Prawa autorskie: Il. Mateusz Mirys / OKO.pressIl. Mateusz Mirys / ...

Media obiegły doniesienia o kilku badaniach sugerujących, że korzystanie z narzędzi generatywnej sztucznej inteligencji (genSI), takich jak ChatGPT, może prowadzić do obniżenia zdolności krytycznego myślenia czy wręcz ogłupiać. Wskazuje się również na wpływ tych technologii na zmianę wzorców aktywacji mózgowej podczas wykonywania zadań wymagających wysiłku intelektualnego.

Kluczowe jest jednak właściwe zdefiniowanie, co właściwie rozumiemy pod pojęciem „ogłupiania”.

W psychologii i naukach o poznaniu od lat istnieją teorie oraz badania dotyczące wpływu technologii na zdolności poznawcze. Jak zatem wygląda obecny stan badań nad rolą generatywnej sztucznej inteligencji w tym rzekomym procesie „ogłupiania”?

Przeczytaj także:

Dług poznawczy, czyli mózg na sztucznej inteligencji

Najwięcej medialnego szumu wywołało niedawne badanie przeprowadzone w Massachusetts Institute of Technology i zatytułowane: „Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” (Twój mózg a ChatGPT: narastanie długu poznawczego podczas korzystania z asystenta AI do pisania esejów), którego szkic jeszcze przed recenzjami naukowymi został w czerwcu 2025 roku opublikowany w serwisie ArXiv.

W badaniu wzięły udział 54 osoby, których zadaniem było pisanie esejów (wypracowań) w czterech sesjach rozłożonych w czasie na kilka miesięcy. Osoby badane zostały przy tym losowo przydzielone do jednej z trzech grup: pierwsza grupa korzystała z ChatGPT, druga z wyszukiwarek internetowych, a trzecia pisała eseje, używając wyłącznie swojego umysłu i bez jakiegokolwiek wsparcia zewnętrznego.

Następnie eseje oceniono pod kątem językowym. Okazało się, że prace napisane z pomocą ChatGPT zawierały wprawdzie więcej pojęć, nazwisk czy dat, lecz jednocześnie były bardziej jednostajne stylistycznie i argumentacyjnie. Z kolei prace pisane samodzielnie zawierały szerszy wachlarz argumentów i punktów widzenia, choć siłą rzeczy cechowało je mniej szczegółów faktograficznych niż prace „wspierane” przez ChatGPT.

Co więcej, najistotniejsza i zarazem dość intuicyjna różnica ujawniła się na poziomie zapamiętywania swoich esejów. Aż 83 procent osób korzystających z ChatGPT miało trudności z wiernym przywołaniem fragmentów swoich własnych prac. Tymczasem osoby piszące samodzielnie niemal zawsze potrafiły odtworzyć własne argumenty. Grupa wspierające się Google lokowała się gdzieś pośrodku.

Korzystanie z genSI może więc redukować zaangażowanie uwagi czy wyższych czynności poznawczych w pisanie tekstów, co w konsekwencji przekłada się na gorsze zrozumienie i zapamiętanie.

Oprócz pamięci czy cech lingwistycznych tekstu, podczas każdej sesji badacze wykorzystywali elektroencefalograf (EEG), aby mierzyć aktywność elektryczną mózgu i rejestrować różnice w zaangażowaniu poznawczym między poszczególnymi grupami.

Analiza EEG zdaje się pokrywać z analizą lingwistyczną.

U osób piszących samodzielnie odnotowano najsilniejsze i najszersze wzorce aktywności neuronalnej, wskazujące na wysoki poziom zaangażowania poznawczego. Uczestnicy korzystający z Google prezentowali umiarkowaną aktywność, natomiast użytkownicy ChatGPT wykazali zdecydowanie najsłabszą odpowiedź neuronalną.

Co ciekawe, efekt ten utrzymywał się również po zmianie warunków w czwartej sesji. Osoby, które wcześniej używały ChatGPT, a następnie miały pisać samodzielnie, nadal wykazywały niskie zaangażowanie poznawcze, co badacze interpretują jako ślad „długu poznawczego” zaciągniętego podczas wcześniejszych sesji.

Z kolei uczestnicy, którzy przeszli odwrotną drogę – od pisania samodzielnego do korzystania z ChatGPT aktywowali dodatkowe obszary mózgu związane z pamięcią i kontrolą poznawczą, a ich zaangażowanie bardziej przypominało grupę z Google niż typowych użytkowników ChatGPT.

Niewielka próba, topowi studenci

Należy jednak mieć na uwadze, iż z badaniem tym związany jest szereg ograniczeń metodologicznych, co znacząco rzutuje na interpretacje ogólnych wniosków. Przede wszystkim, próba badawcza była stosunkowo niewielka, i jak to zwykle w przypadku tego typu badań bywa, składała się głównie ze studentów topowych uczelni amerykańskich.

Samo zadanie, któremu byli poddawani, tj. napisanie esejów, jest bardzo złożonym i niejednorodnym procesem – zwłaszcza jeśli chcemy porównywać z jednej strony samodzielne pisanie, a drugiej korzystanie z rozmaitych narzędzi internetowych – a to przecież zgoła odmienne czynności poznawcze.

Ponadto, parametry techniczna badania przy użyciu EEG nie pozwalają na precyzyjne mapowanie wszystkich procesów neuronalnych, czy wyciąganie daleko idących wniosków skutkowo-przyczynowych.

Do podobnych wniosków dochodzą badacze University of South Australia argumentując, iż wyniki uzyskane w tym badaniu niekoniecznie pozwalają postulować gromadzenie się wspomnianego „długu poznawczego”, co przede wszystkim są niejako skutkiem eksperymentalnego zaprojektowania takiego badania.

Ponadto podkreślają, iż by w pełni móc uzasadnić swoje wnioski, osoby badane korzystające na wstępie z ChatGPT musiałyby napisać trzy eseje samodzielnie. A różnice w aktywacji neuronalnej pomiędzy grupami można wyjaśnić za pomocą tzw. efekt zaznajomienia – czyli w miarę powtarzania danego zadania, osoby badane stają się z nim bardziej zaznajomione i wydajniejsze, a ich strategia poznawcza odpowiednio się dostosowuje.

Przypomnijmy też, iż badanie to zostało upublicznione jak dotąd jedynie w formie tzw. preprintu, czyli nie przeszło jeszcze rygorystycznych recenzji naukowych. Dlatego nie można go jeszcze uznać za „oficjalne” badanie naukowe, a same recenzje potrafią znacząco wpłynąć na ostateczny kształt tekstu.

Wpływ na myślenie krytyczne

Inne badanie – również w formie niezrecenzowanego jeszcze preprintu – często przywoływane w dyskusji o wpływie genSI na zdolności poznawcze, zostało opublikowane w kwietniu 2025 roku przez naukowców z Microsoft Research oraz Uniwersytetu Carnegie Mellon. Skupiono się w nim na analizie wpływu generatywnej sztucznej inteligencji na krytyczne myślenie w pracy.

W tym celu za pomocą odpowiednio skonstruowanej ankiety przebadano 319 tzw. pracowników wiedzy (ang. knowledge workers), czyli takich, których praca wymaga „tworzenia, dystrybucji oraz wykorzystywania wiedzy”. Respondenci reprezentowali szerokie spektrum profesji – od pracowników socjalnych po programistów.

Mieli oni podać po trzy przykłady wykorzystania generatywnej sztucznej inteligencji w swojej codziennej pracy. W ten sposób badacze zebrali łącznie 936 rzeczywistych przypadków użycia tej technologii, takich jak streszczanie długich dokumentów czy projektowanie kampanii marketingowych.

Jakościowa analiza danych pokazała, że choć genSI zwiększa subiektywnie deklarowaną efektywność pracowników, to jednocześnie wg nich samych obniża poziom krytycznego myślenia. Ponadto, respondenci sami też oceniali, w jakim stopniu dane zadanie wymagało krytycznego myślenia. Krytyczne myślenie definiowano tu m.in. jako weryfikację kodu wygenerowanego przez SI, tonu e-maili czy ocenę potencjalnych uprzedzeń w analizach danych i ewentualną korektę, tego co wygenerowała technologia.

Co istotne, im większe było zaufanie pracowników do SI wykonującej zadania za nich, tym bardziej malało ich zaangażowanie poznawcze i refleksyjność. Natomiast ci pracownicy, którzy bardziej wierzyli we własne umiejętności, wykazywali wyższy poziom krytycznego myślenia.

Badacze zaobserwowali też przesunięcie wysiłku poznawczego: z gromadzenia informacji ku ich weryfikacji, z samodzielnego rozwiązywania problemów ku integrowaniu odpowiedzi SI, z wykonywania zadania ku nadzorowi nad jego przebiegiem.

Wnioski te zdają się pokrywać z wcześniejszym badaniem, opublikowanym na początku 2025 roku, w którym zaobserwowano negatywną zależność między częstym korzystaniem z narzędzi AI a zdolnością do krytycznego myślenia – czyli im więcej korzystania, tym mniej krytycznego myślenia.

Czy zatem jesteśmy na prostej drodze do osłabiania krytycznego myślenia przez sztuczną inteligencję?

Nie jest to takie jednoznaczne.

Jak trafnie zauważają badacze z University of Queensland omawiając powyższe badania: „Jedyny sposób na to, by generatywna sztuczna inteligencja nie osłabiała zdolności do krytycznego myślenia, to nauczyć się myśleć krytycznie, zanim zacznie się z niej korzystać”.

Już starożytni …

Pogląd, że technologia ogłupia ludzkość, jest bodaj tak stary jak sama technologia. Już Sokrates obawiał się, że stosowanie pisma osłabia siłę intelektu i pogarsza zdolność zapamiętywania. Uważał też pismo za niezdolne do przekazania pełni wiedzy i prawdy. Jak na ironię, znamy tę myśl właśnie dzięki pismu, ponieważ to uczeń Sokratesa, Platon, zawarł ją w dialogu Fajdros.

Pojawienie się nowych technologii, wyręczających umysłowo człowieka, nierzadko budziło obawy także nauczycieli. Obawiano się, że uczniowie zaczną polegać wyłącznie na kalkulatorach, zamiast angażować swoje własne mózgi, a przez to stracą umiejętność liczenia.

Nauczyciele matematyki protestują przeciwko używaniu przez uczniów kalkulatorów elektronicznych, 1988 r. USA

Mimo wszystko, choć kalkulatory upowszechniły się w XX wieku, a ręczne wykonywanie obliczeń na kartce niemal całkowicie odeszło do lamusa, raczej trudno byłoby uznać, że ktoś korzystający z np. Excela jest mniej inteligentny od osoby wykonującej podobne rachunki własnoręcznie. To raczej takie mozolne wykonywanie obliczeń „na piechotę” uznalibyśmy za niemądre czy niewydajne, skoro mamy do pomocy tyle narzędzi.

Wydaje się więc, że, przynajmniej w naszym kręgu kulturowym umiejętność sprawnego rachowania, zwłaszcza w pamięci, przestała być kojarzona z mądrością czy darzona estymą.

Nie wszędzie na świecie tak jest. W niektórych krajach azjatyckich na wczesnych etapach edukacji wciąż bardzo popularne jest liczydło, a ponadto naucza się techniki „mentalnego liczydła”, polegającej na przeprowadzaniu operacji arytmetycznych w wyobraźni. Pewne badania pokazują, że opanowanie tej techniki poprawia pamięć czy koncentrację.

A skoro o liczydle mowa, to ten starożytny wynalazek dobitnie pokazuje, że ludzkość od tysiącleci dążyła do ułatwienia sobie wykonywania obliczeń. W XVII wieku Blaise Pascal opracował jeden z pierwszych mechanicznych kalkulatorów, nazwany od jego imienia Pascaliną. A już w XIX wieku powstały nawet nigdy niezrealizowane zamysły maszyn analitycznych jak choćby maszyna Babbage’a, będące pradziadkami współczesnych komputerów.

Te wynalazki rozszerzały zdolności człowieka, ponieważ pozwalały osiągnąć więcej, zdejmując przy tym trud wykonywania żmudnych obliczeń czy zapamiętywania wielu liczb.

W odniesieniu do generatywnej SI chodzi jednak o to, by unikać fałszywych, naiwnych analogii. Zakładają one, że rozwój tej technologii będzie przebiegać podobną drogą, jak miało to miejsce w przypadku kalkulatorów czy komputerów – po początkowych protestach i obawach SI miałaby stać się narzędziem codziennego użytku, tak głęboko usprawniającym funkcjonowanie, że trudno będzie wyobrazić życie i pracę bez niej.

SI – zarówno generatywna, jak i inne jej formy – nie jest ani neutralnym narzędziem, ani nieuchronnym skutkiem postępu technicznego.

Odrzuca się tu także determinizm technologiczny, według którego pojawienie się i wdrażanie wynalazków byłoby procesem nieuniknionym, niemal niezależnym od kontekstu społecznego. Technologia i jej wytwory postrzegane są jako złożone całości, głęboko splecione ze społeczeństwem, jego kulturą i historią.

Nauczyciele, którzy sprzeciwiali się wprowadzaniu kalkulatorów do szkół, w gruncie rzeczy podkreślali przede wszystkim, aby nie udostępniać tych urządzeń zbyt wcześnie, szczególnie młodszym dzieciom. Chodziło o to, by najpierw mogły one samodzielnie przyswoić podstawowe pojęcia matematyczne.

Doskonale pokazują to przykłady krajów azjatyckich, gdzie wciąż kultywuje się ćwiczenia w liczeniu czy to przy użyciu tradycyjnego, czy mentalnego liczydła. Nieprzypadkowo uczniowie zdobywają tam wysokie wyniki w testach PISA z matematyki – choć oczywiście na taki rezultat składa się szereg innych czynników, w szczególności kulturowych.

Efekt Google czy „efekt ChatGPT”?

Tymczasem wraz z upowszechnieniem się internetu, wyszukiwarek czy nawigacji GPS zaczęto zastanawiać się, jak technologie te wpływają na nasze zdolności poznawcze. Już w 2008 roku głośny esej Nicholasa Carra opublikowany w The Atlantic pod prowokacyjnym tytułem „Czy Google nas ogłupia?” (ang. „Is Google Making Us Stupid?”) postawił tezę, że ludzie coraz rzadziej zapamiętują fakty, skoro mogą je natychmiast sprawdzić online.

W psychologii zjawisko to zaczęto określać mianem „efektu Google” albo „cyfrowej amnezji”. Oznacza ono tendencję do niezapamiętywania informacji, jeśli coś łatwo można odszukać w internecie. To na swój sposób logicznie, bo przecież po co mózg miałby zużywać zasoby, przechowując informacje, która są dostępne na wyciągnięcie ręki?

Może faktycznie lepiej zapamiętać tylko adres wyszukiwarki albo chociaż jak znaleźć odpowiedni przycisk na smartfonie.

W pewnym sensie – jak zauważyli badacze – ludzie i komputery zaczęli tworzyć „systemy połączone”, w których nasze podstawowe funkcje pamięciowe zostały „outsourcowane” do Google lub Wikipedii. Taki poznawczy outsourcing doczekał się określenia jako „odciążenie poznawcze” (ang. cognitive offloading), czyli przenoszenie części zadań umysłowych na zewnętrzne narzędzia – czy to notebooki, kalkulatory, czy nawigację GPS,

Pojawia się więc pytanie, czy narzędzia takie jak ChatGPT wpisują się w tę samą logikę „cyfrowego outsourcingu” – skoro SI może coś zrobić za nas, to po co się czegoś uczyć czy zapamiętywać?

Psychologia zdaje się mieć tutaj dość jasne stanowisko. Jeżeli chcemy zbudować fizyczną siłę, musimy chodzić na siłownię i przerzucać żelastwo. A jeżeli chcemy nauczyć się myśleć krytycznie – musimy przerzucać „umysłowe żelastwo” – bez samodzielnego czytania i pisania się nie obejdzie.

Badania pokazują bowiem, że zasada „użyj albo stracisz” (ang. „use it or lose it”) znajduje potwierdzenie także w przypadku umiejętności poznawczych. W hipokampie – części mózgu zaangażowanej w procesy uczenia i zapamiętywanie – stale powstają nowe neurony, jednak większość z nich obumiera, jeśli nie zostaną zaangażowane w proces uczenia wymagający wysiłku i skupienia.

Faktycznie, liczne badania pokazują, iż poleganie na nawigacji GPS obniża orientację w terenie, czy zdolność nawigacji bez wsparcia tej technologii.

Niejako w kontrze do poznawczego odciążenia, istnieje też w psychologii teoria poznawczego obciążenia (ang. „cognitive load”). W tym kontekście wskazuje się też na wartość tzw. produktywnych zmagań (ang. productive struggle). Czyli sytuacji, kiedy nasz mózg wręcz potrzebuje, by zadanie było trudne czy wymagało głębszego przetwarzania. Jeżeli coś jest zbyt proste, jak np. wklejanie i kopiowanie rzeczy do okienka Chata, to mózg niewiele się z tego nauczy.

Wygoda ma swoją cenę, ale wysiłek daje też swoistą nagrodę. Jeżeli zbyt szybko „wylejemy dziecko z kąpielą”, rezygnując z prostych, powtarzalnych ćwiczeń budujących wprawę, ryzykujemy utratę zdolności do mierzenia się z wyzwaniami bardziej złożonymi, kiedy na nie przyjdzie czas.

Czy więc ChatGPT i podobne narzędzia nie wpisują się w logikę „cyfrowego outsourcingu” i – na wzór efektu Google – doczekamy się wkrótce pojęcia „efektu ChatGPT”?

Z drugiej strony wielu ekspertów i autorów rozmaitych poradników podkreśla, że generatywną sztuczną inteligencję należy traktować jako narzędzie wspierające, a nie zastępujące własne myślenie. Problem polega jednak na tym, że same te narzędzia są wręcz tak zaprojektowane, by zachęcać do nadmiernego korzystania z nich.

Dodatkowo firmy rozwijające SI często przesadnie zachwalają rzekome zdolności swoich produktów. A przecież generowane treści bywają nierzadko zwyczajnie błędne, powierzchowne lub po prostu miałkie i tandetne.

A co z fronesis, mądrością praktyczną?

Oprócz zagrożeń dla myślenia krytycznego, czy zdolności poznawczych istnieje również inny, być może jeszcze poważniejszy problem. Otóż, sztuczna inteligencja może stopniowo wypierać naszą zdolność do podejmowania praktycznych osądów.

W tradycji greckiego antyku zdolność tę określano mianem fronesis – czyli praktycznej mądrości, rozumianej jako umiejętność właściwego rozeznania w codziennych sytuacjach i podejmowania rozsądnych decyzji. To właśnie fronesis pozwala ludziom dokonywać dobrych, praktycznych wyborów i tym samym realizować to, co jest istotą ludzkiego działania. Dla Arystotelesa fronesis była naczelną cnotą myślenia.

Niektórzy etycy technologii zwracają uwagę, że powierzanie coraz większej liczby sfer życia technologiom, może negatywnie wpływać zarówno na nasz dobrostan, jak i na poczucie tożsamości czy sensu wykonywanej pracy. Tym bardziej że takie zalgorytmizowane decyzje mogą obejmować praktycznie każdą dziedzinę życie – od sądownictwa i opieki społecznej, przez oceny pracownicze (mające potencjalnie decydować nawet o zatrudnieniu lub zwolnieniu), aż po wyznaczanie tras patroli policyjnych.

Z kolei praca z takimi systemami, zamiast sprawczego podejmowania decyzji, może coraz częściej przypominać czysto mechaniczne wprowadzanie danych czy „zarządzanie” nimi. W takich środowiskach praca ludzka staje się zdawkowa i odtwórcza – bardziej polega na pozornym nadzorowaniu procesów niż na ich kształtowaniu.

Może to prowadzić do wyjałowienia sensu pracy i rosnącej alienacji, w której ludzie czują się oderwani od tego, co robią, nie widząc ani sensu, ani nie mając poczucia sprawczości. Nie można też pominąć faktu, iż algorytmy wspierające decyzje nierzadko mają w sobie zakodowane mimowolne uprzedzenia, co tym bardziej stawia ich zastosowanie pod znakiem zapytania.

Pomimo obietnic wielorakich korzyści czy gwałtownego wzrostu produktywności, wpływ sztucznej inteligencji na nasze zdolności poznawcze oraz myślenie krytyczne pozostaje niejasny. Podobnie jak w przypadku innych technologii, istnieje ryzyko delegowania na SI niemałej liczby zadań umysłowych, co może zwyczajnie rozleniwić nasze mózgi.

Kluczowym więc wydaje się zdobycie odpowiednich umiejętności i wiedzy, zanim zaczniemy korzystać z takich kontrowersyjnych narzędzi – to jest szczególnie istotne na wcześniejszych etapach edukacji.

Pytanie jednak brzmi, czy będzie to w ogóle możliwe, skoro przemysł technologiczny bezpardonowo wdziera się w kolejne obszary naszego życia? To wyzwanie nie tylko dla naszych indywidualnych umysłów, lecz także dla całego „mózgu społecznego”.

A krytyczne myślenie o SI warto zastosować już w stosunku do medialnego hype’u na tę technologię – i to najlepiej na długo, zanim otworzymy okienko czatu.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Na zdjęciu Jacek Mańko
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze