0:00
0:00

0:00

Prawa autorskie: Ilustracja: Weronika Syrkowska / OKO.pressIlustracja: Weronika...

„Realizm, krytyka i rozum ustępują pod naporem utopii, spekulacji i szału. Pytanie o celowość i granice rozwoju wielkich modeli językowych tracą rację bytu w obliczu ich coraz większej efektywności, która ma przynieść odpowiedzi na wszystkie pytania. Jednym słowem, potężny przyrost mocy obliczeniowych pociąga za sobą równie potężny regres intelektualny i duchowy. »Rewolucja AI« jest dzieckiem tego regresu” – pisze Michał Krzykawski, pracownik naukowy Instytutu Filozofii Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Założyciel i redaktor serii wydawniczej Techniki, Technologie, Technosfera. Wiceprezes Fundacji Pracownia Współtwórcza.

Jest alternatywa

Zostawiając dzisiaj informatykę w rękach tej elity technicznej, popełniamy dokładnie ten sam błąd, jaki popełniliśmy w Polsce po 89 roku, gdy ekonomię zostawiliśmy w rękach wąskiej grupy ekonomistów otwierających tę część Europy na „rynek totalny” w przekonaniu, że „nie ma alternatywy”.

Sam Altman, szef OpenAI, firmy odpowiedzialnej za uruchomienie ChatuGPT pod koniec ubiegłego roku, z pewnością „nie jest jakimś filozofującym technologicznym geniuszem. Jest „po prostu sprzedawcą” podporządkowującym wszystkie swoje działania jednemu celowi.

Chce wycisnąć z komercjalizacji ChatuGPT tyle zysku, ile się da na wszystkie możliwe sposoby: albo poprzez lobbowanie na rzecz ostudzenia regulacyjnych zapędów w Unii Europejskiej, albo wyciągając rękę po miliardy dolarów z subwencji publicznych w momencie, gdy komentatorów zajmuje dyskusja o tym, czy wojnę o „uczące się” maszyny wygrają Stany Zjednoczone czy Chiny.

Ale sprzedawany przez Altmana produkt to również opowieść wypływająca z pewnej filozofii (przynajmniej jeśli rozumieć ją w nieakademickim sensie tego słowa).

Siła jej oddziaływania na zbiorowe wyobrażenia o sztucznej inteligencji jest równie ogromna, co stojące za tą filozofią pieniądze i władza. Dlatego warto przyjrzeć się jej bliżej i rozróżnić składające się na nią elementy, aby wiedzieć, jak przekierować dalszy rozwój wielkich modeli językowych (Large Language Models), potocznie nazywanych „sztuczną inteligencją”, na inną drogę.

Tylko w ten sposób możemy dokonać przełomu, rozumianego po kopernikańsku, a nie po altmanowsku. ChatGPT to żaden wielki przełom, lecz kolejna odsłona cyfrowej dysrupcji o wysoce wątpliwej wartości dla rozwoju życia społecznego i umysłowego.

Dopóki takiego przełomu w myśleniu nie dokonamy i nie wyswobodzimy się z iluzji sztucznej inteligencji, dopóty będzie ona wytwarzała sztuczną bezmyślność, która w coraz większym stopniu będzie wytwarzała również nas.

Przeczytaj także:

AI to polityka

W marcu 2021 roku, na półtora roku przed uruchomieniem ChatuGPT, Altman opublikował tekst (w polskim tłumaczeniu dostępny na wykop.pl, co jest bardzo symptomatyczne, w którym pokazuje, jak wyobraża sobie świat.

„Moja praca w OpenAI – rozpoczyna swoją opowieść – codziennie przypomina mi o skali zmian społeczno-gospodarczych, które nadejdą szybciej, niż większość ludzi sądzi. Oprogramowanie potrafiące myśleć i uczyć się będzie wykonywać coraz więcej pracy, którą obecnie wykonują ludzie. Siła zostanie w jeszcze większym stopniu przeniesiona z pracy na kapitał. Jeśli odpowiednio nie przystosujemy do tej zmiany naszych polityk publicznych, większość ludzi znajdzie się w gorszej sytuacji niż obecnie”.

W obliczu zmian Altman proponuje utopię o nazwie „kapitalizm dla wszystkich”: rozwój AI przyniesie nam nieprawdopodobne bogactwo, przede wszystkim dlatego, że doprowadzi do likwidacji niezliczonych miejsc pracy, a więc również do likwidacji związanych z tym kosztów.

Jak to możliwe? Kluczową rolę odegra nie produkcja, lecz dystrybucja tego nowego bogactwa. Propozycja Altmana jest następująca: aby taka dystrybucja mogła działać, należy opodatkować zarówno to bogactwo (wytwarzane przede wszystkim przez firmy rozwijające AI), jak i ziemię (której podaż jest stała).

Dzięki temu wszyscy będą zwycięzcami, ponieważ tort do sprawiedliwego podziału będzie szerszy. Jednym słowem – żyć nie umierać. AI będzie dla nas, a kapitalizm nowej ery technologicznej stanie się lepszy. Bardziej sprawiedliwy i inkluzywny (o ile tylko kenijscy robotnicy, za dwa dolary dziennie, wstępnie wytrenują ChatGPT, aby zmniejszyć jego toksyczność).

Jak taka radykalna transformacja systemu podatkowego miałaby zostać wdrożona w rzeczywistości skompromitowanego i niezdolnego do jakichkolwiek transformacji systemu politycznego w Stanach Zjednoczonych – na ten temat, podobnie jak na temat wspomnianych Kenijczyków, Altman milczy.

Można by zatem jego propozycję potraktować jako czystą spekulację i ją zignorować. Gdyby nie fakt, że ta spekulacja nie jest po nic. Jej tworzenie służy umocnieniu pozycji wąskiej elity technicznej i zapewnieniu jej dalszej możliwości rozwijania systemów AI – niepostrzeżenie, bez skrupułów i poza jakąkolwiek kontrolą społeczną.

Jednym słowem chodzi o to, aby ten brak kontroli, przede wszystkim nad wynikami badań prowadzonych na modelach językowych w technologicznych molochach, takich jak OpenAI, Microsoft czy Google, znormalizować.

To tutaj jest haczyk

Altman sprawdza, czy go połkniemy wraz z ChatemGPT i kolejnymi algorytmicznymi ustrojstwami, które go zastąpią lub zostaną z nim zintegrowane, z obezwładniającą systemy społeczne prędkością.

Przyznać jednak trzeba, że Altman stawia sprawę uczciwie. Nie tyle nawet dlatego, że swój postdemokratyczny model biznesowy, jaki do „kapitalizmu dla wszystkich” ma prowadzić, przedstawia w sposób otwarty, ile dlatego, że – pomimo utopistycznego charakteru takiej wizji świata – mówi rzecz o zasadniczym znaczeniu:

AI to nie technologia, lecz polityka.

Oczywiście, jako typowy techno-optymista z Doliny Krzemowej wierzy, że receptą na nasze polityczne bolączki i konflikty jest jeszcze więcej, jeszcze efektywniejszej i jeszcze szybszej technologii.

Altmanowi daleko jednak do antydemokratycznego socjopaty w stylu miliardera Pietera Thiela, dla którego motywacją podstawową jest „ucieczka od polityki w jej wszystkich postaciach – od totalitarnych i fundamentalistycznych katastrof do głupawego demos przewodzącego tzw. »socjaldemokracji«”.

Wręcz przeciwnie, prezes OpenAI daje wyraźnie do zrozumienia, że dalszy rozwój systemów sztucznej inteligencji wymaga odpowiedzialnego zarządzania nimi przez społeczeństwo (nawet jeśli z jego wizji wynika coś zupełnie innego).

Samospełniająca się przepowiednia

To również z tego względu esej Altmana jest warty analizy. Nie tylko daje on głębszy wgląd w to, jak wyobraża sobie świat i myśli jego autor, ale otwiera również dyskusję o ekonomii politycznej ery AI.

Chcę doprecyzować: taka zideologizowana wizja świata jest zupełnie nie z mojej bajki. Niemniej jednak sądzę, że w swojej argumentacji Altman jest o wiele bardziej rzeczowy niż Aaron Bastani ze swoją prowokacją o nazwie „w pełni zautomatyzowany luksusowy komunizm” lub inni akademiccy akceleracjoniści „wymyślający przyszłość”.

Na jedną rzecz w kontekście ekonomii politycznej ery AI warto zwrócić szczególną uwagę, a mianowicie na organizujące wywód Altmana przekonanie i na to, jak je uzasadnia.

A owo przekonanie brzmi następująco: Tej rewolucji technologicznej nie da się zatrzymać”.

Nie do zatrzymania jest również „rekurencyjna pętla innowacji”, która jeszcze bardziej przyspieszy tempo „rewolucji AI” jako czwartej – po rolniczej, przemysłowej i obliczeniowej – wielkiej rewolucji technologicznej.

A wszystko to za sprawą „inteligentnych maszyn, które pomogą nam w tworzeniu jeszcze inteligentniejszych maszyn”. Nadejście tej rewolucji Altman uzasadnia, odwołując się do „prawa Moore’a”.

Gordon Earle Moore był jednym z założycieli firmy Intel, największego na świecie producenta układów scalonych i mikroprocesorów znajdujących się dzisiaj w większości dostępnych na rynku komputerów osobistych.

W 1965 roku Moore opublikował artykuł, w którym zauważył, że liczba tranzystorów w mikroprocesorze podwaja się w równych odstępach czasu (co 18 miesięcy). W rezultacie moc obliczeniowa komputerów, pojemność ich pamięci i złożoność oprogramowania rosną wykładniczo. Jednocześnie, podczas gdy wydajność mikroprocesorów rośnie, ich koszt maleje.

Obserwacja Moore’a okazała się na tyle trafna, że szybko zaczęto nazywać ją „prawem Moore’a”.

Odwołując się do tego „prawa”, Altman rozciąga jego działania na dzieje postępu technologicznego w perspektywie długiego trwania cywilizacji: „W szerszej perspektywie czasowej postęp technologiczny przebiega po krzywej wykładniczej. Porównajmy, jak wyglądał świat 15 lat temu (bez smartfonów, naprawdę), 150 lat temu (bez silnika spalinowego i bez elektryczności w domu), 1500 lat temu (bez maszyn przemysłowych) i 15 000 lat temu (bez rolnictwa)”.

Osobom lubiącym proste schematy i obrazy taka argumentacja może się podobać. Nie jest ona zresztą fałszywa.

Można dorzucić do niej kolejny element i przypomnieć, jak czyni to informatyk Jakub Chabik, że przenoszenie na wymyślone przez człowieka i ciągle ulepszane maszyny pewnych czynności, powodowało de facto, że jesteśmy przez nie stopniowo zastępowani.

Tak wygląda historia pracy, a komercjalizacja ChatuGPT jest kontynuacją tego trendu. Przy czym odtąd maszyny przejmują od nas to, co człowiek, jak się wydawało, miał na własność: język (logos).

Maszyny zamiast ludzi

Możemy pogrążać się z tego powodu w krytycznej melancholii jak Günther Anders dekady temu piszący o „wychodzeniu człowieka z użycia”.

Altman proponuje jednak inną drogę. Powraca do prawa Moore’a, które głosi, że taniej znaczy lepiej, a następnie proponuje zastosować je „do wszystkiego” i zmienić tym samym nasze rozumienie „wszystkiego”.

Dlaczego lepsze, bo tańsze, nie miałyby być edukacja, służba zdrowia, budowane przez roboty mieszkania i cokolwiek sobie wymarzymy, jeśli tylko rozwój AI zaakceptujemy i należycie ogarniemy?

Z „prawem Moore’a” jest jednak jeden zasadniczy problem: to żadne prawo w naukowym rozumieniu tego słowa. Jak przypomina Bernard Stiegler (za Sachą Loève’em), sam jego twórca zauważył, że stało się ono samospełniającą się przepowiednią, której mechanizm działania jest następujący: producenci mikroprocesorów wiedzą, że muszą utrzymać się na krzywej ilustrującej wykładniczy wzrost ich wydajności i ich stale malejący koszt. A jednocześnie nie szczędzą wysiłków, aby przedstawiany przez tą krzywą obraz urzeczywistnić.

Działające w ten sposób „prawo ekonomii” ulega samoutwierdzeniu i ma swoje konsekwencje, jak gdyby było prawem fizyki. Ale jeśli „prawo Moore’a” kiedykolwiek coś pokazywało, był to szemrany zrost ekonomii i fizyki matematycznej, który legł u podstaw „nauki à la Silicon Valley” (choć jego historia sięga dziewiętnastego wieku, co pokazały analizy historyka i filozofa myśli ekonomicznej Philipe’a Mirowskiego).

Rewolucja AI jako rewolucja antynaukowa

Tym, czym Altman próbuje nas dzisiaj czarować, gdy mówi, że rewolucji technologicznej nie da się zatrzymać i że zmiana nadejdzie szybciej, niż się tego spodziewamy, jest dokładnie ta sama samospełniająca się przepowiednia.

Tyle że urzeczywistniająca się w o wiele szybszy i mający coraz mniej wspólnego z nauką sposób. Z jednej strony samospełnienie odbywa się przy użyciu nieporównywalnie potężniejszych, szybszych i mniej widocznych maszyn (współczesny mikroprocesor składa się z miliardów tranzystorów, w których najmniejszy rozmiar w 2017 roku wyniósł zaledwie 10 nanometrów, a obecnie jest jeszcze mniejszy).

„Rewolucja AI” z wyobrażeń Altmana to „anty-nauka” w rękach uczniów czarnoksiężnika. Teoretyczny ogląd wielkich modeli językowych i rozumienie ich osadzenia w kontekstach społecznych zostały poświęcone na rzecz ciągłego zwiększania efektywności obliczeniowej i materializowania mocy komputacyjnego kapitalizmu, bez udziału krytycznej refleksji, a przede wszystkim pod nieobecność pogłębionej wiedzy na temat konsekwencji tego rodzaju działalności.

Nie powinno więc dziwić, że w wizji Altmana rewolucyjne zmiany mają być udziałem „inteligentnych maszyn”, na naszych oczach nabywających jakoby „fenomenalnej zdolności myślenia, tworzenia, rozumienia i wnioskowania”.

Miejsce myśli naukowej i krytycznej refleksji zajmuje myślenie magiczne i – jak celnie to ujmuje prawniczka i filozofka Antoinette Rouvroy – „informatyczny animizm”.

Realizm, krytyka i rozum ustępują pod naporem utopii, spekulacji i szału. Pytanie o celowość i granice rozwoju wielkich modeli językowych tracą rację bytu w obliczu ich coraz większej efektywności, która ma przynieść odpowiedzi na wszystkie pytania. Jednym słowem, potężny przyrost mocy obliczeniowych pociąga za sobą równie potężny regres intelektualny i duchowy.

Przystosujesz się

„Rewolucja AI” jest dzieckiem tego regresu. Nie tylko okazuje się wnosić do życia społecznego i umysłowego innowacje o wysoce wątpliwej wartości. To od razu staje się widoczne, jeśli tylko spojrzymy na to życie nieco szerzej niż perspektywa pojedynczego użytkownika prowadzącego „konwersację” z ChatemGPT i uzyskującego odpowiedzi na interesujące go pytania.

Zaprogramowana w ten sposób „rewolucja AI” okazuje się również głęboko zanurzona w stuletnich mentalnych strukturach neoliberalizmu, a jednocześnie pozostaje na wskroś przesiąknięta ideologią innowacji, którą Jewgienij Morozow już jakiś czas temu nazwał „solucjonizmem technologicznym”. U jego podstaw leży przekonanie, że technologia rozwiąże wszystkie problemy wymagające do tej pory decyzji politycznych, a pomysł na jego wdrożenie w życie jest prosty: jeszcze radykalniejsza wersja wolnorynkowego neoliberalizmu.

Kluczową rolę w „rewolucji AI” pełni jedno słowo: adaptacja, a rewolucyjne kredo brzmi następująco: przetrwamy, ponieważ jako ludzie dysponujemy nieprawdopodobną zdolnością do adaptowania się do nowych warunków.

Z jednej strony zatem „rewolucja AI” jest przedstawiana jako coś radykalnie odmiennego od dotychczasowych. Z drugiej strony natomiast samo to przedstawienie pełnymi garściami czerpie z myśli neoliberalnej i ze sposobu, jaki przejęła ona z teorii ewolucji pojęcie adaptacji i uczyniła z niego „nowy imperatyw polityczny”: przystosujesz się.

Znakomicie pokazała to w swoich analizach filozofka Barbara Stiegler.

Altmanowski sposób myślenia o technologii jest rozszerzeniem tego schematu neoliberalnej wyobraźni. Tak jak wszystkie regiony świata były „zapraszane” do tego, aby przystosować się do neoliberalnego porządku pod groźbą, że niezdolność do adaptacji będzie oznaczała dla nich żywot pariasa, tak i my dzisiaj jesteśmy „zapraszani” do tego, aby przystosować życie i instytucje do rytmu niedającej się zatrzymać rewolucji.

To z takich struktur mentalnych pochodzi ostrzeżenie, że programy polityk publicznych, które nie uwzględnią „prawa” rządzącego zmianą, „będą zawodne tak samo, jak zawodne byłyby dzisiaj zasady organizujące przedrolnicze lub feudalne społeczeństwa”.

Antropomorfizujące metafory nierozumności

Pochodząca z dwudziestowiecznych dyskursów myśli neoliberalnej metafora adaptacji zyskuje w istocie drugie życie w dyskursach wokół AI. Odgrywa w nich kluczową rolę w zakresie, w jakim pozwala przedstawiać sztuczną inteligencję niemalże jako dzieło ewolucji biologicznej, a nie efekt celowego działania konkretnych ludzi podejmujących konkretne decyzje projektowe i pracujących dla konkretnych firm.

Zresztą same systemy sztucznej inteligencji są przedstawiane przez tzw. AI philosophers jako zdolne do adaptacji do środowiska, jak gdyby były układami żywymi, podczas gdy ludzki umysł jest opisywany za pomocą metafor komputerowych, czyli jako właściwość fizycznego mózgu (komputera) przetwarzającego informacje.

A to z kolei generuje metafory antropomorfizujące maszyny („ludzkocentryczna AI”, „odpowiedzialna AI”, „godna zaufania AI”, „myśląca AI”, „ucząca się AI”, „konwersująca AI”, „świadoma AI” itd.), które rodzą potworne błędy poznawcze, ponieważ podsuwają nam fałszywe reprezentacje świata i technologii.

Te metafory są szkodliwe, ponieważ literalnie odbierają nam rozum i utrudniają właściwe zidentyfikowanie natury generowanych przez rozwój AI wyzwań.

Rozum ma wiele odcieni i można go definiować na wiele sposobów. Ale rozumność zawsze kończy się tam, gdzie przestajemy panować nad metaforami używanymi do wytwarzania wiedzy połączonej z techniką i pozwalamy na zerwanie tej łączności.

Wówczas tracimy również słowa do trafnego opisu i orientowania się w piekielnie złożonej rzeczywistości, w której adaptacja, jak przytomnie zauważył krytyk sieci Geert Lovink w Extinction Internet, przestała być opcją.

W tym sensie Anne Alombert i Giuseppe Longo słusznie piszą, że coś takiego jak „sztuczna inteligencja” po prostu nie istnieje i że powinniśmy wreszcie poprawnie nazywać rzeczy, o których rozmawiamy: zamiast o sztucznej inteligencji mówmy zatem o automatach obliczeniowych lub cyfrowych, zrywając tym samym z ideologią reklamową.

Władza algorytmów i władze umysłowe

Czy przekonanie, że „technologii nie da się zatrzymać” jest zatem fałszywe? Rzecz nie w tym, aby to rozstrzygać. Rzecz natomiast w tym, że to przekonanie jest nierozumne.

Wzmacnia stan, który filozofka Anne Alombert nazwała „cyfrową schizofrenią”. Według niej polega ona na tym, że z jednej strony w dyskursach wokół AI maszynom są przypisywane władze ludzkie, a napędzające je pytanie brzmi nie czy, ale kiedy szybciej liczące maszyny przewyższą myślących ludzi.

Z drugiej strony natomiast pomija się w nich fakt, że te władze (myślenia, interpretowania, rozumowania, krytykowania, koncentrowania uwagi i zapamiętywania) wytracamy wskutek długotrwałego przebywania w hipnotyzujących czasoprzestrzeniach, do jakich dostęp dają ekrany, które generują różne postacie alienacji, względem wspomnianych już czasu i przestrzeni, ale również względem siebie i innych oraz względem rzeczy i działań.

(Co pokazują analizy relacji między przyspieszeniem i wyobcowaniem socjologa Hartmuta Rosy).

W kakofonii mniej lub bardziej wartościowych opinii na temat ChatuGPT oraz szans i zagrożeń, jakie stwarza dla edukacji, rzadko przebijają się głosy przypominające, że tego typu maszyny raczej nie pomagają nam w pielęgnowaniu tego typu zdolności.

Uwaga medialna skupiła się na tym, że w świecie zdominowanym przez „uczące się” i „autonomiczne” maszyny, generatory tekstu będą odtąd pisać uczniom i studentom wypracowania, jak gdyby najważniejszy był właśnie ten problem, a nie pytanie o sens pisania i rolę pisma w formowaniu myśli.

To właśnie od takich zasadniczych pytań opowieść o „technologii, której nie da się zatrzymać” nas odciąga. Służy ona konkretnej strategii biznesowej: przyciągnąć uwagę medialną i uwagę inwestorów, odciągając uwagę publiczności od kluczowych wyzwań psychospołecznych, w tym edukacyjnych i badawczych, związanych z powszechnym dostępem do wielkich modeli językowych.

W myśl tej opowieści bieżące problemy społeczne i polityczne nie powinny nas zajmować. Liczy się natomiast społeczeństwo nadchodzącej przyszłości, które – jak to określa Altman – „musi zostać zaprojektowane”.

Natomiast wbijana nam do głów niczym pałką reprezentacja „autonomicznych” maszyn ma przykryć fakt, że – jak pisze Kate Crawford w The Atlas of AI – „systemy sztucznej inteligencji to wyrażenia władzy, które wyłaniają się z szerszych sił ekonomicznych i politycznych, stworzone po to, aby zwiększać zyski i centralizować kontrolę na korzyść tych, którzy tymi systemami władają”.

Co robić?

Choć działające w ten sposób systemy AI są z nami nie od wczoraj, dopiero uruchomienie ChatuGPT zaczyna uświadamiać większości z nas, do jakiego stopnia jesteśmy w nie wplątani jako jednostki i społeczeństwo. I to pomimo że nasza wiedza na temat zasad działania algorytmów obsługujących te systemy i długofalowych konsekwencji ich rozbudowy pozostaje bardzo skąpa.

Systemy te staną się jeszcze efektywniejsze, ponieważ liczba zasilających je wielkich wolumenów danych rośnie w tempie równie zawrotnym co ich moc obliczeniowa. Od 2010 do 2020 roku liczba danych/informacji przetwarzanych utworzonych, zebranych, skopiowanych i użytych wzrosła z 2 do blisko 65 zettabajtów (1 zetta bajt to 1 000 000 000 000 000 000 000 bajtów). Szacuje się, że obecnie wynosi ona 120 zettabajtów, a w przeciągu najbliższych dwóch lat zwiększy się o połowę.

Zachowywanie „technooptymizmu” w obliczu wzbierającego w ten sposób chaosu i technologicznie wytwarzanej ignorancji wydaje się nieco niepoważne, zaś „technopesymizm” w żaden sposób nie pomaga nam tej ignorancji zmniejszyć.

Pozostaje zatem pytanie, co robić i jak do tzw. rewolucji AI podejść, aby skierować ją na inny tor. Nie tyle zatrzymać jej bieg, ile ją ostudzić i nie dać się wciągnąć w wir nierozumności, który ta rewolucja performatywnie wytwarza.

Moje propozycje są następujące:

  1. Najważniejszym wyzwaniem, jakie stawia przed nami ta „rewolucja”, jest wypracowanie nowego – krytycznego i realistycznego, a nie spekulatywnego i utopistycznego – rozumienia technologii w sojuszu nauk technicznych, przyrodniczych, społecznych i humanistycznych. Taki sojusz mógłby ustanowić intelektualną i duchową przeciwwagę dla „nauki à la Silicon Valley”. Możemy i powinniśmy oczekiwać od decydentów zasiadających w Komisji Europejskiej, aby budowanie takiej przeciwwagi zainicjowała (i sfinansowała) zamiast ulegać bajce o „ludzkocentrycznej AI” i mówić, nie zawsze sensownie, o etyce tam, gdzie trzeba mówić o polityce i ekonomii politycznej. Etyka bez krytyki jest zbyt łatwa i może zamienić się w zbiór pobożnych życzeń ekspertów lub, co gorsza, w „etyczną ściemę” (ethics washing), do pewnego stopnia wytwarzaną analogicznie do „ekościemy” i mającej ten sam cel: poprawić wizerunek organizacji. W tym kontekście sformułowany przez wspomnianego już Geerta Lovinka slogan made in China, [designed in California, criticised in Europe] może być drogowskazem dla myśli politycznej i stanowić stopień zero polityki AI.
  2. Systemy sztucznej inteligencji stanowią zagrożenie dla systemów społecznych nie dlatego, że realnie istnieją, lecz dlatego, że nasze konwencjonalne sposoby myślenia o technologii są zbyt wąskie. Rewolucje naukowe nie biorą się z bardziej efektywnych technologii, lecz ze zmiany sposobów myślenia, która powoduje, że te same rzeczy zaczynamy widzieć w zupełnie innym świetle. Twórca cybernetyki Norbert Wiener pisał w 1948 roku, że „stan techniki jest w każdej epoce odbiciem stanu myśli”. To, jak i do czego projektujemy wielkie modele językowe, pokazuje, jak myślimy, a epoka, która za najwyższy przejaw inteligencji uznaje pełną automatyzację, dobrowolnie zrzeka się mocy, jaka bierze się z myślenia i cofa się do prymitywnego stadium kultury technicznej. W tym sensie rację miał Gilbert Simondon, który pisał, że automatyzm to prymitywny stopień technicznej perfekcji, ponieważ poświęca on w imię krótkowzrocznego zysku inne możliwości działania maszyny i nie pozwala być człowiekowi żywym interpretatorem maszyn. Rację miał też Bernard Stiegler, który utrzymywał, że naszą epokę charakteryzuje nieobecność epoki. Rozwój AI pod batutą Sama Altmana i wąskiej elity technicznej z Doliny Krzemowej może tę nieobecność jeszcze bardziej powiększyć lub wypełnić ją bajką o general AI.
  3. Oddzielne zajmowanie się technologią, społeczeństwem, ekonomią, życiem psychicznym i środowiskiem jest zgubne i nie prowadzi do poznania na miarę współczesnych wyzwań. Nowe, międzydziedzinowe sposoby myślenia o technologii muszą uwzględniać wszystkie te wymiary ludzkiej egzystencji po to, aby dokonać zmiany w samych praktykach projektowania wielkich modeli językowych i innych systemów AI. Wymaga to zbudowania nowej kultury naukowej. Uniwersytety, które budowy takiej kultury nie rozpoczną, przepadną jak „przedrolnicze lub feudalne społeczeństwa” z opowieści Altmana, lub staną się dostarczycielami wykwalifikowanej kadry dla tech-biznesu.
  4. Dalszy rozwój technologii i przyświecające mu cele należy odprzęgnąć od dominującego modelu makroekonomicznego, skompromitowanego moralnie i niepodtrzymywalnego ekologicznie. Zrównoważony rozwój AI wymaga porzucenia dotychczasowej idei postępu i rozwoju, której hołduje biznesowo-ekonomiczna ortodoksja w założeniu, że stały wzrost jest możliwy dzięki stałemu postępowi technicznemu i coraz doskonalszym technologiom. Odprzęgnięcie (decoupling) wzrostu gospodarczego od przepływów materii i energii to technokratyczny utopizma, który ta sama ortodoksja dzisiaj forsuje zarzucając na siebie „eko-płaszcz” i strącając plany głębokich zmian systemowych jako „nierealistyczne”. Ale odprzęgnięcie rozwoju AI od neoliberalnej iluzji ciągłego wzrostu jest możliwe i konieczne, jeśli AI ma dzisiaj w jakikolwiek sposób, przy obecnym stanie rozregulowania systemów planetarnych, przyczynić się do przygody, którą Alfred North Whitehead określił „przygodą lepszego życia”, gdy definiował funkcję rozumu.
  5. Informatyka to kluczowa dyscyplina naszych czasów. Należy przebudować jej fundamenty i uczynić z niej nową nauką „humanistyczną”, rozumianą jako nauka o społecznym pochodzeniu człowieka wraz z wytwarzanymi przez niego artefaktami, które mogą go zniszczyć z braku ich właściwego zintegrowania z systemami społecznymi i strukturami życia psychicznego. Zalążki takiej socjoinformatyki już istnieją (Siegen School). Jej twórcy jawnie przeciwstawiają się konwencjonalnemu i coraz bardziej problematycznemu rozumieniu informatyki jako „nauki o komputerach” (computer science), a także inżynierii głównego nurtu i metodom projektowym, jakie ona ukształtowała. Socjoinformatyka mogłaby stworzyć przeciwwagę dla wschodzącego paradygmatu tzw. technologicznej konwergencji NBIC (nanotechnologie, biotechnologie, nauki o informacji i kognitywistyka), po której nauka, a raczej to, co z niej zostaje, staje się największym zagrożeniem dla ludzkości. Moment, w jakim znaleźliśmy się dzisiaj, doskonale uchwycił blisko sto lat temu Henri Bergson: „Ludzkość jęczy na wpół przygnieciona ciężarem postępu, jakiego dokonała. Nie widzi dostatecznie jasno, że jej przyszłość zależy od niej samej. Po pierwsze: do niej należy decyzja, czy chce żyć dalej”. Do tego, aby żyć dalej, potrzebujemy lepszej informatyki. Zostawiając tę dyscyplinę w rękach wąskiej elity technicznej, popełniamy dokładnie ten sam błąd, jaki popełniliśmy w Polsce po 89 roku, gdy ekonomię zostawiliśmy w rękach wąskiej grupy ekonomistów otwierających tę część Europy na „rynek totalny” w przekonaniu, że „nie ma alternatywy”. ChatGPT z takiego rynku pochodzi i mu służy. Ustanowienie i poszerzanie tego rynku w imię rzekomo uniwersalnych „praw ekonomii” oznaczało regularną wojnę gospodarczą wypowiedzianą ideałowi społecznej sprawiedliwości. Tymczasem, jak przypomina prawnik Alain Supiot, to właśnie na tym ideale budowano fundamenty międzynarodowego porządku prawnego, o czym wyraźnie mowa w treści Deklaracji filadelfijskiej przyjętej w 1944 roku przez Międzynarodową Organizację Pracy. Potrzeba radykalnego powrotu do tego ideału jako czegoś, co może i powinno przyświecać dalszemu rozwoju systemów sztucznej inteligencji, dogłębnie przekształcających świat pracy.
  6. Tzw. edukacja cyfrowa w szkołach na tę chwilę nie działa i nie bardzo wiadomo, na czym konkretnie (jakie metody, jaki podręcznik, kto miałby tego uczyć i w ramach jakiego z istniejących przedmiotów?) miałaby właściwie polegać. Mówi się, całkiem słusznie, że surowcem kapitalizmu są dane. Ale na głębszym poziomie tym surowcem jesteśmy my, a kapitalizm ery wielkich wolumenów danych przetwarzanych przez wielkie modele językowe zaczął być czymś więcej niż sposobem organizowania przyrody (o czym pisze Jason W. Moore w Capitalism in the Web of Life) i stał się sposobem organizowania mózgu jako materialnego podłoża życia psychicznego. To dlatego o edukacji cyfrowej, jej metodach, celach i treściach, trudno rozmawiać bez uwzględnienia tego fundamentalne przekształcenia i rozpoznania jego mechanizmów. Do szkół należy wprowadzić nowy przedmiot – przysposobienie technologiczne – i rozpocząć systemowe kształcenie nauczycieli, którzy mieliby kompetencje, aby tego przysposobienia nauczać. Celem takiego przedmiotu byłoby coś więcej niż uczenie tego, jak zachować tzw. higienę cyfrową i jak pracować z nowymi technologiami. Byłoby nim pobudzanie osób uczniowskich do szerokiej refleksji na temat granic postępu technicznego i stawiania pytania o granice systemowe, ku którym nieuchronnie zmierzamy lub które już zostały przekroczone, od granic planetarnych do granic wytrzymałości systemów społecznych i struktur czynnościowych ludzkiej psychiki. Aby w tak skonstruowanym systemie dobrze żyć, potrzeba pełnego i wielowymiarowego rozumienia jego działania. A takie rozumienie musi rodzić chęć jego zmiany. Powinniśmy taką chęć rozpalać w osobach uczniowskich, zaopatrując je w solidne narzędzia pojęciowe potrzebne do przeprojektowania sieci. W przeciwnym razie eksplozja sztucznej inteligencji doprowadzi do implozji szkoły.

Tylko taki wielopłaszczyznowy przewrót w myśleniu da nam prawdziwą – rozumianą po kopernikańsku, a nie po altmanowsku – rewolucję. Sam fakt, że dokonania takiego przewrotu nie jesteśmy sobie w stanie nawet wyobrazić, być może najlepiej świadczy o regresie intelektualnym, z jakiego przedsiębiorcy z Doliny Krzemowej opowiadający o „technologii, której nie da się zatrzymać” wyrastają.

Ich opowieść możemy skontrować jedynie poprzez budowanie głębszych, międzydziedzinowych sposobów rozumienia technologii i relacji łączącej człowieka z maszyną, a także wytwarzanych w tej relacji wartości.

Sposób na taką kontrę podpowiadał już w 1948 roku Norbert Wiener: „Rozwiązaniem jest oczywiście oparcie społeczeństwa na wartościach ludzkich, a nie na kupnie i sprzedaży. Na to, by dojść do takiego modelu społeczeństwa, trzeba wiele walki; w najlepszym razie – walki na płaszczyźnie idei, a może i poza nią – któż to wie”.

To jest cały czas dobre rozwiązanie.

;
Michał Krzykawski

Pracownik naukowy Instytutu Filozofii Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Autor i współautor wielu prac z zakresu współczesnej filozofii techniki, filozofii społecznej i teorii krytycznej. Założyciel i redaktor serii wydawniczej Techniki, Technologie, Technosfera. Wiceprezes Fundacji Pracownia Współtwórcza.

Komentarze