Z ChatemGPT otrzymaliśmy w pakiecie opowieść o rewolucji technologicznej, której nie da się zatrzymać. Problem w tym, że struktury tej opowieści pochodzą z myślenia magicznego z silną domieszką ideologii wyznawanej przez wąską elitę techniczną.
„Realizm, krytyka i rozum ustępują pod naporem utopii, spekulacji i szału. Pytanie o celowość i granice rozwoju wielkich modeli językowych tracą rację bytu w obliczu ich coraz większej efektywności, która ma przynieść odpowiedzi na wszystkie pytania. Jednym słowem, potężny przyrost mocy obliczeniowych pociąga za sobą równie potężny regres intelektualny i duchowy. »Rewolucja AI« jest dzieckiem tego regresu” – pisze Michał Krzykawski, pracownik naukowy Instytutu Filozofii Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Założyciel i redaktor serii wydawniczej Techniki, Technologie, Technosfera. Wiceprezes Fundacji Pracownia Współtwórcza.
Zostawiając dzisiaj informatykę w rękach tej elity technicznej, popełniamy dokładnie ten sam błąd, jaki popełniliśmy w Polsce po 89 roku, gdy ekonomię zostawiliśmy w rękach wąskiej grupy ekonomistów otwierających tę część Europy na „rynek totalny” w przekonaniu, że „nie ma alternatywy”.
Sam Altman, szef OpenAI, firmy odpowiedzialnej za uruchomienie ChatuGPT pod koniec ubiegłego roku, z pewnością „nie jest jakimś filozofującym technologicznym geniuszem. Jest „po prostu sprzedawcą” podporządkowującym wszystkie swoje działania jednemu celowi.
Chce wycisnąć z komercjalizacji ChatuGPT tyle zysku, ile się da na wszystkie możliwe sposoby: albo poprzez lobbowanie na rzecz ostudzenia regulacyjnych zapędów w Unii Europejskiej, albo wyciągając rękę po miliardy dolarów z subwencji publicznych w momencie, gdy komentatorów zajmuje dyskusja o tym, czy wojnę o „uczące się” maszyny wygrają Stany Zjednoczone czy Chiny.
Ale sprzedawany przez Altmana produkt to również opowieść wypływająca z pewnej filozofii (przynajmniej jeśli rozumieć ją w nieakademickim sensie tego słowa).
Siła jej oddziaływania na zbiorowe wyobrażenia o sztucznej inteligencji jest równie ogromna, co stojące za tą filozofią pieniądze i władza. Dlatego warto przyjrzeć się jej bliżej i rozróżnić składające się na nią elementy, aby wiedzieć, jak przekierować dalszy rozwój wielkich modeli językowych (Large Language Models), potocznie nazywanych „sztuczną inteligencją”, na inną drogę.
Tylko w ten sposób możemy dokonać przełomu, rozumianego po kopernikańsku, a nie po altmanowsku. ChatGPT to żaden wielki przełom, lecz kolejna odsłona cyfrowej dysrupcji o wysoce wątpliwej wartości dla rozwoju życia społecznego i umysłowego.
Dopóki takiego przełomu w myśleniu nie dokonamy i nie wyswobodzimy się z iluzji sztucznej inteligencji, dopóty będzie ona wytwarzała sztuczną bezmyślność, która w coraz większym stopniu będzie wytwarzała również nas.
W marcu 2021 roku, na półtora roku przed uruchomieniem ChatuGPT, Altman opublikował tekst (w polskim tłumaczeniu dostępny na wykop.pl, co jest bardzo symptomatyczne, w którym pokazuje, jak wyobraża sobie świat.
„Moja praca w OpenAI – rozpoczyna swoją opowieść – codziennie przypomina mi o skali zmian społeczno-gospodarczych, które nadejdą szybciej, niż większość ludzi sądzi. Oprogramowanie potrafiące myśleć i uczyć się będzie wykonywać coraz więcej pracy, którą obecnie wykonują ludzie. Siła zostanie w jeszcze większym stopniu przeniesiona z pracy na kapitał. Jeśli odpowiednio nie przystosujemy do tej zmiany naszych polityk publicznych, większość ludzi znajdzie się w gorszej sytuacji niż obecnie”.
W obliczu zmian Altman proponuje utopię o nazwie „kapitalizm dla wszystkich”: rozwój AI przyniesie nam nieprawdopodobne bogactwo, przede wszystkim dlatego, że doprowadzi do likwidacji niezliczonych miejsc pracy, a więc również do likwidacji związanych z tym kosztów.
Jak to możliwe? Kluczową rolę odegra nie produkcja, lecz dystrybucja tego nowego bogactwa. Propozycja Altmana jest następująca: aby taka dystrybucja mogła działać, należy opodatkować zarówno to bogactwo (wytwarzane przede wszystkim przez firmy rozwijające AI), jak i ziemię (której podaż jest stała).
Dzięki temu wszyscy będą zwycięzcami, ponieważ tort do sprawiedliwego podziału będzie szerszy. Jednym słowem – żyć nie umierać. AI będzie dla nas, a kapitalizm nowej ery technologicznej stanie się lepszy. Bardziej sprawiedliwy i inkluzywny (o ile tylko kenijscy robotnicy, za dwa dolary dziennie, wstępnie wytrenują ChatGPT, aby zmniejszyć jego toksyczność).
Jak taka radykalna transformacja systemu podatkowego miałaby zostać wdrożona w rzeczywistości skompromitowanego i niezdolnego do jakichkolwiek transformacji systemu politycznego w Stanach Zjednoczonych – na ten temat, podobnie jak na temat wspomnianych Kenijczyków, Altman milczy.
Można by zatem jego propozycję potraktować jako czystą spekulację i ją zignorować. Gdyby nie fakt, że ta spekulacja nie jest po nic. Jej tworzenie służy umocnieniu pozycji wąskiej elity technicznej i zapewnieniu jej dalszej możliwości rozwijania systemów AI – niepostrzeżenie, bez skrupułów i poza jakąkolwiek kontrolą społeczną.
Jednym słowem chodzi o to, aby ten brak kontroli, przede wszystkim nad wynikami badań prowadzonych na modelach językowych w technologicznych molochach, takich jak OpenAI, Microsoft czy Google, znormalizować.
Altman sprawdza, czy go połkniemy wraz z ChatemGPT i kolejnymi algorytmicznymi ustrojstwami, które go zastąpią lub zostaną z nim zintegrowane, z obezwładniającą systemy społeczne prędkością.
Przyznać jednak trzeba, że Altman stawia sprawę uczciwie. Nie tyle nawet dlatego, że swój postdemokratyczny model biznesowy, jaki do „kapitalizmu dla wszystkich” ma prowadzić, przedstawia w sposób otwarty, ile dlatego, że – pomimo utopistycznego charakteru takiej wizji świata – mówi rzecz o zasadniczym znaczeniu:
AI to nie technologia, lecz polityka.
Oczywiście, jako typowy techno-optymista z Doliny Krzemowej wierzy, że receptą na nasze polityczne bolączki i konflikty jest jeszcze więcej, jeszcze efektywniejszej i jeszcze szybszej technologii.
Altmanowi daleko jednak do antydemokratycznego socjopaty w stylu miliardera Pietera Thiela, dla którego motywacją podstawową jest „ucieczka od polityki w jej wszystkich postaciach – od totalitarnych i fundamentalistycznych katastrof do głupawego demos przewodzącego tzw. »socjaldemokracji«”.
Wręcz przeciwnie, prezes OpenAI daje wyraźnie do zrozumienia, że dalszy rozwój systemów sztucznej inteligencji wymaga odpowiedzialnego zarządzania nimi przez społeczeństwo (nawet jeśli z jego wizji wynika coś zupełnie innego).
To również z tego względu esej Altmana jest warty analizy. Nie tylko daje on głębszy wgląd w to, jak wyobraża sobie świat i myśli jego autor, ale otwiera również dyskusję o ekonomii politycznej ery AI.
Chcę doprecyzować: taka zideologizowana wizja świata jest zupełnie nie z mojej bajki. Niemniej jednak sądzę, że w swojej argumentacji Altman jest o wiele bardziej rzeczowy niż Aaron Bastani ze swoją prowokacją o nazwie „w pełni zautomatyzowany luksusowy komunizm” lub inni akademiccy akceleracjoniści „wymyślający przyszłość”.
Na jedną rzecz w kontekście ekonomii politycznej ery AI warto zwrócić szczególną uwagę, a mianowicie na organizujące wywód Altmana przekonanie i na to, jak je uzasadnia.
A owo przekonanie brzmi następująco: Tej rewolucji technologicznej nie da się zatrzymać”.
Nie do zatrzymania jest również „rekurencyjna pętla innowacji”, która jeszcze bardziej przyspieszy tempo „rewolucji AI” jako czwartej – po rolniczej, przemysłowej i obliczeniowej – wielkiej rewolucji technologicznej.
A wszystko to za sprawą „inteligentnych maszyn, które pomogą nam w tworzeniu jeszcze inteligentniejszych maszyn”. Nadejście tej rewolucji Altman uzasadnia, odwołując się do „prawa Moore’a”.
Gordon Earle Moore był jednym z założycieli firmy Intel, największego na świecie producenta układów scalonych i mikroprocesorów znajdujących się dzisiaj w większości dostępnych na rynku komputerów osobistych.
W 1965 roku Moore opublikował artykuł, w którym zauważył, że liczba tranzystorów w mikroprocesorze podwaja się w równych odstępach czasu (co 18 miesięcy). W rezultacie moc obliczeniowa komputerów, pojemność ich pamięci i złożoność oprogramowania rosną wykładniczo. Jednocześnie, podczas gdy wydajność mikroprocesorów rośnie, ich koszt maleje.
Obserwacja Moore’a okazała się na tyle trafna, że szybko zaczęto nazywać ją „prawem Moore’a”.
Odwołując się do tego „prawa”, Altman rozciąga jego działania na dzieje postępu technologicznego w perspektywie długiego trwania cywilizacji: „W szerszej perspektywie czasowej postęp technologiczny przebiega po krzywej wykładniczej. Porównajmy, jak wyglądał świat 15 lat temu (bez smartfonów, naprawdę), 150 lat temu (bez silnika spalinowego i bez elektryczności w domu), 1500 lat temu (bez maszyn przemysłowych) i 15 000 lat temu (bez rolnictwa)”.
Osobom lubiącym proste schematy i obrazy taka argumentacja może się podobać. Nie jest ona zresztą fałszywa.
Można dorzucić do niej kolejny element i przypomnieć, jak czyni to informatyk Jakub Chabik, że przenoszenie na wymyślone przez człowieka i ciągle ulepszane maszyny pewnych czynności, powodowało de facto, że jesteśmy przez nie stopniowo zastępowani.
Tak wygląda historia pracy, a komercjalizacja ChatuGPT jest kontynuacją tego trendu. Przy czym odtąd maszyny przejmują od nas to, co człowiek, jak się wydawało, miał na własność: język (logos).
Możemy pogrążać się z tego powodu w krytycznej melancholii jak Günther Anders dekady temu piszący o „wychodzeniu człowieka z użycia”.
Altman proponuje jednak inną drogę. Powraca do prawa Moore’a, które głosi, że taniej znaczy lepiej, a następnie proponuje zastosować je „do wszystkiego” i zmienić tym samym nasze rozumienie „wszystkiego”.
Dlaczego lepsze, bo tańsze, nie miałyby być edukacja, służba zdrowia, budowane przez roboty mieszkania i cokolwiek sobie wymarzymy, jeśli tylko rozwój AI zaakceptujemy i należycie ogarniemy?
Z „prawem Moore’a” jest jednak jeden zasadniczy problem: to żadne prawo w naukowym rozumieniu tego słowa. Jak przypomina Bernard Stiegler (za Sachą Loève’em), sam jego twórca zauważył, że stało się ono samospełniającą się przepowiednią, której mechanizm działania jest następujący: producenci mikroprocesorów wiedzą, że muszą utrzymać się na krzywej ilustrującej wykładniczy wzrost ich wydajności i ich stale malejący koszt. A jednocześnie nie szczędzą wysiłków, aby przedstawiany przez tą krzywą obraz urzeczywistnić.
Działające w ten sposób „prawo ekonomii” ulega samoutwierdzeniu i ma swoje konsekwencje, jak gdyby było prawem fizyki. Ale jeśli „prawo Moore’a” kiedykolwiek coś pokazywało, był to szemrany zrost ekonomii i fizyki matematycznej, który legł u podstaw „nauki à la Silicon Valley” (choć jego historia sięga dziewiętnastego wieku, co pokazały analizy historyka i filozofa myśli ekonomicznej Philipe’a Mirowskiego).
Tym, czym Altman próbuje nas dzisiaj czarować, gdy mówi, że rewolucji technologicznej nie da się zatrzymać i że zmiana nadejdzie szybciej, niż się tego spodziewamy, jest dokładnie ta sama samospełniająca się przepowiednia.
Tyle że urzeczywistniająca się w o wiele szybszy i mający coraz mniej wspólnego z nauką sposób. Z jednej strony samospełnienie odbywa się przy użyciu nieporównywalnie potężniejszych, szybszych i mniej widocznych maszyn (współczesny mikroprocesor składa się z miliardów tranzystorów, w których najmniejszy rozmiar w 2017 roku wyniósł zaledwie 10 nanometrów, a obecnie jest jeszcze mniejszy).
„Rewolucja AI” z wyobrażeń Altmana to „anty-nauka” w rękach uczniów czarnoksiężnika. Teoretyczny ogląd wielkich modeli językowych i rozumienie ich osadzenia w kontekstach społecznych zostały poświęcone na rzecz ciągłego zwiększania efektywności obliczeniowej i materializowania mocy komputacyjnego kapitalizmu, bez udziału krytycznej refleksji, a przede wszystkim pod nieobecność pogłębionej wiedzy na temat konsekwencji tego rodzaju działalności.
Nie powinno więc dziwić, że w wizji Altmana rewolucyjne zmiany mają być udziałem „inteligentnych maszyn”, na naszych oczach nabywających jakoby „fenomenalnej zdolności myślenia, tworzenia, rozumienia i wnioskowania”.
Miejsce myśli naukowej i krytycznej refleksji zajmuje myślenie magiczne i – jak celnie to ujmuje prawniczka i filozofka Antoinette Rouvroy – „informatyczny animizm”.
Realizm, krytyka i rozum ustępują pod naporem utopii, spekulacji i szału. Pytanie o celowość i granice rozwoju wielkich modeli językowych tracą rację bytu w obliczu ich coraz większej efektywności, która ma przynieść odpowiedzi na wszystkie pytania. Jednym słowem, potężny przyrost mocy obliczeniowych pociąga za sobą równie potężny regres intelektualny i duchowy.
„Rewolucja AI” jest dzieckiem tego regresu. Nie tylko okazuje się wnosić do życia społecznego i umysłowego innowacje o wysoce wątpliwej wartości. To od razu staje się widoczne, jeśli tylko spojrzymy na to życie nieco szerzej niż perspektywa pojedynczego użytkownika prowadzącego „konwersację” z ChatemGPT i uzyskującego odpowiedzi na interesujące go pytania.
Zaprogramowana w ten sposób „rewolucja AI” okazuje się również głęboko zanurzona w stuletnich mentalnych strukturach neoliberalizmu, a jednocześnie pozostaje na wskroś przesiąknięta ideologią innowacji, którą Jewgienij Morozow już jakiś czas temu nazwał „solucjonizmem technologicznym”. U jego podstaw leży przekonanie, że technologia rozwiąże wszystkie problemy wymagające do tej pory decyzji politycznych, a pomysł na jego wdrożenie w życie jest prosty: jeszcze radykalniejsza wersja wolnorynkowego neoliberalizmu.
Kluczową rolę w „rewolucji AI” pełni jedno słowo: adaptacja, a rewolucyjne kredo brzmi następująco: przetrwamy, ponieważ jako ludzie dysponujemy nieprawdopodobną zdolnością do adaptowania się do nowych warunków.
Z jednej strony zatem „rewolucja AI” jest przedstawiana jako coś radykalnie odmiennego od dotychczasowych. Z drugiej strony natomiast samo to przedstawienie pełnymi garściami czerpie z myśli neoliberalnej i ze sposobu, jaki przejęła ona z teorii ewolucji pojęcie adaptacji i uczyniła z niego „nowy imperatyw polityczny”: przystosujesz się.
Znakomicie pokazała to w swoich analizach filozofka Barbara Stiegler.
Altmanowski sposób myślenia o technologii jest rozszerzeniem tego schematu neoliberalnej wyobraźni. Tak jak wszystkie regiony świata były „zapraszane” do tego, aby przystosować się do neoliberalnego porządku pod groźbą, że niezdolność do adaptacji będzie oznaczała dla nich żywot pariasa, tak i my dzisiaj jesteśmy „zapraszani” do tego, aby przystosować życie i instytucje do rytmu niedającej się zatrzymać rewolucji.
To z takich struktur mentalnych pochodzi ostrzeżenie, że programy polityk publicznych, które nie uwzględnią „prawa” rządzącego zmianą, „będą zawodne tak samo, jak zawodne byłyby dzisiaj zasady organizujące przedrolnicze lub feudalne społeczeństwa”.
Pochodząca z dwudziestowiecznych dyskursów myśli neoliberalnej metafora adaptacji zyskuje w istocie drugie życie w dyskursach wokół AI. Odgrywa w nich kluczową rolę w zakresie, w jakim pozwala przedstawiać sztuczną inteligencję niemalże jako dzieło ewolucji biologicznej, a nie efekt celowego działania konkretnych ludzi podejmujących konkretne decyzje projektowe i pracujących dla konkretnych firm.
Zresztą same systemy sztucznej inteligencji są przedstawiane przez tzw. AI philosophers jako zdolne do adaptacji do środowiska, jak gdyby były układami żywymi, podczas gdy ludzki umysł jest opisywany za pomocą metafor komputerowych, czyli jako właściwość fizycznego mózgu (komputera) przetwarzającego informacje.
A to z kolei generuje metafory antropomorfizujące maszyny („ludzkocentryczna AI”, „odpowiedzialna AI”, „godna zaufania AI”, „myśląca AI”, „ucząca się AI”, „konwersująca AI”, „świadoma AI” itd.), które rodzą potworne błędy poznawcze, ponieważ podsuwają nam fałszywe reprezentacje świata i technologii.
Te metafory są szkodliwe, ponieważ literalnie odbierają nam rozum i utrudniają właściwe zidentyfikowanie natury generowanych przez rozwój AI wyzwań.
Rozum ma wiele odcieni i można go definiować na wiele sposobów. Ale rozumność zawsze kończy się tam, gdzie przestajemy panować nad metaforami używanymi do wytwarzania wiedzy połączonej z techniką i pozwalamy na zerwanie tej łączności.
Wówczas tracimy również słowa do trafnego opisu i orientowania się w piekielnie złożonej rzeczywistości, w której adaptacja, jak przytomnie zauważył krytyk sieci Geert Lovink w Extinction Internet, przestała być opcją.
W tym sensie Anne Alombert i Giuseppe Longo słusznie piszą, że coś takiego jak „sztuczna inteligencja” po prostu nie istnieje i że powinniśmy wreszcie poprawnie nazywać rzeczy, o których rozmawiamy: zamiast o sztucznej inteligencji mówmy zatem o automatach obliczeniowych lub cyfrowych, zrywając tym samym z ideologią reklamową.
Czy przekonanie, że „technologii nie da się zatrzymać” jest zatem fałszywe? Rzecz nie w tym, aby to rozstrzygać. Rzecz natomiast w tym, że to przekonanie jest nierozumne.
Wzmacnia stan, który filozofka Anne Alombert nazwała „cyfrową schizofrenią”. Według niej polega ona na tym, że z jednej strony w dyskursach wokół AI maszynom są przypisywane władze ludzkie, a napędzające je pytanie brzmi nie czy, ale kiedy szybciej liczące maszyny przewyższą myślących ludzi.
Z drugiej strony natomiast pomija się w nich fakt, że te władze (myślenia, interpretowania, rozumowania, krytykowania, koncentrowania uwagi i zapamiętywania) wytracamy wskutek długotrwałego przebywania w hipnotyzujących czasoprzestrzeniach, do jakich dostęp dają ekrany, które generują różne postacie alienacji, względem wspomnianych już czasu i przestrzeni, ale również względem siebie i innych oraz względem rzeczy i działań.
(Co pokazują analizy relacji między przyspieszeniem i wyobcowaniem socjologa Hartmuta Rosy).
W kakofonii mniej lub bardziej wartościowych opinii na temat ChatuGPT oraz szans i zagrożeń, jakie stwarza dla edukacji, rzadko przebijają się głosy przypominające, że tego typu maszyny raczej nie pomagają nam w pielęgnowaniu tego typu zdolności.
Uwaga medialna skupiła się na tym, że w świecie zdominowanym przez „uczące się” i „autonomiczne” maszyny, generatory tekstu będą odtąd pisać uczniom i studentom wypracowania, jak gdyby najważniejszy był właśnie ten problem, a nie pytanie o sens pisania i rolę pisma w formowaniu myśli.
To właśnie od takich zasadniczych pytań opowieść o „technologii, której nie da się zatrzymać” nas odciąga. Służy ona konkretnej strategii biznesowej: przyciągnąć uwagę medialną i uwagę inwestorów, odciągając uwagę publiczności od kluczowych wyzwań psychospołecznych, w tym edukacyjnych i badawczych, związanych z powszechnym dostępem do wielkich modeli językowych.
W myśl tej opowieści bieżące problemy społeczne i polityczne nie powinny nas zajmować. Liczy się natomiast społeczeństwo nadchodzącej przyszłości, które – jak to określa Altman – „musi zostać zaprojektowane”.
Natomiast wbijana nam do głów niczym pałką reprezentacja „autonomicznych” maszyn ma przykryć fakt, że – jak pisze Kate Crawford w The Atlas of AI – „systemy sztucznej inteligencji to wyrażenia władzy, które wyłaniają się z szerszych sił ekonomicznych i politycznych, stworzone po to, aby zwiększać zyski i centralizować kontrolę na korzyść tych, którzy tymi systemami władają”.
Choć działające w ten sposób systemy AI są z nami nie od wczoraj, dopiero uruchomienie ChatuGPT zaczyna uświadamiać większości z nas, do jakiego stopnia jesteśmy w nie wplątani jako jednostki i społeczeństwo. I to pomimo że nasza wiedza na temat zasad działania algorytmów obsługujących te systemy i długofalowych konsekwencji ich rozbudowy pozostaje bardzo skąpa.
Systemy te staną się jeszcze efektywniejsze, ponieważ liczba zasilających je wielkich wolumenów danych rośnie w tempie równie zawrotnym co ich moc obliczeniowa. Od 2010 do 2020 roku liczba danych/informacji przetwarzanych utworzonych, zebranych, skopiowanych i użytych wzrosła z 2 do blisko 65 zettabajtów (1 zetta bajt to 1 000 000 000 000 000 000 000 bajtów). Szacuje się, że obecnie wynosi ona 120 zettabajtów, a w przeciągu najbliższych dwóch lat zwiększy się o połowę.
Zachowywanie „technooptymizmu” w obliczu wzbierającego w ten sposób chaosu i technologicznie wytwarzanej ignorancji wydaje się nieco niepoważne, zaś „technopesymizm” w żaden sposób nie pomaga nam tej ignorancji zmniejszyć.
Pozostaje zatem pytanie, co robić i jak do tzw. rewolucji AI podejść, aby skierować ją na inny tor. Nie tyle zatrzymać jej bieg, ile ją ostudzić i nie dać się wciągnąć w wir nierozumności, który ta rewolucja performatywnie wytwarza.
Moje propozycje są następujące:
Tylko taki wielopłaszczyznowy przewrót w myśleniu da nam prawdziwą – rozumianą po kopernikańsku, a nie po altmanowsku – rewolucję. Sam fakt, że dokonania takiego przewrotu nie jesteśmy sobie w stanie nawet wyobrazić, być może najlepiej świadczy o regresie intelektualnym, z jakiego przedsiębiorcy z Doliny Krzemowej opowiadający o „technologii, której nie da się zatrzymać” wyrastają.
Ich opowieść możemy skontrować jedynie poprzez budowanie głębszych, międzydziedzinowych sposobów rozumienia technologii i relacji łączącej człowieka z maszyną, a także wytwarzanych w tej relacji wartości.
Sposób na taką kontrę podpowiadał już w 1948 roku Norbert Wiener: „Rozwiązaniem jest oczywiście oparcie społeczeństwa na wartościach ludzkich, a nie na kupnie i sprzedaży. Na to, by dojść do takiego modelu społeczeństwa, trzeba wiele walki; w najlepszym razie – walki na płaszczyźnie idei, a może i poza nią – któż to wie”.
To jest cały czas dobre rozwiązanie.
Pracownik naukowy Instytutu Filozofii Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Autor i współautor wielu prac z zakresu współczesnej filozofii techniki, filozofii społecznej i teorii krytycznej. Założyciel i redaktor serii wydawniczej Techniki, Technologie, Technosfera. Wiceprezes Fundacji Pracownia Współtwórcza.
Pracownik naukowy Instytutu Filozofii Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Autor i współautor wielu prac z zakresu współczesnej filozofii techniki, filozofii społecznej i teorii krytycznej. Założyciel i redaktor serii wydawniczej Techniki, Technologie, Technosfera. Wiceprezes Fundacji Pracownia Współtwórcza.
Komentarze