0:00
0:00

0:00

Prawa autorskie: Ilustrację wykonał Mateusz Mirys / OKO.pressIlustrację wykonał M...

Egzystencjalne zagrożenie dla ludzkości to każde takie katastrofalne wydarzenie, które może pociągać za sobą wyginięcie rodzaju ludzkiego czy wręcz w ogóle kres życia na Ziemi. Zarazem najczęściej chodzi tu o wydarzenie jednorazowe, możliwie nierozciągnięte w czasie.

Egzystencjalne zagrożenia mogą mieć naturalne, jak również antropogeniczne przyczyny. Do naturalnych można zaliczyć np. wybuch superwulkanu, uderzenie asteroidy czy pandemię niebezpiecznego patogenu, a do antropogenicznych potencjalny konflikt termonuklearny.

W kontekście rozwoju SI ewentualnego zagrożenia egzystencjalnego dopatruje się przede wszystkim w hipotetycznie przełomowym momencie osiągnięcia domniemanej superinteligencji czy tzw. ogólnej sztucznej inteligencji (ang. artificial general intelligence, AGI).

AGI czy superinteligencja to wprawdzie bardzo niejasne, spekulacyjne terminy, natomiast z grubsza zakładają, że taka wysoko rozwinięta SI prześcignęłaby człowieka pod względem intelektu i „powinna być w stanie wykonać w zasadzie każde zadanie poznawcze, które mogą wykonać także ludzie” (tłum. własne – JM).

Wprawdzie wielcy gracze technologiczni licytują się, która z firm i kiedy osiągnie taką superinteligencję, jednak okazuje się, że wcale nie rozwiązałoby to problemu, co wręcz mogłoby stworzyć następny, jeszcze większy.

Niektóre iście apokaliptyczne wizje rozwoju SI zakładają, iż właśnie ta jakkolwiek rozumiana superinteligencja/AGI wymknęłaby się spod kontroli, doprowadzając do całkowitej zagłady lub w najlepszym razie zniewolenia ludzkości. Zwolennicy takich scenariuszy nie do końca precyzują, jak dokładnie miałoby się to wydarzyć, odwołując się co najwyżej do cokolwiek naciąganych eksperymentów myślowych.

Przeczytaj także:

Problem przerobienia ludzi na spinacze

Jednym z takich eksperymentów jest tzw. problem spinacza autorstwa notorycznego katastrofisty Nicka Bostroma. W swojej wydanej w 2014 roku książce „Superinteligencja” Bostrom argumentuje, iż gdyby zlecić wysoko rozwiniętej SI np. maksymalizację produkcji spinaczy do papieru, ta może zbyt dosłownie zrozumieć takie zadanie i niechybnie „zoptymalizować” produkcję takich spinaczy z wszystkiego, co popadnie, w tym także z ludzi.

W podobnej logice wypowiedział się rok temu na swoim blogu znany badacz SI Yoshua Bengio, argumentując, iż jeśli zadamy SI za cel np. rozwiązanie kryzysu klimatycznego, ta może wpaść na pomysł, ażeby po prostu wyeliminować ludzkość.

Wyżej wymienieni Bostrom czy określany nawet mianem ojca chrzestnego SI Bengio to niejedyni badacze głoszący apokaliptyczne wizje. Niedawno było głośno o innym ojcu chrzestnym SI oraz pionierze rozwoju sieci neuronowych Geoffreyu Hintonie głoszącym, jakoby sztuczna inteligencja miała ewolucyjnie zdetronizować tę ludzką, biologiczną inteligencję.

To nie science, ale science-fiction

Do innych prominentnych przedstawicieli świata biznesu czy nauki głoszących apokaliptyczne wizje zaliczyć można m.in. profesora MIT Maxa Tegmarka i estońskiego miliardera Jaana Tallinna, założycieli Future of Life Institute, ponadto byłego pracownika Google Tristana Harrisa znanego z produkcji „The Social Dillemma” snującego analogie między SI a bronią jądrową, Eliezera Yudkovskiego, Elona Muska, Yuvala Harariego. A na polskim gruncie fizyka prof. Andrzeja Dragana.

Jeżeli ktoś zbudowałby zbyt potężną SI, to w obecnych warunkach, spodziewałbym się, że każdy osobnik ludzkiego gatunku, jak i całe biologiczne życie na Ziemi wkrótce by wymarły.

wypowiedź,29 marca 2023

Sprawdziliśmy

Argumenty o egzystencjalnym zagrożeniu dla ludzkości jakie miałaby stanowić SI, należą do domeny science-fiction, a nie science. SI niesie za sobą sporo zagrożeń, ale nie grożą wyginięciem gatunku ludzkiego

Należy w tym miejscu podkreślić, iż tak rozumiane argumenty o egzystencjalnym zagrożeniu dla ludzkości, jakie miałaby stanowić SI, należą do domeny science-fiction, a nie science.

Nie znaczy to, że SI nie niesie za sobą żadnych innych zagrożeń – owszem, niesie i to sporo, ale nie mają one charakteru egzystencjalnego, czyli nie grożą wyginięciem gatunku ludzkiego na drodze katastroficznego wydarzenia.

Logika argumentów o egzystencjalnym zagrożeniu jest czysto spekulacyjna – nie opiera się na żadnych empirycznych przesłankach i bazuje jedynie na wątpliwym założeniu, iż już wkrótce superinteligencja czy AGI (jakkolwiek je rozumieć) zostanie osiągnięta oraz jest tylko kwestią czasu, kiedy ludzie zostaną intelektualnie pozostawieni w tyle.

Jeśli tak się stanie, a technologia ta nie będzie odpowiednio sprzężona z potrzebami ludzkości, może to grozić nieprzewidywalnymi, potencjalnie katastroficznymi skutkami (w tym również zagładą ludzkości).

„No, ale w odległej przyszłości...”

Taka argumentacja jest również naukowo niefalsyfikowalna – nie sposób z nią polemizować ani nie można jej odrzucić. Gdyby skonfrontować twardogłowych zwolenników takich wizji ze stwierdzeniem, iż w najbliższej przyszłości żadna superinteligencja nie powstanie, ci mogą replikować, iż: „Ale co z odległą przyszłością – może akurat taka superinteligencja powstanie za 100 czy 1000 lat? Przecież nie wiemy, co się wtedy wydarzy, a skoro nie możemy niczego wykluczyć, to musimy już teraz przygotowywać się na najgorszy scenariusz”.

Z kolei na argument, że ryzyko takiego egzystencjalnego zagrożenia ze strony SI jest absolutnie minimalne, mniejsze niż ryzyko zderzenia Ziemi z asteroidą, tacy zwolennicy mogą odpowiedzieć: „Aha, czyli jednak jakieś ryzyko istnieje! W takim razie też musimy być przygotowani, nawet na wszelki wypadek”.

W myśl takiej logiki, skoro nie możemy z absolutną pewnością wykluczyć pojawienia się choćby najmniejszego ryzyka egzystencjalnego ze strony SI w długoterminowym horyzoncie czasowym, znaczy to, iż należy się takim zagrożeniami wnikliwie zajmować.

To oczywiście logicznie dość karkołomna argumentacja, jako że najpierw należałoby wykazać, iż ewentualne zagrożenia egzystencjalne mogą być wiarygodne, a nie zakładać je a priori tylko na podstawie i tak zresztą bardzo wątpliwej obecnie przesłanki, jakoby prędzej czy później miała pojawić się bardzo zaawansowana SI, której nie będziemy ani rozumieć, ani kontrolować itd. W przeciwnym wypadku zataczane jest błędne koło w rozumowaniu.

Sztuczna apokalipsa

Takie apokaliptyczne wizje SI występującej przeciwko ludzkości są zresztą elementem kultury współczesnej, ale ostatnio stały się także dodatkowo instrumentem w rękach Big Techu. Sytuację dodatkowo pogarszają rozmaici przedstawiciele nauki czy badacze SI głoszący osobiste przekonania o zgubnych skutkach tej technologii, które to przekonania są następnie ochoczo powielane przez media za pomocą chwytliwych nagłówków o treści: „Eksperci ostrzegają – SI może doprowadzić do zagłady”.

Wszystko to sprawia, iż narracje o domniemanym egzystencjalnym zagrożeniu SI są bardzo mocno obecne w dyskursie publicznym, natomiast w żaden sposób nie uprawomocnia to ich jako naukowych stwierdzeń czy hipotez.

Poprzez analogię można tę sytuację i działające tu mechanizmy niejako porównać do pandemii koronawirusa, podczas której pewna część establishmentu naukowego (w tym także medycznego) sprzeciwiała się szczepionkom na COVID-19 (np. poprzez wystosowywanie listów otwartych do Prezydenta RP), wskutek m.in. czego wytworzył się osobliwy klimat sprzyjający dezinformacji naukowej w tym względzie.

Big Tech dołącza do straszenia

Także i w przypadku domniemanych zagrożeń egzystencjalnych ze strony SI pojawiają się rozmaite apele czy odezwy jak choćby ta autorstwa samozwańczego Centrum Bezpieczeństwa SI głosząca, iż:

“Łagodzenie ryzyka wyginięcia ludzkości za sprawą SI powinno być globalnym priorytetem obok innych ryzyk na skalę społeczną takich jak pandemia czy wojna nuklearna” (tłum. własne – JM).

To, że pod takim apelem podpisali się wyżej wymieni badacze SI, jak Bengio czy Hinton, może już mniej dziwić, natomiast zastanawia fakt, dlaczego znajdziemy tu też podpisy przedstawicieli czołowych firm technologicznych z obszaru SI takich jak OpenAI, DeepMind czy Anthropic – okazuje się, że i one mają w tym swój interes, chociażby dlatego, iż takie apele dodatkowo przykuwają zainteresowanie mediów i opinii publicznej sztuczną inteligencją.

Tak jak w trakcie pandemii środowiska reprezentujące konsensus naukowy wystosowywały apele, by nie obawiać się szczepionek, tak i teraz pojawią się analogiczne apele, by nie ulegać takiej formie medialnej farsy, jaką jest powielanie narracji o zagrożeniach egzystencjalnych.

Naukowcy: to odciąga uwagę od realnych zagrożeń

W lipcu 2023 w prestiżowym czasopiśmie naukowym „Nature” ukazał się stanowczy w wymowie artykuł wzywający, by zaprzestać siania katastroficznych wizji przyszłości, zwłaszcza w sytuacji, kiedy mnóstwo innych, realnie palących problemów mamy z SI już dziś.

Ponadto, artykuł z „Nature” wskazuje, iż zajmowanie się takimi hipotetycznymi zagrożeniami egzystencjalnymi odciąga i naszą i regulatorów uwagę od obecnych, społecznych zagrożeń SI.

Narracja o potężnej superinteligencji tylko czekającej na odkrycie paradoksalnie dodatkowo napędza wyścig i hype na SI, zamiast rzekomo go hamować. Co więcej, w ten sposób jeszcze bardziej wzmacnia się pozycję wąskiej grupy technologicznych gigantów, marginalizując inne, krytyczne głosy.

Wytyczanie drogi do raju...

To właśnie dlatego naukowe zdebunkowanie apokaliptycznych wizji o SI na nic się nie zdaje. Narracje apokaliptyczne wciąż są tak popularne, a wręcz nadreprezentowane w mediach, ponieważ stały się elementem szerszej, biznesowej, czy wręcz marketingowej narracji firm z obszaru technologicznego – narracji, bez której obecny hype na SI mógłby stracić swój raison d'etre.

Przykładów nie trzeba szukać daleko. Firma OpenAI na swojej stronie słowami Sama Altmana, Grega Brockmana czy byłego już pracownika Ilyi Sutskevera wieszczy rychłe nadejście SI przewyższającej intelektualnie ludzi oraz kreśli wizję planetarnego prosperity, jakie taka rzekoma technologia miałaby umożliwić.

Co oczywiste, przestrzegają też przed zagrożeniem egzystencjalnym ze strony takiej SI. Zarazem porównują możliwości tej technologii z energią nuklearną czy biologią syntetyczną i postulują analogiczny globalny konsensus w tej sprawie.

Zresztą Altman także i w swoich innych licznych wypowiedziach regularnie zestawia utopijne wizje przyszłości z tymi apokaliptycznymi, głoszącymi jakoby w najgorszym scenariuszu rozwoju SI ludzkość miała czekać zagłada.

Jakkolwiek paradoksalnie może to zabrzmieć — prezes firmy przestrzegający przed swoim własnym produktem — to element spójnej, choć przewrotnej strategii. Otóż w tej strategii najlepszym (a być może jedynym) sposobem na uchronienie ludzkości przez zgubnymi skutkami SI, jest po prostu… zbudowanie jej, ale tylko w bezpieczny, sprzężony z potrzebami ludzkości sposób, tak by umożliwić powszechny dobrobyt (oraz najlepiej zrobić to wcześniej niż konkurencja). Czyli droga do raju jest już wytyczona, pozostaje jednak usłana minami.

Follow the Money

Tak postawiwszy sprawę, nie powinno więc dziwić, dlaczego firmie chcącej przecież uchronić ludzkość, należą się gigantyczne kwoty finansowe i władza polityczna – a de facto to do tego właśnie firmy takie jak OpenAI czy ich konkurenci koniec końców intensywnie dążą. To dlatego podpisują się pod takimi apelami w sprawie egzystencjalnych zagrożeń.

A skoro o konkurencji mowa, to rywale OpenAI oczywiście nie zasypiają gruszek w popiele i również biorą na poważnie egzystencjalne zagrożenia SI. Na dobrą sprawę obecny model biznesowy bodaj wszystkich dużych graczy z branży SI w Stanach Zjednoczonych opiera się na narracji o rzekomym nadejściu superinteligencji i ryzykach czy szansach z tym związanych.

Na przykład Dario Amodei, który w 2020 roku odszedł OpenAI i założył konkurencyjny start-up o nazwie Anthropic – również dążący do osiągnięcia nadludzkiej inteligencji, przy czym rzekomo bardziej skupiony na bezpieczeństwie – sam wielokrotnie wypowiadał o długoterminowych zagrożeniach płynących z zaawansowanej, autonomicznej SI, w tym także o zagrożeniach egzystencjalnych.

Albo wspomniany wcześniej Elon Musk jeszcze w 2023 wzywał do wstrzymania prac nad rozwojem SI i przestrzegał przed potencjalnym zagrożeniem zagładą, co nie przeszkodziło mu w (jak dotąd raczej nieskutecznym) rozwijaniu własnych rozwiązań w tym obszarze, takich jak start-up xAI czy chatbot Grok.

Także sir Demis Hassabis założyciel DeepMind, czyli prężnego laboratorium SI należącego do Alphabetu, spółki matki Google, nie jest tu wyjątkiem. Przyrównuje on zagrożenia egzystencjalne ze strony SI do kryzysu klimatycznego i nawołuje do powołania w tej branży czegoś na wzór Międzyrządowego Zespołu ds. Zmian Klimatu.

Piewcy apokalipsy w chórze z biznesem

Jak widać, wielcy gracze rynku SI ochoczo przyłączają się do chórku wieszczącego ryzyko apokalipsy. Ale co ważne, relacja ta jest obustronna – piewcy apokalipsy SI sami ciepło patrzą na ten sektor. Powiązania tych dwóch stron są ścisłe, co może czasem prowadzić do konfliktów.

Przewrót pałacowy w OpenAI z listopada 2023 polegający na nieudanej próbie usunięcia Sama Altmana z funkcji CEO firmy analizowany jest właśnie w kontekście puczu „doomersów” (z angielskiego „doom” oznaczającego zagładę). Przewrotu, który doomersi mieli przegrać.

Można by też domniemywać, iż wspomniany wcześniej zawodowy doomer Eliezer Yudkovsky, wzywający nawet do zbombardowania serwerów i centrów danych, powinien być zaciekłym adwersarzem OpenAI czy Altmana. Otóż nic bardziej mylnego. Jak się okazuje, panowie dobrze się znają, a w jednym swoim tweecie Altman zasugerował nawet, iż Yudkovsky mógłby otrzymać Pokojową Nagrodę Nobla (sic!) za swoje dokonania na rzecz wyścigu o nadludzką inteligencję.

Ale czy ta osobliwa sympatia Altmana do apokaliptycznych wizji i środowisk je rozpowszechniających może jeszcze dziwić, skoro on sam otwarcie przyznaje, że jest preppersem oraz że posiada posiadłość w Big Sur, górzystym i trudno dostępnym obszarze Kalifornii, gdzie przetrzymuje broń, złoto czy maski przeciwgazowe?

Dwie strony jednego medalu

Opowieści o egzystencjalnych zagrożeniach ze strony superinteligencji, jak również utopijne wizje planetarnego dobrobytu, jaki mogłaby ona przynieść, są dwiema stronami tego samego medalu.

Stronami, które potrzebują siebie nawzajem, ażeby dalej napędzać hype gwarantujący im przychody, medialną uwagę, dostęp do polityków oraz władzę. Strony te wcale się nie zwalczają, a wręcz pozostają w symbiozie – przecież obydwie zgodnie zauważają, iż zaawansowana, superinteligentna SI może zostać osiągnięta – różnią się co najwyżej horyzontem czasowym czy ewentualnymi konsekwencjami takiego hipotetycznego stanu rzeczy.

Ponadto strony te dzielą wspólny światopogląd wyrażany przez ideologie efektywnego altruizmu czy longtermizmu, skądinąd bardzo popularne zwłaszcza w Dolinie Krzemowej.

Dlatego też przedstawiciele branży technologicznej tak ochoczo podpisują się pod apelami, by SI traktować na równi z energią nuklearną czy kryzysem klimatycznym – to dla nich bardzo nośna reklama, a ponadto oni sami kreują się na odpowiedzialnych liderów branży.

Z kolei katastrofiści też potrzebują prężnego sektora technologicznego i dalszego rozwoju SI, ponieważ gwarantuje im to pożywkę i paliwo dla dalszej działalności.

Jeśli już gdzieś można mówić o konkurencji lub nawet o wzajemnych animozjach, to jedynie pomiędzy firmami (i osobami) z obszaru SI, by nie wspomnieć o niedawnym, podszytym osobistym resentymentem pozwie sądowym pod adresem OpenAI, jaki wystosował przecież ich niegdysiejszy fundator Elon Musk.

Straszenie to niezły biznes

To dość częste, że rozstając się z OpenAI byli pracownicy czy sponsorzy realizują własne przedsięwzięcia w tym obszarze, jak wspomnieni wcześniej Amodei czy Musk.

Rynek przecież nie znosi próżni. Także niedawno, zaraz po premierze najnowszego modelu GPT-4 Omni w maju tego roku, szef działu ds. bezpieczeństwa OpenAI Superalignment Jan Leike zrezygnował z pracy w firmie, by natychmiast odnaleźć się nigdzie indziej niż tylko u konkurencji z Anthropic.

A konkurencja do osiągnięcia superinteligencji jest wszak spora, przecież każdy z technologicznych gigantów inwestuje we własną SI – Microsoft w OpenAI, Google w DeepMind, Amazon w Anthropic, a Meta w modele open-source o zbiorczej nazwie Llama – i każdy zapewne twierdzi, że wie, jak najlepiej osiągnąć superinteligencję.

Środowiska katastrofistów SI na aż takie obfite finansowanie liczyć nie mogą, natomiast wcale też nie klepią biedy. Jak wykazały prace dziennikarki technologicznej, autorki bloga AI Panic, dr Nirit Weiss-Blatt, straszenie egzystencjalnym zagrożeniem to biznes warty setki milionów dolarów, bardzo mocno powiązany ze wspomnianymi ideologiami efektywnego altruizmu czy longtermizmu.

Co ciekawe, w ostatnim czasie wyszły na jaw liczne kompromitujące doniesienia dotyczące działalności tego środowiska – w tym hojne wielomilionowe wsparcie okazane im przez przestępcę finansowego, oszusta kryptowalutowego Sama Bankmana-Frieda, prywatnie zwolennika efektywnego altruizmu i longtermistę (który, co ciekawe, znacznie hojniej wspierał start-up Anthropic).

Shiba Inu od magnata kryptowalut

Ponadto, niedawno serwis Politico ujawnił, iż założony przy wsparciu Muska przez innych katastrofistów SI Tegmarka i Tallinna Future of Life Institute stał się beneficjentem gigantycznego przelewu niszowej kryptowaluty o nazwie Shiba Inu od kryptomagnata rosyjskiego pochodzenia Vitalika Buterina. Po przeliczeniu kryptowaluty wartość tego przelewu wyniosła aż 665 milionów dolarów.

Także wspomniany wcześniej Bostrom i jego (podobnie brzmiący) Future of Humanity Institute został w kwietniu tego roku zamknięty przez Uniwersytet Oksfordzki, a za nim samym ciągnie się cień rasistowskich i eugenicznych poglądów, które otwarcie wyrażał w przeszłości.

Choć w ostatnim czasie środowiska głoszące egzystencjalne zagrożenia faktycznie mogą zmagać się z pewnym kryzysem wizerunkowym czy roszadami personalnymi i instytucjonalnymi, wciąż jest to bardzo sprawnie działający, dynamiczny ekosystem, który obejmuje wiele górnolotnie brzmiących instytutów życia, ludzkości, czy samozwańczych centrów bezpieczeństwa itd.

Macki takiego środowiska są wszędobylskie – to ich przedstawiciele (oraz liderzy biznesowi, z którymi dobrze się rozumieją) rozmawiają z najważniejszymi politykami na świecie, mają dostęp do ogólnoświatowych mainstreamowych mediów czy uczestniczą w szczytach ds. bezpieczeństwa SI.

Lobbysta wspomnianego Future of Life Institute, Risto Uuk, aktywnie doradzał w pracach nad kształtem AI Act uchwalonym ostatecznie w marcu tego roku przez Parlament Europejski.

Zresztą, Future of Life Institute (przypomnę, ten sam od gigantycznego przelewu krypto) chwali się też tym, iż AI Act wspiera ich misję „gwarantowania SI bezpiecznej dla życia, unikając ekstremalnych wielkoskalowych zagrożeń” (tłum. własne – JM), natomiast NGO-sy uskarżają się np. na nieszczelne mechanizmy niedostatecznie chroniące obywateli przed identyfikacją biometryczną.

Zagrożeniem jest ten ekosystem doomersów

Wszystko to dobitnie przemawia za tym, iż powielanie pozbawionych naukowych podstaw narracji o egzystencjalnych zagrożeniach i rozsiewanie swoistej paniki wokół SI stało się po prostu instrumentem wywierania presji politycznej oraz bardzo intratnym biznesem – dla wszystkich zaangażowanych stron.

Nie oznacza to też zarazem, jakoby z SI nie wiązały się inne problemy, czy ryzyka. Paradoksalnie, w zasadzie to cały ekosystem doomersów sam w sobie jest znacznie większym zagrożeniem, aniżeli to, przed czym próbuje przestrzegać.

Realnie istniejących tu i teraz zagrożeń ze strony SI jest całe mnóstwo. Głosom przed nimi ostrzegającym trudno jest się przebić do medialnego mainstreamu, gdyż ten woli zajmować się wyimaginowaną apokalipsą czy równie niewiarygodnymi ryzykami masowego bezrobocia spowodowanego przez SI.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Wyłączną odpowiedzialność za wszelkie treści wspierane przez Europejski Fundusz Mediów i Informacji (European Media and Information Fund, EMIF) ponoszą autorzy/autorki i nie muszą one odzwierciedlać stanowiska EMIF i partnerów funduszu, Fundacji Calouste Gulbenkian i Europejskiego Instytutu Uniwersyteckiego (European University Institute).
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze