0:00
0:00

0:00

Prawa autorskie: Il. Mateusz Mirys / OKO.press fot.: Steve Jurvetson; Oracle Corporate Communications; Le Web; 總統府 – na licencji CC BY-SAIl. Mateusz Mirys / ...

Ostatnio rozgorzała debata o tym, czy obecny rozkwit przemysłu AI to w istocie bańka spekulacyjna. W tym tekście chciałbym wyjaśnić, skąd właściwie ten spór, dlaczego tak trudno go rozstrzygnąć, i dlaczego odpowiedź najpewniej brzmi: „raczej tak”.

AI jako Święty Graal innowacji

Zacznijmy od następującego pytania: skąd tak w ogóle to „szaleństwo” na punkcie AI, czyli Sztucznej Inteligencji (skrót od angielskiego artificial intelligence)? Jeżeli spojrzeć na historię postępu technologicznego, to z ekonomicznego punktu widzenia każda innowacja da się sprowadzić do oszczędności ludzkiej pracy i czasu – i zanim oskarżycie mnie o komunizm, na ten fakt wskazywał już Adam Smith, pisząc o roli specjalizacji pracy.

Weźmy przykład maszyny parowej. Jej wydajność w XIX wieku zaczęto opisywać końmi mechanicznymi właśnie dlatego, że pozwalała zastąpić konie, na przykład jako lokomotywa albo generator ruchu obrotowego dla maszyn przemysłowych. A konie „wynaleziono” (udomowiono i wypracowane techniki opieki i użytku) właśnie po to, żeby jako „zwierzę pociągowe” zastąpiło człowieka, na przykład do przenoszenia ciężkich przedmiotów – jeden człowiek z koniem i wozem może swobodnie przetransportować tyle dóbr, co tuzin piechurów.

Trudno zliczyć wszystkie aspekty życia, jakie ułatwił nam postęp technologiczny. Innowacje wyeliminowały gros ciężkiej pracy fizycznej (babcia kiedyś mi opowiadała, że najszczęśliwszy dzień w życiu przeżyła, kiedy z dziadkiem wreszcie zarobili na pralkę i mogli sprzedać tarkę) i umysłowej (poradzilibyście sobie z księgowością bez komputera, kalkulatora i jakiegokolwiek liczydła?), a rozpowszechnienie się nowoczesnej elektroniki uwolniło nas od wielu nudnych, bezdusznie rutynowych czynności.

Niemniej jednak istnieje jeden typ pracy, którego nie udało się nam do tej pory w ogóle zastąpić: czynności, które wymagają kreatywności, elastyczności i szybkiego osądu. Doskonały przykład to fabryka samochodów Hyundai w Georgii w USA (niedawno stało się o niej głośno, kiedy jej pracowników porwali nadgorliwi oficerowie ICE), gdzie każdą maszynę obsługuje przeciętnie dwoje pracowników, głównie w roli kontroli jakości i „trouble-shooting” (wykrywania usterek i ich usuwania).

Człowiek to maszyna być może mało precyzyjna, fizycznie słaba i delikatna, ale potrafi się szybko uczyć i adaptować do niekonwencjonalnych problemów, takich jak właśnie kontrola jakości. Celem AI od początku było odtworzenie tych umiejętności. I właśnie dlatego od początku traktowano ją jako – przynajmniej potencjalnie – „coś więcej” niż wszystkie dotychczasowe innowacje. Gdyby bowiem udało się stworzyć takie AI, stałaby się dla pracy umysłowej tym, czym u progu rewolucji przemysłowej dla pracy fizycznej (a przez to i dla samej cywilizacji) była maszyna parowa.

Przeczytaj także:

AI, czyli stochastyczne echo danych

Czy obecna AI ma rzeczywiście taki potencjał? W debacie publicznej większość jej uczestników zdaje się reprezentować skrajne poglądy – AI jest albo zbawieniem ludzkości, albo największą „ściemą” od czasu tzw. bańki dot-comów. Z drugiej strony, prawdziwi eksperci wydają się znacznie ostrożniejsi z opiniami. Zdarzają się też próby „prawdopośrodkizmu”, jak niedawny artykuł z „The New York Times” o zabawnym tytule „AI to bańka. Może to w porządku”. Żeby to zrozumieć, musimy najpierw wyjaśnić, czym właściwie są obecne modele AI.

Wbrew nazwie, modele AI nie są „inteligentne” w potocznym tego słowa rozumieniu. Nie są także „w duchu” czymś innowacyjnym, ich nowość polega raczej na tym, że dopiero teraz dysponujemy „inżynierią programowania” oraz komputerami (albo raczej: centrami obliczeniowymi), które są w stanie takie modele unieść. Tymczasem w swej najbardziej pierwotnej esencji, AI to prosty model statystyczny.

Weźmy prosty przykład. Na ulicy mija nas przypadkowa osoba. Ile zarabia? Patrząc na samą średnią krajową, powiedzielibyśmy, że niecałe 9000 zł brutto, zapewne z dużym marginesem błędu (plus minus kilka tysięcy). Ale jeśli powiecie mi nieco więcej na temat tej osoby, nasze zgadywanie mogłoby być nieco bardziej precyzyjne, na przykład typowy mężczyzna z wykształceniem średnim zarobi o 43 proc. mniej niż jego znajomy z magisterką. Ten przykład pokazuje mechanizm modelu statystycznego, ale też i jego zastosowanie, czyli obserwując jedno zdarzenie (np. poziom wykształcenia), prognozujemy jakie kolejne najpewniej się zdarzy (np. wysokość zarobków).

Historia stosowania takich modeli statystycznych sięga przynajmniej 1771 roku, kiedy brytyjski matematyk Richard Price w książce pt. „Obserwacje dotyczące płatności zwrotnych” wykorzystał tablice demograficzne do wyceny ubezpieczeń na życie (np. dla żołnierskich wdów). Rozwój cybernetyki pozwolił na rewolucję w stosowaniu statystyki, którą można z grubsza podzielić na trzy etapy.

Po pierwsze, samo pojawienie się komputerów umożliwiło porzucenie tradycyjnej, czasochłonnej metody, opartej o ołówek i liczydło.

Po drugie, upowszechnienie się komputera osobistego pozwoliło statystyce zawędrować „pod strzechy”, dzisiaj na tanim laptopie można w kilka sekund policzyć model, który kiedyś wymagał godzin pracy „przemysłowego” komputera wielkości dużego pokoju.

Na naszych oczach dokonała się wreszcie trzecia faza rewolucji: powstanie i komercjalizacja internetu sprawiły, że firmy i agencje rządowe mają dostęp do olbrzymich baz danych, nieraz z milionami lub miliardami obserwacji.

Z punktu widzenia statystyka to wspaniała wiadomość, bowiem im więcej danych, tym bogatsze mogą stać się modele statystyczne, na przykład uwzględniając większą ilość zmiennych, które potencjalnie wpływają na wyjaśniane zjawisko.

Do tego taka ilość danych pozwala odejść od tzw. modeli strukturalnych. O co w tym chodzi?

W przykładzie z płacą: tradycyjna baza danych opisuje kilka, może kilkanaście tysięcy osób (sam uczyłem się ekonometrii na takich ankietach), dlatego ekonomiści wykorzystują tu jakiś (mniej lub bardziej formalny) model teoretyczny, żeby narzucić danym pewną strukturę. Na przykład w modelu neoklasycznym płaca powinna zależeć od produktywności pracownika (w żargonie ekonomii: ile potrafi „wytworzyć” w ciągu godziny pracy), dlatego do modelu wrzucimy takie zmienne jak doświadczenie lub poziom edukacji, ale już nie kolor włosów.

Problemem tego podejścia jest to, że jakość modelu statystycznego wprost zależy od jakości modelu teoretycznego, oraz od sposobu, w jaki język teorii przekładamy na wybór danych. To oczywiste, że edukacja i doświadczenie są dobrym sygnałem „jakości” pracownika, ale nie uwzględnią wszystkich istotnych cech tej osoby, w szczególności nieobserwowalnych wprost cech charakteru. Istnieje jednak szansa, że gdybyśmy mieli bardzo bogaty zbiór obserwowalnych charakterystyk pracowników, część z nich mogłaby się okazać skorelowana z tymi ważnymi nieobserwowalnymi. Na przykład fryzura nie wpływa bezpośrednio na jakość pracy, ale można sobie wyobrazić, że może być sygnałem np. przebojowości lub niezależności.

Już w latach 50. XX wieku inżynierowie eksperymentowali z metodami statystycznymi, w których nie narzuca się modelowi żadnej struktury, ale pozwala nauczyć się jej samemu, na przykład za pomocą tzw. uczenia przez wzmacnianie (reinforcement learning). Rozwój informatyki i postępy w budowie komputerów doprowadziły wyłonienia się tzw. uczenia maszynowego (machine learning), czyli klasy olbrzymich modeli statystycznych (obecne potrafią mieć miliony parametrów), które trenuje się do rozpoznawania „głębokiej”, nieoczywistej struktury w danych.

To właśnie te modele stały się niezwykle popularne w ubiegłej dekadzie, kiedy firmy działające w e-biznesie zauważyły, że mają dostęp do dosłownie miliardów drobnych „punktów” naszego zachowania (np. kiedy ktoś coś kupuje, ile czasu przygląda się jakieś części strony internetowej albo reklamie produktu itd.). A to pozwala w czasie rzeczywistym spróbować dostosować ofertę do zachowania klienta, np. podtykając mu pod nos produkty, które (być może) chętniej kupi.

Doskonały przykład takiego produktu i nieoczywistych korelacji to nasza konsumpcja w mediach społecznościowych. W trakcie pandemii koronawirusa platformy takie jak Facebook i YouTube „zauważyły”, że ludzie, którzy chłoną skrajnie prawicowy kontent, z dużą szansą „wkręcą się” też w antyszczepionkowe materiały, chociaż parę lat wcześniej sceptycyzm do tzw. Wielkiej Pharmy i do samych szczepionek kojarzył się raczej z bogatymi „hipisami” z lewicowych przedmieść w Kalifornii.

To jest właśnie ten słynny algorytm w mediach społecznościowych, który po cichu przyczynia się do polaryzacji i zamykania się różnych grup społecznych w „bańkach informacyjnych” – nie pokaże lewakowi prawicowych materiałów o „plandemii”, bo lewak takiego materiału nie kliknie.

Obecne modele AI to tak zwane Duże Modele Językowe (LLM od angielskiego Large Learning Models), czyli kolejna ewolucja modeli Uczenia Maszynowego, opartego o rewolucyjny dokument inżynierów z Google z 2017 roku, którzy pokazali, jak takie modele statystyczne zastosować dla danych, które na pierwszy rzut oka nie są liczbami.

Dobry przykład takiej aplikacji to język. Weźmy angielskie słowo tank, które w zależności od kontekstu może znaczyć zarówno „czołg”, jak i „zbiornik” – oparty o AI translator stara się nauczyć, w zależności od charakterystyk tekstu, z którym z tych polskich słów skorelowany jest konkretny przypadek tank-u.

Podsumowując, AI to narzędzie, które stara się zbudować olbrzymi model statystyczny, za pomocą którego znajdzie ukryte, głębokie struktury w wielkim zbiorze danych. Właśnie dlatego czasami mówi się o nich, że są „stochastycznym echem” danych, na których się je tresuje.

AI (nie) jest inteligentna

Współczesne LLMy są naprawdę dobre w swoim podstawowym zadaniu i dlatego potrafią być niezwykle użyteczne. Podam Czytelnikom trzy przykłady:

Rozpoznawanie struktur jest niewątpliwie częścią naszej inteligencji i właśnie dlatego narzędzia AI są tak bardzo przydatne.

Problem w tym, że inteligencja to coś więcej – i chociaż nie do końca potrafimy ją zdefiniować,

eksperci zgadzają się, że AI brakuje podstawowej ludzkiej umiejętności osądu.

W przykładzie z tank-iem AI wychwyci korelacje w wykorzystaniu słów „czołg” i „zbiornik”, ale nie będzie rozumiała, co to właściwie jest kontekst, dlaczego tak w ogóle ważne jest poprawne tłumaczenie i jaka jest „nauczka” na przyszłość z odkrycia tej konkretnej korelacji (np., że najpewniej można ją też zastosować do słowa barrel, które oznacza beczkę lub lufę).

W szczególności AI nie zrozumie swojego własnego błędu, co w skrajnej sytuacji może doprowadzić do tzw. halucynacji, czyli sytuacji, kiedy „zobaczy” pozorny lub bezsensowny wzór (tu ciekawy przykład odtwarzania zdjęć twarzy z obrazów o niskiej rozdzielczości).

W praktyce jakość AI zależy od zbioru danych treningowych i zewnętrznej oceny, na ile poprawne jest to, co AI wypluje na wyjściu. Oznacza to, że AI zwykle słabo radzi sobie przynajmniej w dwóch typach sytuacji:

  • obsługują ją ludzie pozbawieni doświadczenia w pracy w danym kontekście lub z AI (przykład dwóch badań: pierwsze oraz drugie);
  • dane środowisko generuje dużo nietypowych sytuacji, dlatego wymaga elastyczności, pomysłowości i nieszablonowego myślenia.

Doskonały przykład drugiego typu sytuacji to obsługa klienta, który nieraz nie rozumie technicznych szczegółów danego produktu lub nie potrafi precyzyjnie opisać problemu z produktem, dlatego wymaga „specjalnej obróbki”. I chociaż firmy próbują zastąpić drogie call centers za pomocą AI, dotychczasowe przykłady nie napawają optymizmem, vide niedawna głośna historia o firmie Klarna: eksperyment z AI zakończył się buntem klientów, dlatego Klarna musiała na nowo zatrudnić zwolnionych wcześniej kilkuset pracowników obsługi klienta, w międzyczasie telefony w call center obsadzając… inżynierami od nieudanego AI.

Podsumowując, AI jest użytecznym narzędziem, dla którego niewątpliwie istnieje nisza w nowoczesnej gospodarce. Zarazem, wbrew nazwie, jesteśmy jeszcze daleko od prawdziwie autonomicznej inteligencji, która byłaby w stanie w całości zastąpić pracę umysłową choćby na poziomie pracującego za wpis do CV praktykanta.

To prawda, że istnieje legion utalentowanych inżynierów, którzy starają się przeskoczyć obecne ograniczenia AI, ale jak widać z powyższych rozważań, zwyczajnie nie wiemy, czy w ogóle jest to możliwe w obecnym paradygmacie AI oraz jak wiele komercyjnych aplikacji obecny paradygmat może nam w praktyce zapewnić.

I to nas prowadzi do głównego pytania niniejszego artykułu: czy AI to bańka?

Skąd strach przed bańką

Powyższe rozważania sugerują, że AI może być zyskownym produktem, ale nie jest jasne – jak bardzo zyskownym. Tymczasem Big Tech założył, że mówimy o rynku, który wart jest na tyle dużo, że ekonomiczny sens mają inwestycje o wartości bilionów (!) dolarów. Co ciekawe, gros tych kosztów nie jest związana z samym oprogramowaniem, ale z wymaganą dla AI fizyczną infrastrukturą.

Pół roku temu firma doradcza McKinsey szacowała, że budowa samych centrów obliczeniowych dla branży AI pochłonie 6-7 bilionów dolarów do roku 2030, czyli 2 proc. PKB całego świata w ubiegłym roku. Co gorsza, te centra będą się szybko zużywać: budynki przetrwają oczywiście dekady, ale większość tych inwestycji to mikroprocesory, które trzeba będzie wymieniać co dekadę.

Problem pogarsza fakt, że (wciąż szybki) rozwój technologii komputerów oznaczać będzie, że te centra będą szybko stawać się przestarzałe. Do tego dochodzi budowa infrastruktury pod bieżącą obsługę, przede wszystkim produkcję energii elektrycznej (sektor AI może wkrótce stać się kluczowym graczem w energetyce jądrowej) oraz wody do chłodzenia serwerów (szacuje się, że jedno centrum obliczeniowe może nawet mieć spust wielkości miasta z 50 tysiącami mieszkańców).

Problem w tym, że jak na razie przemysł AI nie generuje nawet ułamka przychodów, które zrównoważyłyby te koszty. Dobry przykład to OpenAI, w tej chwili największa firma w branży, którą czasami nazywa się żartobliwie „piecem na gotówkę” (cash furnace). W ciągu następnych 8 lat OpenAI planuje zainwestować w same tylko centra obliczeniowe 1,4 biliona (!) dolarów, czyli 175 miliardów rocznie – to dziewięć (!) razy więcej niż jej całe tegoroczne wpływy, które wyniosą około 20 miliardów.

Ta dysproporcja jest typowa dla całej branży, zwykle szacuje się, że obecne inwestycje w AI będą miały sens tylko, jeśli branża zwiększy swoje dochody 10-krotnie (!), i to relatywnie szybko. Zarazem, jak pisałem wcześniej, optymizm branży oparty jest na wcale nieoczywistym przeświadczeniu, że AI doprowadzi do prawdziwej rewolucji na rynku pracy. Właśnie dlatego często się mawia, że AI to może być największy blef w historii gospodarki. Pisząc metaforycznie, liderzy Big Tech przypominają kogoś, kto w partii pokera ma na ręku streeta i zakłada, że inni gracze mają słabsze układy, dlatego gra va banque.

Chów wsobny

Obok przeszkód technologicznych i ekonomicznych, należy wspomnieć o problemie sektora AI ze swoją własną strukturą. O potencjalnej bańce AI zaczęło się mówić głośno, kiedy media społecznościowe obiegły schematy udziałów i kierunku inwestycji w tej branży. W skrócie: przemysł AI jest jak ciasto, które wypęczniało „samo z siebie” w obrębie sektora Big Tech.

Firmy produkujące sprzęt komputerowy (hardware) zakładają, że firmy AI (produkujące software) będą potrzebowały olbrzymiej infrastruktury dla swoich modeli, dlatego inwestują krocie w te firmy, oferując im na przykład korzystne kontrakty na mikroprocesory. W zamian, firmy AI opłacają się swoimi akcjami, oferując firmom hardware udział w przyszłych zyskach. A ponieważ obie strony tej transakcji oraz oryginalni inwestorzy w sektorze Big Tech, pozostają przekonani, że jest mowa o przychodach na poziomie setek miliardów dolarów rocznie, te transakcje w obrębie sektora są oceniane pozytywnie, co skutkuje wzrostem cen akcji i umożliwia dalsze inwestycje.

Doskonały przykład to niedawna, warta sto miliardów dolarów (czyli jedną dziewiątą PKB Polski), umowa pomiędzy producentem mikroprocesorów Nvidia a OpenAI.

W AI inwestują też gracze spoza sektora Big Tech jak na przykład giganci Venture Capital SoftBank czy Sequoia Capital. Niemniej jednak wydaje się, że relatywnie duża część tych inwestycji pozostaje w obrębie sektora, dając wrażenie „wsobnego chowu” w przemyśle.

Doświadczenia z 2008 roku i kryzysu finansowego, który wywołał Wielką Recesję, sugerują, że takie powiązania mogą mieć toksyczny charakter, napędzając spiralę „hype-u” i nierealistycznego optymizmu.

Do tego samo Big Tech jest sektorem dość specyficznym, w którym najwięksi gracze w bardzo krótkim czasie zarobili wielomiliardowe fortuny. Takie doświadczenie nie jest chyba najzdrowsze dla ludzkiej psychiki i trudno nie uciec od wrażenia, że ludzie tacy jak Elon Musk czy Mark Zuckerberg padli ofiarą kompleksu Boga. Ta dwójka to także świetny przykład tego, że techno-optymizm potrafi nieraz okazać się wyjątkowo nietrafny: wbrew obietnicom Muska z 2017 roku, SpaceX nie wysłał nawet jednej rakiety na Marsa (w tej chwili nie potrafi nawet polecieć na Księżyc), a Metaverse Zuckerberga okazał się kompletnym fiaskiem.

Reakcja na AI

Podsumowując, nie można z całą pewnością stwierdzić, że AI to bańka, ale zarazem istnieją bardzo racjonalne powody, żeby obawiać się takiego scenariusza. Stąd sceptycyzm wobec AI wyrażają nie tylko lewicowi komentatorzy (z oczywistych powodów uprzedzeni wobec Big Tech), ale też insiderzy tego sektora (niedawny przykład to Peter Thiel), a o konsekwencjach potencjalnego pęknięcia tej bańki spekulują też poważni analitycy rynkowi i ważne instytucje publiczne (tu przykład raportu Banku Anglii).

W tym miejscu chciałbym dodać jeszcze jeden czynnik niepewności, na który, mam wrażenie, większość komentatorów nie zwróciła do tej pory uwagi.

Niezależnie od tego czy AI to bańka, czy jednak przyszłość naszej gospodarki, jest to na tyle istotna innowacja, że z całą pewnością możemy spodziewać się jakiejś publicznej reakcji, w formie regulacji i publicznych inwestycji. W szczególności, istotne wydają mi się tutaj dwa czynniki.

Po pierwsze, jak wspominałem na przykładzie frontu w Ukrainie, AI ma już pierwsze prawdziwe zastosowania wojskowe, i szerzej, związane z bezpieczeństwem strategicznym, od sprzętu bojowego, przez rozpoznanie, po kontrolę cyberprzestrzeni. Ukraińskie drony to tylko wierzchołek góry lodowej, na przykład w tej chwili kilka krajów zaczyna prace nad samolotami myśliwskimi szóstej generacji. Poza postępami w sensorach i technologii stealth powszechnie uważa się, że prawdziwa rewolucja będzie zależeć właśnie od AI: tradycyjne samoloty z pilotami staną się czymś w rodzaju królowej matki dla roju na wpół autonomicznych, bezzałogowych maszyn o wyspecjalizowanym profilu zadań.

W międzyczasie, analitycy od dawna spodziewali się Drugiej Zimnej Wojny pomiędzy USA i Chinami, a do tego rosyjska inwazja na Ukrainę otworzyła prawdziwą puszkę Pandory – nagle stało się jasne, że ta rywalizacja może prowadzić do dużych „kinetycznych” konfliktów, powtórki z Korei czy Wietnamu.

Amerykańskie elity, wciąż w dużej mierze pod urokiem neoliberalizmu, nie rozumieją projektu europejskiego i minimalizują przydatność Europy oraz innych mniejszych sojuszników (jak Kanada czy Japonia) w starciu z Chinami (wyjątkowość Trumpa polega tylko na bezpośredniej brutalności, z jaką wyraża tę opinię).

Tymczasem Chiny mogą się pochwalić stale rosnącą gospodarką, olbrzymim potencjałem produkcyjnym i wielokrotnie większą od Ameryki populacją. Z tej perspektywy czujący osamotnienie Waszyngton widzi swoją ostatnią szansę w przewadze technologicznej, w szczególności właśnie w AI.

Właśnie dlatego, nawet jeśli AI to bańka, dla Ameryki to trochę bez znaczenia – inwestycje w mikroprocesory mają fundamentalne znaczenie dla bezpieczeństwa narodowego.

Drugi problem z AI jest znacznie bardziej widoczny w Europie – niezależnie od gołej zyskowności tego sektora, niesie on ze sobą kilka poważnych zagrożeń.

Oto (niekompletna) lista najgłośniejszych:

  • wspominałem wcześniej o olbrzymim zużyciu wody i energii przez centra obliczeniowe AI. Tymczasem nawet bez tego czynnika transformacja energetyczna i walka z globalnym ociepleniem wydają się krańcowo trudnym wyzwaniem gospodarczym i politycznym;
  • podzielone są zdania na temat wpływu AI na rynek pracy, ale gdyby ziściły się najbardziej optymistyczne wizje rozwoju tego sektora, oznaczałoby to przynajmniej krótkotrwałe turbulencje dla pracowników. Pisząc żartobliwie, modne jest dzisiaj mówić górnikom, że mają się uczyć programować – w optymistycznym dla AI scenariuszu to programiści musieliby uczyć się obsługi wiertła udarowego w kopalni;
  • w masowych mediach narzeka się ostatnio na tzw. AI slop (dosłownie pomyje AI), czyli zalew treści badziewnej, ale niemal darmowej w produkcji, od generowanych przez ChatGPT artykułów prasowych, których nikt nie oczyszcza z dezinformacji, przez denerwujące, plastikowe reklamy, po puste w treści kanały w mediach społecznościowych, które wypierają wartościowy content prawdziwych twórców i dziennikarzy;
  • w tej samej branży niejasne wciąż są zasady praw autorskich i doboru materiałów, na których można szkolić AI;
  • coraz bardziej realistyczne filmy deepfake mogą być częściej wykorzystywane do upokarzania lub szantażu prywatnych ludzi (tu przykład artykułu o tzw. revenge porn), a z czasem też i w walce politycznej („rozumiejący Rosję” wydają się szczególnie kochać materiały wygenerowane przez AI).

Wszystkie te problemy oznaczają, że społeczeństwa mogą zacząć domagać się regulacji, ochrony przed, lub wręcz pełnego zakazu AI w niektórych częściach gospodarki i życia społecznego. Co więcej, te regulacje siłą rzeczy nie będą od początku idealne i mogą nieraz wykraczać poza „ekonomiczną lub społeczną racjonalność”.

Tutaj chcę podkreślić: to nie jest argument przeciw takim regulacjom, ale raczej ostrzeżenie dla przemysłu AI, że musi liczyć się z reakcją społeczeństw na swoje produkty oraz że siła tej reakcji wciąż jest niepewna. Innymi słowy, obok niepewności związanej z „gołą ekonomią”, ważna dla zyskowności AI jest też niepewność instytucjonalna.

Bolesne oczyszczenie i co dalej?

Na koniec pokuszę się o prognozę scenariusza, jaki wydaje mi się na podstawie tych rozważań najbardziej prawdopodobny. Chcę podkreślić: prognozowanie jest trudne, szczególnie prognozowanie przyszłości, dlatego nie bierzcie tych słów jako pewnik, ale jedną z bardzo wielu opinii, jakie możecie uwzględnić we własnym osądzie.

W tej chwili najbardziej pesymistyczne szacunki sugerują, że aż 95 proc. (!) projektowanych produktów AI to komercyjne niewypały z zerowym zyskiem, właśnie dlatego ostatnio sektor AI porównuje się często do bańki dot-comów. Moim zdaniem to porównanie jest przynajmniej częściowo trafne.

I podobnie jak na początku XXI wieku w branży informatycznej, sektor AI nie będzie w stanie spełnić obietnicy o rewolucyjnych zyskach.

W pewnym momencie nadmierny optymizm wygaśnie i sektor czeka faza bolesnego oczyszczenia, ale nie zniknie on kompletnie. Te kilka procent firm, które trafnie zidentyfikowały prawdziwie sensowne aplikacje AI, będą miały szansę na powtórzenie sukcesu obecnych gigantów Big Tech, którym udało się wyrosnąć na zgliszczach bańki dot-comów.

I kto wie, może ich inżynierom uda się kiedyś wymyślić sposób na prawdziwą cyfrową inteligencję. Nasz problem polega na tym, że w zalewie badziewia AI slop nie sposób powiedzieć, który z obecnych projektów AI to ten odpowiednik Google’a czy Facebook’a.

;
Na zdjęciu Tomasz Makarewicz
Tomasz Makarewicz

Juniorprofesor na Uniwersytecie w Bielefeld. Interesuje się interakcjami rynków finansowych i makroekonomii, wpływem polityki monetarnej na stabilność makroekonomiczną i finansową, oraz bańkami spekulacyjnymi

Komentarze