0:00
0:00

0:00

Prawa autorskie: Ilustrację wykonał Mateusz Mirys / OKO.pressIlustrację wykonał M...

Za takie nadmierne uczłowieczanie sztucznej inteligencji (SI) można obwiniać antropomorfizm, czyli intuicyjną tendencję polegającą na przypisywaniu ludzkich cech innym „nie-ludzkim agentom” choćby takim jak algorytmy czy modele SI. Że się uczą, myślą, są jak dzieci, rozwijają się itd.

Antropomorfizm to potężny, przypuszczalnie rozwinięty na drodze ewolucji, mechanizm. Nic dziwnego, iż myśląc o SI, chętnie po niego sięgamy. Jest prosty w użyciu, a jednocześnie porządkuje i wyjaśnia nam nieznany dotąd obszar rzeczywistości. Nieznane, a nawet w dużej mierze obce nam mechanizmy działania SI, można przedstawić w „ludzki” sposób – że są jak dzieci, tj. sprytne, ale jeszcze naiwne i niedojrzałe, ale przecież cały czas się rozwijające.

Faktycznie, boom na sztuczną inteligencję, jaki nasilił się pod koniec 2022 wraz z upublicznieniem ChatGPT (a w niedługim czasie i innych, podobnych narzędzi), oprócz ogromnego wzrostu zainteresowania tą dyscypliną, przyczynił się także do odświeżenia wielu takich antropomorficznych narracji, jakie od dekad towarzyszą tej technologii.

Przeczytaj także:

SI niedługo dorówna człowiekowi?

Jedna z nich głosiła, iż sztuczna inteligencja będzie dorównywać człowiekowi albo wręcz przerośnie go w szerokim zakresie zadań poznawczych czy intelektualnych. W myśl tej narracji (a raczej metafory), ażeby doszło do takiego momentu, sztuczna inteligencja musiałaby się jeszcze rozwinąć, obecnie pozostaje ona bowiem wciąż na etapie dziecięcym.

Ta antropomorfizująca argumentacja jest tyleż problematyczna, co nieścisła. Otóż, kiedy przypisuje się algorytmom SI ludzki wiek umysłowy czy porównuje się je do dzieci, to zarazem zakłada się tu właściwą tylko ludziom dynamikę psychorozwojową.

To znaczy – idąc tym tokiem rozumowania – owszem, może i obecnie SI jest jak kilkulatek, ale przecież cały czas się uczy i rozwija, zatem w takim tempie pozostaje tylko kwestią nieodległej przyszłości, może kilku-, kilkunastu lat, kiedy wzbije się na poziom człowieka dorosłego, a może nawet go przerośnie umysłowo.

Jakie miałoby to nieść za sobą konsekwencje dla ludzkości? To już raczej pytanie mocno futurologiczne, a nawet należące do obszaru science-fiction.

Ośmiolatek nas przerośnie za 10 lat

Jakiś czas temu w prasie można było natrafić na stwierdzenia, jakoby sztuczna inteligencja mogła być porównana do „intelektualnego poziomu rozwoju dziewięcioletniego dziecka” lub takie głoszące, że „sztuczna inteligencja jest teraz na poziomie ośmiolatka, ale za 10 lat może nas przerosnąć”.

Nie będziemy się zajmować w ramach niniejszego tekstu domysłami, co miałoby znaczyć przerośnięcie ludzkości przez AI. Skupimy się na tym, co o porównywaniu działania algorytmów SI do rozwoju umysłowego dzieci mówią badacze i badaczki, zarówno z obszarów technologicznych, jak i psychologii rozwojowej czy neurobiologii.

Co mają dzieci, a nie ma SI?

Alison Gopnik, profesor psychologii rozwojowej na Uniwersytecie Kalifornijskim w Berkeley, argumentuje, iż dzieci cechują się przede wszystkim trzema podstawowymi umiejętnościami, których SI nie posiada.

Po pierwsze mają wyobraźnię i tworzą pojęcia tłumaczące im świat.

Wykazują przy tym ciekawość, uczą się w sposób ucieleśniony, poprzez interakcje ze środowiskiem – a nie tylko i aż biernie stosując na swój sposób, niekiedy bezmyślnie, statystyczne wzorce wnioskowania na podstawie gargantuicznych ilości danych. Dzieci rozwijają się także, a może przede wszystkim, poprzez kontakt z innymi ludźmi, czy to młodszymi, czy starszymi.

Po części przekonali się o tym naukowcy z New York University, którzy opublikowali w lutym 2024 roku badanie sprawdzające, czy algorytm SI może uczyć się języka tak jak dzieci, tj. łącząc sceny wzrokowe, które widzi dziecko, z towarzyszącymi im dialogami. W tym celu zamontowano niemowlęciu biorącemu udział w badaniu na głowie kamerę, tak by móc nagrywać to, co dziecko widzi i słyszy.

Faktycznie, wytrenowawszy model SI na takich wielogodzinnych nagraniach perspektywy dziecka i transkrypcjach dialogów zebranych w ciągu kilkunastu miesięcy, udało się asocjacyjnie wyuczyć taki model około 20 pojęć (choć niekiedy dość niedokładnie), co i tak można uznać za pewien sukces, jakkolwiek mocno ograniczony.

Niewątpliwie, obliczeniowe zaimplementowanie naturalnych zdolności dziecięcych jest zadaniem niezwykle skomplikowanym – i nie jest to tylko kwestia skali, tj. dostępu do danych czy mocy obliczeniowych – dzieci bowiem, jak wspomniano, uczą się przez fizyczną i społeczną interakcję. Czyli coś, przynajmniej w tym momencie, dla SI nieosiągalnego.

Biją SI na głowę

Inne badanie opublikowane w 2023 przez samą profesor Gopnik wraz z zespołem pokazują, iż, jeśli chodzi o myślenie innowacyjne, nieszablonowe, to nawet dzieci w wieku 3-7 lat w wielu wypadkach biją SI na (wirtualną) głowę. Badano to w serii eksperymentów. Jeden z nich polegał na dopasowaniu opisu niestandardowego narzędzia do osiągnięcia zadanego celu, np.: czy do narysowania okręgu bardziej przyda się czajnik, czy linijka.

Innowacyjne rozwiązanie polegało na tym, aby po prostu zaproponować obrysowanie czajnika i w ten sposób otrzymać okrąg, aniżeli skorzystać z linijki (która przecież zazwyczaj przydaje się w rysowaniu bardziej). Okazało się, że dzieci potrafiły wpaść na innowacyjne, niestandardowe rozwiązanie takich zadań ze średnią skutecznością wynoszącą 85 proc., podczas gdy wybrane duże modele językowe (LLM) radziły sobie z takimi zadaniami znacznie gorzej (od kilkuprocentowej skuteczności, aż do 76 proc. skuteczności modelu GPT4).

Nie należy jednak postrzegać badań nad zdolnościami dzieci czy algorytmów SI w kontekście rywalizacji, czy swoistej licytacji, tj. kto wykona dane zadanie lepiej, czyli kto, na jakim poziomie rozwoju umysłowego się znajduje.

Okazuje się bowiem, że badając pod takim kątem umiejętności algorytmów SI, najwięcej dowiadujemy się po prostu o tym, jak fenomenalnie uczą się dzieci i jak chłonnym organem jest ich rozwijający się mózg.

Sztuczna inteligencja jest teraz na poziomie ośmiolatka, ale za 10 lat może nas przerosnąć. Jesteśmy jednym z ostatnich pokoleń, które coś wnosi do rozwoju i logicznego myślenia

wywiad ,07 maja 2024

Sprawdziliśmy

Choć z pozoru takie porównania mogą wydawać się niegroźnym skrótem myślowym, może kryć się za tym mocno dyskusyjny postulat uczłowieczania tej technologii poprzez sugerowanie, że może ona uczyć się w taki sposób, jak robią to ludzie

Manowce uczłowieczania

Unikajmy więc daleko idących porównań SI do dzieci i ich rozwoju. Takie antropomorficzne porównania bowiem mogą nas niepostrzeżenie sprowadzić na manowce nadmiernego uczłowieczenia technologii. Technologii, która w gruncie rzeczy sprowadza się do biernego, statystycznego przetwarzania dużych ilości danych.

Pogląd ten wyraził także na falach Polskiego Radia neurobiolog z Instytutu Nenckiego dr Paweł Boguszewski, który wprawdzie sam dostrzega chwytliwość porównywania SI do mózgu ośmiolatka, doradza jednak sceptycyzm przed takimi zestawieniami, które, jego zdaniem, zbyt łatwo można nadinterpretować czy uogólniać.

Sceptycyzm w stosunku do takich porównań wyraża także Melanie Mitchell, profesor informatyki z Santa Fe Institute, zajmująca się m.in. badaniem tego, czy algorytmy SI potrafią wnioskować i rozumować o świecie. Jest ona autorką wydanej w 2019 roku książki „Artificial Intelligence: A Guide for Thinking Humans”.

Mitchell argumentuje, iż choć faktycznie SI sprawdza się w wielu zadaniach, to jednak rozumienie świata, tak jak przejawia się u dzieci, bardzo mocno w SI kuleje. Spekuluje też, iż faktyczny przełom w rozwoju SI dokonałby się w sytuacji, gdyby wyposażyć robota w taką sztuczną inteligencję, ażeby mógł on doświadczać świata tak jak dzieci – choć oczywiście to bardzo odległa (o ile w ogóle) czasowo perspektywa.

Algorytmy SI dobre w szachy i w go

Oprócz wspomnianego już ogromnego boomu na SI, który towarzyszył jej od zarania, pojawiały się też regularnie kontrargumenty, iż SI nigdy nie nauczy się tej czy innej czynności np. gry w szachy, czy tłumaczeń w różnych językach.

Ostatnie dekady przyniosły jednak w tych obszarach kolosalny progres SI. I faktycznie, pod względem pojedynczych, izolowanych umiejętności takich właśnie jak gra w szachy czy w go, możemy powiedzieć, iż algorytmy SI „grają” znacznie lepiej niż nawet dorośli mistrzowie.

Cudzysłów bierze się stąd, iż sposób podejmowania decyzji o ruchu w danej grze różni się znacząco między ludźmi a algorytmami. Stąd pytanie, czy dalej można nazwać takie działania „grą”. Niemniej wyniki, osiągnięty ranking w szachach, czy w grze go, mówią same za siebie.

Także wspomniane wcześniej automatyczne tłumaczenia, choć niekiedy pozostawiają i zapewne będą pozostawiać wiele do życzenia, to niezaprzeczalnie progres nawet w stosunku do poprzedniej dekady jest tu skokowy.

Paradoks Moraveca

Okazuje się zatem, iż próbując zestawiać działanie algorytmów SI z rozwojem umysłowym dzieci, aktualny pozostaje wciąż sformułowany w latach 80. XX wieku paradoks Moraveca. W dużym skrócie zakłada on, iż to, co ludziom przychodzi trudno (np. gra w szachy), SI nauczy się stosunkowo łatwo, a to, co ludziom przychodzi łatwo (np. rozwój psychomotoryczny u dzieci), będzie stanowiło dla SI gigantyczny problem.

Podsumowując, antropomorfizm okazuje się być ślepą uliczką. A co gorsza, nadmiernie uczłowieczając SI, niechybnie możemy zacząć przy tym odczłowieczać, dehumanizować ludzi à rebours – to proces, który w pewnym stopniu już zachodzi

Warto mieć tego świadomość, kiedy następnym razem napotkamy chwytliwe nagłówki w stylu „Sztuczna inteligencja jest już na poziomie cztero-, ośmio- czy dziesięciolatka”. Zresztą, same nagłówki o SI to również temat na osobny tekst.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Wyłączną odpowiedzialność za wszelkie treści wspierane przez Europejski Fundusz Mediów i Informacji (European Media and Information Fund, EMIF) ponoszą autorzy/autorki i nie muszą one odzwierciedlać stanowiska EMIF i partnerów funduszu, Fundacji Calouste Gulbenkian i Europejskiego Instytutu Uniwersyteckiego (European University Institute).
Na zdjęciu Jacek Mańko
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze