Ma pełne ręce roboty. Nie tylko dlatego, że jego firma pracuje pieczołowicie nad kolejnymi wersjami ChataGPT. Szef Open AI Sam Altman chce przekonać polityków, dziennikarzy i nas wszystkich, że sztuczna inteligencja niesie za sobą więcej korzyści niż zagrożeń
Sam Altman, dyrektor generalny OpenAI (na zdjęciu), szybko awansował z kategorii „postaci szerzej nieznanych” do kategorii „jednych z najważniejszych osób w branży technologicznej”. Wszystko za sprawą ChataGPT, wielkiego modelu językowego, który OpenAI wypuściła pod koniec zeszłego roku. Nagle opinia publiczna zdała sobie sprawę, że Altman zarządza organizacją, która znajduje się na czele rozwoju najbardziej ekscytującej – i niepokojącej – technologii początku XXI wieku: sztucznej inteligencji.
A obaw związanych ze sztuczną inteligencją jest wiele. Od bardzo przyziemnych, na przykład jak wpłynie na rynek pracy, po egzystencjalne – czy powstanie pozaludzkiej superinteligencji nie doprowadzi do zagłady naszej cywilizacji?
„NIEDZIELA CIĘ ZASKOCZY” to cykl OKO.press na najspokojniejszy dzień tygodnia. Chcemy zaoferować naszym Czytelniczkom i Czytelnikom „pożywienie dla myśli” – analizy, wywiady, reportaże i multimedia, które pokazują znane tematy z innej strony, wytrącają nasze myślenie z utartych ścieżek, zaskakują właśnie.
Nie dziwi więc, że Altman odbywa właśnie rodzaj politycznego tournée. Jeszcze niedawno był w Waszyngtonie, aby wystąpić przed Kongresem, a teraz ruszył na trasę po Europie, gdzie spotkał się między innymi z prezydentem Francji Emmanuelem Macronem, zawitał też do Polski, gdzie rozmawiał z premierem Mateuszem Morawieckim.
Altman miał powody, by obawiać się przesłuchania przed amerykańskim Kongresem, a konkretnie przed senacką podkomisją zajmującą się między innymi sprawami technologii. I to nie tylko z powodu wspomnianych lęków dotyczących rozwoju sztucznej inteligencji. Niepokoić mogło go ogólne nastawienie amerykańskich polityków, wywołane ich refleksją nad błędami z ostatnich kilku lat.
Coraz głośniej mówi się o tym, że przespali oni ostatnią dużą zmianę technologiczną – rozwój wielkich korporacji cyfrowych i platform społecznościowych.
Nie uregulowali ich na czas, co zdaniem wielu jest praźródłem problemów, o których mówi się od lat. To monopolizacja rynku przez firmy w rodzaju Google czy Meta, szerząca się dezinformacja w Internecie, naruszenia prywatności i duże pole do manipulowania zachowaniami użytkowników.
Przyznał to zresztą otwarcie senator Richard Blumenthal, przewodniczący komisji, przed którą stanął Altman. „Naszym celem jest rozjaśnienie natury nowych technologii i sprawienie, że będą zarządzane odpowiedzialnie, aby uniknąć niektórych błędów z przeszłości. Kongres nie stanął na wysokości zadania w przypadku mediów społecznościowych”– tłumaczył Blumenthal.
Amerykańska polityka jest silnie spolaryzowana. Partia Demokratyczna i Partia Republikańska różnią się coraz bardziej, także w tak elementarnych kwestiach jak przestrzeganie reguł demokracji. Chęć uregulowania firm technologicznych pozostaje jednak jednym z niewielu tematów, gdzie istnieje coś w rodzaju zalążku międzypartyjnego porozumienia. W marcu tego roku Kongres przesłuchiwał Shou Zi Chewa, dyrektora generalnego Tik Toka. Chew spotkał się ze sceptycznym przyjęciem przedstawicieli obu partii.
W przypadku Altmana sprawy potoczyły się jednak znacznie lepiej. „Wydaje się, że dyrektor generalny OpenAI osiągnął w ciągu kilku godzin to, o co inni dyrektorzy technologiczni starali się od lat: oczarował Kongres” – donosił po przesłuchaniu Brian Fung, reporter CNN. Nie był on osamotniony w tych odczuciach, w amerykańskich mediach zapanowało zgodne przekonanie, że Altman poradził sobie przed Kongresem bardzo dobrze.
Co takiego zrobił dyrektor generalny OpenAI, że spotkał się z tak ciepłym przyjęciem polityków?
Mówiąc najprościej, Altman zamiast wchodzić w polemikę z kongresmenami i przekonywać ich, że sztuczna inteligencja nie stwarza żadnych zagrożeń, zgodził się z nimi. Całe jego wystąpienie przed komisją senacką można podsumować słowami: tak, ryzyko jest duże (choć potencjalne korzyści są jeszcze większe) i moja branża powinna zostać uregulowana.
Na pytanie senatorów, co proponuje, Altman zasugerował utworzenie niezależnej agencji, która będzie udzielała licencji odpowiednio zaawansowanym modelom sztucznej inteligencji. Brak takiej licencji równałby się zakazowi dalszych prac nad danym modelem, a na pewno – zakazem udostępnienia go szerszej publiczności.
Część komentatorów zaczęła od razu podejrzewać, że za postawą Altmana może kryć się czysta kalkulacja.
John Naughton, profesor specjalizujący się w dziedzinie wpływu technologii na społeczeństwo, zasugerował dwa możliwe wyjaśnienia postawy szefa OpenAI. Po pierwsze, regulacje rządowe mogą pomóc zamrozić stan gry, w tym sensie, że zduszą potencjalną konkurencję dla OpenAI i pozwolą jej utrzymać pozycję rynkowego lidera. Po drugie, Altman może mieć świadomość, że sprawy idą w złą stronę i szybko wymkną się spod kontroli, więc stara się zabezpieczyć – na zasadzie: przecież ostrzegałem, że moja branża potrzebuje regulacji, miejcie pretensje do polityków, nie do mnie.
Niezależnie od intencji przyświecających Altmanowi jedno stało się jasne po jego występie przed Kongresem: nie brak mu zdolności dyplomatycznych. Szef OpenAI wie, że technologie sztucznej inteligencji są już na starcie traktowane sceptycznie i jego firma nie może liczyć na tak entuzjastyczne i bezkrytyczne przyjęcie, z którym początkowo spotkały się Facebook, Google czy Amazon. W związku z tym odgrywanie roli bezczelnego i pewnego swoich racji prezesa nie wchodzi w grę. O wiele lepiej wyrażać, szczerą bądź pozorowaną, chęć współpracy z poszczególnymi państwami i organizacjami międzynarodowymi.
Podróż po Europie można traktować jako kontynuację kampanii dyplomatycznej Altmana. W końcu Unia Europejska interesuje się uregulowaniem firm technologicznych nie mniej niż amerykański Kongres. A nawet ma reputację dużo surowszej pod tym względem niż Stany Zjednoczone. Jakiś czas temu Unia Europejska nałożyła rekordową karę 1,2 miliarda euro na Meta za transfer prywatnych danych europejskich użytkowników Facebooka do USA.
Jeszcze przed rozpoczęciem europejskiej podróży Altmana, na stronie internetowej OpenAI pojawiła się krótka notka, której jest on współautorem i która powtarza wezwanie, by politycy podjęli działania regulacyjne. Z tą różnicą, że tym razem jest to odezwa do powstania instytucji na skalę międzynarodową.
Jak piszą autorzy notki:
„prawdopodobnie będziemy potrzebować ostatecznie czegoś na wzór Międzynarodowej Agencji Energii Atomowej do nadzorowania działań związanych z superinteligencją;
wszelkie działania powyżej określonego progu zdolności (lub zasobów, takich jak moc obliczeniowa) będą musiały podlegać międzynarodowemu organowi, który może kontrolować systemy, wymagać audytów, testować zgodność ze standardami bezpieczeństwa, nakładać ograniczenia na stopnie wdrożenia czy poziomy bezpieczeństwa, itp.”.
Podobne przesłanie powtórzył Altman podczas spotkania zorganizowanego na Uniwersytecie Warszawskim. Widać, że – nieważne, czy zwraca się do mieszkańców USA, czy Europy – konsekwentnie stosuje tę samą strategię: oswajania lęków przez przyznanie, że część z nich jest uzasadniona i interwencja rządów jest konieczna. Ostatecznie to wszystko jest podlane jednak optymistycznym przesłaniem, które ma nas przekonać do pożytku z wynalazków w rodzaju ChataGPT.
„AI i rewolucje technologiczne sprawią, że wzrośnie równość na świecie. Biedni zyskają większą szansę na awans społeczny”
– stwierdził Altman podczas spotkania na Uniwersytecie Warszawskim. Choć nie bardzo wiadomo, jak dokładnie miałoby się to stać.
Najważniejsze pytanie na dziś brzmi, czy politycy – ale też media i szerzej: opinia publiczna – dadzą się uwieść zdolnościom dyplomatycznym Sama Altmana, czy jednak naprawdę, zgodnie z zapowiedziami, wezmą sobie do serca lekcję z ostatnich kilkunastu lat. Można mieć różny stosunek do mediów społecznościowych i zarządzających nimi korporacji, ale jedno jest pewne. Bardzo szybko zmieniły one nasz świat i to w sposób, o którym, przynajmniej na początku, mało się mówiło. Wpływ na wyniki wyborów politycznych, krążenie fałszywych informacji i teorii spiskowych, monopolizacja rynku i narodziny cyfrowych gigantów. Nie tak to reklamowano.
Jednocześnie błędem byłoby stwierdzenie, że skutki wprowadzenia nowej technologii są zupełnie nieprzewidywalne. Przestrzegał ostatnio przed tym Ted Chiang, ceniony autor science fiction, w tekście dla „New Yorkera”. Jego zdaniem często przywoływana metafora dżina z butelki jest zwodnicza, bo sugeruje, że największe ryzyko ze sztuczną inteligencją polega na jej nieprzewidywalności i złudnym poczuciu kontroli.
Sam Chiang podsuwa inną metaforę –
porównanie sztucznej inteligencji do firm konsultingowych w rodzaju McKinsey & Company.
„Tak jak sztuczna inteligencja obiecuje menedżerom tani zamiennik dla ludzkich pracowników, tak też McKinsey i podobne firmy pomogły znormalizować praktykę masowych zwolnień jako sposób na zwiększenie cen akcji i wynagrodzeń dla kadry kierowniczej, przyczyniając się do zniszczenia klasy średniej w USA”.
Innymi słowy, zdaniem Chianga sztuczna inteligencja zostanie wykorzystana przez tych, którzy mają teraz najsilniejszą pozycję na rynku, czyli przez duże korporacje, a stracą na tym ci, którzy mają pozycję najsłabszą, czyli pracownicy.
Nie chodzi tu tylko o zagrożenie likwidacji wielu miejsc pracy. Na tego typu obawy Altman i inni zwolennicy sztucznej inteligencji mają gotową odpowiedź: pewne miejsca pracy mogą zniknąć, na ich miejsce powstaną jednak nowe. Tak się dzieje zawsze w wyniku rozwoju technicznego, tak wygląda postęp.
Rzecz w tym, że sztuczna inteligencja może nie tylko wprowadzić przejściowe zaburzenia na rynku pracy – kiedy jedne stanowiska będą likwidowane, a inne dopiero zaczną powstawać – ale poskutkować dużo trwalszą zmianą. Może wzmocnić przewagę największych graczy rynkowych nad pracownikami, dając im do ręki jeszcze jedno narzędzie dyscyplinowania siły roboczej.
Wielu uzna obawy Chianga za przesadzone, ale trudno powiedzieć, aby były one całkowicie nieracjonalne. Kiedy więc Altman w kolejnych przemówieniach używa analogii do bomby atomowej, być może należałoby ją potraktować bardziej serio, niż on sam.
Sztuczna inteligencja to nie tylko nowinka techniczna, ale narzędzie o głęboko politycznym potencjale, które może utrwalić bądź zmienić relacje władzy.
Gra toczy się o naprawdę wysoką stawkę.
Filozof, autor książek „Język Neoliberalizmu” (Wydawnictwo Uniwersytetu Mikołaja Kopernika, 2017) i "Gniew" (Wydawnictwo Czarne, 2020)
Filozof, autor książek „Język Neoliberalizmu” (Wydawnictwo Uniwersytetu Mikołaja Kopernika, 2017) i "Gniew" (Wydawnictwo Czarne, 2020)
Komentarze