Twórcy ChatGPT zwolnili szefa przedsiębiorstwa, by kilka dni później ponownie go zatrudnić. Tych kilka dni może się jednak okazać brzemiennymi dla rozwoju branży SI
W połowie listopada OpenAI, twórcami ChatGPT, zatrzęsła medialna wojna na górze. Zwolniony przez radę dyrektorów CEO Sam Altman po kilku pełnych zwrotów akcji dniach powrócił na stanowisko. Do przetasowań doszło zaś w samym kierownictwie organizacji.
Choć OpenAI to mała jak na standardy Doliny Krzemowej spółka, zatrudniająca mniej niż tysiąc pracowników, to jej perypetie na kilka dni zagościły na czołówkach gazet na całym świecie – także w Polsce. Dlaczego spory w jej władzach media potraktowały jako aż tak ważne? I co w zasadzie wydarzyło się w przedsiębiorstwie przez te kilka dni?
Historia konfliktu w szeregach twórców rewolucyjnej technologii brzmi jak wątek z Sukcesji, Billions, Doliny Krzemowej czy innego serialu o zakulisowych rozgrywkach w wielkich korporacjach. Nic więc dziwnego, że spotkała się z uwagą mediów – szczególnie że główni aktorzy dramatu nie szczędzili publice pikantnych szczegółów.
Zainteresowanie tą sprawą wynikało jednak zapewne także z mniej rozrywkowych pobudek. Dużą rolę odegrał publiczny wizerunek OpenAI jako organizacji rozwijającej potężne i niebezpieczne technologie niosące potencjalne ryzyko zagłady ludzkości.
Źródłem tego ryzyka miałaby być ogólna sztuczna inteligencja (AGI, Artificial General Intelligence) – typ SI cechujący się posiadaniem zdolności intelektualnych co najmniej równych ludzkim. Szczególnie groźna miałaby być „niedostosowana” (misaligned) AGI, a więc taka, która działa wbrew interesowi ludzkości. W marcu Microsoft Research opublikował dokument sugerujący, że model GPT-4 może zostać uznany za wczesną wersję ogólnej sztucznej inteligencji. W lipcu zaś OpenAI ogłosiło powołanie nowego zespołu zajmującego się „dostosowywaniem” potencjalnej AGI, na którego działalność przeznaczy 20 proc. posiadanych zasobów obliczeniowych
Z tej perspektywy zmiany we władzach OpenAI są istotne, bo dotyczą kontroli nad systemami o globalnym oddziaływaniu. Przewrót w amerykańskiej organizacji można porównać do gwałtownej wymiany reżimu państwowego. To tylko pozornie odległa analogia. Podczas tegorocznego tournée po Europie Altmana, szef OpenAI traktowany był przez przywódców, z którymi się spotykał (w tym Mateusza Morawieckiego) z estymą godną osoby równej im pozycją. Usilnie zabiegali też, by to właśnie w ich kraju otworzył swoją „ambasadę”, nie szczędząc mu komplementów, w tym wygenerowanych przez ChatGPT.
Jednocześnie zaznaczyć trzeba, że przedstawiona wyżej narracja o AGI snuta przez OpenAI i część środowiska badaczek SI jest mocno krytykowana. Przede wszystkim problematyczny jest sam koncept ogólnej sztucznej inteligencji, choćby ze względu na problemy z definiowaniem inteligencji jako takiej.
Jaskrawym tego przykładem była choćby oparta na rasistowskim podłożu definicja użyta w pierwotnej wersji dokumentu Microsoft Research. Konsensusu brakuje także w kwestii perspektywy czasowej, w jakiej mogą pojawić się systemy przejawiające cechy AGI – czy mowa raczej o kilku latach, dekadach czy pokoleniach. Problematyczne jest wreszcie upatrywanie „iskier ogólnej sztucznej inteligencji”, jak zatytułowali swoją pracę badacze z Microsoft Research, w dużych modelach językowych pokroju GPT. Ich tezy spotkały się z silną krytyką ze strony ekspertów, m.in. Gary’ego Marcusa czy Emily M. Bender.
Potencjalna wroga ludzkości AGI nie stanowi jednak jedynego zagrożenia płynącego z działalności OpenAI. Szkodliwe efekty działania wypuszczonych na rynek produktów przedsiębiorstwa – ChatGPT czy DALL-E – są już dziś możliwe do zaobserwowania. Wśród nich wskazuje się m.in. problem dezinformacji, gwałtowną automatyzację niektórych zawodów czy czerpanie korzyści z cudzej twórczości. Od tego, kto będzie rządził OpenAI, zależy, na ile organizacja weźmie odpowiedzialność za te szkody, czy będzie starać się im zapobiegać w przyszłości, jak ułoży relacje z regulatorami.
Struktura OpenAI stanowi jeden z kluczy do zrozumienia całej historii. Pod tą nazwą kryją się bowiem dwa powiązane, ale różniące się charakterem prawnym, datą i okolicznościami powstania podmioty.
Pierwszy z nich to organizacja non profit, a dokładniej organizacja charytatywna. Powstała w 2015 roku z inicjatywy wpływowych w Dolinie Krzemowej osób i organizacji, m.in. Elona Muska i Petera Thiela. Za misję obrała „zapewnienie, że ogólna sztuczna inteligencja przyniesie korzyść całej ludzkości”. Na ten cel fundatorzy zobowiązali się przekazać łącznie miliard dolarów. Fundusze te były niezbędne, by konkurować z laboratoriami badawczymi takich gigantów jak Google czy Facebook.
Rywalizacja zaczęła się z dniem ogłoszenia przez Muska i Altmana powstania organizacji. Wojciech Zaremba, jeden z głównych badaczy w OpenAI, opowiadał w 2016 roku magazynowi Wired, że chwilę po tym wydarzeniu zaczął otrzymywać od konkurencji oferty kilkukrotnie przewyższające stawkę za pracę w instytucji non profit.
Zaledwie trzy lata po powstaniu organizacji trudne współzawodnictwo z dysponującym w praktyce nieograniczonymi środkami Google stało się przyczyną pierwszego poważnego, wewnętrznego konfliktu. W 2018 roku z OpenAI odszedł Elon Musk, jeden z jego głównych fundatorów. Wówczas w oficjalnej komunikacji mówiono o „potencjalnym przyszłym konflikcie interesów” wynikającym z zaangażowania się Tesli w rozwijanie autonomicznych samochodów.
Jednak w marcu tego roku reporterzy portalu Semafor ujawnili, że kością niezgody były obawy Muska o rosnący dystans między OpenAI a Google. CEO Tesli chciał przejąć instytucję i uczynić ją bardziej konkurencyjną, co spotkało się ze sprzeciwem Altmana i pozostałych założycieli. Musk odszedł z organizacji i choć oficjalnie deklarował, że nie przestanie jej dotować, to od 2018 roku nie przekazał jej żadnych pieniędzy.
To wydarzenie miało stanowić impuls, który popchnął fundatorów OpenAI do rozbudowania struktury o kolejny podmiot. W 2019 roku ogłoszono powstanie spółki z ograniczoną odpowiedzialnością (LLC) o nietypowym modelu generowania zysku. Grono finansujących składające się do tej pory głównie z darczyńców poszerzyło się o inwestorów. Są uprawnieni do czerpania profitów z działalności OpenAI, jednak ograniczonych do poziomu stukrotności wkładu. Nadwyżkę przejmuje „oryginalne” OpenAI.
Nietypowe są też relacje między inwestorami a radą dyrektorów OpenAI – jednakową dla organizacji non profit i spółki. Cytując stronę przedsiębiorstwa: „ponieważ rada dyrektorów jest także radą organizacji non profit, każdy jej członek musi wykonywać swoje obowiązki zgodnie z misją tej organizacji – zapewnić AGI, która przynosić będzie powszechne korzyści. Choć spółka zależna nastawiona na osiąganie zysków może je wypracowywać i dystrybuować, podlega ona tej misji. Głównym beneficjentem organizacji non profit jest ludzkość, a nie inwestorzy OpenAI”.
Dodatkowemu ograniczeniu podlegają prawa do technologii udzielane inwestorom, które obejmują wyłącznie systemy niespełniające kryteriów AGI. A o tym, co je spełnia, decydują sami dyrektorzy. Teoretycznie w każdym momencie mogą więc zdecydować, że odcinają dostęp do nowopowstałej technologii, uznając ją za zbyt zaawansowaną.
Mimo tylu ograniczeń Altmanowi, CEO OpenAI, udało się pozyskać hojnych partnerów. Najważniejszym z nich został Microsoft – mniejszościowy udziałowiec spółki. W 2019 roku zainwestował w nią miliard dolarów, a więc równowartość początkowego budżetu organizacji non profit. W kolejnych latach dwukrotność tej kwoty, a w styczniu tego roku aż dziesięciokrotność, łącznie 13 miliardów USD. Dużą część tej inwestycji stanowi przy tym nie gotówka, lecz dostęp do chmury obliczeniowej Microsoft Azure.
Formalną kontrolę nad OpenAI nadal sprawuje rada organizacji charytatywnej. Jednakże, jak wskazywał choćby analityk Bloomberga Matt Levine, można argumentować, że kontrolę faktyczną sprawuje Microsoft. Szczególnie że spółka wciąż nie przynosi zysków, a przez rosnące koszty – systemów obliczeniowych czy wynagrodzeń w branży sztucznej inteligencji – jej rozwój uzależniony jest od dalszych inwestycji.
W tej złożonej strukturze opierającej się na sieci trudnych relacji szczególną rolę odgrywał Sam Altman. Po polsku jego obszerną charakterystykę napisała w kwietniu Anna Wittenberg z „Dziennika Gazety Prawnej“. W tym miejscu warto zaś przytoczyć wybrane wątki z biografii jednego z założycieli OpenAI tworzące kontekst dla jego niedawnego konfliktu z radą organizacji.
Początki jego kariery w Dolinie Krzemowej to założony wraz z ówczesnym partnerem Nickiem Sivo startup Loopt, który w 2012 roku sprzedali za niecałe 44 miliony dolarów. Obecnie nieaktywny projekt był dla Altmana przepustką do świata funduszy venture capital i akceleratorów startupów. Jeden z takich podmiotów, przedsiębiorstwo Y Combinator, które jako pierwsze zainwestowało w Loopt, w 2014 roku zatrudniło go jako prezesa. Funkcję tę pełnił do momentu zostania CEO OpenAI.
Stało się to na początku 2019 roku, krótko po konflikcie z Muskiem. Jak pisał w kwietniu dziennikarz Washington Post Gerrit De Vynck: „Odkąd przejął stery w 2019 roku, odegrał znaczącą rolę w przekształcaniu misji przedsiębiorstwa z organizacji nonprofit mającej służyć jako przeciwwaga dla big techu”. Pod jego rządami OpenAi stawało się podmiotem coraz mocniej skomercjonalizowanym – i coraz mniej transparentnym.
Strategia CEO nowopowostałej spółki spotkała się z wewnętrzną krytyką. W reakcji na zacieśniającą się współpracę z Microsoftem oraz obawy, czy rynkowa presja nie zagrozi bezpieczeństwu rozwijanych technologii, z OpenAI odeszła m.in. siódemka pracowników – późniejszych założycieli konkurencyjnego przedsiębiorstwa Anthropic.
Mimo tej porażki Altman utrzymał się na stanowisku, stając się z miesiąca na miesiąc twarzą OpenAI, uosobieniem organizacji. Nie przeszkadzał w tym fakt, że formalnie był „tylko” zależnym od rady CEO. Po sukcesie ChatGPT w 2022 roku awansował w końcu w oczach opinii publicznej na pozycję równą innym czempionom Doliny Krzemowej: Markowi Zuckerbergowi, Jeffowi Bezosowi czy Elonowi Muskowi.
Jako reprezentant OpenAI – w spotkaniach z przywódcami państw europejskich czy przed Kongresem Stanów Zjednoczonych – dbał o nieskazitelny wizerunek przedsiębiorstwa. Na krótko przed listopadowymi wydarzeniami doprowadziło go to do konfliktu z dyrektorką organizacji Helen Toner.
Jako badaczka pracująca w Centrum Bezpieczeństwa i Nowych Technologii (Center for Security and Emerging Technology) na Uniwersytecie Georgetown była współautorką opublikowanego w październiku raportu poświęconego sposobom dbania o rozwój i stosowanie SI. Zdaniem dziennikarzy NYT, Altman oskarżył ją o narażanie OpenAI poprzez krytykowanie w dokumencie praktyk organizacji i chwalenie jej konkurencji. Toner miało z tego powodu grozić usunięcie z rady dyrektorów.
Krótko później role oskarżanego i oskarżające się odwróciły. 17 listopada w poście na firmowym blogu OpenAI ogłosiło zwolnienie Sama Altmana. Jako oficjalny powód podano brak szczerości w komunikacji z radą. Stanowisko p. o. CEO objęła Mira Murati, dotychczasowa CTO. Oprócz Altmana ze stanowiskiem pożegnał się Greg Brockman, przewodniczący rady, który tego samego dnia zdradził kulisy „przewrotu pałacowego”. Dostarczycielem złych wieści miał być Ilya Sutskever – główny naukowiec i jeden z założycieli przedsiębiorstwa. Do zwolnienia obu mężczyzn doszło podczas nagłej wideokonferencji na Google Meet – choć partnerem OpenAI jest Microsoft – bez żadnego ostrzeżenia.
„Damy sobie radę. Niedługo nadejdą lepsze wieści” – kończył swój wpis Brockman.
Zdaniem dziennikarzy „New York Timesa” to Sutskever przewodził kwartetowi członków sześcioosobowej rady, który większością głosów zdecydował o zmianie szefostwa spółki. Motywować go miały obawy, że Altman ignoruje ryzyka związane ze zbyt szybkim tempem rozwoju technologii, a także poczucie bycia marginalizowanym w organizacji.
Według relacji jej pracowników przytaczanych przez dziennikarzy The Atlantic Sutskever w ostatnich latach stał się w swego rodzaju duchowym przywódcą kultu AGI. Jednocześnie wyczekiwał i obawiał się jej nadejścia, a jego fascynacja ogólną sztuczną inteligencją przyjmowała momentami ekstrawagancki wyraz. Podczas firmowego wyjazdu w 2022 roku miał ponoć skandować „Poczujcie AGI!”. Przy innej okazji zaś dokonać rytualnego spalenia drewnianej kukły mającej symbolizować „niedopasowaną” ogólną SI.
Bezpośrednim bodźcem do podjęcia próby korekty kursu rozwoju organizacji mógł być niebezpieczny przełom w badaniach, o którym według doniesień Reutersa naukowcy z OpenAI informowali dyrektorów na krótko przed zwolnieniem Altmana. Jednak nawet, jeśli decydujący nie był żaden pojedynczy moment, zdaniem dziennikarzy i komentatorów ogromną rolę odegrały obawy części rady przed zbyt szybkim rozwojem i komercjalizacją przedsiębiorstwa.
Badacz nowych technologii Henry Farrell posunął się wręcz do stwierdzenia, że „Saga OpenAI to walka między Bogiem a pieniędzmi; między dość osobliwym ruchem quasi-religijnym a całkiem zwyczajnym pragnieniem zarobienia twardej gotówki”.
Ten spór dobrze ilustruje scena opisana przez dziennikarzy NYT. Po zwolnieniu Altmana kadra zarządzająca OpenAI skonfrontowała radę z zarzutami, że swoją decyzją zagroziła dalszemu istnieniu przedsiębiorstwa. Helen Toner, członkini obawiającej się tempa rozwoju SI frakcji w firmie, zbiła te oskarżenia. Jej zdaniem jedyną misją rady jest dbanie o misję organizacji non profit, nawet jeśli będzie to wymagać zamknięcia komercyjnego skrzydła OpenAI.
Mimo radykalnego i konfrontacyjnego nastawienia dawnych kolegów i koleżanek z pracy Altman podejmował próby powrotu do organizacji. Negocjacje zakończyły się jednak kilka dni później fiaskiem. Rada dyrektorów OpenAI powołała na nowego CEO byłego szefa platformy streamingowej Twitch Emmetta Sheara. Altman z Brockmanem znaleźli zaś zatrudnienie w Microsofcie, który ogłosił powstanie dowodzonego przez nich nowego zespołu ds. badań SI.
W reakcji na te wydarzenia większość pracowników OpenAI podpisała list deklarujący, że podążą za dawnym CEO, o ile rada nie przywróci go do pracy i nie poda się do dymisji. Co ciekawe, wśród sygnatariuszy znalazł się m.in. Sutskever, który na portalu X, dawniej Twitterze, wyraził skruchę z powodu swoich wcześniejszych działań. Według reporterów Wall Street Journal rolę w zmianie stanowiska naukowca odegrały emocjonalne prośby żony Grega Brockmana, Anna. Sutskerev kilka lat wcześniej przewodniczył ich ślubowi, który odbył się w siedzibie OpenAI.
Presja rosła z różnych stron. Naciski pochodziły od pracowników, podejmującego agresywne ruchy Microsoftu, inwestorów venture capital, licznego środowiska fanów OpenAI czy osób, które zdecydowały się na odejście wraz z Altmanem. Do tego grona należeli m.in. polscy naukowcy Aleksander Mądry, Jakub Pachocki oraz Szymon Sidor. Kolejny z Polaków, Wojciech Zaremba, pozostał na stanowisku, otwarcie deklarując jednak niechęć wobec zwierzchnictwa.
Rada dyrektorów ugięła się dzień później. Sam Altman powrócił na stanowisko CEO, a dawne kierownictwo zastąpił nowy, przejściowy skład składający się z trzech osób. Przewodniczyć jej będzie Bret Taylor, były CEO Salesforce. Dyrektorem pozostał Adam D’Angelo, CEO Quory, ostatni spośród członków dawnej rady. To on miał przewodniczyć negocjacjom, które zakończyły się powrotem Altmana i ustąpieniem ze stanowisk dyrektorskich Heleny Toner, Tashy McCauley i Ilyi Sutskevera.
Trzeci członek nowej rady OpenAI okazał się największym zaskoczeniem. To Lawrence Summers, amerykański ekonomista i były Sekretarz Skarbu Stanów Zjednoczonych. W ostatnich miesiącach głośno o nim zaś głównie jako o autorze licznych – przez wielu uważanych za chybione – krytyk polityki gospodarczej gabinetu Josepha Bidena.
Nowe kierownictwo OpenAI otrzymało błogosławieństwo Microsoftu. W najbliższych miesiącach rada prawdopodobnie poszerzy się jednak o nowe osoby. Z dużym prawdopodobieństwem można zakładać, iż dobierane będą tak, by nie stanowić w przyszłości zagrożenia dla Altmana.
Choć może się to wydawać paradoksem, ciężkie chwile OpenAI okazały się sukcesem Microsoftu. Gdy 20 listopada ogłoszono zatrudnienie Altmana, wartość akcji przedsiębiorstwa osiągnęła najwyższy wynik w historii – i nie spadła, nawet gdy okazało się, że wróci on do OpenAI.
Trzymanie zajmującej się niebezpiecznymi technologiami organizacji na smyczy z dolarów wydaje się być dla giganta z Redmond idealnym rozwiązaniem. Taka relacja daje mu same korzyści i ułamek ryzyk, z jakimi wiązałoby się wchłonięcie OpenAI. Jednocześnie oznacza to dalszą koncentrację kapitałów – ekonomicznego, ludzkiego, intelektualnego – w wielkich przedsiębiorstwach.
W 2016 Cade Metz na łamach Wired pisał: „Brockman, Altman i Musk mają na celu poszerzanie otwartości, twierdząc, że nie chcą, by jedna czy dwie wielkie korporacje kontrolowały przyszłość sztucznej inteligencji”.
7 lat później OpenAI jest otwarte w zasadzie tylko z nazwy.
Wewnętrzna wojna twórców ChatGPT okazała się także porażką ich eksperymentalnego modelu zarządzania. Spięcie ze wspieranym przez Microsoft Altmanem spaliło strukturalne bezpieczniki. Suwerenność rady dyrektorów i jej wolność do odwoływania CEO okazały się fikcją. W starciu quasi-religijnej organizacji stawiającej sobie za nadrzędny cel bezpieczeństwo planety z korporacją, której oficjalną religią jest wiara we wszechmogącego dolara, ta druga jednoznacznie udowodniła swoją wyższość.
„Zapewnienie, że SI będzie służyć ludzkości, było od zawsze zadaniem zbyt ważnym, by powierzać je korporacjom, niezależnie od ich wewnętrznej struktury. To zadanie rządów, przynajmniej w teorii” – komentował w NYT Ezra Klein.
A skoro o regulatorach mowa, to umocnienie się rządów Altmana w OpenAI nie zwiastuje raczej niczego dobrego dla unijnych prawodawców. Nowy-stary CEO otwarcie walczy z aktem ws. AI, posuwając się nawet do gróźb wycofania swoich produktów z Europy. Trwające negocjacje trójstronne wokół dokumentu są trudne i burzliwe – m.in. za sprawą lobbingu OpenAI.
Wszystko to wskazuje, że bardziej niż wrogiej interesom ludzkości AGI powinniśmy dziś obawiać się wrogich im korporacji.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.
Komentarze