Sztuczna inteligencja (AI) może sprzyjać dobru publicznemu, a nie tylko prywatnym zyskom, oraz wzmacniać demokrację, a nie ją osłabiać. Wymagałoby to, aby nie była pod kontrolą wielkich firm technologicznych, ale była rozwijana przez rządy i dostępna dla wszystkich obywateli
Tekst publikujemy dzięki współpracy z Future Tense. To wspólne przedsięwzięcie portalu Slate, organizacji New America oraz Uniwersytetu Stanu Arizona. Future Tense – czyli Czas przyszły – bada jak nowe technologie zmieniają nasze życie.
Istnieją uzasadnione powody, by obawiać się, że systemy sztucznej inteligencji, takie jak ChatGPT i GPT4, zaszkodzą demokracji. Debata publiczna może zostać zalana przemysłową wręcz ilością automatycznie generowanych głosów i argumentów.
Ludzie mogą wpaść w te polityczne królicze nory, dając się nabrać na powierzchownie przekonujące bzdury lub popaść w obsesję na punkcie paranoicznych relacji z wirtualnymi osobowościami, które tak naprawdę nie istnieją.
Ryzyko to może być konsekwencją świata, w którym firmy, walcząc o udziały w rynku, wdrażają słabo przetestowane systemy sztucznej inteligencji (Artificial Intelligence, AI), mając nadzieję na ustanowienie monopolu.
Ale dystopia nie jest jedyną możliwą przyszłością. Sztuczna inteligencja może sprzyjać dobru publicznemu, a nie tylko prywatnym zyskom, oraz wzmacniać demokrację, a nie ją osłabiać.
Wymagałoby to, aby AI nie była kontrolowana przez wielkie firmy technologiczne, Big Tech-y, ale raczej była rozwijana przez rządy i dostępna dla wszystkich obywateli. Ta opcja publiczna jest w naszym zasięgu, jeśli tylko tego zechcemy.
Sztuczna inteligencja zbudowana dla dobra publicznego mogłaby zostać tak dostosowana do konkretnych przypadków, żeby jak najlepiej pomóc demokracji. Mogłaby edukować obywateli, pomagać im dyskutować razem, podsumowywać ich poglądy i znajdować możliwe wspólne płaszczyzny porozumienia.
Politycy mogliby korzystać z dużych modeli językowych (Large Language Model, LLM), takich jak GPT4, aby lepiej zrozumieć, czego chcą ich obywatele.
Obecnie najnowocześniejsze systemy sztucznej inteligencji są kontrolowane przez firmy technologiczne warte wiele miliardów dolarów: Google, Meta oraz OpenAI w połączeniu z Microsoftem.
Firmy te decydują o tym, w jaki sposób współpracujemy z ich sztuczną inteligencją i jaki mamy do niej dostęp. Mogą sterować i kształtować AI tak, aby dostosować ją do swoich interesów korporacyjnych. Takiego świata nie chcemy. Chcemy natomiast takich AI, które są zarazem dobrem publicznym, jak i są ukierunkowane na działanie na rzecz dobra publicznego.
Wiemy, że istniejące LLM są „trenowane” się na materiale zebranym z internetu, który może odzwierciedlać rasistowskie uprzedzenia oraz nienawiść. Firmy starają się filtrować te zbiory danych, dopracowywać LLM oraz moderować ich wyniki w celu usunięcia uprzedzeń i toksyczności. Ale z e-maili, które wyciekły, a także z rozmów, wynika, że firmy te, w wyścigu o ustanowienie monopolu, wypuszczają na rynek na wpół gotowe produkty.
Firmy te podejmują decyzje o ogromnych konsekwencjach dla demokracji, ale demokracja niewiele robi, żeby je kontrolować.
Nie słyszymy o politycznych kompromisach, na które idą. Czy chatboty i wyszukiwarki oparte na LLM faworyzują niektóre punkty widzenia? Czy całkowicie omijają kontrowersyjne tematy?
Na razie musimy zaufać tym firmom, że ujawnią kompromisy, na jakie się decydują.
Publiczna opcja LLM zapewniłaby istotne, niezależne źródło informacji oraz poligon doświadczalny dla technologicznych wyborów o dużych konsekwencjach demokratycznych.
Mogłoby to działać na podobnych zasadach jak państwowe ubezpieczenie zdrowotne, które zwiększa dostęp do usług zdrowotnych, zapewniając jednocześnie większą przejrzystość działania i wywierając presję na ceny oraz cechy produktów wytwarzanych przez firmy komercyjne.
Pozwoliłoby to nam także określić ograniczenia LLM i, mając je na uwadze, ukierunkować ich zastosowanie.
Wiemy, że LLM często „mają halucynacje”, wyciągają wnioski, które nie są prawdziwe. Nie jest jasne, czy to nieunikniona wada w ich działaniu, czy też można ją skorygować.
Demokracja może zostać osłabiona, kiedy obywatele zaufają technologiom, które po prostu wymyślają rzeczy na chybił trafił, a firmom je sprzedającym nie będzie można zaufać, że ujawnią występujące w nich błędy.
Ale publiczna opcja sztucznej inteligencji może zrobić znacznie więcej niż tylko sprawdzać uczciwość firm technologicznych. Może testować nowe aplikacje, które mogłyby wspierać demokrację, zamiast ją podważać.
Co najbardziej oczywiste, LLM mogą pomóc nam w formułowaniu i wyrażaniu naszych poglądów oraz stanowisk politycznych, czyniąc argumenty polityczne bardziej przekonującymi i świadomymi.
Czy to w mediach społecznościowych, listach do redakcji, albo w komentarzach dla instytucji tworzących przepisy, w odpowiedzi na propozycje polityczne.
Nie oznacza to, że sztuczna inteligencja zastąpi ludzi w debacie politycznej, a jedynie pozwoli nam na wyrażenie siebie. Jeśli kiedykolwiek wysyłaliście kartkę z nadrukowanymi życzeniami albo podpisywaliście petycję, pokazywaliście, że nie macie nic przeciwko przyjęciu pomocy w wyrażaniu własnych uczuć, czy poglądów politycznych.
Sztuczna inteligencja ułatwi generowanie pierwszych szkiców, zapewni pomoc w redakcji i zasugeruje alternatywne sformułowania. Z czasem postrzeganie sztucznej inteligencji się zmieni, a w LLM nadal znajdzie się wiele rzeczy do poprawy – ale ich siła wspomagania jest realna.
Ludzie już sprawdzają i rozpatrują ich potencjał w pisaniu przemówień, lobbowaniu oraz w przekazach kampanii wyborczych. Bardzo wpływowi ludzie często polegają na osobach zawodowo zajmujących się pisaniem przemówień oraz pracownikach, którzy pomagają im rozwinąć ich myśli, a sztuczna inteligencja mogłaby odgrywać podobną rolę dla zwykłych obywateli.
Jeśli uda się rozwiązać problem halucynacji, LLM mógłby także wyjaśniać i edukować. Wyobraźmy sobie, że obywatele mogą zwrócić się do LLM, który ma wiedzę ekspercką na temat danej kwestii politycznej lub zna stanowisko konkretnego kandydata, czy partii.
Zamiast analizować nijakie i wymijające stwierdzenia skalibrowane dla masowej publiczności, poszczególni obywatele mogliby uzyskać prawdziwe polityczne zrozumienie poprzez sesje pytań i odpowiedzi z LLM, niezawodnie dostępnym i nieskończenie cierpliwym w sposób, w jaki żaden człowiek nigdy nie mógłby być.
A wreszcie, to co stanowi najambitniejsze zadanie – sztuczna inteligencja mogłaby pomóc w umożliwieniu radykalnej demokracji na wielką skalę. Jak zauważył Cosma Shalizi, profesor statystyki z Uniwersytetu Carnegie Mellon, przekazujemy decyzje wybranym politykom po części dlatego, że nie mamy czasu na rozważanie każdej kwestii.
Ale sztuczna inteligencja mogłaby zarządzać masowymi rozmowami politycznymi na czatach, w serwisach społecznościowych i innych miejscach: identyfikując wspólne stanowiska i je podsumowując, ujawniając niezwykłe argumenty, które wydają się pociągające dla tych, którzy je wysłuchali, a przy tym ograniczając ataki i obelgi do minimum.
Chatboty oparte na sztucznej inteligencji mogłyby prowadzić spotkania lokalnych społeczności i automatycznie podsumowywać perspektywy różnych uczestników.
Tego typu debata obywatelska moderowana przez sztuczną inteligencję mogłaby stanowić skuteczną alternatywę dla sondaży. Politycy zwracają się do badań opinii publicznej, aby uchwycić aktualny stan poglądów, ponieważ wysłuchać mogą tylko niewielkiej liczby wyborców, ale chcą zrozumieć, z czym się oni zgadzają, a z czym nie.
Patrząc dalej w przyszłość, technologie te mogłyby pomóc grupom wypracować kompromis i podejmować decyzje.
Wczesne eksperymenty przeprowadzone przez firmę DeepMind zajmującą się sztuczną inteligencją, sugerują, że LLM może budować mosty między ludźmi, którzy się ze sobą nie zgadzają, pomagając im osiągnąć konsensus.
Pisarka science fiction Ruthanna Emrys, w swojej niezwykłej powieści A Half-Built Garden, przedstawia, w jaki sposób sztuczna inteligencja może pomóc ludziom w prowadzeniu pogłębionych konwersacji i podejmowaniu lepszych decyzji – zamiast wykorzystywać uprzedzenia, żeby zmaksymalizować zyski.
Aby zapanowała taka przyszłość potrzeba publicznie rozwijanej sztucznej inteligencji. Jej budowa kierowana przez rządowy program rozwoju i wdrażania modeli wymaga dużo wysiłku, a największe wyzwania w rozwoju systemów AI miałyby charakter polityczny.
Niektóre narzędzia technologiczne są już publicznie dostępne. Gwoli sprawiedliwości, giganci technologiczni, tacy jak Google i Meta, od lat udostępniają wiele swoich najnowszych i najlepszych narzędzi sztucznej inteligencji we współpracy ze społecznością akademicką. Choć OpenAI jeszcze nie upubliczniło kodu źródłowego oraz cech wyuczonych swoich ostatnich modeli, konkurenci tacy jak Hugging Face zrobili to już dla podobnych systemów.
Podczas gdy najnowocześniejsze modele LLM osiągają spektakularne wyniki, robią to przy użyciu technik, które są w większości dobrze znane i szeroko stosowane w całej branży. OpenAI ujawniło dość ograniczoną ilość szczegółów dotyczących tego, w jaki sposób wyuczyło swój ostatni model, ale postęp w stosunku do poprzedniego modelu ChatGPT nie jest tajemnicą: multimodalny proces nauki akceptujący dane wejściowe zarówno w postaci obrazu, jak i tekstu.
Obecnie prowadzona na wielką skalę nauka dużych modeli językowych kosztuje setki milionów dolarów. Jest to poza zasięgiem zwykłych ludzi, ale w porównaniu do wydatków federalnych Stanów Zjednoczonych na wojsko – to drobnostka, a do tego świetna okazja na potencjalny zysk.
Chociaż możemy nie chcieć powiększania rządowej biurokracji, aby mogła sprostać temu zadaniu, możemy wdrożyć do tego zadania laboratoria rządowe, takie jak National Institute of Standards and Technology, Lawrence Livermore National Laboratory i inne laboratoria Departamentu Energii, a także uniwersytety i organizacje non-profit, mające wiedzę na temat sztucznej inteligencji i możliwości nadzorowania tego wysiłku.
Zamiast wypuszczać na wpół gotowe systemy sztucznej inteligencji do publicznego testowania, zanim zostaną udostępnione, musimy się upewnić, że są one stabilne i pewne – i że wzmocnią demokrację, a nie osłabią.
Kluczowym ruchem, który sprawił, że ostatnie modele chatbotów sztucznej inteligencji stały się znacznie bardziej użyteczne, były informacje zwrotne otrzymane od prawdziwych ludzi. Firmy zatrudniają zespoły do interakcji z wczesnymi wersjami swojego oprogramowania, aby nauczyć je, które wyniki są przydatne, a które nie.
Ci opłaceni użytkownicy szkolą modele, aby dostosować je do interesów firmy, z myślą o zastosowaniach takich jak wyszukiwanie w sieci (integrujące reklamy komercyjne) i oprogramowanie wspomagające produktywność biznesową.
Aby zbudować sztuczną inteligencję, która wspomagałaby demokrację, musielibyśmy uzyskać od ludzi informacje zwrotne dotyczące konkretnych przypadków wykorzystania w demokratycznych procesach np. moderowania spolaryzowanej dyskusji politycznej, wyjaśniania niuansów propozycji prawnej, czy wyrażenia czyjejś perspektywy wewnątrz szerszej debaty.
Pozwoli nam to na „dostosowanie” LLM do naszych wartości demokratycznych: za pomocą modeli generujących odpowiedzi na pytania, popełniających błędów oraz uczących się na podstawie odpowiedzi ludzi, bez ryzyka, że te błędy zaszkodzą użytkownikom i społeczeństwu.
Uzyskanie tego rodzaju interakcji z użytkownikami oraz informacji zwrotnych w środowisku politycznym podejrzliwym zarówno wobec sztucznej inteligencji, jak i technologii w ogóle, będzie wyzwaniem. Łatwo sobie wyobrazić, że ci sami politycy, którzy uskarżają się na brak wiarygodności takich firm jak Meta, będą jeszcze bardziej zdenerwowani pomysłem, żeby rząd brał udział w rozwoju technologii.
Jak twierdził Karl Popper, wielki teoretyk społeczeństwa otwartego, nie powinniśmy próbować rozwiązywać złożonych problemów za pomocą wielkich, aroganckich planów. Zamiast tego powinniśmy wdrażać sztuczną inteligencję stopniowo za pomocą inżynierii demokratycznej, ostrożnie badając, co działa dobrze, a co nie.
Najlepiej rozpocząć od małych kroków, stosując te technologie przy podejmowaniu lokalnych decyzji z bardziej ograniczonymi grupami interesariuszy i mniejszym wpływem.
Następny krok w eksperymentach ze sztuczną inteligencją powinien wystąpić w laboratoriach demokracji: stanach i samorządach. Internetowe spotkania lokalnych społeczności, aby przedyskutować propozycje budżetu partycypacyjnego, mogłyby być łatwym pierwszym etapem.
Komercyjnie dostępne i znajdujące się w wolnym dostępie modele mogłyby uruchomić ten proces i przyspieszyć federalne inwestycje w publiczną opcję sztucznej inteligencji.
Nawet przy takim podejściu budowanie i wdrażanie demokratycznej opcji sztucznej inteligencji będzie trudne i skomplikowane. Ale alternatywa – wzruszanie ramionami, gdy walka o dominację komercyjnej sztucznej inteligencji podważa politykę demokratyczną – będzie dużo trudniejsza i gorsza.
Tłumaczyła Anna Halbersztat
Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.
Ekspert bezpieczeństwa technologicznego, członek Berkman Klein Center for Internet & Society na Uniwersytecie Harvarda, członek zarządu Electronic Frontier Foundation i AccessNow, i członek zespołu doradczego w Electronic Privacy Information Center and VerifiedVoting.org. Jest także autorem wielu książek, najnowsza z nich to "A Hacker’s Mind: How the Powerful Bend Society’s Rules, and How to Bend Them Back".
Ekspert bezpieczeństwa technologicznego, członek Berkman Klein Center for Internet & Society na Uniwersytecie Harvarda, członek zarządu Electronic Frontier Foundation i AccessNow, i członek zespołu doradczego w Electronic Privacy Information Center and VerifiedVoting.org. Jest także autorem wielu książek, najnowsza z nich to "A Hacker’s Mind: How the Powerful Bend Society’s Rules, and How to Bend Them Back".
Naukowiec od analizy danych w Berkman Klein Center na Uniwersytecie Harvarda
Naukowiec od analizy danych w Berkman Klein Center na Uniwersytecie Harvarda
Komentarze