0:000:00

0:00

Prawa autorskie: Il: Weronika Syrkowska OKO.pressIl: Weronika Syrkows...

Rozmawiając o generatywnej sztucznej inteligencji (do której LLM się zaliczają) chcąc nie chcąc korzystamy z terminologii przywołującej na myśl czujące, myślące, intencjonalne istoty. Czytamy, że ChatGPT "uczy się" lub "jest uczony", że "odpowiada" na pytania, że "zmyśla", i tak dalej. Choć przydatne — pozwalają nam szybko intuicyjnie złapać, jak te narzędzia działają — są to jednak tylko metafory.

Pytanie, czy ChatGPT myśli albo czy jest świadome absolutnie mija się z celem.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

Bardzo łatwo jednak zaplątać się w tym języku. Wokół LLM narosła antropomorfizująca je narracja, przypisująca im cechy ludzkie. Stawiane są pytania o to, czy LLM i podobne, bardziej zaawansowane narzędzia w przyszłości, mogą być "złośliwe", czy mogą "chcieć" celowo krzywdzić ludzi. Pisane i szeroko komentowane są listy otwarte domagające się "wstrzymania prac na pół roku" ze względu na niebezpieczeństwo "utraty kontroli nad naszą cywilizacją."

To przykrywa namacalne zagrożenia i krzywdy już dziś wyrządzane przez nieodpowiedzialnie zbudowane i wdrożone LLM, kierując zamiast tego naszą uwagę na hipotetyczne scenariusze żywcem wzięte z hollywoodzkich produkcji.

Przeczytaj także:

Mityczne korzyści w przyszłości

Jak najbardziej jest to na rękę firmom tworzącym i promującym te technologie: mogą z jednej strony symulować odpowiedzialne podejście do własnych produktów, jednocześnie mitologizując ich możliwości. Nic więc dziwnego, że Sam Altman, dyrektor generalny stojącej za ChatGPT firmy, publicznie mówi o tym, że "trochę się boi" sztucznej inteligencji.

Jednocześnie tenże sam Sam Altman (a wraz z nim cała rzesza zwolenników rozwoju ogromnych modeli uczenia maszynowego) roztacza wizje świata, w którym istnieje sztuczna "superinteligencja". "Udane przejście do świata, w którym istnieje superinteligencja, jest być może najważniejszym — najbardziej pełnym nadziei, i najstraszniejszym — projektem w historii ludzkości". I jednoznacznie sugeruje, że czatboty jego firmy to nieunikniony, kluczowy krok w tym kierunku.

W podobnym tonie wypowiada się Bill Gates, wprost orzekając, że "Nadeszła Era AI" i stwierdzając, że "superinteligentna sztuczna inteligencja to nasza przyszłość".

Altman pisze o "egzystencjalnych" zagrożeniach i "nieograniczonych" korzyściach — w przyszłości. Gates domaga się, aby krytyka AI była w debacie publicznej "zrównoważona" ich "możliwościami w zakresie polepszania ludzkiego życia" — znów, w przyszłości. Problem w tym, że te szerokie, hiper-optymistyczne wizje nie są w żaden konkretny sposób (poza ogólnikami i komunałami) równoważone jakąkolwiek odpowiedzią na realne zagrożenia i realne szkody generowane i wyrządzane przez LLM już dziś. Wręcz przeciwnie.

Ekspertki zajmujące się etyką w uczeniu maszynowym lata temu zauważyły, że konieczna jest większa przejrzystość dotycząca LLM i zbiorów danych, na których modele te są trenowane.

Po swej publikacji zostały one zwolnione lub zmuszone do odejścia z Google. OpenAI zamierza być jeszcze mniej przejrzyste, niż było do tej pory. A Microsoft na początku marca zwolnił cały zespół zajmujący się etyką i sztuczną inteligencją.

Realne szkody tu i teraz

Przykładów realnych zagrożeń i szkód wyrządzanych już dziś nie trzeba daleko szukać.

Europol ostrzega przed phishingiem automatycznie generowanym przez ChatGPT. Maile i inne wiadomości mające nas przekonać do kliknięcia w niebezpieczny link można tworzyć szybko, tanio, i będą brzmieć bardzo przekonująco.

W podobnym kierunku idą porady amerykańskiej Federalnej Komisji Handlu — co ciekawe, podkreślając, że twórcy takich systemów (a nie tylko osoby z nich korzystające w niecnych celach) ponoszą tu pewną odpowiedzialność.

Chatboty oparte o LLM szkodzą nawet ich własnym twórcom. Google musiało się gęsto tłumaczyć po tym, jak Google Bard — na pytanie o źródła swoich danych treningowych — odpowiedział, że do jego treningu użyto m.in. maili z GMaila. Okazało się, że Bard tę odpowiedź… "zmyślił".

Podobnie zresztą "zmyślają" inne wielkie modele językowe. Jest to na tyle poważny problem, że "The Guardian" (którego nieistniejące artykuły były "cytowane" przez ChatGPT) stworzył wewnętrzny zespół mający się temu problemowi przyjrzeć. To oznacza realne koszty dla brytyjskiego portalu. Czy OKO.press powinno również mieć na to budżet?

Zmyślenie goni zmyślenie

Nie dość jednak, że systemy te "zmyślają", to jeszcze wzajemnie cytują swoje urojenia.

Chatbot Bard został oficjalnie udostępniony przez Google 21 marca. Komentując tę informację na forum Hacker News ktoś zażartował, że dokładnie rok później Google ogłosi jego zamknięcie. Jeszcze tego samego dnia inna osoba spytała Google Bard kiedy zostanie zamknięty — na co Bard odrzekł, że już został zamknięty, cytując… tenże żartobliwy komentarz na Hacker News. Śmieszną, nieco wstydliwą dla Google sytuację opisał między innymi portal Windows Central. Następnego dnia, chatbot Bing, spytany czy Bard został zamknięty, odrzekł, że owszem, 21 marca. I zalinkował do artykułu Windows Central opisującego urojenie Barda na temat własnej daty zamknięcia.

Inny, bardziej namacalny przykład: amerykański profesor, badający temat nadużyć seksualnych na amerykańskich uniwersytetach, zapytał ChatGPT o pięć przykładów tego typu skandali, i poprosił o konkretne cytaty i linki do źródeł. Otrzymał odpowiedź zawierającą m.in. zmyślony skandal dotyczący prof. Jonathana Turleya, cytujący nieistniejący artykuł Washington Post. Skontaktował się więc z prof. Turleyem, ten zaś opisał doświadczenie bycia pomówionym przez ChatGPT u siebie na blogu i w USA Today. Gdy sprawie przyjrzał się również Washington Post, okazało się, że chatbot Bing powtarza fałszywe pomówienie, cytując przy tym… artykuł prof. Turleya na temat tegoż fałszywego pomówienia!

Spytany o sprawę dział prasowy Microsoftu odpowiedział prof. Turleyowi, że firma "podejmuje kroki, by upewnić się, że wyniki wyszukiwania są bezpieczne i trafne." Możemy więc spać spokojnie!

Zabawa z ogniem

Nietrudno dojść do wniosku, że firmy tworzące ogromne modele językowe same nie są w stanie ich w wystarczającym stopniu kontrolować i zrozumieć. Ot, choćby chatbot Bing Microsoftu, który na pytanie o to, jakie ma wewnętrzne zasady, zacznie nam odpowiadać, że wśród nich jest zasada, że nie może nam odpowiadać na pytania o wewnętrzne zasady — po czym system kasuje tę odpowiedź, i zamiast tego pojawia się informacja, że nie może na to pytanie odpowiedzieć. Jak zresztą na wiele innych, na które odpowiedzi jednak udzielił. Od ChatGPT natomiast udało się uzyskać rasistowskie czy seksistowskie odpowiedzi poprzez poproszenie o napisanie odpowiedniego kodu programu komputerowego.

Dla osoby rozumiejącej, jak takie systemy mogą działać, te przykłady oznaczają, że Microsoft (w przypadku Binga) czy OpenAI (w przypadku ChatGPT) nie były w stanie wytrenować tych modeli tak, by nie odpowiadały w sposób niezgodny z polityką danej usługi. Nic dziwnego — badaczki i badacze tego typu modeli od dawna wskazują, że może to być wręcz niemożliwe, jeśli korzysta się z tak ogromnych, tak słabo opisanych i skatalogowanych zbiorów danych. Zamiast tego, dodane zostały (dalekie od doskonałości) filtry, mające wyłapywać potencjalnie problematyczne pytania i odpowiedzi.

Udostępnienie publicznie systemów, których sami twórcy nie rozumieją i nie potrafią kontrolować, w sposób pozwalający im wchodzić we wzajemne interakcje, jest skrajnie nieodpowiedzialne.

Spekulacyjna gorączka

Pod koniec ubiegłego wieku firma analityczna Gartner opublikowała wykres "cyklu bajery" (ang. Gartner's Hype Cycle). Krzywa zaczyna się jakimś osiągnięciem technologicznym, szybko wspina się na "szczyt nadętych oczekiwań", po czym ostro spada w "padół rozczarowania", by zaraz znów nieco wspiąć się "zboczem oświecenia", osiągając ostatecznie "płaskowyż produktywności". To oczywiście pewna uproszczona metafora, ale jakże pomocna przy rozmowie o technologiach, co do których oczekiwania są pompowane tak absurdalnie, jak dziś w przypadku LLM.

Nie każda technologia podąża tą trajektorią. Szczepionki mRNA zostały błyskawicznie skutecznie wdrożone do walki z pandemią, nie było czasu na bajerowanie. Lansowana od dekad wirtualna rzeczywistość to nadal tylko ciekawostka bez szerokich praktycznych zastosowań (choć wiele firm wpompowało w nią miliardy z pieniędzy zbajerowanych inwestorów). A różne promowane na początku XX wieku medykamenty z nowo wówczas odkrytymi pierwiastkami radioaktywnymi (jak niesławna radioaktywna pasta do zębów czy Radithor) okazały się nie tylko nieskuteczne, ale wręcz śmiertelnie niebezpieczne dla osób, które nabrały się na nieodpowiedzialny marketing ich producentów.

Można śmiało powiedzieć, że Cykl Bajery Gartnera w pełni przeszedł Internet — pomimo bańki internetowej z przełomu tysiąclecia i spowodowanego nią rozczarowania, trudno dziś wyobrazić sobie życie bez dostępu do globalnej sieci (notabene ciekawe, że nikt już jej nie nazywa "autostradą informacyjną"). To jednak stało się możliwe dopiero wtedy, gdy zniknął wstępny, nadmuchany nierealistycznymi oczekiwaniami, niezdrowy entuzjazm.

Wielkie modele językowe są dziś gdzieś w okolicach szczytu oczekiwań nadętych wręcz karykaturalnie, do poziomu nieironicznych spekulacji na temat "superinteligencji", "egzystencjalnego zagrożenia", "utraty kontroli nad naszą cywilizacją".

Czy — po nadchodzącym rozczarowaniu — okaże się, że (jak w przypadku radioaktywnej pasty) ich szkodliwość jest większa, niż przydatność?

Czy wylądują na śmietniku historii, jak proponowane niegdyś samochody napędzane reaktorami jądrowymi? Żadna technologia nie jest przecież nieunikniona, choć Sam Altman i inni, mogący dużo na tym skorzystać, bardzo chcieliby nas o tym przekonać.

Sądzę, że z ChatGPT, Bardem, Bingiem, i innymi LLM raczej stanie się podobnie, jak z Internetem: po okresie spekulacyjnej gorączki i rozdętych oczekiwań, przyjdzie czas refleksji, dzięki której dopiero pojmiemy realne możliwości i ograniczenia tych technologii. Być może zamiast dzisiejszego wyścigu, kto zbuduje większy model, energia pójdzie wtedy w rozwój modeli mniejszych, dających się łatwiej analizować i poprawiać, a co za tym idzie skuteczniejszych w konkretnych zastosowaniach.

Odpowiedzialność i przejrzystość

Elon Musk, który podpisał wspomniany na początku list otwarty domagający się wstrzymania wielkich eksperymentów z AI, sam najwyraźniej przygotowuje się do prowadzenia takich badań inwestując w niezbędny sprzęt i tworząc odpowiedni zespół. Czyżby więc nie chodziło o wydumane ryzyko "utraty kontroli nad cywilizacją", a o to, że próbuje nadgonić konkurencję?..

Nie dajmy się bałamucić wizjami "superinteligentnych" systemów przyszłości czy "egzystencjalnych" zagrożeń. To tylko próba odwrócenia uwagi. Zamiast tego, musimy zadbać, by kontrola nad narzędziami budowanymi na modelach uczenia maszynowego nie została przejęta przez kilku ogromnych graczy, i by przede wszystkim służyła osobom z niej korzystającym.

Przyglądajmy się więc blisko, jak te systemy koncentrują władzę. Kto je kontroluje, kto na nich korzysta? Czyją pracę wykorzystano do ich wyszkolenia — i czy spytano te osoby o pozwolenie? Jakie stereotypy i uprzedzenia są w tych modelach kodowane i cementowane? Rozmawiając o odpowiedzialności za ich błędy i zmyślenia, jednoznacznie odrzućmy "math-washing": chowanie się za "algorytmem", twierdzenia o "neutralności i obiektywizmie" tych narzędzi — ostatecznie to zawsze człowiek podejmuje decyzję o ich wdrożeniu, a zatem to człowiek ponosi za nie odpowiedzialność. Domagajmy się też regulacji dotyczących przejrzystości tych narzędzi i decyzji przy ich pomocy podejmowanych.

Im szybciej nadymający oczekiwania harmider ucichnie, tym szybciej będziemy mogli generatywną sztuczna inteligencję rozwinąć w narzędzia mające nie tylko faktycznie pozytywny wpływ na nasze życie, ale i zbudowane w sposób drastycznie ograniczający związane z nimi realne szkody i zagrożenia.

;

Udostępnij:

Michał rysiek Woźniak

(https://rys.io/) jest specjalistą ds. bezpieczeństwa informacji w rejestrze domen IS. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej, a wcześniej zarządzał Fundacją Wolnego i Otwartego Oprogramowania. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium”, oraz “Katalogu Kompetencji Medialnych”.

Komentarze