0:000:00

0:00

Prawa autorskie: Ilustracja Weronika Syrkowska / OKO.pressIlustracja Weronika ...

W czerwcu OpenAI odnotowało dziesięcioprocentowy spadek liczby aktywnych użytkowników i użytkowniczek swojej flagowej usługi, ChatGPT. W lipcu liczba ta spadła o kolejne blisko dziesięć procent.

Nie byłaby to specjalnie istotna informacja w przypadku większości usług, ale ChatGPT – przynajmniej zdaniem OpenAI, Billa Gatesa i chóru techno-entuzjastów – nie jest zwykłą usługą. ChatGPT ma „zmienić świat”.

Statystyki bywają rzecz jasna zdradliwe. Spadek popularności może wynikać z różnych przyczyn, nie zawsze zależnych od samej usługi czy produktu. Może też być chwilowy.

Niemniej jednak porównanie z krzywymi wzrostu popularności innych cyfrowych technologii konsumenckich – jak smartfony, sieci społecznościowe, czy HDTV – wyraźnie nie wypada najlepiej. Zwłaszcza w zderzeniu z oczekiwaniami nadmuchiwanymi gorliwie do absurdalnych wręcz rozmiarów.

Przeczytaj także:

Stan gry

Coś z tą „technologią zmieniającą świat” nie idzie zgodnie z planem. Mimo wdrożenia mocno promowanego czatbota Bard coraz więcej osób zdaje się odwracać od Google. Nie przenoszą się jednak najwyraźniej do największego konkurenta – wyszukiwarki Microsoftu – znów, mimo zintegrowania z nią niedawno równie mocno promowanego czatbota Bing.

„Sztuczna inteligencja” nie jest chyba tym, czego oczekujemy po wyszukiwarkach.

Narzędzia oparte o wielkie modele językowe miały zrewolucjonizować produktywność pracy – nic dziwnego, że większość (70 proc.) dużych firm pytanych w globalnym badaniu o to, czy mają przynajmniej jeden oparty o „AI” projekt w toku, potwierdziło. Ale z tego samego badania wynika, że projekty te idą jak po grudzie, ze względu na koszty niezbędnej infrastruktury czy obawy związane z bezpieczeństwem danych.

Amazon i Apple zakazują pracownikom

Z drugiej strony, duże firmy (w tym Amazon i Apple) zaczęły zabraniać swoim pracownikom korzystania z ChatGPT i podobnych czatbotów, ze względu na (uzasadnione) obawy związane z wyciekami danych. Problem nie jest teoretyczny, taki wyciek dotknął już firmę Samsung.

Pojawia się też coraz więcej problemów natury prawnej.

Operatorzy wielkich modeli językowych upierają się, że mogą wykorzystać dowolny publicznie dostępny w Internecie tekst do ich trenowania bez pytania autorów o zdanie. Prawnicy New York Timesa, Universal Music, czy niezależni autorzy i autorki książek wydają się z tym nie zgadzać.

Duże portale zaczynają blokować możliwość pobierania danych przez roboty internetowe (ang. „crawlers”) zbierające dane do trenowania wielkich modeli językowych. Zdecydowanie nie pomoże to w rozwiązaniu problemów z uprzedzeniami, jakością odpowiedzi i „zmyśleniami” – o ile takie problemy w ogóle w tej skali da się rozwiązać.

Wątpią w to niezależne ekspertki, wątpią badacze i badaczki pracujące w OpenAI: „modele wytrenowane na Internecie mają uprzedzenia o skali Internetu”.

Usługi próbujące zmieniać swoje regulaminy, by pozwolić na wykorzystanie danych użytkowniczek i użytkowników w trenowaniu modeli uczenia maszynowego, spotykają się z krytyką na tyle silną, by się z tych zmian wycofywać.

Niedawno przeprowadzona w Stanach Zjednoczonych sonda wskazuje, że tylko 8 proc. respondentów chce przyspieszenia prac nad „sztuczną inteligencją”. Aż 72 proc. uważa, że powinny one zostać spowolnione.

„Sztuczna inteligencja” to nie magia

Przede wszystkim, rozpakujmy termin „sztuczna inteligencja”. W kontekście technologii cyfrowych termin ten nadużywany jest do odnoszenia się do różnych narzędzi opartych o szeroko pojęte uczenie maszynowe. W tym rozumieniu „sztuczna inteligencja” może oznaczać systemy diametralnie różne w zastosowaniach i poziomie skomplikowania. Od klawiatury smartfona poprawiającej nasze literówki po czatboty oparte o wielkie modele językowe (LLM).

Modele uczenia maszynowego (od tych najprostszych, używanych w klawiaturze smartfona, po te przeogromne LLMy) to maszynki do szacowania prawdopodobieństwa, a ich skuteczność opiera się na zupełnie ludzkiej inteligencji.

Na przykład zbudowane na modelach uczenia maszynowego narzędzia rozpoznawania obrazu zwracają wartość prawdopodobieństwa, że dany obraz lub jego fragment przedstawia dany obiekt czy osobę. Ich skuteczność zależy bezpośrednio od ludzkich decyzji.

Po pierwsze od tego, jakie dane uwzględnione były przy ich trenowaniu – jeśli zdjęć jakiegoś przedmiotu w danych treningowych nie ma, model nie będzie tego przedmiotu rozpoznawał.

Po drugie, od jakości kategoryzacji tych danych. Ktoś musi przejrzeć te wszystkie zdjęcia i określić, jaki przedmiot przedstawiają. Dopiero tak opisane dane mogą być przydatne w trenowaniu modelu.

Modele generatywne – na przykład wielkie modele językowe jak GPT-4 (na którym oparty jest bot ChatGPT) – działają podobnie. W przypadku tych generujących tekst zwracają odpowiedź na pytanie: „jakie słowo, fraza, zdanie wystąpiłoby z najwyższym prawdopodobieństwem po podanym tekście”. To prawdopodobieństwo jest szacowane na podstawie terabajtów tekstu użytych przy ich trenowaniu i opracowanych przy pomocy zupełnie ludzkiej inteligencji.

Te narzędzia nie „myślą”, nie są „inteligentne” w żadnym dosłownym sensie – podobnie jak „inteligentne” w dosłownym sensie nie były „inteligentne pralki” sprzed dekady. Technologicznie modele językowe są oczywiście nieporównanie bardziej od nich zaawansowane, ale na podstawowym poziomie to nadal tylko algorytmy i struktury danych.

Innymi słowy, użyty w przypadku narzędzi takich, jak ChatGPT, Google Bard, czy Microsoft Bing, termin „sztuczna inteligencja” (wraz z angielskimi skrótowcami „AI”/„AGI”) to po prostu chwyt marketingowy. Notabene pralki dziś znów promuje się jako „kontrolowane przez AI”.

Skoro operatorzy modeli językowych mogą naciągać ten termin do określania probabilistycznych czatbotów, czemu nie mogą tego robić producenci pralek w odniesieniu do swoich produktów?

Maszynka do wszystkiego

Zdaniem twórców tych narzędzi oraz rzesz przyklaskujących im technologicznych entuzjastów, „sztuczna inteligencja” ma być rzekomo dobra do wszystkiego: od wspomnianych wcześniej pralek, przez prowadzenie samochodów, po medycynę czy prawo.

Jeśli jednak coś jest do wszystkiego, to jest do niczego.

Dr Timnit Gebru – ekspertka zajmująca się etyką w kontekście uczenia maszynowego, głośno krytykująca podejście gigantów technologicznych – nazywa wielkie modele językowe „technologią bez określonej dziedziny” (ang. „unscoped technology”). To nie jest technologia odpowiadająca na konkretną potrzebę, a „rozwiązanie w poszukiwaniu problemu”.

Cena postępu?

Oczywiście stworzenie nowej technologii i szukanie odpowiedniego dla niej zastosowania metodą prób i błędów nie jest samo w sobie złe. Wręcz przeciwnie, często to podstawa postępu technologicznego!

Problem pojawia się, gdy sztucznie pompowana jest bańka absurdalnych oczekiwań, by równie sztucznie pompować akcje kilku potężnych firm. Lub gdy jako lek na brak wyszkolonych lekarzy i lekarek promowane jest inwestowanie publicznych pieniędzy w „AI w medycynie”. Co notabene wymaga udostępniania danych medycznych prywatnych osób (na czymś te modele trzeba przecież trenować!), zamiast… szkolenia nowych kadr.

Albo, gdy – mimo usilnych starań gigantów technologicznych, by takie dane były trudno dostępne – okazuje się, że cała ta zabawa ogromnymi modelami językowymi prowadzi do dramatycznego wzrostu zużycia wody przez serwerownie tych firm. I to w czasie trwającej suszy.

Każda bańka kiedyś pęka. Żadna technologia nie jest „nieunikniona”.

Niedawno pękła wreszcie spekulacyjna bańka kryptowalut i NFT – i to mimo że próbowały się na nią załapać firmy tak znane, jak Adobe czy Microsoft.

Zupełnie do uniknięcia„ okazał się Metaverse, promowany bez wytchnienia przez firmę Meta (operatora Facebooka), która wpompowała w niego niezliczone miliardy dolarów w ciągu trzech lat. Dziś te same firmy bez wytchnienia promują ”AI".

Technologie przydatne

Prawdziwie przydatna technologia to taka, o której nawet nie myślimy, gdy z niej korzystamy. Termin „radio tranzystorowe” był świetnym marketingowym chwytem, gdy tranzystory były fascynującą nową technologią. Dziś jednak trąci myszką, choć przecież każde nasze urządzenie elektroniczne ma niezliczone ilości tranzystorów.

Nikt też dziś nie reklamuje liczby tranzystorów zawartych na przykład w smartfonie – poza nielicznymi fascynatami, nikogo ta liczba nie interesuje! Ważniejsza jest dla nas funkcjonalność, cena i pobór mocy lub czas działania bez ładowania.

Podobnie stanie się z modelami uczenia maszynowego, w tym modelami językowymi. W pewnym momencie przestaniemy myśleć o nich magicznie, przypisywać im cechy zgoła ludzkie, i pytać „jak sztuczna inteligencja może pomóc w medycynie”.

Urządzeń opartych o tranzystory nie nazywamy dziś przecież „elektronowymi mózgami”. Nie pytamy, „jak tranzystory mogą pomóc w medycynie”. Skupiamy się na rozwiązaniu konkretnego problemu, a nie na tym, by znaleźć problem, który da się rozwiązać za pomocą tranzystorów.

Modele uczenia maszynowego staną się po prostu narzędziem, częścią szerokiego wachlarza technologii przydatnych w rozwiązywaniu konkretnych problemów. Będą stosowane wtedy, gdy ich wykorzystanie będzie miało sens – zamiast wciskania ich na siłę do produktów tylko po to, by móc reklamować „pralkę kontrolowaną przez sztuczną inteligencję”.

Bez udawania, wbrew doświadczeniom osób z nich korzystających i wbrew ostrzeżeniom ekspertek, że konfabulujący czatbot jest rzekomo lepszy od zwykłej wyszukiwarki.

Marketing myślenia magicznego

Na tym myśleniu magicznym i pościgiem za coraz większymi modelami zależy rzecz jasna ogromnym firmom technologicznym. Próbują przekonać nas, że „większe znaczy lepsze”, bo tylko one są w stanie tak absurdalnie ogromne modele trenować i utrzymywać.

Tymczasem znacznie mniejsze modele językowe trafiają już pod strzechy, bez niepotrzebnego wymachiwania „sztuczną inteligencją”. Ot, choćby lokalny (czyli: bez wysyłania naszych danych do żadnych zewnętrznych usług tłumaczących) tłumacz stron internetowych, którego możemy sobie już dziś zainstalować w przeglądarce Mozilla Firefox.

Oczywiście pic marketingowy wokół tych technologii dalej jest i będzie generowany. Chociaż nawet portal Bloomberg – daleki od oferowania krytycznego spojrzenia na przemysł nowych technologii – przyznaje, że „szum wokół AI zmalał”, to upiera się, że „sztuczna inteligencja będzie dokładnie tak popularna i transformatywna, jak jest reklamowana”.

Artykuł Bloomberga zilustrowany jest – nieironicznie! – zdjęciem pralki wyposażonej w „AI”.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;

Udostępnij:

Michał rysiek Woźniak

(https://rys.io/) jest specjalistą ds. bezpieczeństwa informacji w rejestrze domen IS. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej, a wcześniej zarządzał Fundacją Wolnego i Otwartego Oprogramowania. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium”, oraz “Katalogu Kompetencji Medialnych”.

Komentarze