Dezinformacja, manipulacja, fake news – to wszystko już było, a sztuczna inteligencja sprawiła tylko, że jest „bardziej". Problemem są kolonizatorskie zapędy gigantów technologicznych. A żeby je zwalczyć, trzeba zacząć od zdemaskowania ich narracji i języka
W zakończeniu poprzedniego tekstu o egzystencjalnych zagrożeniach ze strony sztucznej inteligencji napisałem, że w przeciwieństwie do wizji zbuntowanych, wymykających się spod kontroli maszyn, całe mnóstwo zagrożeń ze strony SI istnieje już tu i teraz. W zasadzie to jest ich aż tyle, że nawet nie wiadomo, od czego zacząć. Jakkolwiek trywialnie by to nie zabrzmiało, w Sztucznej Inteligencji najważniejsze okazują się jak zawsze władza i pieniądze.
Łatwo odwołać się do wyświechtanych scenariuszy rodem z produkcji sci-fi o superinteligentnych maszynach wymykających się spod kontroli. Z takimi wizjami rozprawiliśmy się jednak w poprzednim tekście:
Lepiej zająć się jakimś faktycznie naglącym problemem ze Sztuczną Inteligencją, a mianowicie deepfejkami.
Jak sama nazwa wskazuje, są to syntetycznie wygenerowane przy użyciu algorytmów głębokiego uczenia multimodalne treści (obrazy, dźwięk, filmy). Wraz z rozwojem takich algorytmów jakość deepfejków również wzrasta, czyniąc je niejednokrotnie bardzo trudnymi do zidentyfikowania gołym okiem (lub uchem).
Zagrożeń ze strony deepfejków upatruje się przede wszystkim w ich ogromnym potencjale do szerzenia dezinformacji na masową skalę czy do rozmaitych internetowych oszustw, wyłudzeń, podszywania się, a nawet kradzieży tożsamości.
Ofiarą takiego brutalnego deepfejkowego ataku padła na początku 2024 roku Taylor Swift. Syntetyczne treści o charakterze pornograficznym z jej udziałem krążyły po platformach społecznościowych, takich jak Twitter (obecnie X), co wymusiło na tym serwisie podjęcie pewnych działań, np. zablokowanie wyników wyszukiwania z udziałem tej znanej piosenkarki.
A przecież takie niebezpieczeństwo dotyczy nie tylko celebrytek, na dobrą sprawę także wszystkich innych kobiet. Tylko czy w innych, mniej medialnych przypadkach, platformy działałyby równie sprawnie?
Taylor Swift ma w ogóle pecha, jeśli chodzi o deepfejkowe ataki – niedawno kandydat Partii Republikańskiej na prezydenta USA Donald Trump rozpowszechniał deepfejkowe treści przedstawiające jej rzekome fanki (tzw. Swifties) oraz ją samą zachęcające do głosowania na niego. Natomiast sama Swift, znana ze wspierania Partii Demokratycznej, poparła kandydatkę właśnie tej partii w wyborach prezydenckich, Kamalę Harris.
A jeśli chodzi o samego Trumpa, to nie był to odosobniony incydent z jego strony. Na potrzeby swojej kampanii rozpowszechniał już rozmaite deepfejkowe treści właśnie z udziałem Harris, jednocześnie zarzucając sztabowi swojej rywalki (fałszywie), iż to oni wykorzystują SI, by sztucznie podrasować liczebność tłumów na swoich wiecach politycznych.
Zapewne czynił to wszystko z powodu właściwego sobie cynizmu, bo trudno przypuszczać, że nie odróżnia rzeczywistości od deepfejków. Natomiast z punktu widzenia wywołanego efektu dezinformacyjnego, to co uczynił pozostaje na dobrą sprawę bez znaczenia.
Dezinformacja potęgowana przez Sztuczną Inteligencję i jej ingerowanie w kampanie wyborcze czy nastroje wyborców są przedmiotem analiz (oraz zmartwień) ekspertów już od wielu miesięcy.
Zawsze istnieje niebezpieczeństwo, iż padniemy ofiarą jakiejś formy wyłudzenia za sprawą deepfejków, czy wyrafinowanego, sprofilowanego scamu. Na przykład, ktoś zsyntetyzuje głos bliskiej nam osoby, poprosi o pieniądze itd. – choć tu niestety wciąż skuteczne są „sprawdzone”, niekorzystające z SI metody np. „na wnuczka”.
Zagrożenie deepfejkami można też rozpatrywać w nieco szerszym społecznym kontekście. W mediach do dezinformacji od lat są wykorzystywane rozmaite nieopierające się na uczeniu maszynowym programy do obróbki graficznej zdjęć, fotomontaży czy „fotoszopowania”. Od zawsze też istnieją plotki, oszczerstwa i rozmaite inne fake newsy.
Problem nasiliły jednak media społecznościowe, przede wszystkim z uwagi na niedostateczną moderację czy kontrolę treści albo wręcz ich brak. Właśnie za sprawą tych platform można obserwować dalsze zacieranie się granic między tym, co jest autentyczne, a tym, co jest fake – już nawet abstrahując od technologii za tym stojącej. A Sztuczna Inteligencja dodatkowo pogarsza ten stan rzeczy wynosząc to, co nieautentyczne, na niespotykany dotąd poziom.
A serwisy społecznościowe nie do końca wiedzą, jak się obchodzić z deepfejkami i dezinformacją.
Nie sposób też oprzeć się wrażeniu, że tak na dobrą sprawę wcale nie chcą się tym zajmować. Chyba że dotyczy to celebrytów mogących wyrządzić im reputacyjny uszczerbek. Próbują więc przerzucać się tym gorącym kartoflem z firmami z obszaru SI.
Platformy chciałyby wymóc na nich ograniczenia możliwości generowania deepfejkowych treści oraz stosowanie znaków wodnych czy innych technik pozwalających na ich łatwą identyfikację. Natomiast firmy z obszaru Sztucznej Inteligencji (oraz regulatorzy) oczekują od platform społecznościowych większej moderacji i kontroli treści. Niektóre firmy, jak Meta, podejmują nawet próby, by używać Sztucznej Inteligencji do rozpoznawania deepfejków, choć na razie bardziej przypomina to przypadek barona Münchhausena próbującego wyciągnąć się z bagna za własne włosy.
Zresztą na końcu i tak jest najczęściej jakiś Elon Musk, który własnoręcznie decyduje, jakie treści i w jakim zakresie są dopuszczalne. Raporty pokazują, iż to za czasów Muska na Twitterze w siłę urosły rozmaite konta powiązane z reżimami w Rosji, Chinach, Iranie czy Arabii Saudyjskiej. Z kolei wiele kont uprzednio zablokowanych za rozmaite nadużycia czy mowę nienawiści, zostało przywróconych. Nie dziwi więc fakt, iż tym samym znacząco wzrosła ilość szerzonej na tym medium dezinformacji.
W dodatku Musk (po kuriozalnym głosowaniu podsumowanym przez niego samego jako „Vox Populi, Vox Dei”) przywrócił na Twittera wspomnianego wcześniej Trumpa, którego niedawno również osobiście poparł w nachodzących wyborach prezydenckich w USA. Od jakiegoś czasu również sam zaczął regularnie uciekać się do rozsiewania różnych nieprawdziwych informacji, w tym także tych deepfejkowych, zwłaszcza w kontekście amerykańskich wyborów czy sytuacji politycznej na świecie. Oczywiście używa w tym celu Twittera.
Okazuje się więc, iż zagrożenia ze strony Sztucznej Inteligencji w postaci deepfejków czy dezinformacji są niejako wtórne w stosunku do innego, nie mniej palącego zagrożenia, jakim jest brak nadzoru i kontroli społecznej nad platformami społecznościowymi oraz ich upolityczniony charakter. Lub po prostu to, że kapryśni miliarderzy sprawujący nad nimi władzę, traktują je jak swoje prywatne folwarki.
Dezinformacja i manipulacja to niejedyne dziedziny, w których Sztuczna Inteligencja zdaje się pogarszać już i tak istniejące od lat problemy. Jeśli chodzi o jej wpływ na pracę i zatrudnienie, tam również roi się od cokolwiek przesadzonych, katastrofalnych wizji technologicznego bezrobocia spowodowanego przez masową automatyzację. Nigdy w historii nic takiego się nie zdarzyło i nic nie wskazuje, ażeby miało się wydarzyć tym razem. Nie znaczy to jednak, że technologia ta nie niesie żadnych zagrożeń w kwestii pracy czy zatrudnienia – wprost przeciwnie.
Nie wchodząc w – skądinąd interesujące – rozważania na temat tego, które zawody i jakim stopniu są „zastępowalne” przez SI, nie da się zarazem uciec od przeświadczenia, iż wielu menadżerów wprost o tym marzy, ażeby „optymalizować budżety” na drodze rosnącej automatyzacji i zwalniania personelu. Publicysta Ted Chiang z „New Yorkera” zauważa, iż stosowana w ten sposób Sztuczna Inteligencja przypomina pewną prominentną, choć znaną z kontrowersyjnych i bezlitosnych praktyk firmę konsultingową, która przyczyniła się do upowszechnienia praktyki masowych zwolnień w amerykańskich przedsiębiorstwach. Służy jedynie temu, by skupiać kapitał i rozmaite zasoby w rękach tych, którzy i tak już mają ich sporo, np. firm technologicznych czy ich inwestorów. Szeregowi pracownicy są w tym procesie zdani na ich (nie)łaskę.
W bardzo podobnym tonie pisze o tym Edwin Bendyk, zauważając, że
„technologia to funkcja kapitału. Nie decyduje o własnych wykorzystaniach”.
Decydują ci, których na to stać. Sztczna Inteligencja może więc także przyczynić się do prekaryzacji – dalszego pogarszania się warunków pracy, nawet jeśli nie prowadzi to do zwolnień, a przynajmniej nie od razu. Z taką sytuacją mamy do czynienia chociażby w magazynach i centrach dystrybucyjnych (a nawet pojazdach!) firmy Amazon, gdzie SI jest używana do ciągłego monitorowania i nadzoru osób tam pracujących. Pracownicy poddawani takiej inwigilacji mogą być dodatkowo karani za niewypełnienia wyśrubowanych do niemożliwości norm. Nic dziwnego, że spotyka się to z oporem pracowników łączących się w związki zawodowe i walczących o swoje prawa na drodze sądowej.
Inwigilacja może być też (a może przede wszystkim) stosowana przez państwa. Tu prym zdają się wieść Chiny, np. stosując na masową skalę kontrowersyjną (i nierzadko zawodną) technologię rozpoznawania twarzy w czasie rzeczywistym na podstawie danych z kamer CCTV – w Unii Europejskiej rozwiązanie takie znalazło się w „Rozporządzeniu o sztucznej inteligencji” (AI Act).
Chiny dysponują całym arsenałem narzędzi Sztucznej Inteligencji w ideologicznej służbie partii rządzącej, by wspomnieć choćby o chatbocie o nazwie „Xue Xi” wytrenowanym na „myśli Xi Jinpinga”. Co więcej, Państwo Środka chętnie eksportuje powyższe technologie inwigilacyjne do innych krajów, np. afrykańskich, dodając przy tym w gratisie swój autorytarny model rządzenia. Taka masowa inwigilacja może być stosowana do zwalczania opozycji politycznej albo wprost zaprzęgnięta w tryby machiny wojennej, jak można wnioskować z doniesień o izraelskich systemach (o dość eufemistycznych nazwach jak „Lawenda” czy „Ewangelia”) służących do identyfikacji (rzekomo) militarnych celów na terenie Strefy Gazy.
Takie systemy, bazujące na mechanizmach inwigilacji, zbierają dane o Palestyńczykach, by następnie wskazać, którzy z nich kwalifikują się jako „bojownicy Hamasu”, co czyni z nich cele izraelskiego ataku. A za sprawą inwigilacji SI w czasie rzeczywistym atak taki może nastąpić nawet wtedy, gdy „cel” znajduje się w swoim domu. Według anonimowych źródeł w Siłach Obronnych Izraela, na które powołuje się izraelski lewicowy magazyn +972,
stosowanie zautomatyzowanych technik „generowania celów” pozwala w krótkim czasie wytypować tysiące takich „potencjalnych obiektów ataku”.
Tymczasem zarówno domniemana skuteczność takich narzędzi, jak i kwestia odpowiedzialności za ich użycie, pozostają bardzo mgliste i niejasne. Wiemy, że rozmaite techniki SI, np. identyfikacja biometryczna, są w pewnej mierze zawodne. Zapewne jest tak i w przypadku izraelskich systemów, natomiast – co pokazuje tekst z +972 – nie jest to wiedza dostępna opinii publicznej, a przynajmniej nie w sposób oficjalny.
Podobną atmosferę niejawności chciały utrzymać również amerykańskie firmy technologiczne, np. Google czy Amazon, których współpraca z izraelskim rządem w zakresie projektów wojskowych, w tym także w zakresie technologii SI jest udokumentowana. Gdy w niezależnych śledztwach wypłynęły potwierdzające ja dokumenty, Google zwolnił protestujących przeciwko temu pracowników, jednocześnie utrzymując, iż współpraca ta ma charakter wyłącznie cywilny.
W przypadku wyżej opisanych systemów nie mamy wprawdzie do czynienia z autonomicznymi działaniami wojennymi, gdyż koniec końców decyzję o ataku, jak i wiele innych, i tak podejmuje człowiek. Pozostaje jednak pytanie, jaka jest rola sztucznej inteligencji w tym, że praca w służbie śmiercionośnej machiny wojennej coraz bardziej przypomina pracę korporacyjnego trybika „wyrabiającego targety” – będące tutaj przecież jak najbardziej dosłownymi „ludzkimi celami”.
Jak zatem widać, Sztuczna Inteligencja bywa (nad)używana w celu egzekwowania władzy, kontroli, nadzoru czy nawet dosłownie egzekucji przez mniej lub bardziej autorytarne rządy, narcystycznych miliarderów, firmy chcące zaoszczędzić na pracownikach, inwestorów skuszonych wysoką stopą zwrotu.
Można argumentować, że przecież może być również używana w bardziej użytecznych społecznie celach. To prawda, choć wiele z takich inicjatyw, np. badania podstawowe na uczelniach, zmaga się z chronicznym niedofinansowaniem i to już na poziomie wynagrodzeń dla bardzo przecież wysoko wykwalifikowanej kadry.
Słusznie więc pisze Kate Crawford w swoim „Atlasie SI” stwierdzając, iż „sztuczna inteligencja jest manifestacją władzy”. A prof. Mirosław Filiciak z Uniwersytetu SWPS recenzując tę pozycję dodaje: „dyskusja o sztucznej inteligencji to przede wszystkim dyskusja o kształcie umowy społecznej”.
To oczywiście słuszna konstatacja, natomiast w kontekście zagrożeń ze strony SI trzeba odnotować, że niestety jak na razie nikt się z nikim na nic nie umawia, co najwyżej firmy technologiczne między sobą. Im jednak przyświeca raczej inne motto: „Nie pytaj o pozwolenie, co najwyżej potem się przeprosi”. Wybrzmiało to szczególnie donośnie kilka miesięcy temu w kontekście nieuprawnionego zsyntezowania przez OpenAI głosu łudząco podobnego do głosu Scarlett Johansson, co spotkało się ze zdecydowaną reakcją ze strony aktorki.
W podobnym duchu wypowiedział się niedawno były CEO Google Eric Schmidt, sugerując, że startupy AI, które chcą osiągnąć sukces, mogą uciekać się do kradzieży własności intelektualnej, a później zatrudniać prawników, by „ogarnęli ten bałagan”.
(Nie)poszanowanie prawa autorskiego przez firmy technologiczne to kolejne niebagatelne zagrożenie zasługujące na osobny tekst. Obserwując to, co dzieje się wokół SI w ostatnich miesiącach, nie sposób nie zauważyć, iż panuje tu swoista wolna amerykanka, jak niegdyś w przypadku mediów społecznościowych. A MIT Technology Review: przestrzega: „nie popełniajmy z SI takiego samego błędu, jaki popełniliśmy z mediami społecznościowymi”.
Sztuczna Inteligencja to władza – a tę można łatwo i na wiele sposobów nadużywać. Jednym z takich nadużyć jest opisywane przeze mnie w poprzednim tekście zawłaszczanie dyskursu publicznego na potrzeby pompowania hype’u na SI, np. pod kątem domniemanych egzystencjalnych zagrożeń wynikających z jakieś formy sztucznej superinteligencji. Czołowe firmy z obszaru SI karmią swoje modele naszymi danymi, a nas samych opowieściami o tej czy innej formie superinteligencji czekającej (lub czyhającej) tuż za rogiem.
A jak pisała na wiosnę 2023 roku w liście otwartym do Financial Times dr Mhairi Aitken z londyńskiego Instytutu Alana Turinga: „Słowa mają znaczenie – sposób, w jaki mówimy o SI, bardzo realnie wpływa na to, jak angażujemy się w SI".
Dr Aitken podkreśla, iż rozmaite narracje przypisują Sztucznej Inteligencji w przyszłości zbyt daleką idącą autonomię czy sprawczość. Podobnie jak Kate Crawford zauważa, że decyzje dotyczące projektowania tej technologii należą wyłącznie do człowieka i nie ma tu miejsca na niekontrolowany rozwój. Jednak narracje o sztucznej inteligencji mogącej wyrwać się spod kontroli mogą wpływać na regulatorów, którzy mogą skupiać się bardziej na spekulacjach na temat hipotetycznych ścieżek rozwoju SI, niż na palących problemach, jakie mamy z tą technologią obecnie.
Ostatnio dość popularne stało się także określenie „pionierska sztuczna inteligencja” (ang. frontier AI). „Pionierska” – czyli wg OpenAI taka, która „może mieć niebezpieczne zdolności wystarczające do stworzenia poważnego zagrożenia dla bezpieczeństwa publicznego".
Granica (ang. frontier) oznacza też obszar do skolonizowania, a pionier to osoba, wyrusza jako pierwsza, by skolonizować taką granicę. Oczywiście, z punktu widzenia samych kolonizatorów taka ekspansja to jak najbardziej pozytywne zjawisko.
Mówienie o „pionierskiej SI” budzi jednak słuszne skojarzenia z Dzikim Zachodem czy ogólnie kolonializmem, czyli rabunkową i przemocową eksploracją nowych terenów.
Obserwowana obecnie ekspansja sektora SI ma na dobrą sprawę właśnie taki iście kolonizatorski charakter – oligopol zachodnich firm technologicznych skupionych głównie na niewielkim obszarze Doliny Krzemowej kolonizuje i zawłaszcza coraz więcej naszych danych i w efekcie coraz więcej sfer życia zawodowego, prywatnego, a nawet publicznego.
Najbardziej cierpi wskutek takiej kolonizacji Globalne Południe, które ponosi jej koszty, a nie bierze udziału w ewentualnym podziale zysków. Zresztą to właśnie w stosunku do osób o ciemniejszym kolorze skóry (zwłaszcza kobiet) rozmaite algorytmy i modele Sztucznej Inteligencji wykazują uprzedzenia – od (nie)rozpoznawania twarzy, przez stereotypowe postrzeganie ról zawodowych, po utrudnianie dostępu do świadczeń medycznych.
Jednocześnie wiele syntetycznych głosów asystenckich mówi tzw. „białym angielskim” i taki też światopogląd odzwierciedlają. The Guardian donosi, że narzędzia oparte o SI używane przez rząd brytyjski w procesie wydawania wiz, również miały w sobie zaszyte rasistowskie uprzedzenia. Podobnie zresztą jak stosowane przez policję w USA algorytmy mające prognozować przestępczość czy skłonność do recydywy.
Także na Południe outsoursowanych jest wiele najmniej atrakcyjnych, a zarazem nieodzownych prac związanych z rozwojem narzędzi takich jak ChatGPT.
Firmy lansujące „pionierską SI” czy inną „superinteligencję” wspominają wprawdzie o rozmaitych ryzykach związanych z tą technologią, jak dezinformacja deepfejkowa czy uprzedzenia algorytmiczne. Nie dostrzegają jednak, że to ich własny, kolonizatorski model biznesowy i że założenia mu przyświecające leżą u podstaw bodaj wszystkich wymienionych w tym tekście zagrożeń.
Słusznie więc zatem dr Gina Helfirch z Uniwersytetu w Edynburgu w swoim artykule opublikowanym w czasopiśmie „AI and Ethics” nawołuje, by odrzucać określenia takie jak „pionierska SI”, gdyż jest to jedynie zabieg marketingowy, kolejny „Koń Trojański hype’u na SI”.
Myśl tę podchwytuje także Rachel Coldicutt, brytyjska ekspertka zajmująca się społecznym wpływem technologii w tekście pt. „AI Safety Is a Narrative Problem”, który ukazał się w kwietniu 2024 roku na łamach Harvard Data Science Review. Z perspektywy literaturoznawczyni, Coldicutt analizuje dyskurs o nieuchronnej, potężnej SI i grupce nieustraszonych śmiałków tech bros, która chce się z nią mierzyć, by „przynieść korzyści całej ludzkości”. Dopatruje się tu znanych od wieków literackich tropów obecnych również np. w historiach o superbohaterach targanych wewnętrznymi konfliktami.
W takich narracjach, a w zasadzie mitach, nie chodzi tyle o technologię, co po prostu o władzę – najpierw symboliczną, potem jak najbardziej realną. Stąd Coldicutt stwierdza: „Zrozumienie technologii wymaga także zrozumienia władzy; ponadto wymaga kompetencji społecznych, kulturowych, politycznych czy medialnych, jak również technicznych”.
Autorka puentuje, że jeżeli rozwój Sztucznej Inteligencji rodzi jakieś egzystencjalne zagrożenie, to właśnie w postaci firm wpływających na rynki dla swoich własnych korzyści.
Jeszcze inne zagrożenia płynące z nierozważnego forsowania narracji, czy w ogóle z myślenia o „nadludzkiej SI”, dostrzega prof. Shannon Vallor, badaczka etyki AI z Uniwersytetu w Edynburgu. W eseju pt. „The Danger Of Superhuman AI Is Not What You Think” przytacza swoją wymianę zdań z prof. Yoshuą Bengio, jednym z ojców chrzestnych SI, na temat możliwości zaistnienia tytułowej nadludzkiej SI, by ku swojemu zszokowaniu stwierdzić, iż takie dyskusje dotyczą nie tyle domniemanych lub faktycznych zdolności modeli sztucznej inteligencji, co przede wszystkim tego, jak myślimy o naszych, ludzkich zdolnościach intelektualnych.
Bengio i inni definiują inteligencję z grubsza jako pewne obliczeniowe operacje wykonywane przez biologiczny komputer, tj. mózg. Nie jest to więc nic, czego nie byłby w stanie zrobić silikonowy komputer, czyli zaawansowana SI. Myślenie takie zdaje się też wyrażać zatrudniony na wysokim stanowisku w OpenAI prof. Aleksander Mądry, który w wywiadzie dla Gazety Wyborczej mówił tak: „Siedzimy, rozmawiamy i myślimy, że to jest inteligentne. Może wcale nie różnimy się tak mocno od AI".
Jak argumentuje prof. Vallor, narracja o „nadludzkiej SI” w sposób być może i nieuświadomiony unieważnia istotę człowieczeństwa czy inteligencji – to, że jesteśmy czymś znacznie więcej niż tylko obliczeniowymi modelami przewidującymi następne słowo. W byciu nadludzkim chodzi bowiem przede wszystkim o bycie człowiekiem, a dodatkowo o bycie jeszcze obdarzonym jakąś zdolnością, jak Superman czy X-Men.
Czy nazwiemy poczciwy kalkulator nadludzkim tylko dlatego, że potrafi wykonywać obliczenia znacznie szybciej i dokładniej niż ludzie?
Humanizując czy antropomorfizując z natury niemyślącą (choć na swój sposób niekiedy sprytną i bardzo przydatną) technologię, jednocześnie niechybnie dehumanizujemy ludzi, sprowadzając ich właśnie do roli niedoskonałych białkowych kalkulatorów – i to jest według Vallor rzeczywiste egzystencjalne zagrożenie ze strony SI, przynajmniej w filozoficznym sensie.
Takie założenie leży tymczasem u podstaw myślenia o Sztucznej Inteligencji w kategoriach egzystencjalnych zagrożeń, ponieważ w ogóle dopuszcza mówienie o czymś takim jak nadludzka inteligencja, czyli hipotetyczna krzemowa maszyna obliczeniowa wydajniejsza i sprawniejsza niż ta białkowa oraz o tym, że w pewnym horyzoncie czasowym ludzkości uda się ją stworzyć. A stąd już tylko krok do scenariusza, w którym nie będziemy w stanie kontrolować tej nadludzkiej i piekielnie inteligentnej SI, gdyby chciała się zbuntować.
Apokaliptyczne narracje zakorzenione są w głębokich, odwiecznych egzystencjalnych lękach ludzkości dotyczących naszej biologicznej tożsamości i naszego miejsce na Ziemi oraz w Kosmosie. Włączenie w te lęki tej czy innej technologii nie jest ani niczym nowym, ani przesadnie odkrywczym. Nie jest też przesadnie odkrywcze, że niczym nieskrępowany biznes będzie dążył do monopolizacji i wzrostu za wszelką cenę. Dlatego zwalczając kolonizatorskie zapędy gigantów technologicznych trzeba zaczynać od zdemaskowania ich narracji i języka.
Jako ludzie mamy też tendencję, żeby przeceniać znaczenie jednorazowych, katastroficznych wydarzeń (np. buntu maszyn), jednocześnie nie doceniając tych skumulowanych – składających się z wielu pozornie niegroźnych zjawisk w ciągu wielu lat. Takim skumulowanym zagrożeniem egzystencjalnym może być np. kryzys klimatyczny, do którego jak dotąd Sztuczna Inteligencja per saldo bardziej się dokłada – poprzez zwiększone zużycie paliw kopalnych na potrzeby zasilania gigantycznych centrów danych – aniżeli mu przeciwdziała.
Chciałoby się rzec, cytując Czesława Miłosza: „Innego końca świata nie będzie”.
A zbuntowane maszyny będziemy oglądać co najwyżej na ekranach telewizorów.
Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.
Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.
Komentarze