Gdyby nie 1,5%, mogłoby nie być OKO.press

Twoja pomoc ma znaczenie

0:00
0:00

0:00

Prawa autorskie: Il. Mateusz Mirys / OKO.pressIl. Mateusz Mirys / ...

Powiedz nam, co myślisz o OKO.press! Weź udział w krótkiej, anonimowej ankiecie.

Przejdź do ankiety

Obecny rozwój technologii cyfrowych, określany nawet mianem „rewolucji AI”, nieprzypadkowo zbiega się z głębokimi przetasowaniami w polityce amerykańskiej oraz wynikającymi z nich zawirowaniami na arenie międzynarodowej.

Zjawiska te wydają się elementami tego samego procesu: przekształcania – czy raczej osłabiania roli instytucji państwowych tj. sfery publicznej, czy ogółu mechanizmów demokratycznego porządku, a nawet wypracowywanego przez dekady międzynarodowego ładu.

Dzieje się tak w niemałej mierze pod wpływem nieskrępowanego rozwoju kapitału, dla którego zarówno wojna, jak i nowe technologie – mogące przecież znacząco wpłynąć na charakter czy zakres prowadzenia działach zbrojnych – nieprzypadkowo stają się kolejnymi obszarami ekspansji.

Przeczytaj także:

Militaryzacja sztucznej inteligencji

W tym sensie sztuczna inteligencja i jej rozwój nie jest i nigdy nie był kwestią wyłącznie technologiczną; za to coraz wyraźniej ujawnia się zakorzenienie tej dyscypliny w kontekstach społecznych, politycznych, a także być może przede wszystkich wojskowych.

Obecne rozdział tego rozwoju zatacza swoistą historyczną pętlę: już w latach 50. XX wieku jednym z kluczowych mecenasów badań nad nowo powstającą dziedziną sztuczną inteligencją było wojsko, a konkretnie amerykańska Agencja Zaawansowanych Projektów Badawczych Departamentu Obrony (DARPA) – zresztą wtedy cała Dolina Krzemowa była „kompleksem militarno-przemysłowym”.

Także i współcześnie współpraca Big Techu z armią nie zaczęła się więc wraz z obecną „rewolucją AI” – wystarczy przypomnieć choćby bardzo kontrowersyjny projekt Maven realizowany przez Google w latach 2017-2018 dotyczący analizy zdjęć satelitarnych przez sztuczne sieci neuronowe.

Jako że więc Pentagon od dekad pozostaje jednym z największych publicznych inwestorów w rozwój nowych technologii, nie jest tajemnicą, że największe startupy z obszaru AI – takie jak OpenAI czy Anthropic (choć nie tylko one) – zaczęły zwracać się w tę stronę w poszukiwaniu nowych rynków zbytu dla swoich produktów.

Spółki te mimo gargantuicznych wycen ich giełdowych wartości wciąż pozostają na znacznym minusie finansowym, a stabilne kontrakty rządowe mogą stanowić atrakcyjne źródło przychodów. Co więcej, w odróżnieniu od dotychczasowych klientów instytucjonalnych spółek AI – takich jak firmy konsultingowe, wydawnictwa, różnego rodzaju korporacje czy uczelnie – amerykańska armia uchodzi za partnera bardziej przewidywalnego: dysponuje ogromnym budżetem, zawiera wieloletnie kontrakty i jest znacznie mniej kapryśna niż typowy „klient biznesowy”. Chociaż jak pokazują wydarzenia ostatnich tygodni, tego ostatniego nie można być już pewnym.

Pentagon „wdraża AI”

W fali obecnego hype’u na sztuczną inteligencję z pewnym przesytem można patrzeć na wszechobecną marketingową narrację o „wdrażaniu AI”. Kiedy jednak językiem takim zaczyna posługiwać się Pentagon, sprawa nabiera zupełnie innego ciężaru. Nie dlatego, że miałoby tu chodzić o w pełni autonomiczną broń, lecz dlatego, że mocno niedoskonała technologia w połączeniu z ideologicznym nastawieniem cechującym obecną administrację, nie wróży nic dobrego.

Faktycznie, wydarzenia z ostatnich miesięcy pokazują bowiem jasno, że Departament Obrony USA (przemianowany na Departament Wojny) realnie planuje wprowadzać u siebie najnowsze modele AI.

W czerwcu 2025 roku wybrani przedstawiciele firm technologicznych Meta, OpenAI oraz Palantir Technologies zostali zaprzysiężeni w stopniu podpułkownika, co miało formalnie włączyć ich w struktury doradcze i rezerwowe sił zbrojnych USA – to oczywiście droga na skróty, bo przecież nie przeszli żadnego formalnego przeszkolenia wojskowego. A celem było zacieśnienie współpracy czy przyspieszenie transferu kompetencji z sektora AI do wojska.

Wśród wybranych firm nie znalazł się jednak Anthropic – spółka, która na przełomie lutego i marca 2026 roku, być może wbrew własnej woli, stała się bohaterką głośnego spektaklu medialnego z udziałem najwyższych władz USA. Nie oznacza to jednak, że firma pozostawała dotąd poza orbitą zainteresowania sektora obronnego. Już wcześniej aktywnie zabiegała o kontrakty wojskowe, nawiązując współpracę z budzącą liczne kontrowersje firmą analityczno-wywiadowczą Palantir, założoną przez Petera Thiela i Alexandra Karpa.

Współpraca ta szybko zaczęła się zacieśniać. W lipcu 2025 roku Pentagon zawarł wstępne kontrakty z czterema firmami technologicznymi – Anthropic, OpenAI, Google oraz xAI – o wartości sięgającej nawet 200 milionów dolarów każdy. Zgodnie z zapowiedziami Departamentu Obrony, współpraca z Anthropic miała obejmować „prototypowanie najbardziej zaawansowanych zdolności sztucznej inteligencji, które będą rozwijać wzmacniać narodowe bezpieczeństwo Stanów Zjednoczonych”.

AI jako Objawione Przeznaczenie, czy Uber dla wojska?

Pentagon nie zamierzał poprzestawać na rozwijaniu tych dotychczasowych kontraktów i konsekwentnie rozbudowywał zarówno swoje zdolności technologiczne, jak retoryczne muskuły o strategicznym znaczeniu sztucznej inteligencji.

W grudniu 2025 roku Departament Wojny ogłosił uruchomienie platformy GenAI.mil – specjalnej infrastruktury cyfrowej, na której mają być udostępniane modele AI różnych firm. Platforma ma służyć np. do szkolenia personelu wojskowego, ale też cywilnego w korzystaniu z narzędzi opartych o AI.

Najwięcej kontrowersji wywołało jednak nie samo uruchomienie platformy, lecz oficjalny komunikat Departamentu Wojny wydane na tę okoliczność. Uderzał on bowiem językiem nasączonym sentymentem kolonialnym, czy wręcz imperialnym. Autorem najbardziej skrajnych wypowiedzi jest Emil Michael – niegdyś prawa ręka kontrowersyjnego prezesa Ubera Travisa Kalanicka, a dziś pełniący funkcję Chief Technology Officer w Pentagonie:

„Za zajęcie drugiego miejsca w globalnym wyścigu o dominację w AI nie przyznaje się nagród (…)

AI to następne amerykańskie Objawione Przeznaczenie i dopilnujemy, by zdominować ten nowy obszar”.

Bardzo trafnie więc badaczki sztucznej inteligencji, profesor Emily Bender i Alex Hanna, w swoim podcaście – z udziałem Naomi Klein – określiły tę wizję jako „Uber, tyle że dla wojska”.

Metafora ta dobrze oddaje sposób myślenia, w którym logika agresywnej ekspansji platform cyfrowych zostaje przeszczepiona na grunt instytucji wojskowych, których „biznesem” nie jest przecież dowożenie ludzi czy pizzy, lecz prowadzenie działań zbrojnych.

Co więcej, pojawia się nawet odwołanie do XIX-wiecznej ideologii Objawionego Przeznaczenia (Manifest Destiny), która przecież historycznie służyła uzasadnianiu ówczesnej ekspansji terytorialnej wciąż kształtujących się Stanów Zjednoczonych. Przy tym była to doktryna wykorzystywana do legitymizowania kolonialnej ekspansji, przymusowych przesiedleń rdzennych mieszkańców Ameryki Północnej, a w skrajnych przypadkach także przemocy czy ludobójstwa.

Wszystko to czyni jej współczesne przywołanie w kontekście technologicznego wyścigu bardzo mocno problematycznym i niepokojącymi.

Wsparcie dla działań zbrojnych

Wbrew kampanijnym zapowiedziom Donalda Trumpa, Stany Zjednoczone w jego drugiej kadencji dość chętnie sięgają po instrumenty militarne – choć z naszej perspektywy można by dodać, że nie tam, gdzie byśmy sobie najbardziej życzyli.

I tak 3 stycznia 2026 roku, w ramach operacji „Absolute Resolve”, siły amerykańskie w nielegalny z punktu widzenia prawa międzynarodowego sposób zaatakowały Wenezuelę, porywając jej prezydenta Nicolasa Maduro, zabijając przy tym ok. 100 osób.

Po ponad miesiącu, w połowie lutego pojawiły się doniesienia „Wall Street Journal”, że w przygotowaniach – a być może także w trakcie samej operacji – wykorzystano model AI Claude rozwijany przez firmę Anthropic.

Informacja ta stała się wkrótce katalizatorem publicznego konfliktu między tą spółką a Pentagonem i Trumpem. Zanim jednak do tego doszło, w połowie stycznia 2026 roku wydarzyło się coś, co można uznać za jego zapowiedź.

Podczas wystąpienia w bazie SpaceX w Teksasie, w obecności Elona Muska, sekretarz wojny Pete Hegseth wygłosił przemówienie w bardzo podobnym tonie co wcześniejszego wypowiedzi swojego podwładnego Erica Michaela.

Hegseth mówił tam, że „USA po prostu muszą wygrać strategiczną rywalizację o technologiczną dominację w XXI wieku”, wskazując właśnie na sztuczną inteligencję, systemy autonomiczne, broń hipersoniczną czy drony dalekiego zasięgu jako kluczowe pola tej rywalizacji.

„Wygramy ten wyścig, stawiając na AI w działaniach zbrojnych” – dodawał

W przemówieniu wybrzmiały też ideologiczne połajanki, zresztą zgodne z ubiegłorocznym rozporządzeniem wykonawczym Trumpa o stawianiu na AI:

„AI używana przez Departament Wojny nie będzie „woke’ ani inkluzywna”

Oraz:

„Nie będziemy korzystać z modeli AI, które nie pomagają nam w prowadzeniu działań zbrojnych” – mając na myśli rozmaite obostrzenia czy ograniczenia, jakie twórcy modeli mogą na nie nakładać.

Tego rodzaju propagandowa retoryka – a nie zapominajmy, że Hegseth zanim został powołany na szefa Pentagonu był prezenterem Fox News (czyli coś jak TV Republika w Polsce) – unaocznia głębszą strukturalną oraz mentalną rekonstrukcję amerykańskiej administracji.

Niekompetentny figurant piastujący krytyczny urząd snujący wizję technologicznej supremacji z elementami amerykańskiej wojny kulturowej dosadnie odzwierciedla patchworkową ideologię Make America Great Again. W takim kontekście technologiczni oligarchowie zawierają pragmatyczny sojusz z fundamentalistami chrześcijańskimi. Dla światowego porządku nie wróży to nic dobrego.

Czerwone linie i zielone dolary

Przy tak uprzednio wyłożonym stanowisku Pentagonu nie dziwi, że wydarzenia z drugiej połowy lutego szybko przerodziły się medialny kryzys, który w ciągu kilku dni eskalował wręcz do rangi osobliwego shitstormu rozgrywającego się na platformach społecznościowych.

Iskrą zapalną były doniesienia, że model AI Claude firmy Anthropic mógł zostać wykorzystany w operacji wojskowej w Wenezueli. Firma próbowała wtedy ustalić zakres użycia swojej technologii, podkreślając przy tym swoje „czerwone linie”: sprzeciw wobec w pełni autonomicznych systemów broni (human-out-of-the-loop) oraz wobec masowej inwigilacji obywateli USA.

W praktyce problem pozostaje w dużej mierze teoretyczny – armia amerykańska nie używa w pełni autonomicznej broni bez udziału człowieka (choć pewnie bardzo by chciała, gdyby mogła), a dotychczasowe systemy tego typu, takie jak system artyleryjski Phalanx CIWS działają z udziałem operatora.

Sprawa jest niejasna także w kwestii masowej inwigilacji, gdyż tu część działań służb odbywa się w świetle prawa amerykańskiego, nawet jeśli wbrew interesom obywateli. Niejasnym pozostaje więc przeciwko dokładnie czemu Anthropic protestuje.

Wg dość ogólnikowego (choć w tym punkcie raczej słusznego) stanowiska tej firmy powyższe zastosowania nie tylko podważałyby wartości demokratyczne, stanowiąc poważne zagrożenia dla podstawowych swobód obywatelskich, lecz także wykraczałyby poza możliwości bezpiecznego i odpowiedzialnego wykorzystania dzisiejszej technologii.

Warto podkreślić, że Anthropic co do zasady nie protestuje przeciwko samej idei posiadania czy rozwijania przez armię w pełni autonomicznego uzbrojenia, a wręcz oferował Pentagonowi współpracę przy badaniach i rozwoju takich systemów. Problem dla nich był więc czysto technologiczny: współczesne systemy AI po prostu nie są wystarczająco niezawodne, by mogły być używane w pełni autonomicznie.

Pentagonowi wątpliwości Anthropic były jednak nie w smak: najpierw pojawiły się zapowiedzi „ponownej oceny” kontraktów, a później groźby zerwania współpracy i uznania spółki za „ryzyko dla łańcucha dostaw bezpieczeństwa narodowego”, co w praktyce mogłoby odciąć te firmę od kontraktów rządowych i wielu innych zamówień.

W medialny wir konfliktu włączył się również Emil Michael, który naciskał na Anthropic, by ten „przekroczył Rubikon” i zrezygnował z ograniczeń dotyczących wojskowego wykorzystania AI, argumentując, że o granicach nadzoru czy autonomii systemów powinny decydować instytucje demokratyczne, a nie prywatna korporacja o lewicowej proweniencji.

24 lutego Amodei spotkał się z sekretarzem wojny Pete’em Hegsethem w Pentagonie i otrzymał ultimatum: do 27 lutego firma miała zgodzić się na pełny dostęp do modelu Claude dla „każdego zgodnego z prawem zastosowania”, pod groźbą zerwania kontraktu czy wpisania spółki na wspomnianą listę zagrożeń dla bezpieczeństwa (łańcucha dostaw).

Anthropic odrzucił jednak te żądania. Po upływie ultimatum prezydent Trump ogłosił w swoim stylu na platformie Truth Social natychmiastowe wstrzymanie korzystania z modeli Anthropic przez wszystkie agencje federalne, a Hegseth na Twitterze dorzucił jeszcze zapowiedź rozpoczęcia procedury umieszczenia tej firmy na liście zagrożeń dla bezpieczeństwa.

Gdzie dwóch się bije, tam Sam Altman korzysta

Rynek zdaje się nie cierpi próżni, dlatego już dzień później, 28 lutego, na scenę negocjacyjną wchodzi – być może cały w moro – Sam Altman ogłaszając, że to właśnie jego firma – OpenAI – zajmie miejsce konkurencji Anthropica jako partner Pentagonu

Decyzja ta – zapewne negocjowana znacznie wcześniej – zapadła zaledwie kilka godzin po tym, jak prezydent Trump polecił agencjom federalnym wstrzymać korzystanie z modeli Anthropic.

Pierwotna wersja umowy przewidywała bardzo szeroki zakres zastosowań: OpenAI zgodziło się, by jego systemy mogły być wykorzystywane przez Departament Wojny do „każdego zgodnego z prawem celu”, przy jednoczesnym zachowaniu ogólnych zasad bezpieczeństwa poprzez techniczne zabezpieczenia w samych modelach. Przez weekend wylała się na tę umowę fala krytyki, dlatego początkiem marca Altman ogłosił zamiary renegocjowania kontraktu.

Ruch ten miał uspokoić obawy dotyczące masowej inwigilacji w USA, choć na dobrą sprawe stanowisko OpenAI w istocie niewiele różniło się od wcześniejszych zastrzeżeń Anthropica – było jedynie wyrażone w znacznie bardziej dyplomatycznej czy prawniczo zniuansowanej formie.

O ile Anthropic formułował swoje „czerwone linie” w sposób jednoznaczny, OpenAI przyjęło strategię bardziej pragmatyczną: publicznie podkreślało przywiązanie do zasad bezpieczeństwa i etycznych ograniczeń, jednocześnie pozostawiając przestrzeń do współpracy z wojskiem w obszarach, które Pentagon określa jako nieuniknione „szare strefy” zastosowań AI.

Wydaje się zgodne ze strategią negocjacyjną Sama Altmana, który znany jest z tego, że potrafi mówić, to co dana strona w danym momencie chce usłyszeć, jednocześnie dbając przede wszystkim o swoją firmę.

„Claude, jak zaatakować Iran?”

Wydarzenia z początku marca zdają się potwierdzać, że lutowa awantura miała przede wszystkim charakter medialnego prężenia muskułów. Dla rządu USA była to demonstracja retorycznej i ideologicznej siły, a dla Anthropic próba wykreowania się na rzekomą „etyczną” firmę, mimo że koniec końców dostarczającąa produkty wykorzystywane w procesie zabijania innych ludzi.

28 lutego, czyli w tym samym dniu, w którym ogłoszono porozumienie z OpenAI, Pentagon w ramach operacji „Epicka Furia” rozpoczął wojnę z Iranem. Jednak jak po kilku dniach ujawniły media, w operacji wykorzystano modele Anthropic. Czyli firmy, którą dzień wcześniej Trump określał jako „radykalnie lewicową”. Okazuje się więc, że wbrew tym internetowym rantom, nie da się z dnia na dzień wyrugować modeli AI z krytycznych sektorów państwa.

Co więcej, jak 4 marca poinformował „Washington Post”, modele Anthropic zostały na przestrzeni miesięcy zintegrowane z innym wykorzystywanym w armii narzędziem firmy Palantir o nazwie Maven (przejętym w 2018 roku od Google).

Narzędzie to wykorzystuje się do przygotowywania ocen wywiadowczych, identyfikowania celów bojowych wraz z ustalaniem hierarchii ich ważności czy nawet symulowania scenariuszy działań bojowych. Maven wsparty modelem Anthropic miał być również wykorzystywane do bieżącej oceny skutków uderzeń już po ich rozpoczęciu.

Z kolei analiza Bloomberga z tego samego dnia wskazuje na pewne podobieństwo tych narzędzi z izraelskim systemem Lawenda stosowanym w Gazie, choć ten nie był oparte o modele językowe.

Podkreśla się również, że z perspektywy prawa międzynarodowego mamy tu do czynienia z pewną „regulacyjną pustką”. W połączeniu z zawodnym charakterem tej technologii, presją administracji amerykańskiej na prowadzenie bombardowań oraz niemal całkowitym brakiem transparentności, rodzi to poważne wątpliwości co do zgodności takich działań z normami prawa humanitarnego, w tym np. z Konwencjami Genewskimi.

„Pogoniłem ich jak psy”

Tymczasem ze strony władz USA dochodziły sprzeczne sygnały. Jak 5 marca informował „Financial Times”, Pentagon i Anthropic mieliby ponownie zasiąść do stołu negocjacyjnego. Tego samego dnia Anthropic również opublikował na swojej stronie internetowej bardzo polubowne stanowisko:

„Anthropic z Departamentem Wojny znacznie więcej łączy niż dzieli. Obie strony są zaangażowane w umacnianie bezpieczeństwa narodowego Stanów Zjednoczonych oraz ochronę amerykańskiego społeczeństwa. Zgadzamy się też co do pilnej potrzeby szerokiego wdrażania sztucznej inteligencji do administracji rządowej.”

Jednocześnie 5 marca prezydent Trump w wywiadzie dla „Politico” z właściwą sobie bezpośredniością (czy też grubiaństwem) podsumował sytuację następująco: „No cóż, wylałem ich. Anthropic ma problem, bo pogoniłem ich jak psy, ponieważ nie powinni się byli tak zachować.”

I choć dzień później w wywiadzie dla „The Economist” Dario Amodei przeprosił za swoją ostrą krytykę Pentagonu, jednocześnie podkreślił, że nie może zgodzić się na uznanie swojej firmy za źródło „ryzyka dla łańcucha dostaw bezpieczeństwa narodowego” i jest gotów bronić swoich racji przed sądem – co jego firma uczyniła 9 marca, kiedy oficjalnie zaskarżyłą decyzję władz USA do sądu.

Ruch ten poparły inne firmy technologiczne, zapewne z obawy, że wskutek tak powstałego prawnego precedensu, mogłyby podzielić los Anthropica.

To nie koniec ich problemów. Według portalu informacyjnego Axios, powołującego się na źródła w Białym Domu, Trump ma właśnie dopracowywać rozporządzenie wykonawcze, które formalnie zakazałoby używania narzędzi firmy Anthropic w całej administracji rządowej – w tym oczywiście również w wojsku.

Przecież pragmatycznie wydawać by się mogło, że obie strony są na siebie skazane, tj. w obliczu niepewnego przebiegu wojny w Iranie, Pentagon niekoniecznie może ryzykować dodatkowe zamieszanie poprzez rezygnację z głęboko zintegrowanych modeli Anthropic. Tym bardziej niejasnym pozostaje stanowisko Palantira – którego CEO Alexander Karp 12 marca dość wymijająco przedstawiał ich perspektywę w amerykańskiej telewizji CNBC:

„Nasze produkty są zintegrowane z modelami Anthropic, a w przyszłości prawdopodobnie będą również zintegrowane z innymi modelami językowymi”.

Choć amerykańska armia od lat zdana jest na systemy Palantira, to widać, iż spółka ta raczej nie chcę się niepotrzebnie narażać czy wdawać się w światopoglądowe spory z Pentagonem. Pokorne ciele dwie matki ssie, a Anthropic zdaje się wciąż musi dopiero odrabia lekcję głoszącą, iż nie gryzie się ręki, która cię karmi.

Tymczasem amerykańska polityka po raz kolejny udowadnia, że Trump podejmuje kapryśne decyzje kierując się własnym widzimisię czy po prostu chęcią zemsty, a otaczające go grono klakierów nie odważy się mu sprzeciwić, czy wręcz mu przyklaskuje – nawet jeżeli absurdalny argument z „woke AI” stawiany jest na szali bezpieczeństwa narodowego a w grę wchodzi dalszy przebieg działań wojennych w Iranie.

W momencie pisania tego tekstu (12 marca) rozporządzenie rugujące aplikacje Anthropica z armii, jeszcze się nie ukazało, dlatego nie można powiedzieć, żeby ich los był już ostatecznie przesądzony. Jeśli jednak firma rzeczywiście zalazła Trumpowi za skórę, może się okazać faktycznie, że nie będzie dla niej już miejsca w administracji rządowej.

Etyczna AI czy cyber-junta?

Podkreślmy wyraźnie, że obie firmy OpenAI i Anthropic (ale też Google czy xAI) ostatecznie zgodziły się, by ich modele były wykorzystywane w działaniach zbrojnych, co w praktyce może oznaczać „planowanie logistyki”, albo też (nierzadko błędne) wskazywanie kolejnych celów przeznaczonych do zaatakowania.

Świadomie podjęły współpracę z Pentagonem (i Palantirem), który prowadzi wojny i potrzebuje technologii nie w celu „ochrony demokracji”, lecz do operacji militarnych zabezpieczających amerykańskie interesy.

W tym kontekście wieloletnie zapewnienia o „etyce” czy „odpowiedzialnej AI” moralnie się kompromitują, a jakakolwiek – i tak już porządnie nadszarpnięta – wiarygodność firmy Anthropic w kwestiach etycznej AI legła w gruzach.

Podejście OpenAI czy Anthropic do współpracy z Pentagonem nie jest więc kwestią osobistych animozji czy ideologicznych różnic w podejściu do sztucznej inteligencji, choć i te są niebagatelne – by przypomnieć tylko że prezesi obydwu firm nie byli w stanie uścisnąć sobie dłoni i to nawet w obecności premiera Indii Narendy Modiego podczas niedawnego szczytu AI w Indiach.

Stawka jest tu znacznie głębsza i dotyczy fundamentów demokracji i miejsca, jakie technologia zajmuje w życiu publicznym. Jak na łamach „The Guardian” piszą Nathan E Sanders i Bruce Schneier z Uniwersytetu Harvarda, AI, jak każda inna technologia kiedykolwiek wymyślona, będzie nieuchronnie używana na potrzeby wojska, do czego Pentagon – w granicach ustalonych przez prawo – będzie dążyć.

Zarazem firmy sprzedające im swoje produkty, wbrew górnolotnym zapowiedziom, jakich mogliśmy być świadkami przez ostatnie tygodnie – nie działają w interesie publicznym, nawet amerykańskim, a co dopiero międzynarodowym.

Choć Amodei, Altman czy ktokolwiek inny z Doliny Krzemowej może się zarzekać, że technologia – niechby i wykorzystywana militarne – ma służyć zaprowadzaniu czy podtrzymywaniu demokratycznego porządku. Nie mogą, a może wcale nie chcą dostrzec, że w ich własnym kraju ma miejsce zjawisko zgoła odwrotne – technologia osłabia demokrację, a oni dodatkowo do tego przyczyniają.

Dyskusje o „etyczności” startupów AI współpracujących z Palantirem i Pentagonem są więc bezcelowe, a wręcz przeciwskuteczne. Stawką są same fundamenty demokracji i pilna potrzeba ich wzmocnienia.

W przeciwnym razie Stany Zjednoczone – mogące niechybnie pełnić wzór dla części świata – osuną się w stronę rządów przypominających cyber-juntę, gdzie nietransparentna (i zawodna) technologia wojskowa i rozwijający ją technooligarchowie, do spółki wydrążonymi, kadłubkowymi resztkami instytucji publicznych, zdominują politykę i bezpieczeństwo publiczne. Nie jest tu przypadkiem, że właśnie taki scenariusz mocno rezonuje z postulatami MAGA czy Ciemnego Oświecenia.

Szerszy kontekst międzynarodowy

Zarówno atak na Iran, jak i na Wenezuelę, stanowiły z punktu widzenia prawa międzynarodowego nielegalną agresję. Wiemy już, że w tych operacjach stosowano sztuczną inteligencję, co stawia poważne pytania np. o przestrzeganie konwencji genewskich. A chaotyczna, agresywna i wręcz imperialistyczna retoryka najwyższych władz USA wobec Anthropic odzwierciedla ich podejście do prawa międzynarodowego –– często ograniczające się do prężenia muskułów w mediach społecznościowych, za którym kryje się brak spójnej strategii.

Eksperci prawa międzynarodowego podkreślają tu przede wszystkim głębszy, strukturalny problem: ocena legalności użycia siły wspomaganej przez AI nie może spoczywać wyłącznie w gestii władz krajowych ani amerykańskich firm technologicznych, zwłaszcza z ich opacznym rozumieniem etyki.

Tym bardziej że w ostatnich tygodniach stanowisko USA zostało przedstawione, czy raczej narzucone jako „standard” w procesie, w którym społeczność międzynarodowa, w tym również nominalni sojusznicy, są w dużej mierze pomijani.

Funkcjonuje tu więc swoiste prawo dżungli: zarówno Pentagon, jak i amerykański przemysł technologiczny, same wyznaczają rolę AI w operacjach użycia siły, a wszelkie inne standardy, podobnie jak prawda, stają się pierwszymi ofiarami tych wojennych zmagań.

Widać tu również przeniesienie biznesowego motta Doliny Krzemowej „Lepiej przepraszać, niż prosić o pozwolenie” na grunt amerykańskiej armii, która jednak sama do przeprosin przesadnie skora nie jest.

Dostrzec można także i sposób myślenia Trumpa, który niedawno miał powiedzieć, że w kwestii polityki międzynarodowej ogranicza go jedynie własna moralność. Czyli bardzo niewiele.

Społeczność międzynarodowa, dysponująca instrumentami prawa międzynarodowego, często lekceważonymi przez Donalda Trumpa i jego akolitów, powinna więc przeciwstawiać się próbom jednostronnego narzucania zasad, zwłaszcza w odniesieniu do tak problematycznej technologii jak sztuczna inteligencja i jej zastosowanie w działaniach zbrojnych.

Stawka tej gry wykracza daleko poza sumy pojedynczych kontraktów czy doraźne przewagi militarne. Wyżej przytoczeni eksperci prawa międzynarodowego słusznie konkludują, że tylko poprzez wypracowanie trwałych i międzynarodowych regulacji możemy realnie zdefiniować prawne a nawet faktycznie etyczne granice dla stosowania AI – autonomicznej czy nie – dla celów militarnych.

Fundamentem tych wartości nie mogą być arbitralne decyzje prywatnych korporacji, które pozostają całkowicie pozbawione demokratycznej odpowiedzialności i kontroli.

Ani tym bardziej nie powinny one zależeć wyłącznie od kapryśnego widzimisię władz USA. Choć władze te formalnie podlegają mechanizmom demokracji i ładu międzynarodowego, to systematycznie działają w sposób podważający ich realne znaczenie.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Na zdjęciu Jacek Mańko
Jacek Mańko

Asystent w Katedrze Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego. Do zainteresowań naukowych należą kształtowanie się postaw tożsamościowych w mediach społecznościowych, interakcja człowiek-AI, poznanie społeczne, a także wpływ rozwoju technologicznego oraz przemian społeczno-ekonomicznych na rynek pracy, jak również na sensowność pracy jako takiej.

Komentarze