0:00
0:00

0:00

Prawa autorskie: Photo by FREDERICK FLORIN / AFP)Photo by FREDERICK F...

Parafrazując tytuł niedawnego Oskarowego triumfatora: wszyscy wszędzie naraz rozmawiają o Sztucznej Inteligencji. I tak jak w filmie, wyłaniające się z rozmów narracje są bardzo zagmatwane. Wątki katastroficzne przeplatają się ze skrajnym technooptymizmem, a postulaty zatrzymania rozwoju SI z wezwaniami, by jeszcze silniej w nią inwestować.

Przegłosowany 14 czerwca przez Europarlament (na zdjęciu w trakcie głosowania) akt w sprawie sztucznej inteligencji ma sprawić, by Unia Europejska mówiła w tych kwestiach jednym głosem. „Te same elementy i techniki, które przynoszą korzyści społeczno-ekonomiczne wynikające ze stosowania sztucznej inteligencji, jednocześnie wiążą się również jednak z nowymi rodzajami ryzyka lub niekorzystnymi konsekwencjami odczuwanymi przez osoby fizyczne lub społeczeństwo. W związku z tempem zachodzących zmian technologicznych i w świetle potencjalnych wyzwań UE dąży do wypracowania odpowiednio wyważonego podejścia” — czytamy w uzasadnieniu rozporządzenia.

Ustalanie wspólnego stanowiska zaczęło się na długo zanim temat SI zaczął budzić powszechne zainteresowanie. Gdy w 2019 Ursula von der Leyen ogłaszała, że przedstawi w ciągu pierwszych 100 dni urzędowania „przepisy w zakresie skoordynowanego europejskiego podejścia do wpływu sztucznej inteligencji na kwestie społeczne i etyczne”, w świadomości społecznej przykładem tej technologii był raczej HAL 9000, a nie ChatGPT. Głosowanie Parlamentu Europejskiego nad zaprezentowanym po raz pierwszy w 2001 roku dokumentem odbyło się już w zupełnie innej atmosferze.

Przeczytaj także:

Jak trwoga to do regulatora

Błyskawicznemu rozwojowi technologii towarzyszył wzrost świadomości tego, czym w praktyce może być sztuczna inteligencja. W rozporządzeniu definiowana jest jako „oprogramowanie (…), które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję” (art. 3 pkt 1). Wspomniany wpływ systemów sztucznej inteligencji na życie codzienne przestał być opowieścią z kart fantastyki naukowej, a stał się tematem ze stron codziennych gazet. Tematem, który u wielu osób rodzi zaniepokojenie.

W marcu 2023 instytut Future of Life przedstawił list otwarty podpisany m. in. przez Yuvala N. Harariego, Steve’a Wozniaka czy Elona Muska wzywający do półrocznego moratorium na prace nad systemami sztucznej inteligencji. Kontrowersyjna propozycja doczekała się licznych polemik, w tym ze strony cytowanych w piśmie badaczek (Timnit Gebru, Emily M. Bender, Angeliny McMillan-Major i Margaret Mitchell), które wskazywały, że zagrożeniem nie jest sama SI, ale osoby i korporacje rozwijające ją w sposób nieetyczny i wykorzystujące do szkodliwych społecznie celów. Z kolei Sam Altman, CEO odpowiedzialnego za ChatGPT przedsiębiorstwa OpenAI, wybrał się w międzynarodowe tournée, by osobiście uspokajać wrogie SI nastroje.

Ich stanowiska w debacie na temat przyszłości sztucznej inteligencji różni bardzo wiele, ale łączy przynajmniej jedno: postulat potrzeby regulacji. Unijny akt — „pierwsze na świecie kompleksowe przepisy dotyczące AI”, jak chwali się na swojej stronie Parlament Europejski — przestał być ciekawostką da pasjonatów i wąskiego grona innowatorów, a stał się przedmiotem żywego, globalnego zainteresowania całego. Podobnie jak w przypadku regulacji wielkich platform, w tle głosowania nad unijnym rozporządzeniem pojawiły się finansowany przez miliarderów lobbing, szantaże wizją ucieczek przedsiębiorstw z Europy przed restrykcyjnym prawem, partykularne interesy krajów członkowskich, a wreszcie apele organizacji pozarządowych, byśmy my, obywatelki i obywatele, nie okazali się przegranymi w tej grze interesów.

Pierwsi w regulacjach

Na przepisy rozporządzenia można więc patrzeć z różnych perspektyw. Inaczej będą je postrzegać wielkie, średnie i małe przedsiębiorstwa. Odmiennie mogą je widzieć władze poszczególnych państw członkowskich, choćby w zależności od tego, jaką politykę wewnętrzną prowadzą. Co innego w przepisach dostrzegą badacze i badaczki SI, którzy zagrożeń upatrują w samej technologii, tale też w praktykach rozwijających ją osób i korporacji.

Konfliktowe stanowiska odnaleźć można nawet wewnątrz obozów politycznych. Za przyjęciem rozporządzenia opowiedzieli się wszyscy posłowie i posłanki do Europarlamentu wybrani z list Prawa i Sprawiedliwości. Tymczasem Minister Cyfryzacji Janusz Cieszyński pisał na Twitterze po głosowaniu:

„Polityka bycia «pierwszym w regulacjach» jest wg mnie naiwna”.

To wszystko ciekawe spory, warte obserwowania. Szczególnie ważna wydaje się jednak, trochę paradoksalnie, perspektywa mikro, czyli wpływu przepisów na codzienne życie ludzi wchodzących (świadomie bądź nie) w kontakt ze sztuczną inteligencją. Czy członkowie i członkinie Europarlamentu zadbali o ich — a więc nasze — interesy?

Sztuczna Inteligencja, prawdziwe zagrożenia

—Akt w wersji uchwalonej przez Parlament Europejski zawiera szereg gwarancji chroniących prawa człowieka, których nie było w wersji zaproponowanej przez Komisję Europejską. Przede wszystkim zakazuje rozwijania i używania systemów, które są nie do pogodzenia z tymi prawami. — mówi Karolina Iwańska, prawniczka i ekspertka z organizacji European Center for Not-For-Profit Law Stichting

– Zakazem, który budził w PE najwięcej kontrowersji, ale ostatecznie został uchwalony, jest zakaz rozpoznawania twarzy i stosowania innych biometrycznych metod zdalnej identyfikacji w przestrzeni publicznej w czasie rzeczywistym.

W kontrowersji tej swój udział mieli polscy członkowie i członkinie Europarlamentu z PO i PSL. Europejska Partia Ludowa, do której należą, próbowała na ostatniej prostej osłabić wspomniany zakaz. Proponowane przez nią poprawki rozszerzające dopuszczalność stosowania systemów zdalnej identyfikacji biometrycznej „na żywo” zostały jednak odrzucone.

—Co do zasady zakazane będzie też wykorzystywanie tej technologii po fakcie, na przykład, żeby przeanalizować nagrania z monitoringu. Dozwolone będzie to jedynie za uprzednią zgodą sądu w konkretnych przypadkach poszukiwania sprawcy poważnego przestępstwa. Z punktu widzenia praw obywatelskich — wolności zgromadzeń i zrzeszania się oraz wolności słowa — te zakazy są kluczowe — wskazuje Iwańska.

Zdalna identyfikacja biometryczna należy do grupy systemów sztucznej inteligencji zakwalifikowanych jako rozwiązania „niedopuszczalnego ryzyka”. Inne wymienione w akcie systemy tego rodzaju to na przykład manipulacja poznawczo-behawioralna działająca podprogowo, lub wykorzystując słabości określonej grupy osób. Zakazane zostało także tworzenie mechanizmów zautomatyzowanej klasyfikacji punktowe obywatelek i obywateli. Z tych rozwiązań (poza wspomnianymi wyjątkami dotyczącymi identyfikacji biometrycznej) nie będą mogły korzystać ani instytucje publiczne, ani prywatne.

Wysokie ryzyko, wysokie wymagania

Głównym przedmiotem regulacji w rozporządzeniu o sztucznej inteligencji są systemy zakwalifikowane jako „wysokiego ryzyka”.

Za takowe uznane zostały po pierwsze systemy będące produktami objętymi unijnym prawodawstwem harmonizacyjnym bądź stanowiące element takich produktów, a ponadto podlegające na tej podstawie dodatkowym wymogom przed wprowadzeniem do obrotu bądź oddaniem do użytku. Po drugie zaś, tą klasyfikacją objęto systemy z szeregu wymienionych w załączniku do aktu obszarów. Są wśród nich między innymi: kształcenie, zatrudnienie, korzystanie z usług oraz świadczeń publicznych, ściganie przestępstw czy procesy demokratyczne.

Mowa więc o takich zastosowaniach sztucznej inteligencji, które oddziaływać mogą silnie i bezpośrednio na szerokie grupy obywatelek i obywateli — a więc i wyrządzać im ogromne szkody. Stąd potrzeba, by systemy takie działały przejrzyście i były poddane kontroli. Jak zaspokaja ją rozporządzenie?

—Systemy wysokiego ryzyka, czyli produkty czy usługi AI uznane za potencjalnie groźne stosowane w instytucjach publicznych (ale także w dużych platformach lub w więcej niż jednym kraju), w policji, służbie zdrowia, miejscu pracy, w kampaniach wyborczych, edukacji czy migracji, będą musiały przed wprowadzeniem do użycia przejść procedurę oceny skutków dla praw podstawowych — tłumaczy Filip Konopczyński, prawnik, specjalista ds. regulacji sztucznej inteligencji i nowych technologii w Fundacji Panoptykon. — To mechanizm, o który Panoptykon zabiegał od początku negocjacji, i który udało się wprowadzić do wersji Aktu przyjętej przez Parlament Europejski. Dzięki temu potencjalnie niebezpieczne algorytmy będą musiały być monitorowane nie tylko przed, ale także w trakcie ich stosowania.

—W ramach przeprowadzania takiej oceny wpływu, firmy i instytucje będą musiały skonsultować grupy osób, na które planowany system będzie oddziaływać, a także organizacje pozarządowe — dodaje Iwańska. — Liczę, że dzięki temu ta ocena nie będzie odhaczaniem kolejnych punktów, ale prawdziwą refleksją nad konsekwencjami planowanego systemu.

Oko w oko z AI

Ważnymi przepisami są także zawarte w artykule 52 obowiązki w zakresie przejrzystości. Rozporządzenie nakłada na przykład wymóg informowania o prowadzeniu interakcji z systemem sztucznej inteligencji, a także byciu poddawanym technologii rozpoznawania emocji bądź kategoryzacji biometrycznej (a więc nie zakazanemu śledzeniu). Specjalne powiadomienia otrzymywać mają także odbiorcy tzw. deepfake’ów — generowanych treści przypominających istniejące osoby, obiekty, miejsca itp.

Sztuczna inteligencja i jej wytwory stają się nową kategorią aktorów społecznych. Możemy „rozmawiać” z czatbotami, oglądać realistyczne obrazy alternatywnej rzeczywistości, słuchać słów wypowiadanych głosem znanych osób, które nigdy nie padły z ich ust. Rodzi to ogromne możliwości manipulowania i wprowadzania w błąd, które już stosowane są choćby w walce politycznej. Unijne rozporządzenie nie jest lekiem na całe zło, co najwyżej nadzieją na przyszłe czasy, w których powszechniejsza będzie choćby edukacja w zakresie cyfrowych kompetencji. Liczne obowiązki nakładane na dostawców i użytkowników systemów wysokiego ryzyka to jednak krok w dobrą stronę.

Dostęp do informacji o tych systemach stosowanych przez różne podmioty będziemy mieli także bez wchodzenia w bezpośredni kontakt z SI.

—Popularne generatory AI ('modele fundacyjne') oraz systemy wysokiego ryzyka (używane m in. w czatbotach) w instytucjach publicznych i na dużych platformach będą musiały być zgłaszane i rejestrowane w centralnej, publicznie dostępnej unijnej bazie danych prowadzonej przez Komisję Europejską. Będziemy więc przynajmniej wiedzieć, jakie potencjalnie niebezpieczne programy mogą być wobec nas stosowane — mówi Konopczyński.

Poprawka przepadła

A co, gdy zostaniemy poddani działaniu systemu sztucznej inteligencji wysokiego ryzyka? Być może SI rozpatrzy składany przez nas wniosku do urzędu albo oceni podanie o pracę. Wówczas będziemy mieć prawo uzyskać szczegółowe uzasadnienie takiej wpływającej na nasze życie decyzji.

—Jako Panoptykon chcieliśmy, aby to prawo było szersze, to jest obejmowało wszystkie systemy AI. Niestety poprawka, którą udało nam się złożyć za pośrednictwem posłów nie uzyskała większości w głosowaniu plenarnym — opowiada Konopczyński. — Na szczęście lepiej było w przypadku innych postulatów. Dzięki przyjętym w ramach prac w PE poprawkom rekomendowanym między innymi przez sieć organizacji EDRi, której jesteśmy częścią, udało się poprawić pierwotny projekt Komisji Europejskiej. W tym o bardzo ważne prawa: do złożenia skargi do organu nadzorującego sektor AI oraz sądu, w obu przypadkach w kraju, w którym mieszka osoba poddana działaniu sztucznej inteligencji. Umożliwi to na przykład zebranie dowodów naruszenia, co ostatecznie może doprowadzić nawet do zakazu używania danego systemu, a także nałożenia kar finansowych dla firmy czy instytucji, która użyła wobec nas AI.

Granice ochrony

Co istotne, potencjalne korzyści z rozporządzenia objąć mogą także osoby niebędące obywatelkami i obywatelami Unii Europejskiej.

—Tak zwany “efekt Brukseli” sprawia, że dla międzynarodowych firm taniej i prościej jest podnieść swoje standardy do tych, które obowiązują w UE dla wszystkich użytkowników, także z innych części świata. Dzięki temu mogą oszczędzić np. na kosztach usług prawnych czy administracji, a potencjalnie także uniknać kar za naruszenie unijnego prawa, gdy chodzi o dane osób z Europy— podkreśla Konopczyński. — Czy taki efekt zadziała także w przypadku AI Act, dowiemy się za kilka lat. Wiele będzie zależeć od postawy urzędników i polityków. Nawet najlepsze intencje legislatorów nie zastąpią sprawnie i przejrzyście działającej administracji publicznej, niezawisłych sądów czy odpowiedzialnych rządzących. Jest jednak szansa, że Akt utrudni politykom o autorytarnych skłonnościach wykorzystywanie AI do nadużywania władzy pod płaszczem „władzy algorytmów”. I z tego mam nadzieję będziemy mogli się cieszyć po tym jak Akt wejdzie w życie.

A jednak, mimo starań strony społecznej, przegłosowana wersja aktu nie jest pozbawiona luk i furtek. Szczególnie narażone są osoby zaangażowane w działalność obywatelską, czy też grupy wrażliwe, na przykład migranci.

—Poważnym zagrożeniem dla praw obywatelskich są próby wyłączenia spod zakresu regulacji AI rozwijanego lub wdrażanego w obszarze bezpieczeństwa narodowego, a także ograniczenia publicznej dostępności do informacji o tym, jakie systemy i w jakim celu są wykorzystywane przez policję — tłumaczy Iwańska. — Takie wytrychy znalazły się w stanowisku Rady złożonej z przedstawicieli rządów państw członkowskich UE. Niestety, skandal z Pegasusem dobitnie pokazał ryzyko wykorzystywania technologii pod płaszczykiem „bezpieczeństwa narodowego” przeciwko aktywistom, dziennikarzom czy politycznym oponentom. Wyłączenie spod zakresu regulacji sytuacji wiążących się z prawdopodobnie najwyższym ryzykiem dla wolności obywatelskich to prosta droga do nadużyć, zwłaszcza w krajach takich jak Polska czy Węgry, w których mamy do czynienia z kryzysem państwa prawa i ograniczoną możliwości kontroli sądowej nad prawidłowością działania służb. Z kolei w państwach takich jak Francja czy Grecja „bezpieczeństwo narodowe” coraz częściej jest wytrychem do prowadzenia antymigracyjnej polityki i poddawaniu migrantów oraz uchodźców wzmożonemu nadzorowi, który prowadzi do dyskryminacji.

Ich ochronie służyć miały poprawki proponowane przez organizacje zrzeszone w inicjatywie #ProtectNotSurveil. Zostały one jednak odrzucone przez Parlament Europejski. Wraz z popularyzacją stosowania systemów sztucznej inteligencji, rośnie więc ryzyko poddawania osób migrujących lub będących w sytuacji uchodźczej ich szkodliwemu działaniu, jak podejmowanie krzywdzących, zautomatyzowanych decyzji w ich sprawach czy rasistowskie profilowanie w efekcie skrzywienia algorytmicznego.

—Fakt, że europarlamentarzyści nie poparli tych zakazów doprowadzi moim zdaniem do systemu dwóch prędkości w ochronie praw człowieka, w którym ochrona praw migrantów przed inwigilacją i dyskryminacją nie będzie zapewniona — mówi Iwańska.

Przyszłość technologii przyszłości

Z ostateczną oceną rozporządzenia pod kątem ochrony praw i wolności warto się jednak jeszcze trochę wstrzymać.

—To, jak akt wpłynie na działanie administracji państwowych, jakich praktyk zabroni i jakie obowiązki nałoży okaże się, gdy poznamy jego ostateczną treść, nad którą prace przez najbliższe miesiące prowadzić będą Parlament Europejski, Komisja i Rada UE — tłumaczy Konopczyński.

— Przed nami intensywne i trudne negocjacje. Intensywne, bo trilog musi się zakończyć do końca tego roku, jeśli instytucje chcą zdążyć przed wyborami do PE. Trudne, bo stanowiska Rady i Parlamentu są bardzo różne, np. jeśli chodzi o zakres zakazanych systemów AI — dodaje Iwańska.

Warto więc z dystansem podchodzić do głosów, które już teraz ferują wyroki na temat tego, jakie skutki przyniosą nowe przepisy. Odpowiedzi na pytanie o przyszłość systemów sztucznej inteligencji w Unii Europejskiej nie da na razie nawet najpotężniejszy czatbot. Przyniesie je dopiero stary, dobry czas.

;
Jan Jęcz

Doktorant na Wydziale Socjologii UAM w Poznaniu, zawodowo związany z branżą kreatywną. Stały współpracownik Magazynu Kontakt.

Komentarze