Oparty o sztuczną inteligencję model predykcyjny, który określi prawdopodobieństwo, że dana osoba ma skłonności przestępcze, nie jest – przy takim tempie rozwoju AI – taki trudny do wyobrażenia.
W świecie filmu Stevena Spielberga z 2002 roku prywatność nie istnieje. Każdy ruch jest dokładnie monitorowany, reklamy dostosowane do odbiorcy, a po ulicach jeżdżą automatyczne samochody.
Wprowadzono również specjalny program prewencji, który pozwala zapobiegać przestępstwom, zanim sprawca pomyśli o jego popełnieniu. Mimo że akcja „Raportu Mniejszości” dzieje się w 2054 roku, nasza rzeczywistość już teraz nie różni się tak bardzo od tej filmowej.
Kto z nas nie był sfrustrowany, gdy w wyszukiwarce szukaliśmy miejsca na wakacje, a chwilę później zaczęły nas zalewać reklamy biur podróży.
Gdzie się nie ruszymy, otaczają nas kamery. Nie tylko na ulicach, ale też w urządzeniach, które nie odstępują nas na krok – telefonach, komputerach, tabletach.
Inteligentne samochody również nie są już jedynie domeną filmów science fiction. Mało prawdopodobne jest, że będziemy wykorzystywać jasnowidzów do opracowania systemu przeciwdziałania przestępstwom.
Natomiast oparty o sztuczną inteligencję model predykcyjny, który wykorzystując dane dotyczące zachowania społecznego lub cech osobowości określi prawdopodobieństwo, że dana osoba ma skłonności przestępcze, nie jest już taki trudny do wyobrażenia.
Tym bardziej że sztuczna inteligencja rozwija się w zawrotnym tempie.
Jeszcze do niedawna oprogramowanie generujące obrazy miało problem, żeby w przekonujący sposób przedstawić człowieka. Bardziej przypominały postać z obrazu Muncha niż istotę ludzką. Obecnie natomiast internet zalewają fotorealistyczne obrazy w całości stworzone przez sztuczną inteligencję.
Do niedawna mało kto również przypuszczał, że możliwe będzie generowanie długich złożonych tekstów w sposób doskonale imitujący ludzki język. ChatGPT jest teraz jednak czymś powszechnym i mnóstwo osób wykorzystuje go na przykład do tworzenia treści na media społecznościowe. Nie jesteśmy w stanie przewidzieć, jak będzie wyglądał za rok, 5 lat, 10 lat.
Bez wątpienia jednak rozwój technologii przyniesie wiele wyzwań z zakresu praw człowieka. Już teraz technologia rozpoznawania twarzy w niepowołanych rękach staje się bezwzględnym narzędziem kontroli wykorzystywanym do tłumienia sprzeciwu. Bez odpowiedniego nadzoru niebezpieczeństwo może się tylko zwiększyć.
Na wyzwania związane z technologią rozpoznawania twarzy zwrócił uwagę Europejski Trybunał Praw Człowieka w niedawnym wyroku w sprawie Glukhin przeciwko Rosji.
Dotyczyła ona rosyjskiego obywatela, który w 2019 roku jechał metrem, trzymając tekturową podobiznę aktywisty, przeciwko któremu toczyło się postępowanie karne za pokojowe wyrażanie sprzeciwu. Sprawa aktywisty odbiła się szerokim echem w rosyjskich mediach.
Wkrótce potem Glukhinem zainteresowali się funkcjonariusze policji, po tym, jak natrafili na materiały foto i wideo z jego podobizną. Oskarżono go o zorganizowanie jednoosobowej manifestacji bez zezwolenia i skazano na grzywnę.
Glukhin uznał, że narusza to jego prawo do prywatności i swobody wypowiedzi. W swojej skardze do ETPCz podniósł, że funkcjonariusze wykorzystali technologię rozpoznawania twarzy, by zidentyfikować go na zdjęciach opublikowanych w mediach społecznościowych oraz materiałach zarejestrowanych przez monitoring w metrze.
Trybunał w Strasbourgu zgodził się ze skarżącym, że jego prawa zostały naruszone. W swoim wyroku podkreślił między innymi, że jego zachowanie należy poczytać jako wzięcie udziału w dyskusji na temat o donośnym publicznie znaczeniu. Biorąc pod uwagę pokojowy charakter tej dyskusji, władze nie powinny były jej ograniczać.
Trybunał przyznał również, że doszło do naruszenia prawa do prywatności. Zwrócił uwagę, że nie ma bezpośrednich dowodów, że przeciwko skarżącemu wykorzystano technologię rozpoznawania twarzy, ale przy szybkości reakcji władz, było to wyjaśnienie najbardziej prawdopodobne.
Ponadto podjęte przeciwko niemu środki były zbyt daleko idące, szczególnie biorąc pod uwagę, że nie stwarzał on zagrożenia dla bezpieczeństwa publicznego.
Nawet gdy nie jest wykorzystywana przez opresyjne rządy, technologia rozpoznawania twarzy nie jest wolna od kontrowersji. Jak pokazują badania, algorytmy biometryczne są często bardzo niedokładne oraz skłonne do uprzedzeń, w szczególności tych rasowych.
Nie powinno to wzbudzać większego zdziwienia, ponieważ stanowią one odzwierciedlenie naszego świata i tego, jak postrzegamy rzeczywistość. Algorytmy są w końcu opracowywane przez ludzi, a ci niestety są skłonni do powielania szkodliwych stereotypów, choćby nieświadomie.
Zgodnie z danymi raportu przygotowanego przez amerykański Krajowy Rejestr Uniewinnień (National Registry of Exonerations)
osoby czarnoskóre są 7,5 razy bardziej narażone na niesłuszne skazanie za zabójstwo niż osoby białe.
Ponadto w razie skazania szansa, że są niewinne, jest o 80 proc. wyższa niż u osób innych ras.
Te szkodliwe statystyki przekładają się potem na algorytmy biometryczne. Badania przeprowadzone przez amerykański rząd federalny wykazały, że w przypadku osób o ciemnym kolorze skóry oraz Azjatów ryzyko błędnej identyfikacji było nawet 100 razy wyższe niż u osób o białym kolorze skóry.
Narodowy Instytut Standaryzacji i Technologii (National Institute of Standards and Technology) z USA wskazał natomiast, że spośród 189 przeanalizowanych algorytmów rozpoznawania twarzy, najwięcej błędnych wyników dotyczyło kobiet o innym niż biały kolorze skóry.
Unia Europejska również dostrzega wyzwania związane z wykorzystaniem sztucznej inteligencji, w tym technologii rozpoznawania twarzy. By wyjść im naprzeciw, opracowuje tak zwany Akt w sprawie sztucznej inteligencji.
W kwietniu 2021 roku jego treść została zaproponowana przez Komisję Europejską, a w czerwcu 2023 Parlament Europejski przyjął w jego sprawie stanowisko negocjacyjne. W następnym kroku państwa członkowskie w ramach Rady będą dyskutowały nad ostatecznym kształtem dokumentu.
Celem jest osiągnięcie porozumienia do końca tego roku. Założeniem Aktu jest podzielenie narzędzi wykorzystujących sztuczną inteligencję ze względu na ryzyko, jakie stanowią dla użytkowników.
Im większe ryzyko, tym większa potrzeba regulacji w tym zakresie. Podział wynika z faktu, że technologia rozwija się obecnie tak szybko, że unijny prawodawca nie byłby w stanie na bieżąco wprowadzać nowych regulacji.
Przechodząc do poszczególnych kategorii – pierwszą z nich stanowią technologie niedopuszczalne, które powinny zostać zakazane.
Należą do nich między innymi technologie rozpoznawania twarzy, które działają w czasie rzeczywistym czy też algorytmy klasyfikujące ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych.
Drugą kategorią będą technologie o wysokim stopniu ryzyka, które każdorazowo będą oceniane przed wprowadzeniem na rynek.
Do tej kategorii należą między innymi identyfikacja biometryczna i kategoryzacja osób fizycznych lub technologie wykorzystywane przy funkcjach wymiaru sprawiedliwości i kontroli granicznej.
Trzecią kategorię stanowią technologie o ograniczonym ryzyku, takie jak oprogramowanie służące do modyfikowania zdjęć i wideo. Powinny spełniać minimalne wymogi przejrzystości, które pozwoliłyby użytkownikom na podejmowanie świadomych decyzji.
Przed przyjęciem przez Parlament Europejskiego stanowiska negocjacyjnego, organizacje pozarządowe, w tym Amnesty International postulowały, by Unia Europejska wprowadziła rozwiązania zapewniające, że sztuczna inteligencja nie będzie wykorzystywana do łamania praw człowieka.
Organizacja podkreśliła między innymi, że należy zakazać wykorzystywania systemów profilowania opartych o dyskryminujące algorytmy, które wymierzone są w grupy marginalizowane.
Rozwiązania Unii Europejskiej są krokiem w dobrą stronę. Jeżeli organizacja zdecyduje się przyjąć Akt o sztucznej inteligencji w jego dotychczasowej formie, to predykcja kryminalna będzie zakazana.
Nie będziemy musieli się więc przynajmniej na razie, obawiać scenariusza z filmu Spielberga.
Jest jednak wciąż wiele do poprawy. Nie zdecydowano się między innymi na całkowity zakaz identyfikacji biometrycznej, mimo że technologia ta jest bardzo niedoskonała.
Do czasu zakończenia procesu legislacyjnego organizacje pozarządowe i środowiska obywatelskie powinny więc wykorzystać swój autorytet i wpływy, by przekonać decydentów do przyjęcia rozwiązań zgodnych z prawami człowieka.
Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.
Komentarze