Gdyby nie 1,5%, mogłoby nie być OKO.press

Twoja pomoc ma znaczenie

0:00
0:00

0:00

Prawa autorskie: Fot. JOE RAEDLE / Getty Images via AFPFot. JOE RAEDLE / Ge...

Powiedz nam, co myślisz o OKO.press! Weź udział w krótkiej, anonimowej ankiecie.

Przejdź do ankiety

Kontrola Czatów to pomysł, by operatorzy usług komunikacyjnych (komunikatorów internetowych, poczty e-mail i tym podobnych) analizowali treść prywatnej komunikacji osób z ich usług korzystających w celu „zwalczania niegodziwego traktowania dzieci w celach seksualnych w internecie”.

W wersji najbardziej problematycznej, a zarazem preferowanej przez Komisję Europejską (i lobbystów firm, które oferują systemy mające wykonywać taką analizę automatycznie), Kontrola Czatów miałaby być obowiązkowa i dotyczyć również narzędzi szyfrowanych z końca do końca, jak komunikator Signal.

Ta najbardziej niebezpieczna wersja Kontroli Czatów nie została na razie przyjęta.

Zamiast tego, od 2021 roku obowiązuje tymczasowe rozporządzenie pozwalające usługodawcom na dobrowolne monitorowanie takich treści. Jego ważność upływa 3 kwietnia 2026.

W poniedziałek 2 marca Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) Parlamentu Europejskiego zaopiniowała negatywnie projekt ponownego przedłużenia okresu jego obowiązywania. We wtorek 10 marca Parlament Europejski podejmie w tej sprawie ostateczną decyzję.

Niebezpieczne i nieskuteczne

Kontrola Czatów, w dowolnej wersji, jest niebezpieczna i nieskuteczna. Pisałem o tym w OKO.press dwukrotnie, w marcu oraz październiku 2023 roku. W telegraficznym skrócie:

Po pierwsze, bez względu na zaklęcia zwolenników tego pomysłu, technicznie niewykonalne jest stworzenie systemu skutecznie oznaczającego materiały pedofilne, a jednocześnie nieoznaczającego zupełnie niewinnych zdjęć nagich bobasów wysyłanych sobie przez członków rodziny lub przesyłanych lekarzowi rodzinnemu w celu konsultacji.

Wszystko wszak zależy od kontekstu, do którego taki system po prostu nie ma dostępu. A błędne zgłoszenie jakiejś niewinnej treści jako przedstawiającej wykorzystywanie dzieci organom ścigania może zrujnować komuś życie.

Po drugie: w przypadku komunikacji szyfrowanej z końca do końca (jak na Signalu), wymagałoby to umożliwienia nadzorowania treści komunikacji operatorowi – co jest antytezą takich systemów komunikacji. Nie ma tu znaczenia, czy takie skanowanie odbywałoby się w infrastrukturze operatora, czy bezpośrednio na urządzeniu osoby korzystającej.

Po trzecie: system stworzony do monitorowania treści pedofilnych doskonale by się nadał do monitorowania jakichkolwiek innych treści – choćby pro-imigranckich albo LGBTQ+. Nie wiadomo, kto będzie takie decyzje podejmował w Polsce za rok czy dwa. Wiadomo, kto je dziś podejmuje na Węgrzech. A propozycje rozszerzenia katalogu monitorowanych treści były już wysuwane.

Po czwarte wreszcie: organizacje i osoby eksperckie zajmujące się ochroną dzieci zaznaczają, że nawet jeśli udałoby się taki magiczny system stworzyć i wdrożyć, niekoniecznie byłoby to w najlepszym interesie samych dzieci – które potrzebują bezpiecznej, prywatnej przestrzeni komunikacji.

Taka przestrzeń jest zwłaszcza na wagę złota, gdy dziecko doświadczyło czegoś złego (choćby w Internecie) i chce móc z kimś o tym porozmawiać.

Przeczytaj także:

Historia pewnej regulacji

Najbardziej problematyczna forma Kontroli Czatów została odrzucona przez Parlament Europejski w 2023 roku. Pomysł wraca jednak regularnie w różnych wersjach – mimo że na początku 2024 roku Europejski Trybunał Praw Człowieka wydał wyrok (w sprawie niezwiązanej bezpośrednio z Kontrolą Czatów), jednoznacznie określając narzucany obowiązek osłabiania skuteczności szyfrowania komunikacji jako nieproporcjonalny i „zbędny w demokratycznym społeczeństwie”.

W połowie 2021 roku przyjęta została słabsza wersja Kontroli Czatów: rozporządzenie (EU) 2021/1232, tworzące wyjątek od obowiązujących w UE regulacji chroniących prywatność, pozwalające usługodawcom na dobrowolne monitorowanie i analizę prywatnej komunikacji w celu rzekomej ochrony dzieci w Internecie. Rozporządzenie było przyjęte tymczasowo, do sierpnia 2024. W 2024 roku okres jego ważności przedłużono do 3 kwietnia 2026.

Miało to na celu wprowadzenie tymczasowej regulacji na czas potrzebny do stworzenia długoterminowego rozwiązania prawnego. Tego rozwiązania, mimo usilnych prób Komisji Europejskiej, jak nie było, tak nie ma.

Czas więc, by tymczasowe rozwiązanie również odeszło do lamusa.

Tak też zarekomendowała Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (LIBE) Parlamentu Europejskiego. Ostateczna decyzja zostanie podjęta we wtorek 10 marca, podczas sesji plenarnej.

Dobro dzieci a zasięgi

Jedynym oficjalnym uzasadnieniem Kontroli Czatów jest „dobro dzieci”. Trudno jednak traktować to uzasadnienie poważnie, gdy politycy, którzy pomysł popierają – jak europosłowie Krzysztof Śmiszek, Mariusz Kamiński i Maciej Wąsik, głosujący w komisji LIBE za wydłużeniem czasu obowiązywania rozporządzenia (EU) 2021/1232 – wspierają swoją obecnością i aktywnością platformę, która zarabia na generowaniu materiałów przemocowych przedstawiających dzieci. Materiałów, które Kontrola Czatów być może miałaby za zadanie wychwytywać.

Chodzi oczywiście o portal X, dawniej zwany Twitterem.

W 2025 roku, w wakacje, firma Elona Muska dodała nową funkcjonalność, tak zwany „tryb pikantny”, do czatbota Grok. Pozwala to na generowanie brutalnych bądź nacechowanych seksualnie materiałów wizualnych przedstawiających osoby ze zdjęć dostarczonych przez korzystających z czatbota.

W praktyce oznacza to możliwość „rozbierania”, dodawania siniaków i innych oznak przemocy itp., konkretnych osób z konkretnych zdjęć – bez ich wiedzy i zgody. To forma przemocy.

Ta przemoc dotyka przede wszystkim kobiety – ale (zgodnie z raportem organizacji AI Forensics) dotyka też dzieci, w tym poniżej 5. roku życia.

Funkcjonalność wywołała falę krytyki. W odpowiedzi firma ograniczyła dostęp do „trybu pikantnego” wyłącznie do kont płatnych. Innymi słowy, generowanie materiałów przemocowych, w tym przedstawiających konkretne dzieci (na bazie ich zdjęć) jest w portalu X usługą premium.

Na takiej platformie europosłowie Wąsik, Śmiszek i Kamiński od czasu zagłosowania za „ochroną dzieci” na posiedzeniu komisji LIBE opublikowali w sumie dziesiątki wpisów.

Dobro dzieci dobrem dzieci, a zasięgi trzeba budować!

Zamiast Kontroli Czatów

Gdyby komuś faktycznie zależało na bezpieczeństwie dzieci w Internecie, to, zamiast rozmontowywać podstawowe prawa i wolności w Unii Europejskiej w celu wdrożenia systemu, który nie może działać skutecznie i który aż się prosi o nadużycia, należałoby się skupić na przykład na skutecznym uregulowaniu wielkich platform.

Firma Meta, operator Instagrama, od lat doskonale wiedziała o tym, jak toksyczne są jej produkty na przykład dla młodych dziewcząt.

Meta nie miała też problemu z wykorzystaniem zamieszczonych na Instagramie zdjęć dziewcząt – nawet trzynastoletnich – w szkolnych mundurkach w reklamach kierowanych do dorosłych mężczyzn. Oczywiście bez wiedzy i zgody samych dziewcząt ani ich rodziców – mimo że w reklamach czasem widoczne były ich imiona.

Nie mówiąc już o X/Twitterze i zintegrowanym z nim Groku, który generuje materiały przemocowe przedstawiające konkretne dzieci na bazie ich zdjęć.

Z wszystkimi tymi zjawiskami można walczyć bez wprowadzania systemu inwigilacji prywatnych rozmów.

Można też zacząć od siebie i po prostu opuścić platformy zarabiające na krzywdzie dzieci. Dać dobry przykład. Ostatecznie wartość tych platform dla osób korzystających wynika w zasadzie wyłącznie z tego, że są na nich osoby, które możemy chcieć śledzić. Jak (wciąż) europosłowie Śmiszek, Kamiński i Wąsik.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;
Na zdjęciu Michał rysiek Woźniak
Michał rysiek Woźniak

Specjalista ds. bezpieczeństwa informacji, administrator sieci i aktywista w zakresie praw cyfrowych. Studiował filozofię, był członkiem Rady ds. Cyfryzacji, jest współzałożycielem warszawskiego Hackerspace’a. Pracował jako Dyrektor ds. Bezpieczeństwa Informacji w OCCRP – The Organised Crime and Corruption Reporting Project, konsorcjum ośrodków śledczych, mediów i dziennikarzy działających w Europie Wschodniej, na Kaukazie, w Azji Środkowej i Ameryce Środkowej. Współpracuje z szeregiem organizacji pozarządowych zajmujących się prawami cyfrowymi w kraju i za granicą. Współautor „Net Neutrality Compendium” oraz “Katalogu Kompetencji Medialnych”.

Komentarze