Gdyby nie 1,5%, mogłoby nie być OKO.press

Twoja pomoc ma znaczenie

0:00
0:00

0:00

Prawa autorskie: Il. Mateusz Mirys / OKO.pressIl. Mateusz Mirys / ...

Według raportu agencji Graphite z października 2025 roku większość (ok. 52 proc.) nowych artykułów w internecie wygenerowała sztuczna inteligencja, a nie człowiek. Analizę wykonano na podstawie losowo wybranych 65 000 stron opublikowanych od stycznia 2020 roku do maja 2025 roku. Dla porównania, przed premierą ChatGPT na przełomie 2022 i 2023 roku, treści AI stanowiły zaledwie 10 proc.

Z kolei Originality.ai, czyli firma specjalizująca się w wykrywaniu treści generowanych przez sztuczną inteligencję, podała, że ponad 40 proc. treści publikowanych na Facebooku jest generowanych wyłącznie przez AI. Wnioski te wysnuto w lutym 2025 r. na podstawie analizy 8855 postów z okresu od listopada 2018 do listopada 2024 roku.

Publikacje obu raportów sprawiły, że w sieci zawrzało i obwieszczono jej rychłą śmierć. Często też przytaczano teorię martwego internetu, która zakłada, że w przyszłości pozostaną wyłącznie boty wchodzące w interakcje między sobą. Ludzki użytkownik zostanie sprowadzony jedynie do bezmyślnej konsumpcji pomyj AI (w oryginale AI slop).

Równolegle do obaw pojawiły się tłumaczenia, że to nie koniec internetu, ale kolejny etap ewolucji. W końcu jego śmierć obwieszczano już kilka razy, m. in. przy narodzinach smartfonów, a potem mediów społecznościowych.

Komu zatem wierzyć? Teoria martwego internetu, dotychczas schowana między innymi spiskami, w erze BigTechów i agentów AI jawi się jako całkiem logiczna, a wręcz nieuchronna przyszłość.

O to, czy rzeczywistość przegoniła najczarniejsze scenariusze twórców serialu “Czarne lustro”, a z popiołów starego świata wyłoni się nowy, zapytałem Mateusza Chroboka.

AI zapytana o to, kim jest Mateusz Chrobok, odpowiada: „Polski ekspert ds. cyberbezpieczeństwa, sztucznej inteligencji (AI) i nowych technologii, twórca platformy edukacyjnej uczmnie.pl oraz współtwórca kursu aidevs.pl. Prowadzi popularny kanał na YouTube (ponad 160 tys. subskrybentów), gdzie przystępnie tłumaczy zagadnienia techniczne, bezpieczeństwo IT oraz rozwój AI. Jego działalność koncentruje się na budowaniu świadomości cyfrowej i praktycznym wykorzystaniu nowych technologii”.

Kto chce wierzyć w chałkonie?

Damian Nowicki: Czy w świetle raportów, z których wynika, że znaczną część globalnego ruchu internetowego generują boty, a nie ludzcy użytkownicy, martwy internet jest jeszcze teorią spiskową? A może wizja internetu „od botów dla botów" właśnie się realizuje?

Mateusz Chrobok: To zależy od miejsca i platformy. Już teraz są miejsca, gdzie większość dostępnych treści jest wygenerowana przez AI. Ale to nie spowoduje, że świat się zawali. Część ludzi będzie wierzyć w chałkonie czy inne nieprawdopodobne zjawiska, bo nie są świadomi tego, jakie treści można wygenerować. Z kolei umiejętność filtrowania i krytycznego interpretowania informacji będzie ważniejsza niż kiedykolwiek.

Jednocześnie byłbym ostrożny wobec mierzenia, ile jest AI w internecie wyłącznie na podstawie ruchu sieciowego, ponieważ wciąż większa część tych interakcji jest wywołana przez ludzi.

Sam wchodząc na różne serwisy czy strony zlecam botowi AI, aby znalazł za mnie informację, której szukam. Owszem, jestem leniwy, ale jednocześnie oszczędzam swój czas i energię, którą pożytkuję gdzie indziej. Natomiast z perspektywy analizy AI w ruchu sieciowym… jestem botem, który wykonywał za mnie aktywność na stronie.

Matthew Price, szef CloudFlare'a (jeden z najważniejszych dostawców serwerów, który umożliwia funkcjonowanie stron internetowych m. in. Ubera, Apple’a, Amazona czy Rządu Federalnego Niemiec, a także OKO.press) w odpowiedzi na pytania dotyczące martwego internetu studził emocje i powiedział, że roboty nie klikają w reklamy.

Dwa dni temu analizowałem chińską aplikację, która okazała się złośliwa i miała taki modus operandi, że gdzieś w tle otwierała taką jakby przeglądarkę i klikała po reklamach w imieniu użytkownika. Rozumiem, co szef CloudFlare'a miał na myśli, ale nie do końca się zgadzam. Roboty też klikają w reklamę.

Podsumowując: internet nie umrze?

Część internetu już jest martwa, natomiast nie ma innego wyjścia niż nauczyć się z tym żyć i opanować umiejętności filtrowania informacji oraz zbierania rzeczy naprawdę istotnych.

Przeczytaj także:

Stajemy się wasalami

Jednak internet długo był „ostatnią wolną przestrzenią”, której nie można było ujarzmić, niezależnie czy próbowali to zrobić biznesmeni, politycy czy Barbra Streisand. Dzisiaj mam wrażenie, że takim firmom jak Facebook, Amazon, Twitter/X i Apple to naprawdę się udało. Czy internet jest jeszcze miejscem „wolnym”?

Do pewnego stopnia tak, bo nie zmieniły się podstawowe założenia, że każdy może się połączyć z każdym. Natomiast uwaga ludzi została przekierowana w kierunku dużych platform, ponieważ tam znajdują się wszystkie treści, których pragną.

W efekcie mamy do czynienia z centralizacją i to nie tylko na poziomie stron internetowych, ale też wyszukiwarek, map, poczty itp., a najwięksi gracze jak Google czy Microsoft wprowadzają standardy, które są niezgodne z fundamentalną zasadą internetu, czyli decentralizacją. To powoduje problemy, bo np. już nie można mieć swojego serwera tylko trzeba się z kimś ułożyć.

W pewnym sensie stajemy się wasalami tych wielkich, którzy dyktują warunki: albo się dostosujesz, albo nie pozwolimy ci na interakcje z naszymi użytkownikami. A skoro wszyscy użytkownicy są u nas, to de facto znikniesz z mapy. Jest takie twierdzenie o sile sieci społecznościowej, które zakłada, że im większa sieć, tym bardziej przyciąga, bo wszyscy tam są.

Największe firmy technologiczne zwabiały użytkowników i budowały pozycję, a gdy w końcu to osiągnęły, to teraz robią co chcą.

W książce „Enshittification: Why Everything Suddenly Got Worse and What to Do About It” (Zgównowacenie. Dlaczego wszystko nagle stało się gorsze i co z tym zrobić) Cory Doktorow napisał: “Oto jak umierają platformy: najpierw są dobre dla swoich użytkowników; potem ich wykorzystują, by zrobić dobrze klientom biznesowym, a na koniec wykorzystują tych klientów, by przejąć całość korzyści dla siebie. A potem umierają". Zdaniem kanadyjskiego dziennikarza i pisarza tego procesu nie da się zatrzymać.

Po latach pracy w różnych startupach zrozumiałem, że to normalny cykl obecny w każdym komercyjnym przedsięwzięciu. Większość firm technologicznych nie buduje wartości dla ludzi, tylko dla inwestorów giełdowych. Owszem, na samym początku jest jakaś piękna idea, że robimy coś dobrego, ale wraz ze wzrostem zysków maleje zaangażowanie w jakość usług dla użytkowników.

Ten mechanizm działa w mikroskali, gdy firma zarabia tysiące, oraz w makroskali, gdy taka Meta zarabia miliardy. A ponieważ te gigantyczne firmy muszą przynosić gigantyczne zyski, to dążenie do pieniędzy – i władzy – sprawia, że ruch w sieci monetyzuje się poprzez działania moralnie wątpliwe.

Na przykład premiowanie dezinformacji, jak to robi Meta czy tworzenie półrozbieranych zdjęć przy pomocy AI jak w X-owym Groku?

Chociażby. Takim rycerzem na białym koniu swojego czasu było Open AI, które zaczęło jako fundacja chcąca zmieniać świat na lepsze, a skończyło się jak zwykle. Warto podkreślić, że istnieją firmy trwając w swoim “zdrowym” podejściu, które czasami nazywa się “greenfield”, choć stanowią mniejszość. Ich twórcy rozwijają firmę powoli, nie sprzedają udziałów i pilnują, żeby nadrzędnym celem nie było wyłącznie zarabianie pieniędzy.

Siedmiu agentów AI robi dla mnie różne rzeczy

Tymczasem Big Techy nas, użytkowników, sprowadziły do roli techno-paszy, na której żerują korporacje.

W jednej z prezentacji szkoleniowych mam slajd, że jesteśmy jak ludzie-baterie w Matrixie, tylko że odżywia się nas tokenami, a nie martwymi szczątkami. Czytałem ostatnio badanie na temat tego, co stało się z naszymi umysłami przy korzystaniu z AI. Pojawiły się tam dość smutne konstatacje, między innymi to, że im więcej rzeczy, które dotychczas robiliśmy w internecie sami, cedujemy na AI, tym mniej używamy naszego mózgu kognitywnie.

W myśl zasady, że każdy mięsień nieużywany zanika, po prostu mniej ogarniamy. Najgorsze, że niewiele możemy z tym zrobić, bo przecież cała myśl technologiczna ludzkości sprowadza się do tego, aby robić rzeczy łatwiej, a najlepiej, aby robiono je za nas.

Jednocześnie w tym badaniu uwzględniono, że jeżeli człowiek jest świadom tych procesów i używa ich kreatywnie, np. do poszerzania swoich umiejętności, to jego zdolności kognitywne nie maleją. I oczywiście zawsze z takimi badaniami można polemizować, bo to tylko teza i próbka badawcza, natomiast jest to dla mnie potwierdzenie, że trzeba patrzeć na AI wielowymiarowo.

Nawet teraz, jak rozmawiamy, siedmiu agentów AI robi dla mnie różne rzeczy. Jeden szuka sterowników do klimatyzacji w moim domu, drugi sprawdza, czy coś się nie wykrzacza na mojej stronie internetowej itp. Korzystam z tego na co dzień, ponieważ jest to mega przydatne i pozwala mi więcej zrobić.

Ale można też przy pomocy AI generować deep fejki i robić inne krzywdzące rzeczy. To pewnie zabrzmi jak wyświechtany slogan, ale niestety cały czas jest aktualne: AI jest narzędziem i to od nas zależy, jak zostanie wykorzystane. Młotkiem można coś zbudować, ale i komuś zaszkodzić.

Moim zdaniem wszystko sprowadza się do tego, że jako społeczeństwo jesteśmy na krzywej uczenia się, jak wchodzić w interakcje z modelami AI. Póki co wciąż używamy narzędzi AI w sposób średniozaawansowany, ale wierzę, że z czasem będziemy w tym coraz lepsi. Nawet Unia Europejska poświęciła pojęciu ”AI literacy” artykuł 4 Aktu o AI przyznając, że to będzie bardzo ważna umiejętność w przyszłości.

Internet nie jest naszym zwierciadłem

A może jednak dzisiejsza kondycja internetu i wszystko, co się w nim dzieje, jest odzwierciedleniem naszej kondycji jako społeczeństwa, tj. poziomu debaty publicznej, kultury osobistej, tolerancji itp.? Jeżeli internet jest gówniany, to może tak naprawdę my jesteśmy gównianymi użytkownikami?

Nie powiedziałbym, że internet jest naszym zwierciadłem. Jest raczej płaszczyzną, na której widać bardzo dużo filtrów użytkowników; etycznych, historycznych, politycznych itp.

Najlepszym tego przykładem są wyniki badań raportujące, że ktoś celowo próbował wpłynąć na treści Wikipedii. Po co? Większość modeli uczy się na Wikipedii, gdzie jest ładnie ustrukturyzowana treść. I teraz weźmy jakąś rzecz, która wzbudzi największe emocje, powiedzmy Wołyń i przeinaczmy to hasło, przypisując jednej stronie całą winę. To się ładnie nazywa “Wikiwandalizmem” i taki atak pokazuje, że wątki z zakresu geopolityki czy odgórnie przyjętych narracji są i będą częścią internetu, ale też nauki AI.

Jako ludzkość nie mamy jednego etyczno-moralnego kompasu, więc nie dziwmy się, że modele, które powstały w różnych częściach świata, różnych ustrojach mają też bardzo różną specyfikę.

Wybierając AI poniekąd wybieramy światopogląd, który będzie miał wpływ na wynik, jaki osiągniemy i potencjalnie na to, jaką podejmiemy decyzję. To bardzo ładnie zostało ujawnione w badaniu pt. “Large Language Models Reflects the Ideology of Their Creators” (“Duże modele językowe odzwierciedlają ideologię ich twórców” tłum. red.), które pokazało, jak różnią się odpowiedzi na te same pytania między AI pochodzącymi z krajów Wschodu i Zachodu.

W kontekście alarmujących artykułów o tym, jak AI zabija umiejętność krytycznego myślenia, natrafiłem na hasło “I miss my pre-internet brain” (tęsknię na moim mózgiem sprzed internetu). Coraz częściej mam wrażenie, że internet stał się obciążeniem, z którego z najróżniejszych powodów nie możemy zrezygnować.

W swoim otoczeniu widzę, jak niektóre osoby bezmyślnie wszystko cedują na AI i jak bardzo negatywnie wpływa to na ich myślenie. Z drugiej strony życie “off the grid” (poza siecią – red.) czy totalna nieufność wobec sztucznej inteligencji też nie wydaje mi się dobrą ścieżką.

To, jak AI wpływa na nasz proces kształcenia czy konceptualizowania, będziemy wiedzieli dopiero po latach. Ale czy tego chcemy, czy nie, tych zmian już nie cofniemy. Mam świadomość, że to wymaga bardzo dużo samodyscypliny i samozaparcia, szczególnie dla osób nieco starszych, aby otworzyć się na nowe i nieznane zjawiska.

Jak chronić ludzi?

A jak ustrzec przed np. dezinformacją albo oszustwami ludzi, którzy nie mają wiedzy czy doświadczenia? Załóżmy, że przychodzi do Pana babcia, wujek czy teść i pokazują wygenerowany w AI artykuł albo filmik tak dobrze zrobiony, że nawet Pan musiałby sekundę pomyśleć, aby stwierdzić, że wygenerowały go boty. Jak chronić ludzi, którzy nie do końca rozumieją czym jest internet, a co dopiero sztuczna inteligencja, boty, DSA itp.

Zacznijmy od tego, że ja też daję się nabrać. Już nieraz uwierzyłem w jakiś deep voice czy deep fake. Jednocześnie trzeba pamiętać, że nie wszystkie treści wygenerowane automatycznie muszą być z natury złe. Wielokrotnie ChatGPT stworzył pracę czy tekst bardziej obiektywny, spójny czy przejrzysty niż ludzie, bo np. nie był obciążony przekonaniami czy uprzedzeniami co autor.

Nie obawiam się aż tak o seniorów, którzy żyli w czasach PRL-u, ponieważ duża część z nich pamięta rzeczywistość cenzury czy inwigilacji i wie, że istnieje podwójne kodowanie, a gdzieś między słowami komunikuje się coś innego. Niedawno jedna ze starszych osób w mojej rodzinie miała sytuację, że ktoś podszywał się pode mnie i próbował wyłudzić pieniądze. Nie dała się nabrać, bo nie zgadzały się fakty dotyczące mojego życia, na które oszust się powoływał.

Największym wyzwaniem nie jest wiek czy wiedza, ale mechanizm – internetowi oszuści działają na podobnych zasadach co dezinformacja. Gdy czytamy albo słyszymy coś, co potwierdza naszą wizję o świecie, to chętnie przyjmujemy to za prawdziwe i w ogóle się nie zastanawiamy, czy zrobił to człowiek czy maszyna albo jakie mogą stać za tym intencje. I to moim zdaniem jest miejsce, w którym sztuczna inteligencja może nam bardzo pomóc.

Walka ognia z ogniem.

Często robię takie ćwiczenie: gdy mam jakąś tezę, co do której nie jestem do końca pewny, chociaż wygląda i brzmi sensownie, to proszę, żeby AI wcieliło się w krytyka, który poszuka kontrargumentów. Nieraz mi to pomogło, ale też odkryłem rzeczy, o których nie wiedziałem albo dawało mi to zupełnie inna perspektywę.

Dzięki AI próg wejścia do tego, żeby weryfikować prawdę, moim zdaniem jest niższy, bo te modele mogą w tym pomóc. Jednocześnie to, co najbardziej nas hamuje, to niewiedza i wygoda, aby w ogóle pomyśleć “hej, a może to jest nieprawda?”.

Dwie prędkości

Mówi się też, że rozwój internetu zmierza w kierunku dwóch prędkości. Pierwszy będzie jakościowy, merytoryczny, wolny od dezinformacji i nienapisany przez bota, ale tylko dla tych, którzy zapłacą. Drugi, darmowy, będzie jak główne strony dwóch największych polskich portali: kakofonią reklam i polaryzacji, obiegiem informacji sprowadzony do tablicy ogłoszeń. Czy taki scenariusz czeka nie tylko portale i platformy, ale internet i AI w ogóle?

To już się dzieje, co udowadnia m.in. raport z października zeszłego roku, który opublikowało OpenAI i Anthropic, gdzie pokazano jak ludzie używają AI.

Z tego raportu wynika nie tylko to, że w krajach bardziej rozwiniętych korzysta się z AI w bardziej zaawansowany sposób, budując jeszcze większą wartość, a w krajach mniej rozwiniętych w sposób prosty i wtórny np. do czyszczenia tekstu z literówek. Ta różnica poszerza się, bo w obrębie modeli płatnych istnieją tańsze i droższe moduły, które mają jeszcze większe możliwości. Ci, których na to stać, są w stanie korzystać z jeszcze lepszych rozwiązań.

Żyjemy w erze filtrowania informacji, gdzie walutą jest nasza uwaga, o którą walczą wszystkie firmy. W momencie, kiedy jesteśmy produktem i dostajemy usługę za darmo, to musi ona być oparta o reklamy, bo to podstawowe źródło finansowania. Tutaj warto wspomnieć o zapowiedzianym trybie erotycznym w ChacieGPT i planach wprowadzenia tam reklam.

Jeżeli będziemy chcieli zadbać o uwagę i o to, żeby nas nic nie rozpraszało, to albo będziemy musieli znaleźć w sobie ogromną dyscyplinę, albo trzeba będzie zapłacić. Firmy szybko zorientowały się, że większość ludzi woli wydać pieniądze niż wystawić się na dyskomfort. Z kolei ci, którzy będą w stanie zapłacić jeszcze więcej, będą mieli dostęp do jeszcze lepszych rozwiązań i większych mocy obliczeniowych.

Politycy, wprowadźcie DSA

Puśćmy wodze fantazji i wyobraźmy sobie, że za chwilę przychodzi do Pana minister cyfryzacji Krzysztof Gawkowski oraz premier Donald Tusk i mówią, “wprowadzimy takie regulacje i ograniczenia, jakie uzna Pan za właściwe”. Od czego by Pan zaczął?

(śmiech) Intuicja podpowiada mi, że przed zakazami i nakazami powinna być edukacja. Nie mamy dzisiaj w Polsce dobrego programu, który by edukował na temat sztucznej inteligencji czy internetu jako ekosystemu informacji.

Wiem, że pojawiły się pierwsze inicjatywy w szkołach, ale co z resztą dorosłego społeczeństwa? Oczywiście część osób będzie miała to w nosie i mają do tego prawo, ale państwo powinno dać możliwość podnoszenia kwalifikacji i zachęcać do tego.

Dostrzegam i doceniam, że pewne rzeczy już się dzieją, natomiast jesteśmy tak bardzo podzieleni co do wizji tych działań edukacyjnych, że możemy przespać czas na implementację.

Drugim poziomem zabezpieczeń są regulacje.

Przecież dopiero co powiedział Pan, że jest daleki od zakazów i ograniczeń?

Życie weryfikuje idealistyczne przekonanie, że każdy będzie wystarczająco wyedukowany i ogarnięty, żeby wiedzieć jak się chronić i bronić, więc regulacje są potrzebne. Choćby po to, aby móc dochodzić swoich praw wobec wielkich pracodawców, gdy ktoś usunie moją treść albo wrzuci materiał deep fake z nami.

Jak na poziomie ustawodawczym państwo może bronić naszej prywatności przed krwiożerczymi Big Techami?

Jestem zwolennikiem tego, co dzieje się w Unii Europejskiej, szczególnie dwóch rozporządzeń.

Pierwszy to Akt o Rynkach Cyfrowych, który sprawia, że jako zwykli obywatele nie jesteśmy bezbronni wobec wielkich firm. Póki co to są drobne zmiany, że np. nie jesteśmy skazani na wyszukiwarkę Google’a, tylko możemy sobie wybrać inną, ale jestem wielkim fanem wyrównania tej relacji.

Drugim jest Akt o Usługach Cyfrowych, który niestety jeszcze nie został wdrożony w Polsce, to taka pałka na duże platformy, które do tej pory mogły się wykpić od regulacji.

Jest jeszcze bliski mojemu sercu CRA (Akt o Cyberodporności – red.), czyli rozporządzenie ustanawiające wspólne standardy cyberbezpieczeństwa dla urządzeń podłączonych do sieci. Niestety dopiero będzie głosowanie na jego temat, ale ważne, że prace trwają.

Wyobraźmy sobie, że zwykły obywatel znalazł na Instagramie swoje deep fejki, ale nie może doprowadzić do ich zdjęcie i w efekcie chce pozwać Metę. Powodzenia. Trzeba być chyba Rafałem Brzoską, aby w ogóle doprowadzić do sądowej rozprawy, a i tak nie ma żadnej gwarancji, że cokolwiek z tego będzie.

Rozwiązania prawnie, które wymieniłem, nie wyrównują naszej relacji sił z światową korporacją, ale daje więcej narzędzi urzędnikom państwowym, żeby z nimi walczyć.

Wszystkie firmy na świecie, które w Unii Europejskiej dostały karę za złamanie zasad RODO, zapłaciły ją na początku lutego 2024 roku, czyli na ostatnią chwilę przed wejściem w życie DSA. Firmom po prostu opłaca się łamanie prawa. Samo DSA jest dopiero początkiem, ale mam nadzieję, że zbliżyło nas do zmniejszenia nierówności sił pomiędzy Big Techami a zwykłymi ludźmi.

Gawkowskiemu i Tuskowi powiedziałbym więc, żeby natychmiast zorganizować szerokozakrojoną akcję edukacji całego społeczeństwa z AI i cyberbezpieczeństwa i jak najszybciej wdrożyć w Polsce DSA.

Jakie rozwiązania należałoby wobec tego wprowadzić, aby w fundament działalności firm technologicznych włączyć koszta społeczne, które AI generuje, np. kradzież treści?

W myśl zasady “koszty uspołecznimy, zyski sprywatyzujemy” duże firmy, które są regularnie pozywane i karane za kradzież, mają tak wielki kapitał, że wrzucają to w koszta, ponieważ zyski są nieproporcjonalnie większe. To tragedia z perspektywy praw autorskich. Ta asymetria sił biznesu i praw jednostki póki co jest legalna i niewiele można z tym zrobić, bo “kto bogatemu zabroni”.

Wierzę jednak w podejście zdecentralizowane, czyli otwarte modele, które nie kradną przy tworzeniu treści, jak chociażby polskie Bielik czy Plum, w przypadku których wiemy, co zbierają, gdzie i jaką mają licencje na to, żeby się uczyć. To jest dla mnie taki ruch oporu. Wierzę, że tak jak internet u swoich podstaw był zdecentralizowany, tak prawo i umiejętność korzystania z technologii będzie czymś, co jest w stanie nas uwolnić.

Uzdrowienie internetu jest jeszcze możliwe?

Coraz częściej dostrzegam rozwiązania, których podejście opiera się na koncepcji tzw. Fediwersum (fediverse — federated universe — sfederowane uniwersum).

Są rozproszone, każdy może mieć swój serwer, być na serwerze kolegi albo rozmawiać z nim z innych serwerów. Tam po prostu nie ma jednej centralnej organizacji, która mówi co wolno, a co nie, nie zbiera danych, które potem monetyzuje albo używa do uczenia AI.

Przykładem takich zdecentralizowanych mediów społecznościowych w duchu “starego” internetu jest choćby platforma Mastodon. Nie jest jeszcze popularna, bo jako użytkownicy mamy dosyć niską świadomość tego, że można wybrać coś innego.

Wierzę w oddolne ruchy oraz zdecentralizowaną równowagę sił, które spowoduje, że będziemy niezależni od monopolistów. Jednocześnie po tylu latach w branży ciężko nie być sceptycznym co do umasowienia tych rozwiązań.

Staram się być realistą i dlatego prowadzę warsztaty oraz szkolenia na temat cyberbezpieczeństwa i gadam o AI na YouTube, ale brutalna prawda jest taka, że ludzie lubią wygodę, nierzadko nawet kosztem wolności.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

Na zdjęciu Damian Nowicki
Damian Nowicki

Dziennikarz i reportażysta freelancer, najściślej związany z "Gazetą Wyborczą" oraz "Tygodnikiem Powszechnym". Absolwent filozofii i filmoznawstwa na Uniwersytecie im. Adama Mickiewicza w Poznaniu oraz Polskiej Szkoły Reportażu w Warszawie. Nominowany do nagrody Grand Press 2022 w kategorii wywiad. Najbardziej poruszają go systemowe problemy, które krzywdzą bezbronnych ludzi. Pracuje nad debiutancką książką o nadużyciach w polskim środowisku akademickim, która ukaże się nakładem Wydawnictwa Poznańskiego.

Komentarze