0:000:00

0:00

Prawa autorskie: il. Mateusz Mirys / OKO.pressil. Mateusz Mirys / ...

“Robot zabierze ci pracę!”, “automatyzacja doprowadzi do cyfrowego bezrobocia”, “AI wywołał kryzys w branży IT” – od premiery ChatGPT podobne nagłówki rozgrzewają emocje odbiorców w zagranicznych, a ostatnio coraz częściej także w polskich mediach.

Ostatnio furorę robił news o przedsiębiorcy z Indii, który – rzekomo dzięki wprowadzeniu czatbota – zwolnił 90 proc. załogi. O planach redukcji zatrudnienia ze względu na możliwości, które daje tzw. generatywna AI, słychać w wielu branżach: od grafiki i internetowego marketingu, przez obsługę klienta i usługi zdalne, aż po programowanie i dziennikarstwo.

A także w filmie i telewizji, bo AI to jeden z przedmiotów sporu trwającego w Hollywood strajku aktorów i scenarzystów.

Przeczytaj także:

Poziom zatrudnienia najwyższy od dekad

Tego futurystycznego wzmożenia, póki co, nie potwierdzają odczyty z rynku pracy. Mimo wielowymiarowego kryzysu światowej gospodarki (energia i surowce, zmiany klimatu, rosyjska inwazja Ukrainy i kryzys powojennego porządku międzynarodowego), w wielu krajach Zachodu poziom zatrudnienia jest bowiem najwyższy od dekad.

Również w Polsce, w której znalezienie pracy nie było łatwe od początku transformacji ustrojowej. Dane przeanalizowane przez ekspertów OECD wskazują, że pandemiczne kłopoty są za nami, a większość zachodnich gospodarek wróciła na przedcovidowe szlaki wzrostu.

Z punktu widzenia społeczeństw, największym problemem jest wzrost kosztów życia. Przez napędzaną rosyjską inwazją na Ukrainę inflację realnie spadają nasze wynagrodzenia – nad Wisłą aż o 7 pkt proc. rok do roku.

Z tej sytuacji mogą cieszyć się jednak przedsiębiorcy, bo zyski firm (m.in. dzięki podwyżkom cen) rosną znacznie szybciej, niż koszty pracownicze. Choć to sytuacja daleka od idealnej, to nadciągającej „roboapokalipsy” w statystykach po prostu nie widać.

Widmo automatyzacji

Mimo tego nad dyskusją publiczną ciągle unosi się widmo automatyzacji. Jest tak co najmniej od końca 2022 roku, kiedy to kierowanemu przez Sama Altmana OpenAI szybko udało się dotrzeć z AI “pod strzechy” i zostać najszybciej pobieraną aplikacją w historii internetu (niedawno wyprzedził ją Threads, platforma mikroblogowa Mety, mająca być konkurencją dla Twittera).

Obok doświadczeń setek milionów użytkowników do snucia fantazji o “końcu pracy” mocno przyłożyły się media. Prezenterzy i dziennikarze chętnie informowali m.in. o tym, jakoby GPT miało zdać egzaminy: maturalne, adwokackie, biznesowe czy lekarskie.

W debacie często pojawiają się także na raporty międzynarodowych firm, które badają (i prognozują), że AI w najbliższych latach będzie w stanie sprostać kolejnym, do niedawna “arcyludzkim” zadaniom.

Według Goldman Sachs w USA może chodzić o ⅔ profesji, co przebija nawet alarmistyczne prognozy z głośnego raportu McKinseya, który kilka lat temu wprowadził temat do głównego nurtu.

Kogo zwolni AI?

Według OECD Europa Środkowo-Wschodnia to region, w którym prawdopodobieństwo zastępowania “ludzkich” miejsc pracy przez nowe, “inteligentne” technologie należy do najwyższych wśród państw rozwiniętych.

W przypadku Polski ma chodzić nawet o co trzeciego pracownika, którego zadania teraz lub niedługo będzie można zastąpić programem lub maszyną. Autorzy raportu przeprowadzili także badanie sondażowe, w którym pytali przedstawicieli różnych profesji (m.in. menedżerów oraz pracowników sektora finansowego i robotników) o ich doświadczenia oraz przewidywania co do rozwoju tej technologii.

Osoby, które na co dzień w biurze czy fabryce korzystają z rozwiązań AI, na ogół są z tego zadowolone – szczególnie gdy innowacja zwiększa komfort lub bezpieczeństwo. Jednocześnie odczuwają niepokój: aż 60 proc. badanych pracowników uważa, że ich miejsce pracy może zostać w ciągu dekady zastąpione przez automat.

Autorzy opublikowanego w 2014 roku w American Economic Review artykułu pokazują na danych z poprzednich dekad, że najprostsze do automatyzacji, rutynowe zadania często występują w zawodach o średnim poziomie wynagrodzenia, takich jak operatorzy maszyn czy urzędnicy biurowi.

Z kolei zadania niestandardowe, takie jak praca w kuchni, sprzątanie, ale także diagnozowanie chorób lub zarządzanie zespołami występują zarówno w zawodach o niskim, jak i wysokim wynagrodzeniu.

W rezultacie, w poprzednich dekadach w USA automatyzacja zmniejszyła zapotrzebowanie na “średnie” zawody jednocześnie zwiększając zapotrzebowanie na profesje o niskim i wysokim poziomie wynagrodzenia. Uruchomiło to procesy polaryzacji wynagrodzeń i doprowadziło do ogólnego spadku bezpieczeństwa czy oferowanych warunków pracy. Rozwój AI może te zjawiska wzmocnić i przyspieszyć.

Napięcia i nadzór

Jednym z największych pesymistów w temacie wpływu AI na gospodarkę jest amerykański ekonomista tureckiego pochodzenia Daron Acemoglu. W 2021 roku opublikował artykuł “Harms of AI”, w którym przewidywał, że bez silnej interwencji parlamentów i rządów, sztuczna inteligencja w najbliższych dekadach spowoduje nie jeden, ale serię kryzysów.

Według niego niekontrolowany rozwój narzędzi AI pozwoli firmom, które wysuną się na czoło stawki, zająć pozycję technologicznych monopolistów.

To przełoży się na osłabienie konkurentów (np. poprzez “związanie” innych firm swoimi produktami), po drodze całkowicie pozbawiając nas prywatności i ograniczając do minimum konsumentom możliwość wyboru.

To z kolei doprowadzi do jeszcze większej niż dziś polaryzacji na rynku pracy – wykorzystujący nowe narzędzia specjaliści będą wielokrotnie bardziej efektywni niż pracownicy “analogowi”. Ten proces odbije się negatywnie na wynagrodzeniach i doda paliwa i tak ogromnym nierównościom.

Według Acemoglu, jeśli nie nastąpi interwencja rządów, taki scenariusz musi doprowadzić do społecznych i politycznych napięć. Efektem będzie jeszcze większy poziom nadzoru, które Państwa i korporacje zastosują wobec obywateli i pracowników niezadowolonych z pogarszających się warunków życia.

Automatyzacja białych kołnierzyków?

Mimo przekonujących argumentów ekspertów oraz narastających oczekiwań i lęków społeczeństwa, wizja AI wypierającego na dużą skalę ludzką pracę pozostaje w sferze spekulacji.

Co do wpływu AI na gospodarkę i rynek pracy ekonomiści są podzieleni, a prognozy różnią się w zależności od tego, kogo o nie zapytamy.

Definitywnych odpowiedzi próżno szukać także wśród programistów i naukowców z obszaru sztucznej inteligencji, wśród których poglądy na temat rozwoju AI w najbliższych dekadach wahają się od umiarkowanego optymizmu, aż po mroczne wizje zagłady ludzkości.

W trwającej dyskusji o automatyzacji napędzanej sztuczną inteligencją mieszają się dwa wymiary problemu. Na prowadzoną przez ekonomistów od dziesiątek lat debatę o tym, w jaki sposób rozwój technologiczny wpływa na gospodarkę i sposób wykonywania pracy, nałożyła się fascynacja innowacją, której autorami są badacze i inżynierowie z OpenAI.

Dotychczas w myśleniu o automatyzacji zakładano, że największe szanse na zastąpienie przez wspierane algorytmami maszyny mają zawody, które opierają się na powtarzalnych aktywnościach. To analogia z modelem znanym z XIX i XX wieku, czyli taśmie produkcyjnej, podziale i specjalizacji zadań oraz mechanizacji (obecnie coraz częściej robotyzacji) pracy fizycznej.

Debata o cyfrowym bezrobociu

Dlatego w studiach nad gospodarką najczęściej jako “zastępowalne” wskazywane są stanowiska (fizyczne lub techniczne), które nie wymagają wysokich kwalifikacji. Skok w rozwoju modeli i systemów AI, które wykorzystują tzw. duże modele językowe (LLM-y, do których zalicza się m.in. ChatGPT) ten paradygmat kwestionuje.

Programy tego typu radzą sobie z rozwiązywaniem złożonych, dających się wyrazić w formie symbolicznej problemów znacznie lepiej, niż poprzednie generacje AI.

W ostatnich miesiącach programiści oddali do użytku wiele modeli tego typu, poza GPT są to m.in. PaLM2 (na podstawie którego działa Google Bard), Bloom czy Alpaca. Pozwalają one nie tylko na generowanie tekstu, ale także m.in. na tworzenie kodu, analizę dużych zbiorów danych, redagowanie treści, tłumaczenie.

Dodatkowo podobne (lub te same) modele, jak np. Stable Diffusion czy Midjourney świetnie radzą sobie z generowaniem zdjęć i ilustracji, dźwięków, mowy czy, coraz sprawniej, filmów.

Debata o “cyfrowym bezrobociu” przyspieszyła w dużej mierze właśnie dlatego, że tym razem rozmawiamy o możliwości zastąpienia nie pracowników fizycznych, ale wykwalifikowanych pracowników umysłowych.

Z tego powodu światowe media zaczęły zadawać pytanie o to, czy “AI idzie po klasę kreatywną”. Nawet krótka interakcja z programami takimi jak ChatGPT, Bard czy Midjourney pokazuje, że z ich pomocą można osiągać rezultaty, które jeszcze niedawno wymagały skomplikowanych umiejętności: myślenia abstrakcyjnego, dokładnej analizy i syntezy tekstu czy tworzenia dzieł zgodnych z wytycznymi zamawiającego.

Te funkcjonalności sprawiły, że nad swoją przyszłością zaczęli zastanawiać się m.in. fotografowie, graficy, dziennikarze, analitycy czy tłumacze. Specyfikę sytuacji dobrze obrazuje anonimowy internetowy mem: “Obiecano nam, że AI uwolni nas z ciężkiej, pracy fizycznej, a w rzeczywistości zastępuje poetów, dziennikarzy, malarzy i aktorów”.

AI w realu: więcej potrzeb niż możliwości

Jak zawsze w razie wątpliwości, lepiej trzymać się faktów. Tak jak w przypadku każdej innej innowacji, wdrożenie AI to świadoma decyzja osób kierujących firmą lub instytucją. Wymaga analiz, inwestycji, nadzoru i ewaluacji. I jest obarczona ryzykiem.

Zastępowanie pracowników maszynami i programami, choć przynosi natychmiastowe oszczędności, w wielu sytuacjach może okazać się bardzo kosztowne. Argumentacja o tym, że decyzje w ważnej dla klienta sprawie “podjął algorytm” nie przekona urzędu czy sądu, nie ma więc powodu, abyśmy ulegali jej my.

Budzące wielkie nadzieje ChatGPT i inne modele generatywnej AI wciąż są dalekie od biznesowej dojrzałości. Jest tak, bo obok dostarczania spektakularnych rezultatów mają one także tendencje do “halucynacji”, czyli błędów spowodowanych niewłaściwym rozpoznawaniem zależności statystycznych, bądź wyciąganie poprawnych wniosków w oparciu o niskiej jakości dane, na których były trenowane modele.

Co gorsza, zarówno od strony prawnej (algorytmy, na podstawie których działa GPT są objęte tajemnicą handlową), jak i technologicznej (problem “czarnej skrzynki”), odnalezienie źródła pomyłki w przypadku skomplikowanych modeli AI jest bardzo trudne, a być może niewykonalne.

W rezultacie często nie można na nich polegać, bo potrafią zawodzić nawet w sytuacjach, które dla niedoświadczonego pracownika byłyby banalne. Takie ryzyko dotyczy nawet technologicznie “automatyzowalnych” zawodów jak obsługa czy wsparcie klienta.

Wprowadzając taką usługę, trzeba liczyć się z tym, że oparty na generatywnej AI system może wprowadzać użytkowników w błąd, obniżyć jakość dostarczanych informacji, dopuszczać się dyskryminacji, powodować wyciek poufnych danych lub prowadzić do innych zagrożeń, które wymienia w niedawnym raporcie norweska agencja ochrony konsumentów.

Technologia asystencka

Nie oznacza to, że generatywna AI nie jest przydatna – w wielu zawodach może okazać się cennym narzędziem, które zintegrowane z innymi programami pozwala znacznie szybciej tworzyć treści, redagować materiały, analizować dokumenty czy zarządzać komunikacją.

Dalej jednak mamy do czynienia z technologią asystencką, a nie bezbłędnym superkomputerem, na którego decyzjach możemy polegać bez nadzoru i weryfikacji.

W przypadku niektórych modeli biznesowych automatyzacja może okazać się szybsza. W szczególnej sytuacji są programiści i osoby, które pracują na rzecz zagranicznych biznesów w ramach cyfrowego outsourcingu usług.

Po pierwsze, w porównaniu do robotów fabrycznych, automatyzacja kodowania czy opracowywania elektronicznych szablonów jest stosunkowo niedroga.

Po drugie, w pewnym sensie to, że polscy informatycy w ostatnich latach wykonywali (na ogół dobrze płatną) pracę dla klientów z całego świata, jest częścią tego samego procesu, który dąży do zastąpienia technologią ludzkiej pracy w ramach globalnych łańcuchów dostaw.

Oparte na AI narzędzia (takie jak np. GitHub Copilot), które automatyzują pisanie kodu, już pozwalają na zwiększenie efektywności – a więc docelowo redukcję potrzebnych do działania firmy etatów.

Nie ma zagrożenia cyfrowym bezrobociem

Jednak nawet w tym przypadku nie ma dowodów, że “cyfrowe bezrobocie” jest u bram. Z dotychczasowych badań wynika, że takie narzędzia przede wszystkim wspomagają pracowników, czyniąc ich bardziej efektywnymi.

W teorii mogłoby to odbić się na mniejszej potrzebie zatrudniania nowych osób. W rzeczywistości luka kadrowa w ICT (Information and communications technology) jest tak duża, że taki scenariusz jest zupełnie nieprawdopodobny.

Według zeszłorocznego raportu Polskiego Instytutu Ekonomicznego tylko w Polsce brakuje co najmniej 150 tys. programistów, informatyków czy specjalistów od cyberbezpieczeństwa. Problem jest globalny, a nowe, oparte na AI narzędzia mogą okazać się w nim remedium, a nie źródłem patologii.

A inne branże?

Pozytywną rolę automatyzacja może odegrać również w polskim przemyśle. Wprowadzenie częściowo autonomicznych maszyn to konieczność, która pozwala taniej, szybciej i lepiej produkować zaawansowane technologicznie produkty oraz umożliwi dalsze konkurowanie na globalnym rynku.

Kłopot w tym, że polska gospodarka pod względem liczby robotów jest zapóźniona nawet na tle sąsiadów: Czech, Słowacji, a także Węgier. To problem nie tylko dlatego, że brakuje pracowników o odpowiednich kwalifikacjach, ale także ze względu na najniższy od ponad 20 lat poziom inwestycji oraz rozdrobnioną strukturę polskiego biznesu.

Pilnie potrzebujemy ogromnych nakładów: zarówno na edukację, jak i na nowoczesny, często wyposażony w AI sprzęt do tego, aby przynajmniej utrzymać dotychczasowe tempo rozwoju gospodarczego.

Ze względu na finansowanie publiczne, lepiej może wyglądać implementacja AI w medycynie. Także tam rola inteligentnych systemów ma być przede wszystkim pomocnicza – wspierać pracę lekarzy, pielęgniarek, techników w diagnostyce, czy monitorowaniu stanu zdrowia pacjentów.

Inteligentnej automatyzacji bardzo potrzebuje również polskie rolnictwo, które dzięki połączeniu danych satelitarnych, hydrologicznych, geologicznych i meteorologicznych może zwiększyć intensywność produkcji pomimo problemów z dostępem do siły roboczej i intensyfikacją skrajnych zjawisk pogodowych.

Niestety, niewiele jest informacji o wprowadzeniu na rynek innowacji opartych na AI wspierających rozwiązywanie problemów społecznych w zakresie pracy opiekuńczej, wsparciu osób starszych czy niesamodzielnych bądź edukacji.

Inwigilacja na śmieciówkach

Musimy pamiętać, że algorytmy sztucznej inteligencji już wpływają na to, jak pracujemy czy zarabiamy. Wraz z rozwojem cyfrowej gospodarki lista problemów, które wywołuje AI w codziennych, praktycznych sprawach, rośnie.

Osoby, które pracują “pod nadzorem AI”, są poddawane działaniu algorytmów, za pośrednictwem których ich menedżerowie przydzielają, kontrolują, oceniają czy wynagradzają ich aktywność.

Od “wszechwładzy algorytmów” rekomendujących treści zależy także los pracowników (i przedsiębiorców) cyfrowej gospodarki uwagi: dziennikarzy, muzyków, marketerów czy influencerów.

Praca platformowa

W jeszcze gorszej sytuacji są często osoby żyjące z tzw. pracy platformowej. W ostatniej dekadzie szybko rozwinęły się nowe formy dostarczania dóbr i usług opartych na platformach takich jak Uber, Lyft czy Pyszne.pl (Door Dash).

Wykorzystujące uczenie maszynowe algorytmy, na podstawie których działają takie serwisy, to narzędzie, poprzez które firmy koordynują realizację zamówień, de facto zatrudniają kierowców czy dostawców. Bezpośredni kontakt klienta z pracownikiem zastąpiony jest przez aplikację, od której potencjalni wykonawcy otrzymują zlecenia bądź rywalizują o możliwość ich realizacji.

W wielu przypadkach, mimo że te osoby wypełniają obowiązki spełniające kodeksową definicję pracy, traktowane są jako “niezależni” zleceniobiorcy bądź przedsiębiorcy.

Obecna faza rozwoju AI odbywa się także kosztem naszej prywatności. Aby poprawnie działać, modele potrzebują danych, często ogromnych zbiorów informacji o nas jako konsumentach, obywatelach, imigrantach, pacjentach, autorach czy pracownikach.

Zatrudnieni w amerykańskim Amazonie od lat muszą korzystać z inwazyjnych narzędzi cyfrowych wykorzystywanych przez firmę nie tylko do zarządzania, ale także decydowania o przedłużeniu czy zakończeniu ich pracy.

Inwigilacyjny trend, który nasilił się wraz z popularyzacją pracy zdalnej w trakcie pandemii, nie osłabł nawet po ogłoszeniu powrotu do biur i fabryk. Większość badanych przez OECD pracowników używających AI na co dzień deklaruje, że dzięki tym technologiom ich szefowie nadmiernie ingerują w ich prywatność.

AI wymaga precyzyjnych regulacji

Z tych powodów rozwój AI wymaga regulacji przez nowe przepisy, precyzyjne i dostosowane do aktualnych wyzwań. Takie próby podejmuje Unia Europejska, która w ostatnich latach rozpoczęła ofensywę regulacyjną, której celem jest ustanowienie na nowo zasad funkcjonowania europejskiego rynku cyfrowego.

Niektóre z nich, jak AI Act czy dyrektywa o pracy platformowej wprost odnoszą się do technologii autonomicznych i tego, jak wpływają na rynek pracy.

Rozporządzenie o sztucznej inteligencji (AI Act) w wersji uchwalonej przez europosłów ma wprowadzić mechanizmy takie, jak m.in. obowiązek uzyskania zgody pracowników przed wprowadzeniem do miejsca pracy niebezpiecznych systemów AI oraz zakwalifikowania rekrutacji, HR czy zarządzania pracą jako obszaru wysokiego ryzyka (co wiąże się ze zwiększonymi wymogami m.in. pod kątem dyskryminacji).

AI Act wpłynie także pośrednio na przyszłość zawodów kreatywnych i biurowych, bo od rozporządzenia zależeć może los generatywnej AI, czyli aplikacji takich jak Chat GPT czy Bard.

Prawa autorskie

Open.AI czy Google stworzyły swoje aplikacje dzięki informacjom i treściom, które pozyskały z internetu. Parlament Europejski przyjął projekt z przepisami, które wymagałyby od firm tworzących takie modele, udowodnienia, że bazy danych, na których takie modele były trenowane zgodnie z europejskim prawem, są reprezentatywne dla grup, które będą z nich korzystać, nie łamią prawa ochrony danych osobowych czy nie naruszają praw autorskich.

Gdyby okazało się, że dana firma nie jest w stanie tego wykazać, model (“fundacyjny”) mógłby zostać niedopuszczony do europejskiego rynku, a przedsiębiorstwo otrzymać karę.

Z kolei dyrektywa o pracy platformowej ma nakazać pracodawcom m.in. zapewnienie ludzkiego nadzoru nad algorytmami nadzorującymi pracę oraz większą przejrzystość ich działania, zaś zatrudnionym dać prawo do odwołania się od zautomatyzowanej decyzji do “ludzkiego” przełożonego.

Projekt ma także pozwolić na walkę z patologią “uśmieciowienia”, tj. traktowania osób de facto wykonujących pracę jako niezależnych przedsiębiorców czy freelancerów.

Nowe problemy, stare rozwiązania

Zarówno w przypadku AI Act, jak i dyrektywy platformowej, proces legislacyjny jeszcze się nie skończył. Ostateczne decyzje zależeć będą od kształtu kompromisu między PE a Radą (tj. rządami państw członkowskich) w ramach tzw. trilogu.

To, jak nowe technologie będą wdrażane, okaże się w trwającej dyskusji pomiędzy politykami, ekspertami oraz (niestety w za małym stopniu) przedstawicielami społeczeństwa obywatelskiego. Niestety, jak wiemy m.in. dzięki działalności europejskich organizacji obywatelskich oraz ekspertów, lobbyści wielkich firm robią, co tylko mogą, aby efekt negocjacji był korzystny dla korporacji, a nie pracowników i klientów.

Narracje o nieubłaganej rewolucji – mniejsza o to, czy pozytywnej, czy negatywnej – pomagają odwrócić uwagę od mniej frapujących, ale znacznie bliższych rzeczywistości prób okiełznania tego, jak nowa technologia będzie mogła być wykorzystywana przez największych graczy.

Chodzi z resztą nie tylko o cyfrowe korporacje, ale także o państwa, które intensywnie walczą, by regułom z AI Act nie musiały np. podlegać służby specjalne, służby graniczne czy nawet policja.

Łatwo o halucynacje

Szum, który wywołał w ostatnim roku postęp w generatywnej AI, zbiegł się w czasie z okresem gospodarczej, finansowej i politycznej niepewności.

W tych warunkach teoretyczne dywagacje o możliwości nadejścia tzw. ogólnej (silnej) sztucznej inteligencji mieszają się nie tylko z informacjami o konkretnych innowacjach, ale także z informacjami o problemach wielkich firm czy o trwających od lat, skomplikowanych unijnych procesach legislacyjnych.

W takich warunkach łatwo o „halucynacje”. To pojęcie dobrze pasuje zarówno do działania modeli i systemów AI, jak i do naszych wyobrażeń i sposobach myślenia o technologicznym i gospodarczym postępie.

Tak jest niestety także przypadku twierdzeń o “nieuchronnym końcu pracy”, które pod wieloma względami stymulujące i atrakcyjne, ale powinny pozostać w sferze fantazji, a nie rzetelnych informacji o gospodarce i rynku pracy.

To czy innowacje oparte na AI poprawią, czy pogorszą to, dla kogo pracujemy, w jaki sposób, za ile i na jakich warunkach, zależeć będzie od ludzkich decyzji.

Nierówności majątkowe, koncentracja rynku w rękach niewielu firm, masowe naruszenia praw autorskich czy oparta na danych osobowych cyfrowa inwigilacja to zjawiska społeczne i polityczne, a nie technologiczne.

I tylko takimi, “tradycyjnymi” metodami jak regulacje prawne czy decyzje administracyjne można je rozwiązać.

Cykl „SOBOTA PRAWDĘ CI POWIE” to propozycja OKO.press na pierwszy dzień weekendu. Znajdziecie tu fact-checkingi (z OKO-wym fałszometrem) zarówno z polityki polskiej, jak i ze świata, bo nie tylko u nas politycy i polityczki kłamią, kręcą, konfabulują. Cofniemy się też w przeszłość, bo kłamstwo towarzyszyło całym dziejom. Rozbrajamy mity i popularne złudzenia krążące po sieci i ludzkich umysłach. I piszemy o błędach poznawczych, które sprawiają, że jesteśmy bezbronni wobec kłamstw. Tylko czy naprawdę jesteśmy? Nad tym też się zastanowimy.

;

Udostępnij:

Filip Konopczyński

Zajmuje się w regulacjami sztucznej inteligencji, analizami polityk cyfrowych oraz badaniami biznesowego i społecznego wykorzystania nowych technologii. Współzałożyciel Fundacji Kaleckiego, pracował w IDEAS NCBR, NASK, OKO.press, Biurze Rzecznika Praw Obywatelskich. Publikował m.in. w Rzeczpospolitej, Gazecie Wyborczej, Polityce, Krytyce Politycznej, Przekroju, Kulturze Liberalnej, Newsweeku czy Visegrad Insight. Prawnik i kulturoznawca, absolwent Uniwersytetu Warszawskiego.

Komentarze