Platformy społecznościowe nie reagują na treści dezinformacyjne dotyczące wojny, zdrowia i polityki nawet wtedy, gdy takie fałszywe treści zgłasza im rządowa instytucja. Dezinformacja w sieci ma się więc doskonale. A państwo jest wobec niej bezradne
Powiedz nam, co myślisz o OKO.press! Weź udział w krótkiej, anonimowej ankiecie.
Przejdź do ankietySpożywanie ziemi jako lekarstwa na choroby; „alergia na słońce” jako reakcja na rozdzielenie z ojcem; „dowody” na szkodliwość popularnych badań profilaktycznych; tajny program kontroli nad ludzkimi umysłami. Do tego fałszywe doniesienia o wyborach, Ukrainie, dronach nad Polską, a nawet o sprawcach zbrodni. Tego rodzaju fake newsy zgłaszali w ubiegłym roku pracownicy rządowego Instytutu NASK do administracji platform społecznościowych z żądaniem ich usunięcia.
Jednak według platform wpisy nie naruszały ich regulaminów, więc ich nie blokowały. Fałszywe treści mogły więc dalej swobodnie rozchodzić się w sieci.
Jak wynika z informacji NASK, najsłabiej reagowało Google – na zgłoszenia dotyczące treści na YouTube. Najlepsza była współpraca z TikTokiem. Natomiast platformy takie jak Telegram czy Discord nie stworzyły żadnego kanału do komunikacji z przedstawicielami państwa, więc w ogóle nie reagowały na zgłoszenia.
Platformy najczęściej blokowały wpisy podszywające się pod osoby publiczne lub instytucje.
Nie były w stanie natomiast moderować treści zawierających manipulację, których weryfikacja wymagała znajomości szerszego kontekstu.
Rządowy Instytut NASK ogłosił właśnie raport „Reakcja platform społecznościowych na zgłoszenia w 2025 roku”. Informuje w nim o podjętych działaniach w zakresie zwalczania treści dezinformacyjnych na największych platformach społecznościowych. I w zasadzie przyznaje się do bezradności w tej dziedzinie.
„W 2025 Ośrodek Analizy Dezinformacji NASK zgłosił do właścicieli platform społecznościowych blisko 47 tys. materiałów niezgodnych z regulaminami tych platform lub innymi regulacjami prawnymi.
20 proc. zgłoszeń nie doczekało się żadnej reakcji. Co znaczy, że szkodliwe treści dalej funkcjonują w internecie”
– poinformował NASK na platformie X, podsumowując swoją pracę w ubiegłym roku.
Podczas konferencji prasowej prezentując ów raport wicepremier i minister cyfryzacji Krzysztof Gawkowski podkreślał: „Ataki na polską cyberprzestrzeń rosną. Dziś to platformy decydują o tym, jakie treści zobaczą Polacy. Platformy nie czują odpowiedzialności, ponieważ nie mamy prawa, które tę odpowiedzialność będzie w stanie wymusić. To prawo było na wyciągnięcie ręki, ale zostało zablokowane przez Prezydenta”.
Chodzi o tak zwaną ustawę o DSA [Digital Service Act], która miała wprowadzić do polskiego systemu prawnego unijne przepisy Aktu o usługach cyfrowych. Chociaż nie dotyczą one wprost dezinformacji, nakładają na platformy społecznościowe obowiązki moderacji nielegalnych treści. Jednak ustawę zawetował prezydent Nawrocki, dlatego nie weszła w życie. Prawica sugerowała, że ustawa wprowadza swoistą cenzurę internetową. Stwierdzenie to nie ma jednak uzasadnienia w przepisach proponowanej ustawy.
Minister Gawkowski zapowiedział dalsze działania swojego resortu: „Dlatego raz jeszcze chcemy przeprowadzić proces legislacyjny. Prawo to ma wymusić większą transparentność działania algorytmów platform.
Będziemy przeznaczać rekordowe środki na zwalczanie nielegalnych treści i przeciwdziałanie dezinformacji”.
Z raportu przedstawionego przez NASK wynika, że bez wprowadzenia przepisów DSA współpraca z platformami społecznościowymi będzie bardzo trudna, a w niektórych przypadkach wręcz niemożliwa. I chociaż pod pewnymi względami sytuacja w ostatnich miesiącach 2025 r. się poprawiła, jednocześnie w najistotniejszych społecznie tematach platformy w ogóle nie reagują na rozprowadzanie fałszywych treści.
Przez cały 2025 rok NASK zgłosił do administratorów wszystkich platform 46,5 tysiąca materiałów z dezinformacyjnymi treściami.
„Platformy usunęły 12 proc. zgłoszonych treści, czyli 5572 materiały, a moderacji poddano 68 proc. zgłoszonych treści, a więc 31 638 materiałów. Odrzuciły jednak 20 proc. zgłoszeń, czyli 9301 przypadków” – podał w raporcie Zespół Szybkiego Reagowania i Wykrywania Dezinformacji NASK.
Kiedy przeanalizujemy powyższą informację, okaże się, że dane ilościowe dają pewną nadzieję.
Otóż opisywane przez NASK „poddanie treści moderacji” to przede wszystkim usunięcie fałszywej reklamy, dodanie do wpisu notatki informującej o tym, że wpis zawiera nieprawdę lub nie zawiera niezbędnego kontekstu, a także zawieszenie działalności zgłoszonych kont, które naruszały regulamin. Oczywiście, kiedy konto rozpowszechniające nielegalne lub dezinformacyjne treści zostanie usunięte, znikają też jego wpisy.
Jeśli więc zliczymy razem treści usunięte i poddane moderacji, okaże się, że platformy zareagowały w 80 procentach przypadków, zgłoszonych przez NASK. To bardzo wysoki odsetek. Odrzucenie pozostałych 20 procent zgłoszeń oczywiście martwi, ale w tej sytuacji pracownikom instytutu nie sposób odmówić skuteczności.
„Uwagę zwraca malejący odsetek zgłoszeń odrzuconych przez platformy społecznościowe. W I kwartale 2025 roku kategoria ta stanowiła 61 proc. wszystkich zgłoszeń. Dane dotyczące reakcji platform na zgłoszenia przesłane w ostatnim kwartale roku wskazują, że udział odrzuconych zgłoszeń spadł do 16 proc.” – podkreślono w raporcie.
Gdyby zatrzymać się na tych danych, można by mieć wrażenie, że sytuacja się poprawia. Jednak tak wcale nie jest. Przysłowiowy diabeł tkwi jednak w szczegółach. Zacznijmy od reakcji poszczególnych platform.
Najwięcej zgłoszonych treści usunął TikTok – 70 procent zgłoszeń. Z kolei platforma X Elona Muska dokonała ilościowo najwięcej moderacji, czyli m.in. usuwała zgłaszane przez NASK konta: zareagowała w ten sposób aż na 91 procent zgłoszeń rządowego instytutu. Moderacje i usunięcia dotyczące treści na Facebooku to 50 proc. zgłoszeń, a na Instagramie – zaledwie 28 proc.
Spośród najpopularniejszych w Polsce platform najgorzej wyglądała współpraca z Google (a więc dotycząca głównie treści na YouTube) – niecałe 9 procent usunięć i moderacji. Chociaż było na co reagować. NASK zgłaszał na przykład „nagrania samozwańczych jasnowidzów, którzy (…) poruszali przede wszystkim takie tematy jak rzekomo zbliżająca się wielkimi krokami wojna oraz możliwość opuszczenia Polski przez NATO w razie wybuchu konfliktu z Rosją”.
Były też filmy promujące teorię spiskową o istnieniu płaskiej Ziemi oraz o tak zwanym „projekcie Blue Beam”, czyli o fałszywej teorii na temat przejmowania kontroli nad umysłami ludzi.
Google nie usunęło także większości zgłoszonych przez NASK kont, generujących za pomocą narzędzi AI fałszywe treści polityczne.
To coraz poważniejszy problem. Materiały zamieszczane przez takie konta na YouTube wyglądają sensacyjnie, dotyczą bieżących wydarzeń politycznych z Polski i ze świata, mogą więc łatwo wpływać na nastroje obywateli. A jednocześnie są w pełni fikcyjne, bo stworzone przez sztuczną inteligencję, choć oznaczenia o AI nie znajdziemy w publikowanych filmach. Jednak Google to nie przeszkadza.
NASK nie doczekał się natomiast żadnej reakcji na swoje zawiadomienia, od takich platform jak Telegram, Discord, LinkedIn i BlueSky. Platformy te nie utworzyły punktów kontaktowych dla instytucji państwowych. NASK może więc zgłaszać rozpowszechniane na nich treści tak samo jak każdy użytkownik – przez ogólny formularz kontaktowy. Tyle że nie przynosi to żadnych rezultatów.
Z danych NASK wynika także, że jeżeli platformy społecznościowe w ogóle reagowały, to najczęściej na doniesienia o podszywaniu się pod osobę publiczną lub instytucję.
Najrzadziej usuwały czy moderowały treści manipulacyjne, szczególnie takie, które wymagały znajomości lokalnego kontekstu.
Bardzo słabo reagowały na dezinformację polityczną, rozpowszechnianą w Polsce w pierwszej połowie 2025 roku głównie w kontekście wyborów prezydenckich. W pierwszym kwartale, czyli na wczesnym etapie kampanii wyborczej, na 168 zgłoszonych materiałów tylko osiem zostało usuniętych, a cztery poddano moderacji. Reszta zawiadomień została odrzucona.
„Znalazły się tam treści zawierające twierdzenia o rzekomej ingerencji Unii Europejskiej i państw sojuszniczych w proces wyborczy. Zgłaszano również wpisy, które sugerowały, że w przypadku wygranej lub przegranej określonego kandydata (występowały różne konfiguracje) wybory zostaną unieważnione lub powtórzone ze względu na oskarżenia o fałszowanie głosów. Pojawiały się także przykłady wykorzystywania wizerunku kandydatów w materiałach typu deepfake” – informują autorzy raportu.
I dalej podkreślają: „Opisane powyżej przypadki, mimo wielokrotnego ich zgłaszania, nie spotkały się z żadną reakcją zespołów odpowiedzialnych za moderację treści. Warto zaznaczyć, że brak reakcji platform społecznościowych na zgłoszone materiały sprawił, że dotarły one do szerokiego grona użytkowników".
W drugim kwartale 2025 roku, kiedy trwała najintensywniejsza kampania prezydencka, sytuacja poprawiła się w niewielkim stopniu. Platformy usunęły lub poddały moderacji jedynie 24 procent zgłoszonych treści spośród aż 3812 zgłoszonych przypadków.
Poważnym problemem były także fałszywe treści dotyczące kwestii zdrowotnych. NASK znalazł w sieci wpisy, w których internetowi szarlatani rekomendowali na przykład spożywanie ziemi w ramach „leczenia” choroby. Albo przekonywali, że „alergia na słońce” to reakcja na… rozdzielenie z ojcem. Negowali potrzebę podawania noworodkom witaminy K, a nawet uznawali za zagrożenie dla zdrowia popularne badania profilaktyczne jak badania USG czy mammografia.
Niektórzy sugerowali też, że często wykonywana przy podejrzeniu nowotworu biopsja tkanek powoduje „rozsiewanie nowotworu po organizmie”. A jednocześnie dowodzili, że olejek rycynowy czy przeciwpasożytniczy lek dla zwierząt to panaceum na choroby nowotworowe.
Choć wszystkie te twierdzenia są fałszywe, platformy nie uznawały ich za naruszenie regulaminów. I dlatego ich nie usuwały.
„Wszystkie te treści kreowały obraz oficjalnych procedur medycznych jako zagrożenia, a alternatywnych metod diagnostycznych i terapeutycznych jako jedynej skutecznej formy terapii. Narracje te mogły wprowadzać użytkowników w błąd i skłaniać ich do rezygnacji z właściwego leczenia, stwarzając realne zagrożenie dla zdrowia i życia. Mimo tych zagrożeń i zgłoszeń ze strony analityków administratorzy platform społecznościowych nie podejmowali działań w celu usunięcia lub moderacji treści” – zaznaczyli w raporcie eksperci NASK.
Autorzy dokumentu zwrócili też uwagę na słabe reagowanie platform na zgłaszaną dezinformację antyukraińską oraz wojenną, na przykład po wrześniowym incydencie z rosyjskimi dronami nad Polską. Mimo iż wpisów z fałszywymi przekazami na temat dronów było mnóstwo, a NASK wiele z nich zgłosił do platform, reakcja administratorów była minimalna.
Bez żadnych przeszkód w polskiej infosferze rozchodziły się więc fałszywe doniesienia o tym, że:
Nawet wtedy, gdy NASK w swoich zgłoszeniach przedstawiał platformom dowody na nieautentyczność choćby zamieszczanych zdjęć, platformy nie reagowały. Eksperci tak opisali historię swojego zawiadomienia, dotyczącego fałszywki na temat „marszu polskich wojsk na Białoruś”:
„Mimo przedstawienia punktowi kontaktowemu platformy X dowodów, że dołączone do wpisów zdjęcia zostały zrobione w innych okolicznościach, platforma nie zdecydowała się na ich zablokowanie. Reakcja administracji ograniczyła się do umieszczenia przy wpisach adnotacji, z której użytkownicy mogli dowiedzieć się, że zdjęcia są »wyświetlane bez kontekstu«. Jest to jednak komunikat niejasny, nieinformujący wprost o dezinformującym charakterze wpisu”.
Część dezinformacji na temat dronów rozpowszechniały boty, czyli nieautentyczne konta, działające automatycznie. NASK zidentyfikował je na platformie X i na Facebooku, i zgłosił do administratorów. X usunął część kont. Natomiast Facebook w ogóle ich nie zablokował, dając im możliwość dalszego rozpowszechniania dezinformacji.
W 2025 roku analitycy NASK wykryli także siatki botów działające na platformie X w ramach dwóch operacji: Overload i Undercut. W ramach pierwszej z nich nieautentyczne konta rozprowadzały dezinformację po to, by zająć fact-checkerów z organizacji zajmujących się weryfikacją treści i odwrócić ich uwagę od innych działań.
Z kolei w ramach operacji Undercut
boty rozpowszechniały wpisy przedstawiające negatywnie Ukrainę oraz świadczoną na jej rzecz pomoc państw zachodnich.
Na szczęście akurat w tym przypadku administratorzy X usunęli większość zgłoszonych kont.
Inaczej było z fałszywymi treściami na temat sprawy zabójstwa z maja 2025 roku, gdy młody mężczyzna zamordował portierkę z kampusu Uniwersytetu Warszawskiego. W sieci pojawiły się wówczas wpisy z nieprawdziwymi treściami, że mordercą był obywatel Ukrainy. Podawano nawet jego nazwisko. Mimo przekazywania przez NASK do administracji platform oficjalnych komunikatów polskich służb, które zaprzeczały tym doniesieniom, platformy nie zareagowały na dezinformacyjne wpisy.
Pracownicy NASK mieli też problem z uzyskaniem jakiejkolwiek reakcji na materiały zawierające fałszywe dane na temat prowadzonych w Ukrainie ekshumacji ofiar rzezi wołyńskiej.
„Po zgłoszeniu dezinformacyjnych wpisów na ten temat platforma Meta zdecydowała o dodaniu notki informującej o fałszywej treści do jednego z przesłanych materiałów. Pozostałe wpisy nie zostały poddane moderacji” – poinformował NASK.
Nie było reakcji także na dezinformację dotyczącą głośnego sabotażu – nieudanej próby wysadzenia pociągu w listopadzie 2025 roku.
„Do szczególnie szkodliwych należały wpisy podważające wiarygodność państwa i mediów. Treści te sugerowały, że polskie władze i media celowo przedstawiają zdarzenie jako atak ze strony Rosji, podczas gdy w mniemaniu autorów faktycznym sprawcą miała być Ukraina. Wpisy insynuowały, że takie przedstawienie wydarzeń ma na celu wywołanie poczucia zagrożenia i wciągnięcie Polski w konflikt zbrojny. Jednocześnie sugerowano, że polski rząd, rzekomo podległy obcym interesom, ukrywa prawdziwe okoliczności zdarzenia i świadomie wprowadza opinię publiczną w błąd” – poinformował NASK.
W innych wpisach sugerowano, że incydent jest celowo nagłośniany, a Rosja – fałszywie wskazywana jako sprawca. Według tych nieprawdziwych doniesień celem polskich władz miało być przykrycie niewygodne informacje, związanych z aferą korupcyjną w Ukrainie.
W kolejnych postach można było przeczytać, że nie było żadnego sabotażu ani ładunku wybuchowego na torach, a tylko „zwykła awaria”.
Tym samym podważano oficjalne komunikaty służb.
„Pomimo zgłoszeń kierowanych (…) do administracji poszczególnych platform społecznościowych znaczna część wskazanych treści nadal pozostaje publicznie dostępna” – napisano w raporcie NASK. – „W wielu przypadkach działania podejmowane przez serwisy ograniczały się jedynie do częściowej moderacji, która nie prowadziła do trwałego usunięcia dezinformujących przekazów ani do skutecznego ograniczenia ich dalszego rozpowszechniania”.
Autorzy raportu nie wskazali, kto może stać za dezinformacją, dotyczącą wojny, Ukrainy czy sabotaży. Z innych źródeł wiadomo jednak, że
w rozpowszechnianie tego rodzaju treści zaangażowane są podmioty działające na rzecz rosyjskich władz.
Brak reakcji platform społecznościowych sprawia, że rosyjska wojna informacyjna toczy się bez przeszkód. To sprawia, że Kreml może bez problemu kształtować postawy Polaków za pomocą fałszywych przekazów.
Raport NASK jest dowodem nie tylko na bezradność państwa wobec dezinformacji, ale też na rosnące zagrożenie informacyjne dla społeczeństwa. Widać wyraźnie, że bez zmiany prawa oraz wymuszenia na platformach reakcji na dezinformację, za pomocą przepisów i karnych sankcji, Polska przegra wojnę z Rosją bez żadnych działań militarnych ze strony Kremla.
Propaganda
Krzysztof Gawkowski
Ministerstwo Cyfryzacji
dezinformacja
drony rosyjskie
DSA
fake newsy
manipulacja w sieci
platformy społecznościowe
sabotaż
wojna informacyjna
Analityczka mediów społecznościowych, ekspertka. Specjalizuje się w analizie zagrożeń informacyjnych, zwłaszcza rosyjskiej dezinformacji i manipulacji w sieci. Autorka książki „Efekt niszczący. Jak dezinformacja wpływa na nasze życie” oraz dwóch poradników na temat zwalczania dezinformacji. Z OKO.press współpracuje jako autorka zewnętrzna. Pisze o dezinformacji, bezpieczeństwie państwa, wojnie informacyjnej oraz o internetowych trendach dotyczących polityki. Zajmuje się też monitorowaniem ruchów skrajnie prawicowych i antysystemowych.
Analityczka mediów społecznościowych, ekspertka. Specjalizuje się w analizie zagrożeń informacyjnych, zwłaszcza rosyjskiej dezinformacji i manipulacji w sieci. Autorka książki „Efekt niszczący. Jak dezinformacja wpływa na nasze życie” oraz dwóch poradników na temat zwalczania dezinformacji. Z OKO.press współpracuje jako autorka zewnętrzna. Pisze o dezinformacji, bezpieczeństwie państwa, wojnie informacyjnej oraz o internetowych trendach dotyczących polityki. Zajmuje się też monitorowaniem ruchów skrajnie prawicowych i antysystemowych.
Komentarze