Ponad 50 proc. ruchu na polskich stronach internetowych generują boty, a nie prawdziwi użytkownicy. To właśnie takie dane sprawiają, że w wielu krajach Unii trwa dziś codzienna walka o to, by zbliżające się wybory do Parlamentu Europejskiego nie zostały zakłócone przez złośliwą ingerencję zewnętrzną
66 proc. Polaków boi się dezinformacji w sieci, w innych krajach unijnych ten odsetek przekracza 70 proc. Ponad połowa badanych Polaków zetknęła się z dezinformacją w ostatnich miesiącach, 35 proc. – przynajmniej raz w tygodniu.
W wielu krajach Unii trwa dziś codzienna walka o to, by zbliżające się wybory do Parlamentu Europejskiego nie zostały zakłócone przez złośliwą ingerencję zewnętrzną. Wybory wysterowane przez zewnętrznych aktorów są bowiem zaprzeczeniem demokracji.
40 pracowników Facebooka stale monitoruje swoją platformę społecznościową w Europie, sprawdzając treści dotyczące wyborów, szukając fake newsów, manipulacji i mowy nienawiści.
Analitycy z sześciu państw w ramach projektu londyńskiego Instytutu Dialogu Strategicznego codziennie przeczesują sieć, używając najnowszych metod badawczych, by pomóc chronić integralność wyborów.
W Polsce firma EDGE NPD we współpracy z polskimi wydawcami sprawdza, w jakim stopniu na ruch sieciowy wpływają automatyczne boty.
A polscy wolontariusze z grupy Wojownicy klawiatury na bieżąco dementują fake newsy na temat Unii Europejskiej, rozpowszechniane w social media. Mimo to wciąż nie wiadomo, w jakim stopniu uda się ograniczyć sieciowe manipulacje wyborcze.
Obawa przed zmanipulowaniem wyników wyborów do Parlamentu Europejskiego to nie jest kolejna teoria spiskowa. Fałszywe konta na platformach społecznościowych, które usiłują wpłynąć na nastroje społeczne i poglądy polityczne ludzi to zjawisko, z którym platformy borykają się na ogromną skalę. Jak poinformował niedawno brytyjski „The Guardian”.
Facebook tylko w ciągu roku, między październikiem 2017 a listopadem 2018 zamknął 2,8 miliarda fałszywych kont. Twitter w ciągu zaledwie dwóch miesięcy 2018 roku (maj-czerwiec) skasował 70 milionów fałszywych kont. Oczywiście chodzi o konta na całym świecie, nie tylko w Europie i USA, ale także na naszym kontynencie walka z fejkami trwa w zasadzie bezustannie.
O tym, że dezinformacja w mediach społecznościowych może mieć wpływ na wyniki wyborów, przekonana jest także Komisja Europejska. KE od początku roku ściśle współpracuje zarówno z analitykami z projektów badawczych, jak i z platformami społecznościowymi, żeby zapobiec manipulacjom.
Co ciekawe, okazało się, że Facebook chroniąc integralność wyborów wprowadził zasady (dotyczące reklam politycznych), które tak mocno ograniczyły wyborczą aktywność oficjalnych kont europejskich partii politycznych, działających w wielu państwach jednocześnie, że Parlament Europejski kilka dni temu poprosił FB o… złagodzenie regulaminu.
Specjalny zespół „Facebooka”, delegowany do tzw. ochrony wyborów do PE, pracuje w Dublinie. Jak opisuje „The Guardian”, 40 osób codziennie monitoruje aktywność użytkowników, szuka fałszywych wiadomości, przejawów rasizmu i mowy nienawiści. Będą to robić do 26 maja. Nie pracują sami – są wspierani przez zespół analityków, ekspertów ds. wywiadu, programistów, a także przez osoby monitorujące sieci krajowe, we wszystkich oficjalnych językach UE.
Nie chodzi tylko o wykrywanie botów czy fałszywych kont. Jest coraz więcej prawdziwych użytkowników, którzy celowo rozpowszechniają dezinformację czy promują mowę nienawiści. Dzieje się to zarówno wewnątrz państw Unii, jak i przez ingerencję zewnętrzną. Przy czym nie można tu mówić jedynie o zagrożeniu aktywnością ze strony Rosji. Coraz więcej państw zainteresowanych poszerzaniem sieci swoich wpływów używa mediów społecznościowych jako swego rodzaju broni. Analitycy wskazują, że wśród państw korzystających w ten sposób z social media są m.in. Chiny i Iran.
Na Facebooku większość tzw. „złośliwych aktorów” usuwają automatyczne systemy, oparte o sztuczną inteligencję. Nie działają bezbłędnie, dlatego niezbędna jest też praca ludzi. A i ta nie zawsze przynosi efekty. Choć np. fanpage „White Europa” ostatnio na żądanie administratorów FB musiał zmienić nazwę, by móc dalej funkcjonować, to jednocześnie niezależni analitycy wciąż odkrywają strony naruszające regulamin FB, które zadziwiająco długo i bezproblemowo funkcjonują.
Najnowsze informacje, opublikowane przez agencję informacyjną Associated Press dowodzą, że systemowe ograniczenia udało się ominąć np. stronom powiązanym z Al-Kaidą i Państwem Islamskim, organizacjami terrorystycznymi. Funkcjonowały bez przeszkód do tego stopnia, że FB w rocznicę aktywności jednego z użytkowników przygotował mu filmik gratulacyjny, na którym przewijały się czarne flagi dżihadu i tablice z antysemickimi wersetami.
Między innymi po to, by pomóc w ochronie integralności wyborów i wyłapywać dziury w systemach platform społecznościowych, działają członkowie niezależnych projektów międzynarodowych.
Jednym z nich jest projekt londyńskiego Instytutu Dialogu Strategicznego (ISD). ISD od dawna monitoruje aktywność ruchów radykalnych w sieci, a teraz bada także kampanie, które mogą zaszkodzić demokratycznemu przebiegowi wyborów.
Od połowy marca zespoły z pięciu państw: Niemiec, Hiszpanii, Francji, Włoch oraz Polski codziennie analizują sieć, identyfikując te działania, których celem jest sianie nienawiści i pogłębianie podziałów w Europie za pomocą dezinformacji, manipulacji czy nielegalnych środków. Używają metod analitycznych, łączących narzędzia z kilku dziedzin nauki, m.in. mapowania sieci, antropologii cyfrowej, badania opinii społecznej i stałego monitoringu mediów społecznościowych.
Kilka tygodni temu ISD ujawniło podejrzaną sieć kont na Twitterze, aktywną w Hiszpanii przed wyborami powszechnymi. Sieć była mieszanką botów i fake'owych kont, używanych do promowania populistycznej partii Vox, a także do rozpowszechniania nienawistnych treści antymuzułmańskich. Jak się okazało, sieć była wcześniej wykorzystywana do promowania kont w mediach społecznościowych wenezuelskiego działacza politycznego.
ISD ustaliło także, że populistyczne partie we Francji i Niemczech mają nieproporcjonalnie wysoki wpływ w social media, w stosunku do rzeczywistego ich poparcia. A to wyraźnie pokazuje, że partie populistyczne w Europie po pierwsze wiedzą o tym, że mogą zyskać przewagę wyborczą dzięki sieci, a po drugie - że tę wiedzę wykorzystują.
Garvan Walshe, szef Wydziału Analizy Wyborów ISD, w wywiadzie dla „Rzeczpospolitej” mówił także o wynikach badań polskiej sieci:
„Naszym najciekawszym odkryciem w odniesieniu do sceny polskiej jest promocja prorosyjskich i antyukraińskich narracji po prawej stronie sceny politycznej i u skrajnej prawicy. Jawna prorosyjska narracja jest w Polsce bardzo rzadka i można ją znaleźć na marginesie, np. w Ruchu Narodowym i w skrajnie prawicowej Konfederacji, która zajmuje pozycje zgodne z rosyjskimi interesami. Natomiast nastroje antyukraińskie można zauważyć w partiach głównego nurtu w Polsce, w szczególności w PiS i PSL”.
Teraz ISD analizuje także bibliotekę reklam politycznych na Facebooku. Jak wynika ze wstępnych ustaleń, mimo dość restrykcyjnych zasad publikowania reklam politycznych, wprowadzonych ostatnio przez FB, reklamy te często „prześlizgują się” przez systemy FB i nie są zauważane przez automat, którego zadaniem jest pilnowanie reguł publikacji.
Z drugiej strony nowe zasady reklamowe FB dla niektórych podmiotów okazały się zbyt restrykcyjne. Facebook wprowadził bowiem zasadę, że reklam politycznych w okresie przedwyborczym nie mogą wykupić osoby i instytucje spoza kraju, do którego reklama jest adresowana. Uniemożliwiło to prowadzenie kampanii sieciowej oficjalnym partiom i instytucjom europejskim, działającym w wielu państwach jednocześnie.
Tym razem, jak podaje POLITICO, to przedstawiciele Unii poprosili Facebooka, by ten złagodził swoje obostrzenia.
„Na prośbę Parlamentu Europejskiego zgodziliśmy się na zwolnienie kilku stron oficjalnych organów UE z tych zasad do wyborów pod koniec miesiąca” – poinformowali 8 maja przedstawiciele Facebooka. Chodzi o około 40 stron zweryfikowanych podmiotów politycznych, działających na poziomie europejskim.
W Polsce także pojawiły się projekty, których celem jest monitorowanie sieci i walka z dezinformacją – w różnych jej aspektach. Bieżącą walką z fake newsami na temat Unii Europejskiej zajmują się wolontariusze, skupieni w ruchu Wojowników klawiatury. Działają głównie na Facebooku. Od kilku miesięcy odkłamują tam informacje na temat UE i upubliczniają prawdziwe fakty.
Ten ruch przypomina bałtyckie elfy – grupę wolontariuszy z krajów nadbałtyckich, która już kilka lat temu zaczęła walczyć z fake newsami i trollami, m.in. zgłaszając konta trolli platformom społecznościowym. Polscy wojownicy rozwijają się, choć nie są jeszcze ruchem masowym. Ich aktywność jest jednak szczególnie istotna zwłaszcza teraz, przed wyborami do Parlamentu Europejskiego, gdy fałszywe informacje na temat UE mogą narastać z każdym dniem.
Natomiast firma EDGE NPD prowadzi projekt „Diagnoza polskiego Internetu”. Nie są w nim badane media społecznościowe, lecz strony internetowe partnerów, którzy zdecydowali się przyłączyć do akcji (wciąż można to jeszcze zrobić, wystarczy skontaktować się za pomocą strony ABT Shield).
W ramach projektu (któremu partnerują m.in. Agora, Onet.pl, Visegrad Insight i NASK)) przez miesiąc EDGE monitoruje ruch na portalach i sprawdza, w jakim stopniu jest on generowany przez boty. Już dziś wiadomo, że ponad 50 proc. ruchu w polskiej sieci to efekt aktywności automatycznych programów, a nie rzeczywistych użytkowników.
Wyniki tych badań mogą zupełnie zmienić nasze postrzeganie wirtualnego świata – i unaocznić rzeczywistą skalę zagrożenia dezinformacją w Polsce. A ta może być naprawdę znacząca.
Z opublikowanych właśnie badań NASK wynika, że ponad połowa polskich internautów w ostatnich miesiącach zetknęła się z manipulacją lub dezinformacją. Aż 35 proc. Polaków uważa, że fake newsy docierają do nich w sieci raz w tygodniu lub częściej. Niestety, jednocześnie 19 proc. przyznało, że nie sprawdza wiarygodności internetowych informacji ani ich źródeł. Właśnie brak weryfikacji sprawia, że dezinformacja rozchodzi się w sieci wyjątkowo łatwo.
Z badań przeprowadzonych w 2018 roku przez Eurobarometr wynika też, że rośnie świadomość zagrożenia dezinformacją. Aż 66 proc. Polaków przyznało, że obawia się manipulacji i wprowadzania w błąd w internecie. Za największe zagrożenie uznali zmanipulowanie wyników wyborów przez cyberataki (57 proc.) oraz potajemne wywieranie wpływu na wyniki wyborów przez zagraniczne siły lub grupy przestępcze (55 proc.).
Specjaliści z Agencji Komunikacji i Informacji NATO i CERT-EU przestrzegają także przed akcjami phishingu. Phishing polega na wyłudzaniu informacji, które umożliwiają dostęp do poufnych danych (np. danych dostępu do konta bankowego lub do konta w social media), przez podszywanie się pod kogoś, np. pod naszego znajomego albo uprawnioną instytucję. Metodą tą mogą być atakowane instytucje, organizacje, osoby prywatne, ale też np. komitety wyborcze.
Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press
Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press
Komentarze