0:00
0:00

0:00

Jeśli wybierze się dobrego dostawcę takich manipulacyjnych usług, fałszywki nie znikną z sieci nawet po kilkunastu tygodniach - zwłaszcza że platformy społecznościowe nawet po otrzymaniu zgłoszenia o nieautentycznych kontach najczęściej nie reagują. Mimo zapewnień firm prowadzących social media manipulacja w sieci wciąż ma się doskonale – a my nadal jesteśmy na nią narażeni.

Sprawdzili to autorzy opublikowanego właśnie raportu “Falling behind: how social media companies are failing to combat inauthentic behaviour online”, którego autorami są badacze ze StratCom (NATO Strategic Communications Centre of Excellence).

W ramach naukowego eksperymentu skorzystali z ofert komercyjnego rynku usług manipulacyjnych w sieci, na którym sprzedawane są fake'owe konta i reakcje na wszystkich platformach społecznościowych. Kupili je i zbadali, czy firmy prowadzące platformy, zgodnie ze swoimi zapowiedziami, rzeczywiście aktywnie walczą z manipulacją. Wnioski nie są optymistyczne. Okazuje się, że nadal bardzo łatwo jest oszukiwać w sieci.

Eksperci sprawdzali cztery najpopularniejsze sieci społecznościowe: Facebook, Twitter, Instagram i You Tube. Za jedyne 300 euro kupili na nich ponad 50 tysięcy fałszywych aktywności:

  • 3530 komentarzy,
  • 25 750 polubień,
  • 20 000 wyświetleń,
  • 5100 obserwujących.

Badając wykupione reakcje zidentyfikowali prawie 19 tysięcy fałszywych kont. Jednak same platformy miały z tą identyfikacją nie lada problem. Miesiąc później cztery na pięć nieautentycznych reakcji lub kont nadal było aktywnych pod obserwowanymi postami.

Naukowcy sami zgłosili więc administratorom część fake'ów, chcąc zbadać, jak zareagują na taką informację. Niestety, reakcja była minimalna:

trzy tygodnie później 95 procent kont wciąż działało. To oznacza, że tzw. samoregulacja, na którą powołują się ostatnio platformy społecznościowe jako na najlepszą broń w walce z manipulacją, nie działa.

Samoregulacja w social media nie działa

Od kilku miesięcy tematem numer jeden na świecie, jeśli chodzi o platformy społecznościowe, jest ich zdolność do obrony przed sieciową dezinformacją i spamem. Temat nabrzmiał zwłaszcza w USA, przed zbliżającą się kampanią prezydencką, ale był aktualny już na początku 2019 roku, przed wyborami do Parlamentu Europejskiego.

W trakcie kampanii do PE social media zwielokrotniły wysiłki, by ustrzec się przed manipulacjami zewnętrznymi. Po wyborach informowały, jakie podjęły działania:

  • Facebook w pierwszym kwartale 2019 roku zablokował ponad 2 miliardy fałszywych kont, aktywnie przeciwdziałał też nieuprawnionym aktywnościom pochodzącym z 1574 stron i kont spoza Unii Europejskiej.
  • Google usunął na całym świecie ponad 3,39 miliona kanałów na You Tube, a 8600 kanałów zablokował z powodu naruszania regulaminu.
  • Twitter zablokował 77 milionów fake'owych kont.

Te liczby, wyniki wyborów oraz spokojny przebieg głosowania sprawiły, że uznano niemal za sukces działania podjęte w ramach obrony przed manipulacją. Dało to platformom podstawy do tego, by dziś, przed przyszłorocznymi wyborami prezydenckimi w USA, proponować przede wszystkim tzw. samoregulację i nie zgadzać się na wprowadzenie zewnętrznych przepisów.

Samoregulacja to termin, którym określa się samodzielne, wewnętrzne działania socail mediów, zmierzające do usunięcia dezinformacji z platformy, kontrolowane oczywiście wyłącznie przez tę platformę. Jest to opcja korzystniejsza dla firm, bo nie wymaga od nich podporządkowywania się zewnętrznym prawom.

Jednocześnie jednak media społecznościowe znacznie ograniczyły dostęp do danych swoich użytkowników także analitykom sieci, co sprawiło, że informacji podawanych przez platformy nie można w żaden sposób zweryfikować ani nawet sprawdzić np. jakiego rodzaju konta blokowały czy skąd one pochodziły.

Przeczytaj także:

Eksperyment StratCom

Dlatego badacze z międzynarodowej organizacji StratCom - Strategic Communications Centre of Excelence, akredytowanej przez NATO, postanowili przeprowadzić eksperyment, by przekonać się, czy rzeczywiście samoregulacja jest tak skuteczna, jak wynikałoby to z zapewnień firm.

Wyniki ich eksperymentu potwierdzają to, co wielu użytkowników obserwuje na co dzień:

administratorzy social media słabo reagują na zgłoszenia o manipulacji, a wiele fałszywych kont jest wciąż aktywnych.

Samoregulacja działa więc tylko w ograniczonym i na pewno niewystarczającym zakresie.

Na podstawie tego eksperymentu i kilku innych badań, które przeprowadziliśmy w ciągu ostatnich dwóch lat, oceniamy, że Facebook, Instagram, Twitter i YouTube nadal nie są w stanie odpowiednio przeciwdziałać nieautentycznym zachowaniom na swoich platformach".

Samoregulacja nie działa. Rynek manipulacji rośnie z roku na rok. Nic nie wskazuje na to, że przeprowadzanie szeroko rozpowszechnionych działań manipulacyjnych w mediach społecznościowych stało się znacznie droższe czy trudniejsze.

"Nasz raport pokazuje zupełnie inną perspektywę, niż raporty przedstawiane przez platformy społecznościowe: bez większych problemów mogliśmy kupić ponad 54 tys. nieautentycznych interakcji w social media” – podkreślili autorzy StraCom.

Najsłabiej chroniony jest Instagram

Aby przeprowadzić eksperyment analitycy musieli założyć własne fałszywe konta – i już na tym etapie przekonali się, czy platformy są w stanie je wykryć. Okazało się, że niektóre platformy działały całkiem sprawnie:

  • FB zawiesił aż 80 proc. z nich,
  • Twitter – 66 proc.,
  • Instagram – 50 proc.,
  • za to You Tube nie zablokował ani jednego.

Eksperci badali także,

  • jak szybko usuwane są kupione lajki i komentarze,
  • czy blokowane są konta, z których te fałszywe reakcje pochodzą,
  • oraz czy w jakiś sposób reagowano na efekty takich działań, np. przez powiadomienie właścicieli kont o tym, że ich posty zostały manipulowane, czy poinformowanie opinii publicznej o szczególnie istotnych przypadkach.

W tym celu w maju i czerwcu 2019 r. kupili fałszywe reakcje pod 105 różnymi postami na Facebooku, Instagramie, Twitterze i You Tubie. Dbali o to, by eksperyment nie wpłynął na rozchodzenie się istotnych treści, dlatego dodawali reakcje tylko pod neutralnymi postami, np. z życzeniami świątecznymi.

Skorzystali z ofert szesnastu różnych dostawców, w tym jedenastu rosyjskich (Rosjanie dominują na rynku sieciowej manipulacji) i jednego polskiego. Najpierw obserwowali, jak zareagują na nie platformy społecznościowe, a w lipcu zgłosili fałszywe konta administratorom – i cały czas sprawdzali, co się dzieje pod obserwowanymi postami. Na koniec ocenili wyniki każdej z czterech monitorowanych platform według przyjętych przez siebie kryteriów.

We wszystkich kategoriach najgorzej wypadł Instagram, który nie był w stanie wykryć znacznej większości nieautentycznych zachowań, pochodzących od komercyjnych dostawców. Usunięto tam jedynie 5 proc. kupionych komentarzy, za to wszystkie fake'owe polubienia pozostały aktywne.

Instagram zdołał zablokować 50 proc. fałszywych kont, ale jego blokadę dało się pokonać za pomocą dość prostych technik. Po wykupieniu fałszywych reakcji liczby polubień i komentarzy rosły, ale nigdy nie spadały, nawet gdy zablokowano konta, które je wygenerowały. Efekty manipulacji pozostawały więc na trwale na platformie.

Raport StratCom
Raport StratCom. MSP - dostawcy usług manipulacji daleko poza zasięgiem platform społecznościowych. Najlepiej daje sobie radę Twitter, za nim jest YouTube, trzeci Facebook, ostatni Instagram

Twitter na prowadzeniu, ale…

You Tube dba przede wszystkim o to, by liczba wyświetleń materiałów video było jak najbliższa prawdy, dlatego najlepiej radzi sobie z usuwaniem wykupionych wyświetleń. Za to zupełnie zaniedbał komentarze – aż 9 na 10 kupionych fałszywych wypowiedzi pozostało na platformie do końca eksperymentu.

Jednocześnie YouTube jest najmniej przejrzysty, trudno tu weryfikować fakeo'we konta, a zewnętrzni badacze mają dostęp do najmniejszej liczby danych.

Facebook okazał się najlepszy w blokowaniu fake'owych kont, mimo to znaleźli się dostawcy, którzy byli w stanie obejść jego zabezpieczenia i zaoferować bardzo efektywne działania na tej platformie – wykupione u nich fałszywe reakcje rzadko znikały, zwłaszcza komentarze pozostawały na długo. Słabo wyglądało także usuwanie nieautentycznych wyświetleń materiałów video.

Najlepsze techniki przeciwdziałające nadużyciom ma dziś wg ekspertów Twitter. Jego system obrony spowodował, że firmy dostarczające fałszywe reakcje realizowały zamówienia dłużej niż na innych platformach – ale też zawsze udało im się je zrealizować.

Oznacza to, że dostawcy usług manipulacyjnych są w stanie obejść blokady Twittera, choć potrzebują na to więcej czasu. Jednocześnie podczas eksperymentu to właśnie Twitter samodzielnie zidentyfikował i usunął najwięcej zmanipulowanych reakcji oraz zablokował najwyższy odsetek zgłoszonych przez autorów eksperymentu kont.

Za to zupełnie nie radził sobie z fałszywymi wyświetleniami.

Badacze sprawdzili także, czy platformy lepiej chronią konta oficjalne, zweryfikowane przez administratorów i oznaczone w specjalny sposób jako wiarygodne. W tym celu kupili proste komentarze (np. „cześć” czy „dziękuję”) pod dość neutralnymi postami kilku komisarzy z Komisji Europejskiej.

Okazało się, że sytuacja wygląda tu tak samo jak na wszystkich innych stronach – komentarze nie zostały usunięte i były aktywne nie tylko w sierpniu, gdy kończono eksperyment, ale także teraz, w grudniu, tuż przed publikacją raportu.

Oznacza to, że zweryfikowane konta, nawet reprezentujące oficjalne instytucje, nie są chronione lepiej przed manipulacjami sieciowymi niż konta niezweryfikowane czy wręcz anonimowe.

Autorzy raportu podkreślili, że wszystkie platformy, jeśli w ogóle reagowały, to dopiero po 3-5 dniach, do tego momentu zaś fałszywe reakcje wpływały na algorytmy i np. podwyższały zasięgi obserwowanym postom. Jak na sposób funkcjonowania social media,

taka reakcja jest zbyt wolna, by mogła realnie przeciwdziałać oddziaływaniu manipulacji czy dezinformacji w sieci.

W drugiej fazie eksperymentu eksperci zgłosili sto z tysięcy obserwowanych przez siebie fake'owych kont administratorom każdej platformy jako konta naruszające regulamin. Sprawdzali, czy w wyniku zgłoszenia te fałszywki zostaną usunięte.

Po trzech tygodniach od zgłoszenia z social media zniknęło zaledwie… 4,5 proc. zgłoszonych kont.

Reszta miała się dobrze i realizowała kolejne zamówienia na manipulację w sieci. Warto zaznaczyć, że 90 proc. zamówień to manipulacja komercyjna, biznesowa, a nie polityczna.

Rynek usług: You Tube najdroższy, Instagram najtańszy

Eksperyment dał możliwość zbadania sytuacji nie tylko w social media, ale i na komercyjnym rynku usług manipulacyjnych. Okazało się, że YouTube jest najdroższą platformą do manipulowania. Tańsze są: Twitter i Facebook , zaś takie same usługi na Instagramie kosztują prawie o połowę taniej niż te na FB i TT.

Samo wykupienie fałszywych lajków, komentarzy, wyświetleń czy kont jest zawsze bardzo proste. Strony sprzedawców są ogólnie dostępne w sieci, działają jak typowe sklepy internetowe, oferują proste sposoby płatności online oraz pakiety fake'owych aktywności.

Usługi są też szybko realizowane – średnio w ciągu jednej doby wszystkie wykupione zachowania pojawiały się pod określonymi wpisami (rekordowy czas wyniósł zaledwie 5 minut i dotyczył Instagrama). Fałszywe reakcje najwolniej pojawiały się na Twitterze.

Po raz kolejny potwierdziły się też informacje o dominacji podmiotów rosyjskich na tym rynku. Okazało się, że wielu europejskich dostawców korzysta z podwykonawców z Rosji, często tych samych, o czym świadczy wykorzystywanie do realizacji różnych usług tych samych kont, pochodzących z Rosji lub Ukrainy.

Przy czym, jak zaznaczają autorzy raportu, „podczas aktualizacji oprogramowania platform społecznościowych usługi manipulacji zwykle przestawały działać na kilka dni, ale jak dotąd ich dostawcy zawsze byli w stanie obejść nowe zabezpieczenia, wprowadzane przez administratorów social media, i wznowić obsługę klientów w ciągu około tygodnia”.

Platformy społecznościowe wciąż sobie nie radzą

„Na podstawie tego eksperymentu i kilku innych badań, które przeprowadziliśmy w ciągu ostatnich dwóch lat, oceniamy, że Facebook, Instagram, Twitter i YouTube wciąż nie radzą sobie ze skoordynowanymi nieautentycznymi zachowaniami online [inauthetic behavior - wspólna nazwa na wszelkie manipulacyjne zachowania w sieci].

Wszystkie platformy podjęły wysiłki w celu rozwiązania problemu skoordynowanych nieautentycznych reakcji, fałszywych kont oraz złośliwych działań generowanych przez boty. Jednak oczywiste jest, że treściami na platformach społecznościowych nadal można łatwo manipulować.” – podsumowują autorzy raportu.

Proponują też wprowadzenie konkretnych rozwiązań, aby rzeczywiście ograniczyć dezinformację w sieci. Najważniejsze to:

  • zwiększenie przejrzystości działań prowadzonych przez platformy społecznościowe,
  • ustanowienie niezależnego nadzoru nad platformami,
  • wprowadzenia prawnych regulacji dla firm oferujących usługi manipulacyjne w sieci.

Te propozycje wpisują się w trwającą w Europie i USA dyskusję. Niestety, toczy się ona najczęściej między analitykami sieci, zrzeszającymi ich instytucjami oraz samymi platformami społecznościowymi.

Wydaje się, że instytucje państwowe i politycy, jeśli w ogóle interesują się tym tematem, to wyłącznie w bieżącej perspektywie wyborczej. Po wyborach zainteresowanie opada, a manipulacje w social media rozwijają się bez przeszkód.

W Polsce w ogóle nie widać zainteresowania tą kwestią ze strony rządu. Prawdopodobnie więc sytuacja w social media nie zmieni się zbyt szybko, a rynek usług manipulacyjnych będzie nadal legalnie sprzedawał fałszywe konta, lajki czy komentarze.

;
Na zdjęciu Anna Mierzyńska
Anna Mierzyńska

Analizuje funkcjonowanie polityki w sieci. Specjalistka marketingu sektora publicznego, pracuje dla instytucji publicznych, uczelni wyższych i organizacji pozarządowych. Stała współpracowniczka OKO.press

Komentarze