Finansowanie kampanii wyborczych w Polsce jest nieprzejrzyste. Szczególnie jest to widoczne w kontekście prowadzenia agitacji w mediach społecznościowych. Fundacja Batorego po raz kolejny prowadzi analizę kampanii na największych platformach internetowych i w dalszym ciągu nie wiadomo, ile tak naprawdę politycy na nie wydają
Odpowiadają za to w co najmniej równym stopniu same platformy, jak i rządzący – niezależnie od tego, kto w danym momencie tę rolę pełni.
Wiemy, że coraz więcej pieniędzy jest wydawanych na prowadzenie kampanii wyborczej w Internecie. Koalicyjny Komitet Wyborczy Koalicja Polska w wyborach parlamentarnych w zeszłym roku wydał na „publikację w Internecie ogłoszeń, filmów, spotów, audycji itp.”
ponad pięć i pół miliona złotych,
a Komitet Wyborczy Prawa i Sprawiedliwości
aż ponad dziesięć milionów złotych.
To informacja pochodząca z oficjalnych sprawozdań składanych każdorazowo przez komitety wyborczej po przeprowadzonej kampanii. Ale to tylko pozory jawności.
Obecna we wzorze sprawozdania kategoria „publikacji w internecie” jest bardzo pojemna. Nie musi to dotyczyć wyłącznie mediów społecznościowych. To może być też wykupienie miejsca na stronie internetowej czasopisma lub telewizji. Zatem suma przedstawiona w sprawozdaniu nie pozwala na dokładne stwierdzenie, ile dokładnie z tej kwoty zostało przeznaczone na reklamę w mediach społecznościowych.
Można oczywiście – choć nie jest to łatwe – udać się do siedziby Krajowego Biura Wyborczego i tam przejrzeć tysiące umów i rachunków, które komitety muszą składać w formie załączników razem ze sprawozdaniem. Oprócz spełnienia warunków formalnych trzeba mieć też na to bardzo dużo czasu.
Polska jest jednym z niewielu krajów na świecie, które nie wprowadziły obowiązku (a tak naprawdę również możliwości) składania dokumentów źródłowych dotyczących finansowania kampanii w formie elektronicznej.
To więc nie tylko tysiące umów, ale tysiące stron.
Czas nie jest tu jednak jedynym wyzwaniem. Z umów i rachunków nie można za dużo wyczytać.
Są one bardzo często zawierane np. na produkcję i publikację spotów wyborczych w mediach społecznościowych.
Bez rozbicia na poszczególne składniki i rzadko z informacją, o które dokładnie platformy chodzi.
Można więc śmiało postawić tezę, że dane, które znajdują się w sprawozdaniu finansowym, zawierającym jeszcze kategorię „przygotowanie i wykonanie (w tym prace koncepcyjne i projektów), ogłoszeń, filmów, spotów, audycji itp. w Internecie”, są mało wiarygodne. Na podstawie takich ogólnych zapisów umów niemożliwe jest dokładne podzielenie kosztów na przygotowanie przekazów i ich publikację.
W trakcie kampanii wyborczych obserwujemy również dużo działań kandydatów, które nie wymagają bezpośredniego ponoszenia kosztów. To nagrywanie filmików przez asystentów lub samemu, tworzenie wpisów i komentarzy zachęcających do głosowania na swoją kandydaturę bez wykupywania reklam. Takich przykładów agitacji wymykającej się konieczności udokumentowania wydatków jest dużo więcej. Trudno mówić jednocześnie, że są to działania bezkosztowe. Być może ów asystent dostaje wynagrodzenie za trzymanie telefonu z równie pojemnej kategorii „pozostałe koszty poniesione na usługi obce”. Może nawet ten asystent dostaje te środki na pisanie komentarzy w internecie, które nawołują do głosowania na swojego patrona.
Kolejnym bowiem elementem, który zupełnie umyka kontroli, jest tzw. ruch organiczny,
czyli publikacja treści w mediach społecznościowych, które nie są płatną reklamą.
Nie są w zasadzie nigdzie „rejestrowane” i nie znajdują się w tzw. bibliotece reklam. Nie można zatem prześledzić systemowo tego, co środowiska polityczne publikują bez ponoszenia bezpośrednich kosztów na platformach internetowych. Z tym chce walczyć niedawno przyjęta regulacja UE poświęcona przejrzystości reklamy politycznej. Definiuje ona bowiem ten typ przekazu bardzo szeroko. Nadawcą takich reklam może być każdy i nie musi być to przekaz płatny. Platformy internetowe będą musiały śledzić takie treści oraz – jeśli nie zrobił tego sam zainteresowany – odpowiednio je oznaczać. Rozporządzenie zostało dopiero niedawno przyjęte, więc na wdrożenie będziemy musieli poczekać aż do wyborów prezydenckich w przyszłym roku. Na razie ten problem pozostaje nierozwiązany.
Część platform już wcześniej częściowo wdrożyła te rozwiązania, choć tylko w kontekście płatnych reklam. Meta oraz Alphabet prowadzą biblioteki reklam i dzięki temu można zanalizować, jakie wydatki są ponoszone przez komitety wyborcze. Mimo że jest to bardzo dobra praktyka (warto przypomnieć, że platformy takie jak X czy TikTok w ogóle nie prowadzą takich publicznie dostępnych rejestrów), to w dalszym ciągu jest to narzędzie niedoskonałe. W toku analiz kampanii wyborczych w 2023 i 2024 zauważyliśmy np. niespójności między agregacją teoretycznie tych samych danych pobranych bezpośrednio z BigQuery (Google) a zagregowanymi danymi na stronie. Całkowite wydatki różnią się w zależności od źródła, mimo że liczba analizowanych reklam jest bardzo podobna.
Jednocześnie otrzymaliśmy informacje np. od organizacji, które tworzyły w 2023 kampanie profrekwencyjne, że istnieje stosunkowo duża rozbieżność między danymi widocznymi publicznie a danymi, które operatorzy otrzymują bezpośrednio.
Przykładem może być kampania, której treść według naszych danych obejrzało ponad 14 mln osób, ale według danych uzyskanych przez operatora kampanii – cztery razy więcej.
W międzyczasie coraz większą popularnością cieszy się wykorzystanie tzw. deep fake’ów. Czyli generowania przy pomocy sztucznej inteligencji, dźwięków i obrazów sprawiających wrażenie, że wypowiada je w konkretnej sytuacji realnie istniejąca osoba. Próbkę mogliśmy już usłyszeć w kampanii wyborczej do Sejmu i Senatu, kiedy to Koalicja Obywatelska wypuściła spot, w którym wygenerowano głos Mateusza Morawieckiego czytający treść jednego z maili, które wyciekły ze skrzynki Michała Dworczyka. Chociaż treść była najprawdopodobniej autentyczna, to wykorzystanie, sztucznie wytworzonego głosu jednego z uczestników korespondencji wywołało sporo krytyki. Na jej skutek sztab wyborczy KO zamieścił w spocie informacje, że głos został sztucznie wygenerowany. Taka powinna być dobra praktyka, ale od przyszłego roku będzie to również obowiązek.
Przyjęte niedawno unijne rozporządzenie o sztucznej inteligencji nakazuje również, aby treści generowane przez sztuczną inteligencję była każdorazowo wyraźnie oznaczane. Ten akt prawny wychodzi ze słusznego wniosku, że brak informacji o wykorzystaniu tej zaawansowanej technologii może być wehikułem dezinformacji, która jest również narastającym problemem w kontekście kampanii wyborczych i polaryzacji społecznej. Dosłownie w usta polityka można włożyć każdy tekst i sprawić wiarygodne wrażenie, że te słowa wypowiedział.
I tu podejmuje się sporo działań, ale widać, że nawet przy tych zabezpieczeniach i próbach regulacji, nowe technologie mogą w przyszłości jeszcze bardziej wpływać na przebieg kampanii wyborczych czy debaty politycznej w ogóle. Również poprzez ich jeszcze mniejszą przejrzystość. Więcej kanałów agitacji wyborczej powoduje, że sposób jej prowadzenia wymyka się kontroli odpowiednich organów, a algorytmy mediów społecznościowych zbyt często amplifikują dezinformację, manipulację, czy treści polaryzujące.
Ekspert prawny w Fundacji im. Stefana Batorego, lead w Open Spending EU Coalition, członek Rady Programowej Archiwum Osiatyńskiego.
Ekspert prawny w Fundacji im. Stefana Batorego, lead w Open Spending EU Coalition, członek Rady Programowej Archiwum Osiatyńskiego.
Komentarze