WIEDZA

Polityczne wojny na boty: Astroturfing, rząd i Rosjanie

redakcja   | 14.09.2017, przeczytano 910 razy
ilustracja
fot. Carsten Mueller/freeimages.com

Polityczna wojna na boty to nie tylko polska specjalność. Już w czasie arabskiej wiosny (szczególnie w latach 2009–2010) po to narzędzie sięgali egipscy i syryjscy dyktatorzy, by zniekształcać, tłumić lub zakłócać przekaz protestujących. Podobne działania władzy zostały udokumentowane i opisane w Meksyku (2015 r.) i wielokrotnie w Rosji. Nawet w krajach, w których protestujący muszą się liczyć z poważniejszymi zagrożeniami, manipulowanie ruchem w mediach społecznościowych to realny problem. Utrudnianie komunikacji między protestującymi, sianie teorii spiskowych, zniekształcanie przekazu, który wydostaje się na zewnątrz to niestety całkiem skuteczne taktyki. Czy można ustalić, kto pociąga za sznurki? Jakich środków potrzeba, by samemu włączyć się do gry? Czy można wygrać z botnetem, nie wynajmując własnego?


Artykuł pochodzi z portalu Signs.pl: https://www.signs.pl/polityczne-wojny-na-boty:-astroturfing,-rzad-i-rosjanie,33716,artykul.html

Zagadka astroturfingu

Dziwne rzeczy działy się w ostatnich – gorących od politycznej mobilizacji – tygodniach w polskich mediach społecznościowych. Podczas gdy protestujący przeciwko „reformie” Sądu Najwyższego organicznie i stopniowo (między 17 a 24 lipca) wyrastali na milionowy ruch skupiony wokół hashtagów #wolnesady, #3XWeto czy #ŁańcuchŚwiatła, 21 lipca pod krytycznymi wobec działań rządu treściami na Facebooku i Twitterze zaczęły się pojawiać automatycznie generowane wpisy (np. „Precz z Kaczorem – dyktatorem!”), świadczące o pewnej aktywności botów.

Prorządowe media natychmiast podłapały temat rzekomej manipulacji w mediach społecznościowych. W ciągu zaledwie 24 godzin została wylansowana teza o astroturfingu, czyli odgórnym sterowaniu ruchem, który miał wyglądać na spontaniczny. Aktywność zagadkowego botnetu w polskim Internecie, wykorzystującego zagraniczne konta (przede wszystkim z Ameryki Łacińskiej), stała się podstawą wygodnej dla rządu narracji: normalni obywatele w Polsce nie protestują, ludzie na ulicach jedynie „spacerują dla zdrowia”, a ruch w sieci generują „obce” boty.

Wynająć botnet może każdy, wystarczy niewielki budżet. Ustalić, kto nim kieruje, jest już dużo trudniej… Tu jesteśmy skazani na spekulacje.


Wynająć botnet, który zaśmieca Twittera dowolnymi komunikatami (od reklamy leku na potencję, przez hasła pseudoprotestacyjne, aż po przypadkowe ciągi znaków), nie jest trudno. Wystarczy zapytać wyszukiwarkę, by przekonać się, że to tania i stosunkowo dostępna usługa (cena ok. 0,2 dolara za komentarz). O wiele trudniejsze niż uruchomienie takiej operacji jest dojście do tego, kto zapłacił. Firma obsługująca przejęte konta (botnet) z pewnością takiej informacji nie ujawni, a sama analiza danych z Twittera może nas doprowadzić co najwyżej do przybliżonej lokalizacji komputera, z którego obsługiwane były automatyczne komunikaty. Można próbować analizy heurystycznej, wykorzystującej np. kalki językowe, aby przybliżyć się do źródła (np. czy możliwe jest, że botnet obsługują Rosjanie, Polacy, a może sam George Soros?), nadal jednak pozostajemy w sferze spekulacji.

Kto zyskał?

Na tej niepewności i spekulacjach co do aktywności „zewnętrznego gracza” w ruchu protestacyjnym najwięcej zyskują ci, którym merytoryczna dyskusja jest nie na rękę. Autentyczny, milionowy ruch obywatelski nie miał nic do zyskania na przyłączeniu się do niego kilkuset botów powtarzających, jak zdartą płytę, ten sam komunikat. Co innego rząd, który mógł przekierować uwagę swojego elektoratu z zarzutów, jakie stawiali protestujący, na teorię spiskową. W tym właśnie kierunku prowadzi nas obserwacja, że sam hasztag #astroturfing pojawił się na Twitterze jak kometa i w ciągu jednego dnia zyskał zasięg ok 1,6 miliona użytkowników (przy czym 75% wpisów o bardzo niezróżnicowanej treści wygenerowano w ciągu kilku godzin). Dla porównania: treści związane z protestacyjnymi hasztagami były różnorodne i generowane stopniowo przez wielu użytkowników.

Ben Nimmo wykazał, że pojawienie się kontrowersyjnej tezy o astroturfingu w polskiej sieci było… wynikiem astroturfingu.


Tę dynamikę opisał i zilustrował (graf poniżej) na łamach Medium Ben Nimmo – doświadczony badacz z Atlantic Council’s Digital Forensic Research Lab. Zaintrygowany nagłym pojawieniem się tezy o rzekomej manipulacji w polskich mediach społecznościowych, przeanalizował zasięg i częstotliwość komunikatów oznaczonych hasztagami #AstroTurfing, #StopAstroTurfing i #StopNGOSoros. Nimmo udowodnił, że eksplozja „spiskowych” hasztagów została spowodowana, w krótkim czasie, przez niewielką sieć nadnaturalnie aktywnych (13 000 tweetów tylko między 19:00 a 21:00 22 lipca!) i wzajemnie wzmacniających się kont, co samo w sobie wskazuje na wykorzystanie botnetu i próbę manipulowania trendem w mediach społecznościowych. Próba się jednak nie powiodła – po 22:00 ruch spadł niemal do zera. Sztucznie wygenerowany strumień po prostu nie zyskał popularności wśród prawdziwych użytkowników Twittera.

ilustracjastrzałka

Kazus – rzekomego (#wolnesady) i faktycznego (#AstroTurfing, #StopAstroTurfing) – sterowania debatą w mediach społecznościowych dobrze ilustruje, dlaczego możliwość zidentyfikowania faktycznych aktorów wpływających na debatę polityczną ma znaczenie. Jako obywatele mamy prawo wiedzieć, jaką rolę w generowaniu komunikacyjnych trendów odgrywają partie polityczne i media (szczególnie publiczne). Czy te trendy odzwierciedlają autentyczne postawy społeczne, czy próbują kreować sztuczną rzeczywistość i stają się narzędziem propagandy? Taka analiza sytuacji – wraz ze wzrostem roli mediów społecznościowych, podatnych na niejawne, rozproszone formy dezinformacji – staje się coraz trudniejsza.

Bot czy nie bot?

Rolę botów w politycznej grze od lat bada Samuel Woolley z Uniwersytetu w Oxfordzie i jego zespół w ramach projektu Computational Propaganda Research Project (COMPROP - http://comprop.oii.ox.ac.uk/). Próbują nazwać i przeanalizować związki algorytmów, automatycznej komunikacji i polityki, w tym wpływ botów na opinię publiczną i trendy w mediach społecznościowych, rozprzestrzenianie się fałszywych treści, mowy nienawiści i dezinformacji.

To właśnie zespół COMPROP udowodnił, że polityczny przekaz działający na korzyść Donalda Trumpa i podważający wiarygodność Hillary Clinton w dużej mierze był rozprzestrzeniany przez sieć botów. W dniu wyborów armia botów wystawiona przez Trumpa przewyższała liczebnością boty pracujące dla Clinton w proporcji 5 : 1. Najbardziej zaskakujące w ustaleniach Woolleya jest to, że wykorzystywania botów do manipulowania debatą publiczną politycy nawet specjalnie nie ukrywają. Zarządy i właściciele firm obsługujących te sieci utrzymują bliskie związki z przedstawicielami rządów i wpływowymi politykami.

Robert Gorwa z Oxfordu zidentyfikował 500 podejrzanych kont na polskim „politycznym” Twitterze. Aż 20% sztucznie generowanego ruchu w badanej próbie miało nacechowanie prawicowe.


Jak ten krajobraz wygląda w Polsce? Robert Gorwa, badacz związany z zespołem COMPROP, przeanalizował „polityczny” ruch na polskim Twitterze pod kątem aktywności tzw. fałszywych wzmacniaczy (false amplifiers), w tym botów. Jego raport opublikowany w lipcu tego roku (False Amplifiers and the Digital Public Sphere: Lessons from Poland) ilustruje złożoność problemu, z jakim mamy do czynienia. Gorwa nie przechodzi do łatwych konkluzji: raczej stawia kolejne pytania, niż dostarcza definitywnych odpowiedzi.

Drążąc temat, Gorwa przywołuje wcześniejsze opracowania (m.in. Centrum Stosunków Międzynarodowych, CERT), które wskazują na aktywność rosyjskich botów w polskich mediach społecznościowych. Sądząc po efektach, ich zadaniem jest eskalacja polsko-polskiego konfliktu i nastrojów narodowo-radykalnych, sianie dezinformacji w temacie konfliktu rosyjsko-ukraińskiego oraz zniechęcanie i zastraszanie użytkowników krytykujących politykę Rosji. Sam badacz podkreśla jednak, że jednoznaczne zidentyfikowanie aktorów schowanych za sieciami twitterowych botów jest bardzo trudne. Nie ułatwia tego sam Twitter, który nie wymaga (w przeciwieństwie np. do Wikipedii) rejestracji takich podmiotów, nie udostępnia badaczom pełnych danych o ruchu w swojej sieci i w rzeczywistości nie dąży do blokowania ani ograniczania aktywności botów.

Posługując się metodą opracowaną i wielokrotnie testowaną przez zespół COMPROP, Robert Gorwa zidentyfikował 500 kont aktywnych w debacie politycznej na polskim Twitterze, które wyglądają na tzw. fałszywych wzmacniaczy. Główne czynniki, jakie badacze z Oxfordu biorą pod uwagę, to:

  • sposób umieszczania wiadomości na Twitterze (rodzaj aplikacji czy skryptu, który jest do tego wykorzystywany);
  • stopień interakcji z innymi kontami (jak rozległa i aktywna jest sieć followersów i retwittujących);
  • wiek i „długość życia” poszczególnych twittów;
  • łączna liczba rozpowszechnianych komunikatów w analizowanym okresie.


Wśród kont, które Gorwa uznał za podejrzane, większość (263 na 500) ujawniała prawicowe poglądy i afiliacje. Te konta łącznie wygenerowały aż 20% komunikatów w badanym zbiorze. W swoim raporcie Gorwa podkreśla, że to wysoki współczynnik, przekładający się na istotne ryzyko manipulowania debatą polityczną w mediach społecznościowych.

Realne stawki

Nawet w krajach, w których protestujący muszą się liczyć z najpoważniejszymi konsekwencjami występowania przeciwko władzy, manipulowanie ruchem w mediach społecznościowych i aktywność prorządowych botów to realny problem. Doświadczenia aktywistów z Turcji, Egiptu i Syrii w najgorętszym okresie arabskiej wiosny czy aktywistów meksykańskich w okresie antyrządowych protestów w 2015 r. (po ujawnieniu sprawy morderstwa grupy studentów z Ayotzinapa) pokazują, że kontrolowane przez rząd boty mogą skutecznie utrudnić przepływ informacji między obywatelami, jak również zakłócić ich zewnętrzny przekaz.

Nawet prymitywna metoda spamowania protestacyjnego hasztagu bezwartościowymi treściami może realnie zaszkodzić organizującym się w ten sposób obywatelom.


Najprostszą i często wykorzystywaną metodą zaciemniania przekazu i utrudniania komunikacji między aktywistami jest zalewanie ich kanałów bezwartościowym, automatycznie generowanym spamem. Taką taktykę zastosował meksykański rząd w odpowiedzi na rosnące w siłę, protestacyjne hasztagi #RompeElMiedo (przełam strach) i #YaMeCanse (jestem zmęczony). Zdaniem analizujących to zjawisko dziennikarki Erin Gallagher i blogera Alberto Escorcii rząd skutecznie zamulił oba kanały komunikacji – do tego stopnia, że protestujący nie byli w stanie przekazywać sobie ostrzeżeń (np. mapek pokazujących zasięg działań policji) i byli w większym stopniu narażeni na aresztowanie lub pobicie. Zalewając hasztagi bezwartościowymi komunikatami, boty zniekształcały także zewnętrzny przekaz protestujących, który wcześniej przedostawał się do mediów głównego nurtu i za granicę.

W czasach komunikacji sieciowej i platform społecznościowych obywatele nie mają gdzie się przenieść. Gdy organizujemy się w masowy ruch, jesteśmy w dużej mierze skazani na publiczne kanały, takie jak Twitter, Facebook i fora w mediach elektronicznych, podatne na opisane mechanizmy manipulacji i dezinformacji. Wynajmowanie botnetów będzie tylko łatwiejsze, a ich skala rażenia – większa. Nie możemy biernie obserwować tego wyścigu zbrojeń – potrzebujemy skutecznych narzędzi przeciwdziałania dezinformacji, także na poziomie technicznym.

Jak wygrać wyścig z botem?

Zamiast zbierać środki na własny botnet i dołączać do wyścigu zbrojeń, możemy budować na tym, co pozytywnie wyróżnia autentyczne ruchy ludzi od automatycznych ruchów maszyn. Zdaniem Alberto Escorcii, aktywisty doświadczonego w meksykańskich bataliach, dobra wiadomość jest taka, że algorytmy mediów społecznościowych faworyzują nowe i unikatowe treści oraz te, które są podawane dalej i cytowane przez autentyczne sieci użytkowników. To dynamika charakterystyczna dla ruchu społecznego. Jeśli zatem dany hasztag angażuje różne kręgi ludzi komunikujących się oddolnie i spontanicznie, w charakterystyczny i niepowtarzalny sposób, a jednocześnie tworzących sieć społeczną, z pewnością zyska większą widoczność niż jakikolwiek podbijany przez botnet. Jak pokazuje starcie hasztagów #wolnesady i #astroturfing, czasem wystarczy poczekać, by ten sztucznie wygenerowany umarł śmiercią naturalną.

Ze względu na sposób działania algorytmów autentyczny ruch społeczny w mediach społecznościowych ma szansę na większą widoczność niż konkurujący z nim botnet.


A jednak trudno spokojnie przyglądać się takiej batalii bez świadomości reguł gry i taktyki stosowanej przez przeciwnika. Najwięcej na ten temat mogłyby powiedzieć same platformy społecznościowe, gdyby zechciały wpuścić więcej światła do swojej kuchni. Na jakiej zasadzie ich algorytmy wyłapują trendy i tworzą hierarchię promowanych treści? Czy sztuczny ruch generowany przez boty nie powinien być traktowany jak spam i automatycznie odfiltrowywany? Dlaczego jeszcze nie rozmawiamy o systemie flagowania podejrzanych kont, skoro rozmawiamy o flagowaniu podejrzanych treści (tzw. fake news)?

To trudne pytania, a odpowiedzi na nie, siłą rzeczy, będą oscylować na pograniczu cenzury i budzić słuszne kontrowersje. Wydaje się jednak, że więcej mamy do stracenia, nie zadając ich wcale, niż godząc się na prawo silniejszego w mediach społecznościowych.

Katarzyna Szymielewicz

Źródło: Fundacja Panoptykon

panoptykon.org



Tekst na licencji CC BY-SA 3.0 PL. Licencja nie obejmuje ilustracji. W tekście dokonano zmian w tytule i formatowaniu (wytłuszczenia).

R E K L A M A

Komentarze

Zaloguj się i dodaj komentarz
brak ikonki
hearnes, 14.09.2017

Na Signs powstał dział Political Fiction?

avatar użytkownika
redakcja, 14.09.2017

Opisane mechanizmy służą nie tylko propagandzie, ale także reklamie. Punkt ciężkości działań reklamowych przesuwa się coraz bardziej w kierunku takich właśnie zakulisowych technik. Wykorzystanie botów w połączeniu z działaniami agencji zajmujących się marketingiem szeptanym i marketingiem rekomendacji, dysponujących armiami "influencerów" nierzadko liczonymi w miliony, wpływa dramatycznie na wiarygodność przekazu w social media. Tymczasem badania pokazują, że szczególnie w Polsce ludzie są wobec mediów społecznościowych wyjątkowo bezkrytyczni (zwłaszcza młodzież). Są to wszystko obserwacje dające pojęcie o prawdziwej sytuacji i rozkładzie akcentów w dzisiejszej reklamie internetowej - naszym zdaniem warto i trzeba to śledzić jeśli ktoś zajmuje się tą dziedziną zawodowo.  

brak ikonki
hearnes, 14.09.2017

Przekaz w social media był wiarygodny?
Czyj? Kiedy? Dla kogo?
  

avatar użytkownika
redakcja, 14.09.2017

Żyjesz na Marsie?

" Holendrzy uważają, że 80 proc. informacji umieszczanych w social media nie do końca należy ufać. W przypadku Polaków 53 proc. badanych, głównie z pokolenia millenialsów, uważa, że takie informacje są warte zaufania w przeciwieństwie do mediów tradycyjnych, którym nie wierzy 60 proc. " - więcej: www.signs.pl/wiekszosc-falszywych-newsow-sluzy-reklamie-albo-polityce,32549,artykul.html  

brak ikonki
hearnes, 14.09.2017

Czyli 80% Holendrów uważa, że SM są niewiarygodne.

Więc skąd teza, że SM są wiarygodne? Bo Polacy mający 20+ lat wierzą?  

avatar użytkownika
redakcja, 14.09.2017

No chyba tak? "Wiarygodne" - czyli godne wiary, godne tego aby im wierzyć. W Polsce znacząca grupa odbiorców będąca jednocześnie konsumentami żywi takie przekonanie - być może nie orientując się w opisanych w artykule mechanizmach.  

brak ikonki
hearnes, 14.09.2017

Czyli są wiarygodne w Polsce, dla 53% ludzi z przedziału wiekowego 20-30.

To chyba zbyt mała próba, by snuć tezy o wiarygodności SM.
Nie sądzisz?  

avatar użytkownika
redakcja, 14.09.2017

A kto snuje takie tezy?  

brak ikonki
hearnes, 14.09.2017

Ty.  

avatar użytkownika
redakcja, 14.09.2017

Podpowiesz w którym miejscu?  

brak ikonki
hearnes, 15.09.2017

redakcja, 14.09.2017
(...) Wykorzystanie botów w połączeniu (...) wpływa dramatycznie na wiarygodność przekazu w social media.   

avatar użytkownika
redakcja, 15.09.2017

A gdzie tu jest mowa o tym, że social media są wiarygodne? U Was na Marsie obniżyć można wyłącznie wiarygodność czegoś w pełni wiarygodnego? Na naszym ziemskim padole obniżyć wiarygodność można niezależnie od wyjściowego poziomu wiarygodności - coś średnio wiarygodne może stać się mało wiarygodne, a coś co jest mało wiarygodne - jeszcze mniej wiarygodne.  

brak ikonki
hearnes, 15.09.2017

Czyli miałeś na mysli, że te wszystkie działania podnoszą wiarygodność SM?  

avatar użytkownika
redakcja, 15.09.2017

Na Marsie tak. Na Jowiszu podobno jest z tym gorzej, bo nie mają tam twardego gruntu pod nogami. A na Wenus - ze względu na wysoką temperaturę i ciśnienie atmosferyczne - social media nie występują wcale, więc problemu nie ma. Nie planujesz przeprowadzki?  

brak ikonki
hearnes, 15.09.2017

Po co więc pisałeś o wpływaniu na wiarygodność, skoro nie miałeś na myśli jej podnoszenia czy obniżania?  

avatar użytkownika
redakcja, 15.09.2017

Chodziło właśnie o obniżanie. W żaden sposób nie znaczy to, że to co obniżane było początkowo wysokie.  

brak ikonki
hearnes, 16.09.2017

Ale jak można obniżyć wartość czegoś, co z zasady (i badań wśród normalnych ludzi), nie ma wartości.  

avatar użytkownika
redakcja, 16.09.2017

Badania robiłeś w Galaktyce Andromedy, czy w pasie asteroid? Podzielisz się wynikami?  

brak ikonki
hearnes, 16.09.2017

"Holendrzy uważają, że 80 proc. informacji umieszczanych w social media nie do końca należy ufać."

Ty przytoczyłeś te badania.   

avatar użytkownika
redakcja, 16.09.2017

Potrafisz odjąć 80 od 100? Albo polskie 53 procent od 100?  

brak ikonki
hearnes, 16.09.2017

Masz na myśli 53% millenialsów.

Czyli ile? kilkaset tysięcy ludzi?
Jaki to stanowi odsetek mieszkańców Polski, że o Europie nie wspomnę.



To tak samo, jak propagandzista tvp info zrobił sondę uliczną na temat Tuska. I mu wyszło, że Tuska trzeba co najmniej powiesić.  

avatar użytkownika
redakcja, 16.09.2017

Szkoda czasu na tę sofistykę.  

brak ikonki
hearnes, 16.09.2017

Musisz poprosić autorów tekstów, żeby opierali się na solidnych żródłach i zaprzestali stawiania karkołomnych, a miejscami infantylnie durnych tez.


Rozumiem, że agencja sprzedająca powietrze w kolorze niebieskim musi przekonywać w publikacjach PR, że kolor niebieski jest najpiękniejszy na świecie, ale wiesz... niech tego nie udowadnia badaniami nad mikroskopikjnym wycinkiem populacji, który akurat lubi kolor niebieski.  

avatar użytkownika
redakcja, 16.09.2017

Chciałeś wykorzystać okazję aby po raz kolejny dowieść, że media społecznościowe nie mają żadnej wartości - tym razem poszedłeś krok dalej, bo od tezy że nie mają żadnej wartości dla marketerów i speców od reklamy przeszedłeś do tezy, że nie mają wartości także dla użytkowników, których liczba mimo tego poważnego wydawałoby się mankamentu idzie w miliardy...

A poległeś na prostej arytmetyce. Trzeba było w szkole zakuwać matmę, zamiast strzelać plasteliną z lufki do dziewczyn.  

brak ikonki
hearnes, 17.09.2017

Z procy strzelałem.

SM uwielbiam. Między innymi za to, że pokazują ludzką głupotę, naiwność i infantylizm w całej okazałości.
  

avatar użytkownika
redakcja, 17.09.2017

Stosunek Marsjan do ludzi jest nam dobrze znany, nie musisz być aż tak dosłowny i brutalny.   

brak ikonki
hearnes, 17.09.2017

Nazwanie kogoś głupim albo infantylnym tylko wtedy byłoby brutalne, gdyby nie było prawdziwe.
  

avatar użytkownika
redakcja, 17.09.2017

Macie na tym Marsie spaczony obraz Ziemi i ludzi - abberacje chromatyczne i te sprawy. Zamiast stosować lunety soczewkowe używajcie teleskopów zwierciadlanych - tam nie ma takich zniekształceń.  

brak ikonki
hearnes, 17.09.2017

Dokładnie tak.  



 
niedziela 19.11.2017, 120 gości [ lista ]
Signs.pl - Portal polskiej reklamy wizualnej © 1997-2017 ICOS. Wszystkie prawa zastrzeżone