Fake newsy, sztuczna inteligencja, astroturfing. Jak technologia może wpływać na wybory
Nowoczesne technologie ułatwiają nam komunikowanie się i wymianę poglądów. Ale jeśli wpadną w nieodpowiednie ręce, mogą przyczynić się do zafałszowania wyników wyborów. Dziś porozmawiamy o tym, jak technologia pozwala manipulować opinią publiczną.
Nowoczesne technologie ułatwiają nam komunikowanie się i wymianę poglądów. Ale jeśli wpadną w nieodpowiednie ręce, mogą przyczynić się do zafałszowania wyników wyborów. Dziś porozmawiamy o tym, jak technologia pozwala manipulować opinią publiczną.
7 października w Brazylii odbyła się pierwsza tura wyborów prezydenckich. W trakcie kampanii media społecznościowe odgrywały ogromnie ważną rolę i nie ma się tu czemu dziwić, w końcu za pośrednictwem Facebooka czy Twittera najłatwiej dotrzeć do potencjalnego odbiorcy. Ale w trakcie głosowania doszło do nietypowego incydentu, który mógł zaważyć na wyniku wyborów. Administratorzy Facebooka zauważyli, że w serwisie pojawił się wpis informujący o przesunięciu głosowania w związku z protestami, które przetaczają się przez Brazylię. I być może nie byłoby w tym nic dziwnego, gdyby nie fakt, że informacja ta była wyssana z palca.
Sprawę wziął w swoje ręce zespół zarządzania kryzysowego, który zlokalizował fałszywkę i szybko usunął ją z sieci. Gdyby podchwyciły ją media oraz użytkownicy o dużym zasięgu, zamieniłaby się w wiral i Facebook straciłby nad nią kontrolę, co mogłoby wypaczyć wyniki głosowania.
Władza w rękach informacji
W The Waldo Moment trzeciego sezonu Black Mirror mogliśmy śledzić losy Waldo, cyfrowej maskotki, którą wystawiono do wyborów do Izby Gmin. Opryskliwy bohater obnażył wszystko to, co w internecie najgorsze. Waldo był hejterem niestroniącym od ostrego języka, ubliżał komu popadnie i nie ponosił żadnych konsekwencji swoich czynów. Był tylko wytworem marketingowców, którzy postanowili wykorzystać go do przejęcia władzy. Na pierwszy rzut oka wydawał się być jedynym niezależnym kandydatem, który mówił to, co ludzie chcieli usłyszeć. W rzeczywistości stała za nim wielka maszyna politycznej propagandy, sącząca trujące słowa do uszu wyborców.
The Waldo Moment zadebiutował na ekranach w 2013 roku i nie musieliśmy zbyt długo czekać, aby scenariusz tego odcinka stał się rzeczywistością.
10 października 2016 roku amerykańskie sondażownie podały, że przewaga Hillary Clinton nad Donaldem Trumpem w skali całego kraju wynosi 11 punktów procentowych. Miało to przełożyć się na 256 głosów elektorskich dla Demokratów i tylko 170 głosów dla Republikanów. Dziś wiemy, jak skończyło się to starcie, ale przed dwoma laty niewiele osób wróżyło Trumpowi zwycięstwo. Charlie Brooker, showrunner Czarnego lustra, był innego zdania. Już we wrześniu udzielił wywiadu dziennikarzom The Daily Best, w którym stwierdził, że Republikanie posługują się metodami zaprezentowanymi w The Waldo Moment. I nie miał wątpliwości, że to Trump sięgnie po fotel prezydenta.
Dopuszczenie do głosu skrajnych opinii przyniosło oczekiwany efekt, jednak był to dopiero początek wyzwań, jakie czekały społeczeństwa Zachodu. Na pierwszą linię frontu wysunęły się fake newsy, fałszywe informacje spreparowane tak, aby podgrzewać opinię publiczną i jak najszerzej rozchodzić się w mediach społecznościowych.
Ilość, a nie jakość
Jednym z najważniejszych narzędzi do manipulowania opinią publiczną w 2016 roku okazały się twitterowe boty, z których korzystały oba sztaby wyborcze. Tej metodzie walki z polityczną konkurencją przyjrzał się doktor Emilio Ferrara z Uniwersytetu Południowej Kalifornii i opublikował na ten temat obszerny artykuł naukowy. Ferrara dostrzegł także powiązania między botami wspierającymi Trumpa, a tymi krytykującymi w 2017 roku kandydata na prezydenta Francji, Emmanuela Macrona. Okazało się, że w obie kampanie zaangażowane były te same konta na Twitterze, które w okresie międzywyborczym zamilkły. A w trakcie kampanii stanowiły kilkanaście procent wszystkich komentarzy politycznych publikowanych na serwisie.
Można spierać się co do tego, kto stał za wspomnianymi botami, ale jednego możemy być pewni. Systemy automatycznego dystrybuowania informacji są obecne w polityce i korzystają z nich partie z całego świata. A jeśli uda się dotrzeć z przekazem, nawet skrajnie zafałszowanym, do szerokiego grona odbiorców, można zasiać ziarno niepewności i przekonać ludzi do podjęcia konkretnych decyzji politycznych.
Przedstawiciele Facebooka doskonale zdają sobie sprawę z tego, jak groźnym narzędziem są media społecznościowe. I wiedzą tego z własnego doświadczenia, gdyż w 2012 roku przeprowadzili bardzo kontrowersyjne eksperymenty. Portal stwierdził, że sprawdzi, jaki wpływ mają na nas informacje o konkretnym nacechowaniu emocjonalnym. Firma wytypowała 700 tysięcy użytkowników i zaczęła manipulować tym, co wyświetla im się w news feedzie. Na tej podstawie wywnioskowano, że treści o pozytywnym i negatywnym przekazie popychają użytkowników do wyrażania swojego zdania. A im więcej dobrych informacji widzimy, tym bardziej pozytywny jest nasz przekaz. Podobnie sprawa ma się z informacjami o charakterze pesymistycznym.
Zobacz także:
Być może w badaniu tym nie byłoby nic niestosownego, gdyby nie fakt, że Facebook nie poinformował badanych o tym, że biorą udział w eksperymencie. Sprawa ujrzała światło dzienne w 2014 roku, ale Facebookowi upiekło się, szybko zapomniano o tym incydencie. Za to o kolejnym skandalu będziemy pamiętali przez lata.
Internet wie, czym cię skusić
Kiedy Aleksandr Kogan naukowiec z Uniwersytetu w Cambridge stworzył facebookowy test osobowości, nikt nie podejrzewał, że prosta aplikacja może doprowadzić do najgłośniejsze afery w historii portalu i zmusić Zuckerberga do tłumaczenia się z działania serwisu przed politykami amerykańskimi oraz unijnymi. Okazało się bowiem, że wypełniając test, użytkownicy przyznawali aplikacji dostęp do informacji o sobie oraz swoich znajomych. Firma Cambridge Analytica zauważyła w tym narzędziu ogromny potencjał polityczny i pozyskali od Kogana dane zebrane za pomocą testu osobowości.
Od tego momentu pracownicy firmy mogli przebierać w terabajtach danych i analizować korelacje między preferencjami konsumenckimi, a np. światopoglądem czy poglądami politycznymi. Pozornie niewinne informacje mogły posłużyć do stworzenia aparatu propagandowego działającego na masową skalę. Precyzyjnego narzędzia, które trafi z odpowiednio spreparowanym przekazem do ściśle określonego użytkownika. Szacuje się, że firma weszła w posiadanie profili psychologicznych nawet 50 milionów Amerykanów, którzy brali udział w wyborach prezydenckich w 2016 roku. I wykorzystała je w kampanii.
Facebook po czasie zorientował się, w jakie bagno wdepnął i próbuje walczyć z fałszywymi informacjami rozprzestrzenianymi m.in. przez boty internetowe. I choć powołano specjalne centrum kryzysowe, które ma reagować na próby manipulacji wyborczych, walka ta nie jest łatwa. Serwis nie chce zostać oskarżony o cenzurowanie jakichkolwiek treści, gdyż takie zarzuty tylko pogorszyłyby i tak już nadszarpnięty wizerunek firmy.
Ogień zwalczaj ogniem
Korporacja wykorzystuje hybrydowe metody walki z botami oraz fake newsami. Z jednej strony inwestuje w sztuczną inteligencję, która pozwala lokalizować fałszywe konta i nieprawdziwe informacje, z drugiej zatrudnia sztab moderatorów nieustannie badających to, co dzieje się w serwisie. W ten sposób uda się być może wyeliminować boty, jednak walka z fake newsami wymaga znacznie więcej uwagi.
Niektórzy specjaliści ds. mediów społecznościowych uważają, że remedium na walkę z fałszem może okazać się data journalism, czyli dziennikarstwo oparte na pozyskiwaniu i przetwarzaniu dużej ilości danych. Funkcjonuje ono na podobnej zasadzie co algorytmy wykorzystywane przez Cambridge Analytica, czyli szuka korelacji pomiędzy konkretnymi zjawiskami, poglądami czy wydarzeniami. Dysponując szerokim wachlarzem opinii, źródeł i faktów można precyzyjnie zarysować każdy problem, przedstawiając wady i zalety danego rozwiązania za pomocą grafu. Na poniższej ilustracji widać, w jaki sposób interpretowane są informacje w ramach data journalism. W tym przypadku zaprezentowano korelację między wprowadzeniem szczepionki na odrę a liczbą zachorowań w poszczególnych stanach.
Na podobnej zasadzie można zaprezentować dowolne dane o charakterze medycznym, politycznym, kulturowym czy społecznym. Naukowcy liczą na to, że przedstawiając dane na temat kontrowersyjnych opinii za pośrednictwem infografik, uda nam się walczyć z maszyną dezinformacji, kłamstw i manipulacji.
Przynajmniej do czasu, aż politycy nie sięgną po narzędzia do manipulowania obrazem i dźwiękiem. Technologia deepfake opisywana w tym artykule może bowiem posłużyć do tworzenia filmów i nagrań z wypowiedziami polityków, które zostały sfałszowane od podstaw. Odpal poniższy film i zobacz, jak można włożyć w usta polityka słowa, których nigdy nie wymówił:
Źródło: Zdjęcie główne: Pixabay
Kalendarz premier seriali
Zobacz wszystkie premieryDzisiaj urodziny obchodzą
ur. 1987, kończy 37 lat
ur. 1969, kończy 55 lat
ur. 1991, kończy 33 lat
ur. 1947, kończy 77 lat
ur. 1955, kończy 69 lat