W idealnym świecie każde dzieło kultury powinno sprawiać odbiorcy radość, a twórcy przynosić godne zyski. Niestety, rzeczywistość nie jest aż tak idylliczna i każdego roku powstają tysiące książek, filmów i gier, które zamiast bawić, zawodzą. Rolą wszelkiej maści recenzentów jest wyławianie z tego natłoku tworów kultury pozycji, które niosą ze sobą jakąś wartość artystyczną bądź rozrywkową. I choć zdarzają się przypadki, w których wydawcy próbują wpłynąć na opinię publiczną, serwisy pokroju Rotten Tomatoes czy Metacritic dość dobrze odwzorowują to, z jakim przyjęciem spotkało się dane dzieło. Jest jednak pewien problem z recenzjami publikowanymi w internecie. Owszem, zmanipulowanie wszystkich zawodowych i półprofesjonalnych recenzentów mogłoby być problematyczne, gdyż wymagałoby przeprowadzenia nadzoru nad procesem pisania i publikowania stosunkowo obszernych tekstów w najróżniejszych mediach. Byłoby to żmudne i uciążliwe, na dłuższą metę raczej niewykonalne. Ale nic nie stoi na przeszkodzie, aby wykorzystać sztuczną inteligencję do fałszowania opinii czytelników bądź zmasowanego hejtu dziennikarzy. Zwłaszcza że pojawiło się narzędzie, które może uprościć ten proceder. Inżynierowie Microsoftu opracowali we współpracy z naukowcami z Uniwersytetu BeiHang w Pekinie algorytm do pisania spamowych komentarzy. I być może nie byłoby w tym niczego nadzwyczajnego, gdyby nie wykorzystanie sztucznej inteligencji do analizy komentowanego tekstu. Dzięki niej opinie wyrażane przez oprogramowanie wyglądają niepokojąco ludzko. Według oficjalnych założeń projekt DeepCom powstał po to, aby ułatwić stronom informacyjnym rozkręcenie sekcji komentarzy. Algorytm analizuje skróconą wersję artykułu, przetwarza zgromadzone w nim informacje i na tej podstawie tworzy wpis, który podobno w rzetelny sposób odnosi się do treści komentowanego tekstu. Dzięki temu wydawca może zachęcić czytelników do dyskusji za pośrednictwem wpisów wyglądających jak te napisane przez ludzkiego użytkownika sieci. Przy pisaniu oprogramowania sięgnięto po technologię uczenia maszynowego, która pozwoliła wyszkolić DeepCom w formułowaniu opinii w języku chińskim oraz angielskim. Podczas nauki chińskiego algorytm bazował na treściach pozyskanych z witryny Tencent News, a angielskiego nauczył się na przykładzie Yahoo News. Po przeanalizowaniu setek tysięcy artykułów DeepCom wiedział, jak komponować komentarze, aby były trudne do wykrycia przez algorytmy antyspamowe. I jeśli narzędzia tego typu upowszechnią się i zostaną udoskonalone, sieć zaleje fala SPAM-u, z którą bardzo ciężko będzie nam wygrać. Już przy okazji afery Cambridge Analytica głośno zrobiło się o astroturfingu, czyli procederze podszywania się wielkich korporacji pod zwykłych użytkowników. W dobie zautomatyzowanych narzędzi informatycznych stworzenie botów, które dystrybuowały predefiniowane treści nie było zbyt trudne. Narzędzia takie mogą łatwo narzucić opinii publicznej konkretny przekaz, mają jednak jedną, dość poważną wadę – ze względu na podobną strukturę wpisów uważny odbiorca może zorientować się, że są elementem maszyny manipulacyjnej. Wprowadzenie sztucznej inteligencji pokroju DeepCom komplikuje sytuację, gdyż algorytm nie powiela jednego tekstu, a wykorzystuje technologię uczenia maszynowego do generowania oryginalnych wpisów. A im dłużej będzie działać, tym lepiej będzie radzić sobie z udawaniem człowieka. Filtry antyspamowe tylko ułatwią pracę takim programom. Algorytm będzie w stanie zorientować się, jakie elementy zawierają komentarze, które są oznaczane jako SPAM i będzie doskonalić się na podstawie tych, które nie zostały oflagowane. Szkodliwy zakres działania DeepCom oczywiście dalece wykracza poza branżę recenzencką, ale to ona może okazać się jej poligonem doświadczalnym. Gdyby któryś twórca bądź wydawca sięgnął po narzędzie tego typu, mógłby w kilku prostych krokach uruchomić nagonkę na niepokornego recenzenta, który miał czelność zbyt ostro obejść się z jego dziełem. A jeśli boty komentujące rozpoczną działalność na długo przed premierą jakiejś gry, książki czy filmu, wykrycie ich może graniczyć z cudem. Wydawca mógłby przez kilka miesięcy, a może i lat, uwiarygadniać swoje boty, zlecając im pisanie neutralnych komentarzy na stronach dotyczących popkultury, aby w razie konieczności wykorzystać je do storpedowania niepochlebnej recenzji. Czy jest to scenariusz rodem z science fiction? Chciałbym w to wierzyć, ale w ostatnich latach kilka razy próbowano wykorzystać technologię do narzucenia opinii na temat kilku filmów. Pod ostrzałem znalazł się m.in. Gwiezdne wojny: ostatni Jedi czy Kapitan Marvel, które spotkały się z chłodnym przyjęciem ze strony niektórych widzów. I nawet jeśli skala wykorzystania botów została wyolbrzymiona, mleko zdążyło się rozlać – w sieci rozgorzała dyskusja na temat roli technologii w procesie manipulowania opinią na temat dzieł kultury. A skoro po takie narzędzia sięgnęli niezadowoleni widzowie, często działający z czystej złośliwości, to wydawcy mają piękną wymówkę, aby odpłacić im pięknym za nadobne. Narzędzia w stylu DeepCom mogą poważnie zachwiać współczesną siecią. W końcu systemy automatycznych komentarzy nie muszą wcale wychwalać recenzowanych produkcji, mogą zostać zaprogramowane tak, aby dyskredytowały twórcę i jego tekst. A jeśli takich wpisów będzie wystarczająco wiele, mogą zniechęcić autora do wyrażania niepochlebnych opinii a w skrajnych wypadkach - zmusić do porzucenia pracy. Na szczęście nie jesteśmy (jeszcze) na z góry straconej pozycji, gdyż obecnie większość sztucznych inteligencji szkoli się w analizie najpopularniejszych języków. Największe powody do obaw mają internauci anglo-, chińsko- czy hiszpańskojęzyczni, którzy są poletkiem doświadczalnym dla algorytmów uczenia maszynowego. Zanim sztuczna inteligencja nauczy się zasad funkcjonowania języka polskiego, może minąć jeszcze kilka ładnych lat.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj