Emil Borzechowski

Emil Borzechowski

Gracze nie powinni czekać na zaawansowaną SI, ułomne boty są bezpieczniejsze

Gracze nie powinni czekać na zaawansowaną SI, ułomne boty są bezpieczniejsze Gracze nie powinni czekać na zaawansowaną SI, ułomne boty są bezpieczniejsze

Technologia uczenia maszynowego pozwala tworzyć maszyny oraz programy, które są zdolne do błyskawicznego analizowania sytuacji i podejmowania autonomicznych decyzji w oparciu o obszerne zasoby big data. Programy tego typu wydają się idealne do wykorzystania ich w roli komputerowych botów. W rzeczywistości mogą popsuć nam zabawę.

Historia gamingowej sztucznej inteligencji sięga połowy XX wieku, kiedy naukowcy z Uniwersytetu Manchesterskiego wykorzystali komputer Ferranti Mark 1 do napisania pierwszych, prostych programów szachowych i warcabowych. Nie dysponowały aż tak dużą mocą obliczeniową jak komputer Deep Blue od IBM, który w 1997 pokonał mistrza szachowego Garriego Kasparowa, ale udowodniły, że maszyna może być zdolna do myślenia i przy odpowiednim nakładzie środków oraz badań naukowych można wdrożyć w życie koncepcję sztucznej inteligencji.

W przypadku tych pierwszych prób stworzenia botów komputerowych słowo myślenie należy wziąć w ogromny cudzysłów. Programy z lat 50. może i znały zasady gier, w których uczestniczyły, ale stanowiły wyzwanie jedynie dla amatorów. Nie potrafiły myśleć przyszłościowo, przewidywać kolejnych ruchów czy świadomie podejmować ryzykownych zagrań, licząc na to, że w następnych krokach takie działanie pozwoli zdobyć przewagę nad wrogiem.

Nawet trzydzieści lat później, w złotej erze gier arcade, komputerowi przeciwnicy byli wyłącznie zestawem prostych algorytmów działających w oparciu o schematy warunkowe. Jeśli gracz wykonał czynność x, gra odpowiadała na nią wywołaniem funkcji y. Czasami wprowadzano element losowości, zwłaszcza w ścieżkach poruszania się przeciwników, aby utrudnić ich eliminację. Dobrym przykładem takich wrogów są np. pająki z The Fantastic Adventures of Dizzy, które spuszczały się po nici zarówno w losowych momentach, jak i w chwili, gdy przeszedł pod nimi gracz. Prosty algorytm tchnął nieco życia w tych przeciwników.

Złożone, warunkowe struktury działania botów przetrwały do dziś pod postacią rozbudowanych drzewek decyzyjnych. Opracowując wystarczająco skomplikowany schemat zależności, można zaprogramować „sztuczną inteligencję” tak, aby w zaplanowany sposób reagowała na pomysły graczy. Niestety, ludzie mają to do siebie, że zawsze odnajdą jakieś niedoskonałości oprogramowania i zlokalizują schemat postępowania, którego nie przewidzieli twórcy gier. Takie postępowanie może sprawić, że nawet w najbardziej realistycznej grze immersja pryśnie w ułamku sekundy.

Doskonałym przykładem jest tu trik ze Skyrima, który pozwalał bezkarnie okradać postaci niezależne poprzez założenie im na głowę jakiegoś naczynia. Tak „przyozdobiony” mieszkaniec nie zauważał, jak plądrowaliśmy jego dom. Twórcy zaprojektowali algorytm kradzieży w taki sposób, że do jej wykrycia potrzebny był bohater niezależny, który spostrzeże moment przywłaszczania przedmiotów przez gracza. Ale kiedy taki bohater miał garnek na głowie, nie był w stanie dostrzec naszych niecnych uczynków.

Prawdopodobieństwo odnalezienia luk logicznych w poczynaniach botów jest wprost proporcjonalne do czasu, jaki spędzamy w danej grze. Mogłoby się wydawać, że wprowadzenie botów, które nie bazują na z góry ustalonych schematach, a uczą się poczynań gracza w oparciu o algorytmy uczenia maszynowego, byłoby dobrym sposobem na zwiększenie immersyjności gier. Obawiam się jednak, że to ślepa uliczka i oddanie pełni władzy wyspecjalizowanej sztucznej inteligencji przyniosłoby więcej szkód niż korzyści.

Algorytm pokonał mistrza

Zanim przejdziemy do sedna, przytoczmy wydarzenie, które mogło wstrząsnąć miłośnikami gry logicznej Go. To jeden z tych tytułów, który do niedawna wydawał się nie do opanowania przez sztuczną inteligencję. Przez lata komputery nie były w stanie opanować tej starożytnej gry do perfekcji i zapewnić sobie supremacji w starciu z jej arcymistrzami. Aż do roku 2016, kiedy sztuczna inteligencja od Google, AlphaGo, pokonała południowokoreańskiego mistrza świata Lee Se-dola.

Był to początek końca dominacji człowieka w tej dyscyplinie. Pierwsze wcielenie AlphaGo zaprogramowano bowiem w oparciu o sztywne dane statystyczne – algorytm przeanalizował przeszło 100 tysięcy partii rozegranych przez ludzi i na ich podstawie wypracował strategię postępowania w grze. Jego następca, AlphaGo Zero, zrobił kolejny krok ku doskonałości. Algorytm zaprojektowano w taki sposób, aby był w stanie rozgrywać partie sam ze sobą i na ich podstawie doskonalić swoje umiejętności. Po trzech dniach szkolenia był gotowy, aby stanąć do walki ze swoim prekursorem. Nie dał mu najmniejszych szans – wygrał wszystkie spośród 100 rozegranych meczów.

Zespół DeepMind odpowiedzialny za rozwój oprogramowania stwierdził, że stworzył najlepszego gracza Go w historii. A Lee Se-dol ukorzył się przed nowym mistrzem i poinformował opinię publiczną, że wycofuje się z zawodowej gry w Go, gdyż w tej dyscyplinie nie osiągnie już niczego więcej.

Nawet jeśli będę numerem jeden, jest jeszcze jeden podmiot, który nie może być pokonany – wytłumaczył powód swojej rezygnacji.

Demis Hassabis, CEO DeepMind, podziękował Lee Se-dolowi za niezwykłą wolę walki przeciwko AlphaGo. Walki, która była skazana na porażkę i która dobitnie pokazuje, jak niebezpiecznym narzędziem może okazać się sztuczna inteligencja wyposażona w algorytmy uczenia maszynowego. Skoro po trzech dniach szkolenia AlphaGo Zero w mistrzowski sposób opanowała tak skomplikowaną grę jak Go, gdyby zastosować podobne mechanizmy uczenia się w świecie gier, boty w strzelankach szybko stałyby się przeciwnikami nie do pokonania. Co więcej, mogłyby wynajdywać nie do końca uczciwe metody na radzenia sobie z żywym przeciwnikiem.

W tym miejscu warto wspomnieć o eksperymencie, który przeprowadzili inżynierowie odpowiedzialni za rozwój sztucznej inteligencji OpenAI. W ramach nauczania algorytmów zasad zabawy w chowanego okazało się, że te znalazły luki w oprogramowaniu i zaczęły wykorzystywać je, aby zdobyć przewagę nad przeciwnikiem poprzez wykorzystywanie elementów terenu, do których teoretycznie nie powinny mieć dostępu. Sztuczna inteligencja zrobiła dokładnie to, co gracze w Skyrimie – znalazł lukę w zasadach gry i sięgnęła po nią, aby wygrać rozgrywkę. Szerzej o tym eksperymencie wspominałem w artykule poświęconym zabawie w chowanego OpenAI.

Komputer zawsze będzie górą

Wyobraźmy sobie teraz, że takie samouczące się boty trafią do gry FPS. Ich wdrożenie może być kuszące, nieprzewidywalność ich ruchów uczyniłaby rozgrywkę bardziej emocjonującą. Ale nawet przy założeniu, że będą grać uczciwie, tzn. nie będą z góry znały naszej pozycji, prędzej czy później wyszkolą się do tego stopnia, że będą nie do pokonania. Paradoksalnie każda kolejna rozegrana przez nas partia będzie działać na naszą niekorzyść, gdyż pomoże sztucznej inteligencji lepiej zrozumieć środowisko oraz nasz styl gry. A w tym wyścigu prawdopodobnie bylibyśmy skazani na porażkę. Prędzej czy później sztuczna inteligencja wzięłaby nad nami górę i stała się nie do pokonania.

W teorii programiści mogliby wprowadzić ograniczenia w procesie uczenia maszynowego, aby powstrzymać boty SI przed dążeniem do doskonałości. Ale w momencie zahamowania rozwoju te straciłyby swój wyjątkowy charakter. Po osiągnięciu maksymalnego poziomu komputerowego poznania, zamieniłyby się w klasycznych komputerowych przeciwników, których postępowanie można przewidzieć. Cały trud w zabawie z uczeniem maszynowym poszedłby na marne.

W bardziej ekstremalnym przypadku bot mógłby nauczyć się sztuczek działających wbrew z góry narzuconym regułom. Jeśli znalazłby glitch, wykorzystywałby go przy każdej możliwej okazji, aby zdobyć przewagę nad rywalami.

Wszystkie dotychczasowe eksperymenty z algorytmami wykorzystującymi uczenie maszynowe dowiodły, że prędzej czy później komputer zdobędzie przewagę nad człowiekiem i będzie w stanie upokorzyć nawet zawodowych graczy. Dlatego choć wdrożenie uczących się botów do gier może wydawać się ciekawym rozwiązaniem, na dłużą metę nie przyniesie niczego dobrego, bo maszyna zrobi wszystko, aby pokonać gracza i sięgnie po najbrudniejsze zagrania.

Uczenie maszynowe może zmienić sposób projektowania wrogów do gier komputerowych, ale pozostawienie botów samym sobie wydaje się niezbyt dobrym rozwiązaniem. Jeśli ta technologia miałaby rzeczywiście uprzyjemnić nam grę, należałoby zaimplementować w niej wentyl bezpieczeństwa, który uniemożliwi jej osiągnięcie gamingowej doskonałości.

Źródło: Zdjęcie: OpenAI

Co o tym sądzisz?

Porównywarka VOD Nowość Repertuar kin Program TV