Przeczytaj w weekend

Sztuczna inteligencja DeepMind nauczyła się grać w Quake’a III

Inżynierowie Google wyszkolili swój algorytm w trybie Capture the Flag w Quake III. Sztuczna inteligencja lepiej radzi sobie z tym trybem niż ludzie.

Inżynierowie Google wyszkolili swój algorytm w trybie Capture the Flag w Quake III. Sztuczna inteligencja lepiej radzi sobie z tym trybem niż ludzie.

Rozwiązania z zakresu sztucznej inteligencji od lat są w centrum zainteresowania inżynierów Google. To dzięki nim tak sprawnie funkcjonuje m.in. wyszukiwarka czy filtr antyspamowy w Gmailu. Ale korporacja eksperymentuje z tą technologią także na bardziej rozrywkowym gruncie. W ramach projektów realizowanych przez zespół DeepMind testowane są umiejętności algorytmów SI w starciu z najróżniejszymi grami. Te pokonały już mistrzów Go oraz szachów i wzięły na celownik kolejną grupę odbiorców. Miłośników Quake’a III.

Naukowcy z DeepMind nie chcieli jednak tworzyć kolejnych doskonałych botów do zabijania. Ich postanowieniem było takie skoordynowanie pracy różnych algorytmów, aby potrafiły komunikować się w celu wykonywania zadań grupowych. W tym celu postanowiono nauczyć je, jak rozgrywać partie w Capture the Flag.

System zbudowano w oparciu o agentów AI, niezależne instancje współpracujące ze sobą na drodze do wyeliminowania ludzkiego bądź komputerowego przeciwnika. Proces szkolenia sztucznych inteligencji był bardzo złożony i polegał na rozegraniu łącznie 450 tysięcy partii w Quake'a III. Co ciekawe, każdy z agentów działał poniekąd niezależnie, na własną rękę testując taktykę rozgrywki. Pierwsze partie wyglądały dość chaotycznie, sztuczna inteligencja poruszała się bez celu i wykonywała losowe ruchy. Dopiero po rozegraniu odpowiedniej liczby meczów algorytmy zaczęły rozumieć, na czym polega ta cała zabawa. Co ciekawe, po każdym tysiącu partii zarządzano przerwę, aby przeanalizować poczynania SI i skorygować wzorce zachowań. Boty wykazujące się skutecznością niższą niż wartość referencyjna kopiowały rozwiązania wypracowane przez inne algorytmy.

Warto zauważyć, że gdyby człowiek chciał zrealizować szkolenie o podobnej intensywności, spędziłby przed monitorem cztery lata. W warunkach laboratoryjnych udało się zakończyć naukę na przestrzeni kilku tygodni.

Wojciech Czarnecki, jeden z naukowców pracujących w zespole DeepMind, zauważył na łamach dziennika New York Times, że w poszczególnych agentach zaszczepiono  zdolność adaptacji do drużyny za pośrednictwem wyszkolenia arbitralnych umiejętności. Efekt takich działań okazał się bardzo pozytywny w starciu z żywym przeciwnikiem. Drużyna złożona z botów wykazała się wyższym współczynnikiem wygranych meczów do przegranych na nowych arenach, czyli takich, których wcześniej nie widzieli ani ludzie, ani sztuczna inteligencja.

Choć mamy tu do czynienia ze stricte laboratoryjnymi eksperymentami, można przypuszczać, że prace poczynione przez zespół DeepMind przysłużą się także szerokiemu gronu graczy. W końcu naukowcy udowodnili, że można stworzyć system SI przystosowujący się w czasie rzeczywistym do nowych warunków. Pozwala to mieć nadzieję, że w przyszłości komputerowi przeciwnicy mogą stać się jeszcze sprytniejsi i mniej podatni na błędy, które ułatwią ich wyeliminowanie.

Jednak zespół DeepMind nie po to prowadzi eksperymentów ze sztuczną inteligencją, aby duchowi spadkobiercy serii Dark Souls stanowili dla nas jeszcze większe wyzwanie. Wiedza pozyskana podczas tych badań ma przydać się do usprawnienia autonomicznych samochodów czy zautomatyzowanych systemów magazynowych. Zaawansowane boty komputerowe to tylko miły efekt uboczny prac nad technologią tego typu.

Źródło: Engadget / Zdjęcie: DeepMind

Co o tym sądzisz?

Porównywarka VOD Nowość Repertuar kin Program TV