W branży gamingowej od lat wykorzystuje się skomplikowane algorytmy do sterowania komputerowymi przeciwnikami. I choć zwyczajowo przyjęło się nazywać je „sztuczną inteligencją”, ze współczesną SI wykorzystującą technologię uczenia maszynowego nie mają zbyt wiele wspólnego. Ot, wykonują z góry zaprogramowane polecenia, aby osiągnąć określony cel. Inżynierowie Google pracujący przy projekcie DeepMind postanowili stworzyć algorytm, który będzie znacznie inteligentniej reagował na poczynania graczy. Chcą nauczyć SI, jak wygląda współpraca drużynowa na przykładzie rozgrywki wQuake III: Arena. Aby to osiągnąć, DeepMind rozegrała 450 tysięcy partii w trybie Capture the Flag, w trakcie których uczyła się, jak współpracować z botami oraz ludzkimi przeciwnikami, aby wspólnymi siłami wygrać rozgrywkę. Jak zauważają inżynierowie skupieni wokół tego projektu, największym wyzwaniem dla sztucznej inteligencji nie jest osiągnięcie własnych celów. O wiele trudniej nauczyć algorytm działania w roju, odsuwanie w czasie realizacji własnych zadań na rzecz dobra wspólnego. Tryb CTF doskonale nadaje się do wyszkolenia SI, gdyż gracze muszą nieustannie śledzić poczynania swojej drużyny oraz przeciwnika. Deep Mind już wcześniej partycypowała w podobnych projektach, Blizzard sięgnął po nią, aby przekonać się, czy można nauczyć maszynę grania w strategię pokroju StarCrafta 2 na poziomie mistrzowskim. Bez oszukiwania i analizowania zachowań gracza, o których żywy przeciwnik nie miałby pojęcia. Podobny projekt realizuje Elon Musk, który planuje nauczyć OpenAI grania w Dota 2 w taki sposób, aby sztuczna inteligencja mogła uczciwie wygrać z profesjonalnymi graczami.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj