Kontrolery smaku i węchu w VR to pieśń przyszłości, podobnie jak wierne symulowanie dotyku. Nawet najbardziej zaawansowane kombinezony haptyczne pobudzają tylko określone partie ciała. W najmniejszym stopniu nie mogą mierzyć się z dokładnością pomiaru bodźców zewnętrznych naszego organizmu. W końcu na jednym centymetrze kwadratowym ciała znajdziemy 25 receptorów dotyku, 2 receptory ciepła, 12 receptorów zimna i aż 150 receptorów bólu. A mowa tu  wyłącznie o zewnętrznej powłoce. receptory dotyku znajdziemy także na języku i w jamie ustnej. O bólu wewnętrznych partii ciała nie wspominając.

Podepnij się

Kolejnym problemem na drodze do urzeczywistnienia VR będzie miniaturyzacja samych gogli. W tym tygodniu firma HTC zaprosiła polskich dziennikarzy na spotkanie, podczas którego zaprezentowano możliwości m.in. najnowszych urządzeń z serii Vive. Trzeba uczciwie przyznać, że wirtualna rzeczywistość oglądania poprzez HTC Vive Pro robi wrażenie i wciąga niemiłosiernie. Ale po kilkudziesięciu minutach grania kark aż ugina się ze zmęczenia. Gogle sporo ważą, a w wersji przewodowej nieustannie potykamy się o kable wijące się wokół nas. Producenci próbują tworzyć mniejsze, mobilne zestawy jak Vive Cosmos czy moduły bezprzewodowe. Sprzęt ten jednak wciąż jest zbyt wielki, abyśmy mogli zapomnieć o nim podczas gry. Co więcej, ogranicza nas przestrzeń, po której się poruszamy, gdyż pole gry jest ściśle ograniczone. Jedynie zestawy AR potrafią łączyć świat materialny z tym wirtualnym, ale rzeczywistość rozszerzona charakteryzuje się znacznie mniejszą immersją. Nie pozwala nam odciąć się od prawdziwego świata. Czy da się z tym jakoś wygrać? Na razie nie widzę na to szans. Istnieje kilka problemów, które należałoby rozwiązać, aby wejść na kolejny poziom immersji.

Mobilność przede wszystkim

Przede wszystkim gogle VR z górnej półki powinny działać bezprzewodowo, a taką funkcję posiadają wyłącznie modele Vive z przystawką Wireless Adapter. Ponadto większość gogli śledzi wyłącznie położenie dłoni i  głowy. Owszem, istnieją rękawice, które pozwolą śledzić w VR układ palców oraz trackery, które można przypiąć do dowolnego obiektu, aby ten zaistniał w wirtualnej rzeczywistości. To jest jednak obejście problemu, a nie rozwiązanie go. Aby zwiększyć immersję, należałoby wyposażyć gogle lub stacje bazowe w rozwiązania wykorzystywane w inteligentnych autach. System zdolny do rozpoznawania otoczenia wokół gracza i przetwarzania do w czasie rzeczywistym na trójwymiarowe modele. Dzięki temu w VR mogłoby zaistnieć całe nasze ciało. Nvidia pracuje nad takim narzędziem, które służy do transkrypcji nagrań na środowisko 3D. Jest ono jednak w bardzo wczesnej fazie rozwoju. Wdrożenie sztucznej inteligencji tłumaczącej rzeczywistość na język cyfrowy stanowiłoby po części rozwiązanie problemu zarysowanego w trzecim punkcie. Aby jednak zrealizować i ten cel, trzeba rozwinąć silnik doświadczeń VR, aby umożliwić np. dowolne formowanie wirtualnych obiektów, obracanie ich, łączenie, modyfikowanie. W tym miejscu pojawia się jeszcze jeden problem. Aby powstała technologia VR tak skomplikowana, jak w Matriksie czy Cyberpunku 2020, powinniśmy przenosić się do wirtualnego świata, po którym możemy poruszać się bez żadnych ograniczeń, wchodzić w interakcję z innymi użytkownikami i przedmiotami, jednocześnie pozostając w jednym i tym samym miejscu. A to już krok, który będzie wymagać lat eksperymentów. I być może nigdy nie uda nam się rozwinąć technologii do tego stopnia.

Witamy w cyberpunku

Aby to zrobić, powinien powstać neuroprocesor zdolny do bezpośredniego komunikowania się z mózgiem. Tylko wtedy immersja sięgnie szczytu. Takie urządzenie mogłoby działać na zasadzie bypassu. Podczas podpięcia do VR odcinałoby ludzkie zmysły i generowało impulsy elektroniczne odpowiedzialne za wrażenia dotyku, smaku, węchu czy wzroku. W połączeniu z systemami sterowania wykorzystującymi fale mózgowe mogłyby wprawić w ruch wirtualne ciało. A w skrajnych przypadkach – nawet doprowadzić do naszej śmierci poprzez np. poprzez zdalne zatrzymanie akcji serca. To jednak pieśń dalekiej przyszłości i nie wiadomo, czy dożyjemy czasów, powstania neuroprocesorów zdolnych do wykonywania tak zaawansowanych zadań. Interfejsy mózg-komputer są dopiero we wczesnej fazie rozwoju. Nad jednym z nich pracuje m.in. Elon Musk w ramach projektu Neuralink, nie wiadomo niestety, kiedy trafią na rynek. Wiemy natomiast, że już dziś prowadzi się eksperymenty ze sztucznymi zmysłami. Naukowcom z MiT pod koniec 2017 roku udało się stworzyć bioniczne oko, które w ograniczonym stopniu przywróciło niewidomym wzrok, pozwalając rozpoznawać jasne przedmioty od ciemnych i zarysowywać kształty oglądanych obiektów. Istnieje szansa, że inne zmysły także uda się zastąpić cyfrowymi urządzeniami. Gdyby tak połączyć je i zaimplementować ich obsługę w miniaturowym procesorze wszczepianym do układu nerwowego – być może udałoby się stworzyć wirtualną rzeczywistość tak przekonującą, że aż prawdziwą. Dodajmy do tego oprogramowanie wystarczająco elastyczne, aby odpowiadać na wszystkie nasze działania, a zrealizowalibyśmy ostatni, czwarty punkt. Uzależnilibyśmy się od hiperrealistycznej cyfrowej rzeczywistości. Czy do tego dojdzie? Być może, choć nie sądzę, abyśmy byli świadkami tak radykalnych zmian na przestrzeni najbliższych kilkunastu lat.
Co nowego u Bestii - tego możecie się dowiedzieć, odwiedzając profil Predator_pl
Na razie testujemy granice nowych rozwiązań z zakresu wirtualnej rzeczywistości na naszej redakcyjnej Bestii, laptopie Acer Predator 21 X. Przez kilka najbliższych lat dwie karty GeForce GTX 1080 powinny poradzić sobie z odpalaniem innowacyjnych doświadczeń VR.
Strony:
  • 1
  • 2 (current)
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj