Klasyczna sesja motion capture z udziałem psów nie różni się od tej realizowanej z udziałem ludzkich aktorów. Portretowane zwierzę ubiera się w specjalny kostium naszpikowany niewielkimi białymi kulkami, które śledzone są przez kilka wyspecjalizowanych kamer. Zmiana położenia elementów stroju transkrybowana jest na ruch wirtualnego szkieletu zwierzęcia. I choć sposób ten sprawdza się w kinematografii oraz branży gamingowej od lat, jest z nim jeden, dość poważny problem. Zwierzęta nie są tak wyrozumiałe jak ludzcy aktorzy, a przebieranie ich w obcisłe kostiumy wiąże się ze sporym stresem, który w skrajnych przypadkach może uniemożliwić przeprowadzenie sesji mocap. Naukowcy z University of Bath postanowili rozwiązać ten problem i wykorzystali technologię modelowania komputerowego, aby wynieść motion capture na nowy poziom. Ich cel był prosty – chcieli wyeliminować konieczność przebierania zwierząt na potrzeby sesji. Zespół przebrał w strój mocap 14 psów różnych ras, aby uwiecznić ich sposób przemieszczania się przy wykorzystaniu typowego zestawu motion capture. Następnie zgromadzone dane poddano obróbce komputerowej, aby wypracować ramowy model przemieszczania się zwierząt. Dysponując tym narzędziem rozpoczęto nagrywanie psów za pośrednictwem kamery RGBD, która rejestruje nie tylko światło widzialne, lecz także odległość obiektów od obiektywu. Jak się okazało, taka paczka informacji wystarczyła, aby zrekonstruować ruch zwierząt bez konieczności korzystania ze studia nagraniowego oraz strojów mocap. Zespół opublikował wyniki swoich badań na GitHubie, aby zainteresować nimi szerokie grono odbiorców. Co ciekawe, technologia ta sprawdzi się nie tylko na planie filmowym. Po nowy system obrazowania przestrzennego zwierząt mogą sięgnąć także lekarze weterynarii, aby monitorować kulawizny u psów.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj