W popkulturze utrwalił się wizerunek robotów doskonale imitujących człowieka. Replikanci z Blade Runner czy T-800 z The Terminator na pierwszy rzut oka zachowywali się i wyglądali tak, jak każdy z nas. Ale choć naukowcy robią postępy w tworzeniu humanoidalnych robotów, maszyny te wciąż nie są tak sprytne, jak ich filmowe odpowiedniki. Jedną z największych przeszkód do stworzenia w pełni funkcjonalnego androida jest system rozpoznawania obrazów. Owszem, już dziś istnieją rozwiązania, które pozwalają ocenić, co znajduje się w obrazie przechwyconym przez obiektyw kamery czy aparatu. Jednak współczesne algorytmy są dość prymitywne, gdyż polegają na analizie płaskiego obrazu bądź jednej trójwymiarowej klatki. Oprogramowanie wie, na co patrzy w danej sekundzie, nic ponadto I o ile taki system sprawdzi się np. do rozpoznawania twarzy, to jego funkcjonalność w androidzie byłaby ograniczona. Robot byłby w stanie przeskanować otoczenie, ale nie mógłby wchodzić z nim w precyzyjną interakcję, gdyż nieprawidłowo interpretowałby przedmioty w trójwymiarowej przestrzeni. Grupa naukowców z Laboratorium Nauk Komputerowych i Sztucznej Inteligencji na MIT postanowiła rozwiązać ten problem i stworzyć system, który umożliwiłby robotowi widzenie i manipulowanie przedmiotami w taki sposób, jak robi to człowiek.

Widzenie maszynowe bliskie ludzkiemu

Dense Object Nets działa odmiennie od tradycyjnych algorytmów rozpoznawania obrazów, które wyuczono rozpoznawać przedmioty, przedstawiając im tysiące przykładowych zdjęć danego obiektu. DOT identyfikuje przedmioty jako zbiór punktów umiejscowionych w trójwymiarze. Dzięki czemu wie, jak dana rzecz wyglądają z każdej strony i jak funkcjonuje w przestrzeni. Można powiedzieć, że dzięki temu maszyna myśli bardziej abstrakcyjnie i uczy się struktury obiektu, a nie tylko jego dwuwymiarowej reprezentacji. Ale jak takie rozwiązanie sprawdza się w praktyce? Zaskakująco dobrze. Badacze pokazali DON-owi, jak złapać but za język, a następnie podkładali mu kolejne buty o zupełnie innym kształcie i rozmiarze. Robot bez problemu chwytał je i przenosił do koszyka. Po przeanalizowaniu budowy pierwszego buta DON nauczył się, czym jest język i rozpoznawał ten element, niezależnie od tego, jak wyglądał. Jeśli androidy doskonale imitujące człowieka kiedykolwiek powstaną, zostaną wyposażone w system rozpoznawania obrazu podobny do DON-a. Dzięki niemu będą mogły w czasie rzeczywistym analizować otoczenie w sposób precyzyjny i prawidłowo obchodzić się z obiektami, z którymi wchodzą w interakcję. Robot będzie wiedział, gdzie jest spód kubka, a gdzie jego góra i zrozumie, jak ruch mechanicznej ręki wpływa na płyn, który znajduje się w naczyniu. To dość trywialny przykład, ale to takie detale zadecydują o tym, czy android będzie równie ludzki, co my. Na razie prace zespołu z MIT są na bardzo wczesnym etapie, a DON działa zbyt powolnie, aby mógł sprawdzić się do konstrukcji androidów jak żywo przypominających człowieka. Przed podjęciem jakiejkolwiek akcji musi przeskanować otoczenie, aby zabrać się do pracy. Ale gdyby zastosować go w robocie wyposażonym w system trójwymiarowego, binarnego widzenia i usprawnić algorytmy analityczne, byłby znacznie bardziej funkcjonalny. Kto wie, być może będzie to jeden z tych wynalazków, który przybliży nas do stworzenia robotów, które zdadzą test Turinga, czyli będą zdolne oszukać człowieka, że rozmawia z drugim człowiekiem, a nie maszyną.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj