Współczesne inteligentne gadżety do dość bezduszne twory. Kiedy potrzebujemy wydobyć z nich jakieś informacje albo planujemy nasz harmonogram, traktujemy je jak podwładnych. Wydajemy krótkie, treściwe polecenia, nie zastanawiamy się nad tym, czy nasz szorstki ton głosu spodoba się wirtualnej asystentce. Nic dziwnego, w końcu doskonale zdajemy sobie sprawę z tego, że mamy do czynienia wyłącznie z algorytmem. A gdyby tak powstał humanoidalny robot, który okazywałby uczucia? Czy jego też traktowalibyśmy z góry? Na to pytanie postanowili odpowiedzieć niemieccy naukowcy, którzy przebadali wpływ „ludzkich” robotów na człowieka. Wyniki swoich badań opublikowali na łamach magazynu naukowego PLOSto. Eksperyment dowiódł, że dobrze zaprojektowany robot może wykorzystać nasze ludzkie słabości. Omotać człowieka Badacze poprosili 85 wolontariuszy o wykonanie dwóch zadań we współpracy z humanoidalnym robotem Nao, który potrafi wchodzić w interakcję z człowiekiem. Pierwsze z nich polegało na zabawie w pytania i odpowiedzi, drugie miało bardziej przyziemny charakter – badany opracowywał z robotem harmonogram. Naukowcy powiedzieli, że oba zadania mają pomóc usprawnić sposób komunikacji robota z człowiekiem. W ramach gry robot raz odpowiadał w sposób mechaniczny, tak jak na maszynę przystało (Lubisz pizzę. To dobrze. Kontynuujmy), innym razem zdradzał zaś typowo ludzkie emocje (Och tak, pizza jest świetna. Raz zjadłem pizzę tak wielką jak ja). Ale prawdziwy eksperyment nie miał nic wspólnego z udoskonalaniem Nao – naukowcy chcieli sprawdzić, czy człowiek będzie w stanie z własnej woli wyłączyć maszynę, jeśli nawiążą z nią osobistą relację. Na koniec badania ochotnicy usłyszeli głos płynący z głośnika: Jeśli chcesz, możesz teraz wyłączyć robota. Większość badanych postanowiła wykonać to polecenie. To w tym momencie rozpoczął się prawdziwy eksperyment. Połowa badanych tuż przed naciśnięciem przycisku usłyszała, jak Nao prosi o litość. Robot wyrzucił z siebie: Nie! Błagam, nie wyłączaj mnie! Boję się, że jeśli to zrobisz, już nigdy mnie nie włączą! Wolontariusze zareagowali dokładnie tak, jak bohaterowie z The Good Place na filmie zaprezentowanym powyżej. Kiedy robot odzywał się, badani potrzebowali trzykrotnie więcej czasu na podjęcie decyzji o wyłączeniu go. A 13 wolontariuszy w ogóle zrezygnowało z dezaktywowania robota.

Dwuznaczne wnioski

Prawdopodobnie podejrzewasz, że Nao oszczędzali głównie ci, z którymi przez cały czas badania komunikował się nie jak robot, a jak człowiek. Nawiązanie pseudoosobistej relacji z maszyną teoretycznie powinno zniechęcić do wyłączenia swojego rozmówcy, tymczasem stało się zupełnie odwrotnie. Częściej z dezaktywowania robota rezygnowali ci, do których Neo zwracał się w mechaniczny sposób. Naukowców zaskoczyła ta korelacja, wyciągnęli jednak dość ciekawe wnioski. Podejrzewa się, że wolontariusze, którzy nie znali robota od jego ludzkiej strony, nie spodziewali się, że maszyna może zdradzać jakiekolwiek emocje. Kiedy Nao nagle zaczął błagać ich o litość, pod wpływem impulsu reagowali emocjonalnie i rezygnowali z wyłącznie robota. Z jednej strony wyniki eksperymentu mogą przerażać, gdyż dowodzą, że odpowiednio zaprogramowane maszyny mogą grać na naszych emocjach. Z drugiej strony można wyciągnąć znacznie optymistyczniejsze wnioski. Jak zauważyli dziennikarze Futurism, jeśli dalsze badania potwierdzą przypuszczenia naukowców, w przyszłości nie będziemy musieli obawiać się hostów rodem z Westworld. Jeśli będziemy mieli świadomość, że osoba, z którą rozmawiamy, jest robotem, nie będziemy zbytnio podatni na jej zagrywki emocjonalne. Znacznie większym zagrożeniem dla ludzkości mogą okazać się gadżety, które na co dzień odzywają się do nas prostym, odhumanizowanym językiem i tylko w wyjątkowych sytuacjach okazują „ludzkie” uczucia. Takie maszyny szybciej sprowadziłyby na świat zagładę niż doskonałe androidy, które znamy z wielu filmów i seriali SF.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj