W 2016 roku naukowcy z MIT uruchomili ogólnodostępny projekt Moral Machine, który miał pomóc określić, jak powinna funkcjonować moralność sztucznej inteligencji. Osoby zainteresowane uczestnictwem w projekcie poproszono, aby wyobraziły sobie, że wsiadają do autonomicznego samochodu, w którym wysiadają hamulce, a na przejście dla pieszych wkracza grupa ludzi. Ich zadanie było dość proste - mieli wskazać, kto powinien zginąć w wypadku. Projekt Moral Machine przyciągnął dwa miliony respondentów z 233 krajów. Każdy z nich odpowiedział na 13 pytań, zasilając swoimi odpowiedziami bazę danych sztucznej inteligencji. W ten sposób stworzono coś na wzór zbiorowej moralności, systemu oceniania wartości ludzi oraz zwierząt biorących udział w ruchu drogowym. Według tych wytycznych systemy autonomiczne miałyby decydować, kogo zabić, a kogo oszczędzić.
Po kilku latach badań naukowcy udostępnili ich wyniki na łamach magazynu Nature. Przy okazji wskazali, kto według nas stanowi największą wartość dla społeczeństwa. Większość wyników nie powinna zaskakiwać, choć znalazło się w nich kilka niespodzianek. Oto wykres ilustrujący prawdopodobieństwo ocalenia bądź uśmiercenia konkretnych osób podczas wypadku z udziałem autonomicznego pojazdu:
Zdjęcie: MIT
Jak się okazuje, najwyżej cenimy sobie życie niemowlaków, dziewczynek, chłopców i kobiet w ciąży. Przedkładamy także osoby wysportowane na takie, które nie dbają o swoje zdrowie. Co ciekawe, zauważalnie częściej wolelibyśmy uśmiercić starszych niż bezdomnych, a psy są dla nas więcej warte niż przestępcy. Takie wyniki każą nam się zastanowić nad tym, czy sztuczna inteligencja rzeczywiście powinna wartościować ludzi, a jeśli tak - to jakimi wytycznymi ma się kierować. Z drugiej strony jeśli rzeczywiście chcemy żyć w świecie, w którym funkcjonują autonomiczne samochody, prędzej czy później będziemy musieli odpowiedzieć sobie na pytanie, kto powinien ginąć z rąk sztucznej inteligencji. Czy SI powinna za wszelką cenę chronić kierowcę? A może powinna ograniczać straty w ludziach? Na te pytania nie ma dobrej odpowiedzi. Ale jeśli ktoś chce przyczynić się do rozwoju projektu, wciąż może udzielić swoich odpowiedzi w ankiecie Moral Machine.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj