W 2016 roku naukowcy z MIT uruchomili ogólnodostępny projekt Moral Machine, który miał pomóc określić, jak powinna funkcjonować moralność sztucznej inteligencji. Osoby zainteresowane uczestnictwem w projekcie poproszono, aby wyobraziły sobie, że wsiadają do autonomicznego samochodu, w którym wysiadają hamulce, a na przejście dla pieszych wkracza grupa ludzi. Ich zadanie było dość proste - mieli wskazać, kto powinien zginąć w wypadku.
Projekt Moral Machine przyciągnął dwa miliony respondentów z 233 krajów. Każdy z nich odpowiedział na 13 pytań, zasilając swoimi odpowiedziami bazę danych sztucznej inteligencji. W ten sposób stworzono coś na wzór zbiorowej moralności, systemu oceniania wartości ludzi oraz zwierząt biorących udział w ruchu drogowym. Według tych wytycznych systemy autonomiczne miałyby decydować, kogo zabić, a kogo oszczędzić.
Po kilku latach badań naukowcy udostępnili ich wyniki na łamach magazynu Nature. Przy okazji wskazali, kto według nas stanowi największą wartość dla społeczeństwa. Większość wyników nie powinna zaskakiwać, choć znalazło się w nich kilka niespodzianek. Oto wykres ilustrujący prawdopodobieństwo ocalenia bądź uśmiercenia konkretnych osób podczas wypadku z udziałem autonomicznego pojazdu:
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
⇓
⇓
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj