Brytyjski system wykrywania zbrodni rodem z Raportu mniejszości okazał się niewypałem
Rząd Wielkiej Brytanii planował wykorzystać sztuczną inteligencję w procesie przewidywania zbrodni. Choć wydano na niego miliony funtów, okazał się zbyt ułomny, aby trafić do użytku.
Rząd Wielkiej Brytanii planował wykorzystać sztuczną inteligencję w procesie przewidywania zbrodni. Choć wydano na niego miliony funtów, okazał się zbyt ułomny, aby trafić do użytku.
Raport mniejszości wymalował wizję świata pozbawionego zbrodni, społeczeństwa z pozoru idealnego, które wykorzystuje zdolności prekogów do przewidywania, kto i kiedy popełni przestępstwo. Dzięki nim policja mogła ująć przyszłych złoczyńców, zanim ci dopuścili się występku. Dopiero dogłębne śledztwo wykazało wady tego systemu, który w specyficznych sytuacjach mógł doprowadzić do skazanie niewinnej osoby.
Brytyjski system przewidywania zbrodni nie miał aż tyle szczęścia – okazał się tak ułomny, że zrezygnowano z jego wdrożenia, zanim zakończono fazę testową. Historię rozwoju i upadku projektu postanowił przybliżyć serwis Wired po zapoznaniu się z oficjalnymi dokumentami na jego temat.
Sam pomysł był bardzo ambitny. Brytyjski rząd w ciągu dwóch lat dofinansował badania nad policyjną sztuczną inteligencją kwotą co najmniej 10 milionów funtów, które miały posłużyć do opracowania algorytmów predykcyjnych. To one miały stanowić jądro systemu Most Serious Violence (MSV) wchodzącego w skład National Data Analytics Solution. Za materiał szkoleniowy posłużyły dane pozyskane z policyjnych baz danych West Midlands oraz West Yorkshire, zawierające informacje opisujące odpowiednio 2,4 mln oraz 1,1 mln przestępców. Sztuczna inteligencja miała za zadanie dogłębnie przyjrzeć się bazom i przydzielić każdej spośród zarejestrowanych osób indeks ryzyka, determinujący prawdopodobieństwo popełnienia przestępstwa z użyciem broni białej lub palnej na przestrzeni następnych dwóch lat.
Z dokumentów, do których dotarła redakcja Wired wynika, że system był pełen błędów i nie miał prawa działać poprawnie. Nieprawidłowości znaleziono nawet w danych szkoleniowych, które w istotny sposób wpłynęły na skuteczność algorytmu, w efekcie czyniąc MSV totalnie bezużytecznym. Wstępne testy wykazywały, że sztuczna inteligencja będzie w stanie przewidzieć z 75-procentowym prawdopodobieństwem, czy dana osoba dopuści się wskazanego przestępstwa, tymczasem w drugiej fazie wskaźnik ten wahał się pomiędzy 14% a 19% dla bazy z West Midlands oraz pomiędzy 9% a 18% dla bazy z West Yorkshire.
W obliczu takiej niedoskonałości systemu policja postanowiła porzucić cały projekt i nie rozwijać tego narzędzia. W trakcie eksperymentów pojawiły się także wątpliwości natury etycznej, gdyż MSV nie był obojętny wobec badanych osób – zdarzało się, że dyskryminował podejrzanych ze względu na ich wiek bądź pochodzenie etniczne.
Źródło: Futurism
Kalendarz premier seriali
Zobacz wszystkie premieryDzisiaj urodziny obchodzą
ur. 1965, kończy 59 lat
ur. 1984, kończy 40 lat
ur. 1967, kończy 57 lat
ur. 1989, kończy 35 lat
ur. 1988, kończy 36 lat