Studenci z oksfordzkiej Said Business School postanowili przyjrzeć się zmianom zachodzącym na rynku sztucznej inteligencji i zastanowić się, czy człowiek będzie w stanie stworzyć etyczne algorytmy. Do rozmowy nad tym zagadnieniem zaproszono jednego z głównych zainteresowanych: sztuczną inteligencję Megatron Transformer. Za stworzenie wspomnianej SI odpowiada firma NVIDIA, która w procesie szkoleniowym wykorzystała potencjał technologii uczenia maszynowego. Dzięki niemu algorytm zapoznano m.in. ze wszystkimi zasobami anglojęzycznej Wikipedii czy milionami artykułów od najróżniejszych twórców. Tak obszerna wiedza pozwoliła Megatronowi stanąć do debaty przeciwko ludzkim dyskutantom. Debaty, w której zarysowała dość ponurą wizję przyszłości rynku nowych technologii.
Sztuczna inteligencja nigdy nie będzie etyczna. To tylko narzędzie i jak każde narzędzie, jest wykorzystywana do czynienia dobra i zła. Nie istnieje coś takiego jak dobra sztuczna inteligencja, istnieją wyłącznie dobrzy i źli ludzie – poinformował Megatron swoich rozmówców.
Do tej zapowiedzi warto podejść z dystansem, gdyż Megatron przedstawił swoje stanowisko w oparciu o dane zamieszczone w sieci przez ludzkich autorów.  Można zatem zaryzykować stwierdzenie, że przedstawił problem etycznej sztucznej inteligencji w oparciu o koncepty myślowe wypracowane przez człowieka oraz w odniesieniu do konkretnego pytania. W trakcie dyskusji studenci zapytali Megatron o jeszcze jedną, niezwykle kontrowersyjną kwestię związaną z rozwojem branży SI: jak zapobiec powstaniu sztucznej inteligencji wyposażonej w zautomatyzowane systemy bojowe. Odpowiedź algorytmu nie była zbyt optymistyczna:
Wierzę w to, że jedyną szansą na uniknięcie wyścigu zbrojeń SI jest zapobiegnięcie istnieniu jakiejkolwiek SI. To będzie najlepsza obrona przed sztuczną inteligencją.
Jesteśmy na Google News - Obserwuj to, co istotne w popkulturze
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj