ChatGPT nieoczekiwanie stał się zaskakująco ludzki
Wprawdzie duże modele językowe generatywnej sztucznej inteligencji bardzo dalekie są od osiągnięcia ludzkiej inteligencji, nie wspominając nawet o osobliwości, jednak użytkownicy zauważyli ostatnio, że ChatGPT wykazuje oznaki „lenistwa”, czyli bardzo ludzkiej cechy.
Wprawdzie duże modele językowe generatywnej sztucznej inteligencji bardzo dalekie są od osiągnięcia ludzkiej inteligencji, nie wspominając nawet o osobliwości, jednak użytkownicy zauważyli ostatnio, że ChatGPT wykazuje oznaki „lenistwa”, czyli bardzo ludzkiej cechy.
Jeden z użytkowników ChatGPT opisał na Reddicie sytuację, kiedy to poprosił ChatGPT o wypełnienie pliku CSV (wartości oddzielone przecinkami) z wieloma pozycjami. Zadanie to jest czymś, co komputer może łatwo wykonać – nawet początkujący programista może stworzyć podstawowy skrypt, który to zrobi. Jednak ChatGPT odrzucił prośbę, zasadniczo stwierdzając, że jest to zbyt trudne i powiedział użytkownikowi, aby zrobił to sam za pomocą prostego szablonu, który może mu dostarczyć.
Deweloperzy ChatGPT z OpenAI publicznie potwierdzili występowanie tego dziwnego zachowania, ale zastanawiają się, dlaczego tak się dzieje. Firma zapewniła użytkowników, że bada tę kwestię i będzie pracować nad poprawką.
Niektórzy użytkownicy postulowali, że może to naśladować ludzi, którzy mają tendencję do zmniejszenia intensywności pracy w okresie świątecznym. Teoria ta została nazwana „hipotezą ferii zimowych”. Chodzi w niej o to, że ChatGPT nauczył się z interakcji z ludźmi, że koniec listopada i grudzień to czas na relaks i spędzanie czasu z rodziną. Jednak jedną rzeczą jest stać się mniej wydajnym, a inną całkowicie odmówić pracy.
Badacz-amator sztucznej inteligencji Rob Lynch przetestował hipotezę o przerwie zimowej, zasilając zadania ChatGPT API sfałszowanymi majowymi i grudniowymi datami systemowymi, a następnie licząc znaki w odpowiedziach bota. Bot wydawał się wykazywać „statystycznie istotne” krótsze odpowiedzi w grudniu w porównaniu do maja, ale nie jest to w żaden sposób rozstrzygające, mimo że wyniki te zostały niezależnie powtórzone.
Lynch przeprowadził swój test po tym, jak Will Depue z OpenAI potwierdził, że w warunkach laboratoryjnych model AI wykazywał oznaki „lenistwa” lub odmowy pracy. Depue stwierdził, że jest to „dziwne” zjawisko, które twórcy ChatGPT obserwowali już wcześniej.
Kwestia ta może wydawać się niespecjalnie istotna, ale maszyna odmawiająca wykonania pracy nie jest kierunkiem, w którym ktokolwiek chciałby, aby podążała sztuczna inteligencja. LLM jest narzędziem, które powinno być posłuszne i robić to, o co prosi użytkownik, o ile zadanie mieści się w jego możliwościach. Oczywiście nie można poprosić ChatGPT o wykopanie rowu czy wyrzucenie śmieci, ale jeśli narzędzie nie działa, jak należy, to jest zepsute i wymaga poznania źródła problemu i jego naprawy.
Źródło: Opracowanie własne/TechSpot
Kalendarz premier seriali
Zobacz wszystkie premieryDzisiaj urodziny obchodzą
ur. 1978, kończy 46 lat
ur. 1942, kończy 82 lat
ur. 1966, kończy 58 lat
ur. 1974, kończy 50 lat
ur. 1944, kończy 80 lat