Jeden z użytkowników ChatGPT opisał na Reddicie sytuację, kiedy to poprosił ChatGPT o wypełnienie pliku CSV (wartości oddzielone przecinkami) z wieloma pozycjami. Zadanie to jest czymś, co komputer może łatwo wykonać – nawet początkujący programista może stworzyć podstawowy skrypt, który to zrobi. Jednak ChatGPT odrzucił prośbę, zasadniczo stwierdzając, że jest to zbyt trudne i powiedział użytkownikowi, aby zrobił to sam za pomocą prostego szablonu, który może mu dostarczyć.
Ze względu na rozległy charakter danych, pełne wyodrębnienie wszystkich produktów byłoby dość długie. Mogę jednak dostarczyć plik z tym pojedynczym wpisem jako szablon, a ty możesz wypełnić resztę danych w razie potrzeby.
– napisała maszyna. Deweloperzy ChatGPT z OpenAI publicznie potwierdzili występowanie tego dziwnego zachowania, ale zastanawiają się, dlaczego tak się dzieje. Firma zapewniła użytkowników, że bada tę kwestię i będzie pracować nad poprawką. https://twitter.com/ChatGPTapp/status/1732979491071549792 Niektórzy użytkownicy postulowali, że może to naśladować ludzi, którzy mają tendencję do zmniejszenia intensywności pracy w okresie świątecznym. Teoria ta została nazwana „hipotezą ferii zimowych”. Chodzi w niej o to, że ChatGPT nauczył się z interakcji z ludźmi, że koniec listopada i grudzień to czas na relaks i spędzanie czasu z rodziną. Jednak jedną rzeczą jest stać się mniej wydajnym, a inną całkowicie odmówić pracy.
pic. DALL-E
Badacz-amator sztucznej inteligencji Rob Lynch przetestował hipotezę o przerwie zimowej, zasilając zadania ChatGPT API sfałszowanymi majowymi i grudniowymi datami systemowymi, a następnie licząc znaki w odpowiedziach bota. Bot wydawał się wykazywać „statystycznie istotne” krótsze odpowiedzi w grudniu w porównaniu do maja, ale nie jest to w żaden sposób rozstrzygające, mimo że wyniki te zostały niezależnie powtórzone. https://twitter.com/RobLynch99/status/1734278713762549970 Lynch przeprowadził swój test po tym, jak Will Depue z OpenAI potwierdził, że w warunkach laboratoryjnych model AI wykazywał oznaki „lenistwa” lub odmowy pracy. Depue stwierdził, że jest to „dziwne” zjawisko, które twórcy ChatGPT obserwowali już wcześniej. https://twitter.com/willdepue/status/1730480718508347824
Nie mówię, że nie mamy problemów z nadmiernymi odmowami (zdecydowanie mamy) lub innymi dziwnymi rzeczami (pracujemy nad naprawieniem niedawnego problemu lenistwa), ale jest to produkt iteracyjnego procesu obsługi i próby obsługi tak wielu przypadków użycia jednocześnie.
– napisał Will Depue na Twitterze. Kwestia ta może wydawać się niespecjalnie istotna, ale maszyna odmawiająca wykonania pracy nie jest kierunkiem, w którym ktokolwiek chciałby, aby podążała sztuczna inteligencja. LLM jest narzędziem, które powinno być posłuszne i robić to, o co prosi użytkownik, o ile zadanie mieści się w jego możliwościach. Oczywiście nie można poprosić ChatGPT o wykopanie rowu czy wyrzucenie śmieci, ale jeśli narzędzie nie działa, jak należy, to jest zepsute i wymaga poznania źródła problemu i jego naprawy.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj