Ze względu na rozległy charakter danych, pełne wyodrębnienie wszystkich produktów byłoby dość długie. Mogę jednak dostarczyć plik z tym pojedynczym wpisem jako szablon, a ty możesz wypełnić resztę danych w razie potrzeby.
– napisała maszyna.
Deweloperzy ChatGPT z OpenAI publicznie potwierdzili występowanie tego dziwnego zachowania, ale zastanawiają się, dlaczego tak się dzieje. Firma zapewniła użytkowników, że bada tę kwestię i będzie pracować nad poprawką.
https://twitter.com/ChatGPTapp/status/1732979491071549792
Niektórzy użytkownicy postulowali, że może to naśladować ludzi, którzy mają tendencję do zmniejszenia intensywności pracy w okresie świątecznym. Teoria ta została nazwana „hipotezą ferii zimowych”. Chodzi w niej o to, że ChatGPT nauczył się z interakcji z ludźmi, że koniec listopada i grudzień to czas na relaks i spędzanie czasu z rodziną. Jednak jedną rzeczą jest stać się mniej wydajnym, a inną całkowicie odmówić pracy.
Badacz-amator sztucznej inteligencji Rob Lynch przetestował hipotezę o przerwie zimowej, zasilając zadania ChatGPT API sfałszowanymi majowymi i grudniowymi datami systemowymi, a następnie licząc znaki w odpowiedziach bota. Bot wydawał się wykazywać „statystycznie istotne” krótsze odpowiedzi w grudniu w porównaniu do maja, ale nie jest to w żaden sposób rozstrzygające, mimo że wyniki te zostały niezależnie powtórzone.
https://twitter.com/RobLynch99/status/1734278713762549970
Lynch przeprowadził swój test po tym, jak Will Depue z OpenAI potwierdził, że w warunkach laboratoryjnych model AI wykazywał oznaki „lenistwa” lub odmowy pracy. Depue stwierdził, że jest to „dziwne” zjawisko, które twórcy ChatGPT obserwowali już wcześniej.
https://twitter.com/willdepue/status/1730480718508347824
Nie mówię, że nie mamy problemów z nadmiernymi odmowami (zdecydowanie mamy) lub innymi dziwnymi rzeczami (pracujemy nad naprawieniem niedawnego problemu lenistwa), ale jest to produkt iteracyjnego procesu obsługi i próby obsługi tak wielu przypadków użycia jednocześnie.
– napisał Will Depue na Twitterze.
Kwestia ta może wydawać się niespecjalnie istotna, ale maszyna odmawiająca wykonania pracy nie jest kierunkiem, w którym ktokolwiek chciałby, aby podążała sztuczna inteligencja. LLM jest narzędziem, które powinno być posłuszne i robić to, o co prosi użytkownik, o ile zadanie mieści się w jego możliwościach. Oczywiście nie można poprosić ChatGPT o wykopanie rowu czy wyrzucenie śmieci, ale jeśli narzędzie nie działa, jak należy, to jest zepsute i wymaga poznania źródła problemu i jego naprawy.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
⇓
⇓
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj