OpenAI zaprezentowało najnowszą wersję ChatGPT – GPT-4o (o jak Omni), ustanawiając nowy standard naturalnej interakcji z LLM, czyli Dużym Modelem Językowym, znanym powszechnie jako Sztuczna Inteligencja.
Nowy model zachowuje poziom inteligencji swojego poprzednika GPT-4, ale przynosi przełomowe postępy w integracji multimodalnej i szybkości przetwarzania poleceń. GPT-4o został zaprojektowany do jednoczesnej obsługi danych tekstowych, wizualnych i dźwiękowych, a także z myślą o znaczny zmniejszeniu opóźnień, które trapią obecne technologie sztucznej inteligencji. Według OpenAI, podczas gdy większość systemów sztucznej inteligencji doświadcza opóźnienia wahającego się od sekundy do kilku sekund w zależności od zapytania, GPT-4o prawie całkowicie eliminuje to opóźnienie, umożliwiając płynne rozmowy w czasie rzeczywistym.
Podczas debiutu GPT-4o zademonstrował sprawność, szybko i płynnie reagując na dane wejściowe prezentera – nawet pozwalając na uprzejme przerywanie. Jeśli człowiek zaczynał mówić w trakcie wciąż trwającej odpowiedzi sztucznej inteligencji, GPT-4o zatrzymywał się, zamiast na siłę kończyć swoją kwestię niczym polityk w trakcie debaty.
Mira Murati, CTO w OpenAI, podkreśliła znaczenie tych ulepszeń:
GPT-4o zapewnia inteligencję na poziomie GPT-4, ale jest znacznie szybszy. Uważamy, że GPT-4o naprawdę zmienia przyszłość współpracy, w której ta interakcja staje się znacznie bardziej naturalna i łatwiejsza.
Jedną z najbardziej godnych uwagi funkcji pokazanych podczas demonstracji były możliwości głosowe GPT-4o. SI mówiło on nie tylko swobodnym, konwersacyjnym językiem, ale także stosowało naturalnie brzmiące pauzy, a nawet chichot, dodając ludzkiego akcentu interakcjom. Dobrze radziło też sobie z tłumaczeniem na żywo, które znamy już z rozwiązań stosowanych w smartfonach Samsunga i Google Pixel.
Pomimo skoku technologicznego, niektóre aspekty GPT-4o spotkały się ze sceptycyzmem. Zarówno krytycy, jak i entuzjaści chętnie badają autentyczność tak zaawansowanych interakcji AI, przypominając debaty, które nastąpiły po zaprezentowaniu Duplex przez Google. Aby jeszcze bardziej zademonstrować swoje możliwości, OpenAI zleciło dwóm instancjom GPT-4o rozmowę przez telefon. Chociaż głosy zachowały ludzką jakość, interakcja wydawała się już znaczniej mniej organiczna, ujawniając mechaniczne podstawy sztucznej inteligencji, gdy w interakcji brakuje ludzkiego pierwiastka. Jedną z rzeczy, które wymagają poprawy, jest nadmierna gadatliwość oraz zdecydowanie zbyt entuzjastyczny ton AI.
Oprócz GPT-4o, OpenAI ogłosiło uruchomienie aplikacji ChatGPT dla macOS, a wersja dla Windows ma zostać wydana jeszcze w tym roku. Aplikacja desktopowa jest obecnie dostępna dla płatnych użytkowników, z planami rozszerzenia dostępu do darmowej wersji w późniejszym terminie. Tymczasem dostępna w internecie wersja
ChatGPT oferuje już model GPT-4o, który jest również dostępny dla darmowych użytkowników, choć nie bez pewnych ograniczeń.
Najnowszy wersja sztucznej inteligencji od OpenAI nie tylko zwiększa potencjalne zastosowania w codziennym życiu, ale także przygotowuje grunt pod przyszłe innowacje, w których interakcja z komputerami może wreszcie zacząć przypominać rozmowy Tony’ego Starka z F.R.I.D.A.Y.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
⇓
⇓
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h