GPT-4 było w fazie rozwoju przez większość ostatniego roku, po tym jak GPT-3 zostało po cichu wydane w połowie 2020 roku, a następnie ChatGPT poszedł jak burza pod koniec zeszłego roku. Ostatni wzrost popularności ChatGPT i wszystkiego co związane z AI jest szalony, delikatnie mówiąc. Po zaledwie dwóch miesiącach publicznej dostępności platforma AI osiągnęła 100 milionów użytkowników. OpenAI używało w ChatGPT precyzyjnie dostrojonego modelu, który nazwali GPT-3.5. GPT-4 jest już dostępny dla płatnych subskrybentów (20 dolarów miesięcznie), można też zapisać się na listę oczekujących na wykorzystanie modelu poprzez API. Co więcej, wyścig zbrojeń AI trwa – „startupy AI” gromadzą ogromne fundusze, a wielkie firmy technologiczne, takie jak Google, starają się dać do zrozumienia, że nie zostały daleko w tyle. GPT-4 idzie o krok dalej – jest multimodalnym dużym modelem językowym (MLLM), co oznacza, że może reagować zarówno na tekst, jak i obrazy. GPT-4 uczy się poprzez analizę ogromnych ilości danych z internetu i ma wiele zastosowań dla firm, w tym automatyzację pracy asystentów adwokackich, czy moderatorów treści w internecie. Jednak, podobnie jak jego poprzednik, ma pewne ograniczenia, które nadal mogą stanowić wyzwanie. Model językowy może pokonać niektóre standardowe testy, ale wciąż nie zawsze radzi sobie z prostszymi zapytaniami. https://twitter.com/emollick/status/1635700173946105856 Mimo to, GPT-4 OpenAI wzbudził już zainteresowanie takich firm jak Morgan Stanley, Salesforce, Duolingo i firma edukacyjna Khan Academy. OpenAI i Microsoft mają już bliskie relacje – w ciągu ostatnich kilku lat gigant zainwestował w organizację ponad 13 miliardów dolarów, uzyskując wyłączne prawa do licencjonowania technologii OpenAI. Jeśli korzystaliście z Bing Chat w ostatnich tygodniach, to testowaliście GPT-4 przed oficjalną premierą. OpenAI przyznaje, że GPT-4 nadal ma wady i ograniczenia, jednak aktualizacja stanowi znaczący krok naprzód w jego możliwościach. Model jest bardziej kreatywny niż wcześniej i jest w stanie nauczyć się wzorców użycia i stylu tekstu, aby dopasować go do oczekiwań. GPT-4 może zrozumieć obrazy, użyć ich jako danych wejściowych, opisać je jako tekst, a także dokonać kontekstualizacji na ich podstawie. Chociaż OpenAI nie wyjaśnia czym tak naprawdę różni się GPT-4 lub jak został ulepszony wewnętrznie, jest on wymiernie bardziej zdolny, ponieważ może prowadzić dłuższe rozmowy, przyjmując około ośmiu razy więcej tekstu niż ChatGPT, z około 3000 słów w poprzedniej wersji do przetwarzania do aż 25 000 słów w swojej najnowszej wersji. Nadal jednak może odpowiadać niezgodnie z prawdą lub doświadczać halucynacji. GPT-4 jest już dostępny dla użytkowników, którzy opłacają ChatGPT Plus (lub za pośrednictwem Bing Chat), natomiast dostęp do API jest przyznawany deweloperom z listy oczekujących.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj