Dziś na swojej pierwszej w historii konferencji programistów OpenAI zaprezentowało GPT-4 Turbo, ulepszoną wersję swojego wiodącego modelu AI do generowania tekstu, GPT-4, który według firmy jest „mocniejszy” i tańszy.
GPT-4 Turbo występuje w dwóch wersjach: jedna przeznaczona do ścisłej analizy tekstu i druga, która rozumie kontekst zarówno tekstu, jak i obrazów. Model analizy tekstu jest dostępny do podglądu za pośrednictwem interfejsu API od dzisiaj, a OpenAI twierdzi, że planuje udostępnić oba modele „w nadchodzących tygodniach”.
Jego cena wynosi 0,01 dolara za 1000 tokenów wejściowych (około 750 słów), gdzie „tokeny” to fragmenty nieprzetworzonego tekstu — na przykład słowo „fajne” jest podzielone na „jak”, „tas” i „tick”. ) i 0,03 $ za 1000 tokenów wejściowych. 1000 kodów wyjściowych. (wejście Tokeny to tokeny, które wprowadza się do formularza, podczas gdy produkcja Tokeny to tokeny generowane przez model na podstawie tokenów wejściowych.) Ceny GPT-4 Turbo za przetwarzanie obrazu będą zależeć od rozmiaru obrazu. Na przykład przesłanie obrazu o rozdzielczości 1080 x 1080 pikseli do GPT-4 Turbo będzie kosztować 0,00765 dolara, twierdzi OpenAI.
„Poprawiliśmy wydajność, dzięki czemu możemy zaoferować GPT-4 Turbo po cenie, która jest 3 razy tańsza w przypadku kodów wejściowych i 2 razy tańsza w przypadku kodów wyjściowych w porównaniu do GPT-4” – napisał OpenAI w poście na blogu udostępnionym dziś rano TechCrunch.
GPT-4 Turbo zawiera kilka ulepszeń w stosunku do GPT-4 — jednym z nich jest nowsza baza wiedzy, na której można polegać, odpowiadając na żądania.
Podobnie jak wszystkie modele językowe, GPT-4 Turbo jest przede wszystkim narzędziem statystycznym do przewidywania słów. Opierając się na ogromnej liczbie przykładów, głównie z Internetu, GPT-4 Turbo uczy się, jak prawdopodobne jest pojawienie się słów, na podstawie wzorców, w tym kontekstu semantycznego otaczającego tekstu. Na przykład, jeśli wiadomość e-mail z formularza kończy się słowami „Patrząc w przyszłość…”, GPT-4 Turbo może uzupełnić ją słowami „…aby wysłuchać odpowiedzi”.
GPT-4 był szkolony w zakresie danych internetowych do września 2021 r., ale ostateczny termin udostępnienia wiedzy GPT-4 Turbo upływa w kwietniu 2023 r. Oznacza to, że pytania dotyczące ostatnich wydarzeń – a przynajmniej tych, które miały miejsce przed nowym terminem – dadzą dokładniejsze odpowiedzi.
GPT-4 Turbo posiada również rozszerzone okno kontekstowe.
Okno kontekstowe mierzone w symbolach wskazuje tekst, który model bierze pod uwagę przed wygenerowaniem dodatkowego tekstu. Modele z małymi oknami kontekstowymi mają tendencję do „zapominania” treści niedawnych rozmów, co prowadzi do odbiegania od tematu – często w problematyczny sposób.
GPT-4 Turbo oferuje okno kontekstowe zawierające 128 000 tokenów — czterokrotnie większe niż GPT-4 i największe okno kontekstowe ze wszystkich dostępnych na rynku modeli, przewyższające nawet Claude 2 firmy Anthropic. (Claude 2 obsługuje do 100 000 tokenów; Anthropic twierdzi, że jest to okno kontekstu komponentu (200 000 tokenów, ale jeszcze nie udostępnione publicznie). 128 000 tokenów przekłada się na około 100 000 słów lub 300 stron, co w celach informacyjnych jest mniej więcej tak długie, jak Wichrowa Wzgórze, Podróże Guliwera i Harry Potter i więzień Azkabanu.
GPT-4 Turbo obsługuje nowy „tryb JSON”, który zapewnia poprawną reakcję formularza JSON – Otwórz standardowy format pliku i format wymiany danych. Jest to przydatne w aplikacjach internetowych przesyłających dane, na przykład tych, które wysyłają dane z serwera do klienta, aby można je było wyświetlić na stronie internetowej, mówi OpenAI. Inne istotne nowe parametry pozwolą programistom sprawić, że formularz będzie zwracał bardziej „spójne” uzupełnienia w czasie oraz – w przypadku bardziej wyspecjalizowanych aplikacji – Rekordowe szanse Najprawdopodobniej kody wyjściowe generowane przez GPT-4 Turbo.
„GPT-4 Turbo radzi sobie lepiej niż nasze poprzednie modele w zadaniach wymagających dokładnego przestrzegania instrukcji, takich jak generowanie określonych formatów (np. „zawsze odpowiadaj w formacie XML”)” – napisało OpenAI. „GPT-4 Turbo z większym prawdopodobieństwem zwróci prawidłowe parametry funkcji.”
Aktualizacje GPT-4
OpenAI nie zaniedbało GPT-4 przy wdrażaniu GPT-4 Turbo.
Dziś firma uruchamia program dostępu do wersji beta do strojenia GPT-4. W przeciwieństwie do programu dostrajania GPT-3.5, poprzednika GPT-4, program GPT-4 będzie wymagał większego nadzoru i wskazówek ze strony zespołów OpenAI, twierdzi firma – głównie ze względu na przeszkody techniczne.
„Wstępne wyniki sugerują, że dostrojenie GPT-4 wymaga więcej pracy, aby osiągnąć znaczące ulepszenia w stosunku do modelu podstawowego, niż znaczące korzyści osiągnięte dzięki dostrojeniu GPT-3.5” – napisał OpenAI w poście na blogu.
W innym miejscu OpenAI ogłosiło, że podwaja limit cen tokenów za minutę dla wszystkich płacących klientów GPT-4. Jednak cena pozostanie taka sama i będzie wynosić 0,03 USD za token wejściowy i 0,06 USD za token wyjściowy (w przypadku modelu GPT-4 z oknem kontekstowym na 8000 tokenów) lub 0,06 USD za token wejściowy i 0,012 USD za token wyjściowy (w przypadku GPT-4 z 32000 – okno kontekstowe tokena).