Sytuacja kobiet w IT w 2024 roku
15.03.20233 min
Bulldogjob

Bulldogjob

GPT-4 już jest dostępne. Jak będzie wykorzystane w IT?

Zobacz nowości w GPT-4 i sprawdź czy jest tak rewolucyjny jak niektórzy się spodziewali.

GPT-4 już jest dostępne. Jak będzie wykorzystane w IT?

Wczoraj OpenAI ogłosiło i udostępniło swój nowy i długo oczekiwany model GPT-4. Oczekiwania co do nowej generacji były bardzo duże i wielokrotnie Sam Altman, szef OpenAI, je studził. Dziś mamy możliwość zderzyć je z rzeczywistością.

Nowe możliwości i główne różnice między GPT-4 a GPT-3

GPT-4 stał się modelem multimodalnym. GPT-3 był modelem wyłącznie tekstowym, GPT-4 jest natomiast również modelem widzenia maszynowego. Dzięki temu może akceptować obrazy jako wejście. Chyba najbardziej spektakularnym przykładem zastosowania obrazu jako wejścia była ta demonstracja na livestreami OpenAI:


TL;DW GPT-4 było w stanie zamienić ręcznie narysowany mockup na działającą stronę WWW.

Inne przykłady pokazane w ramach demonstracji pokazują, że “zrozumienie” kodu przez GPT-4 jest teraz jeszcze lepsze, więc łatwiej będzie wykorzystywać to narzędzie w codziennej pracy w IT.

GPT-4 skupia się dwóch kwestiach: prawdziwości informacji i sterowalności.

Kwestia prawdziwości informacji jest znana wszystkim, którzy używali poprzednich modeli do generowania treści czy kodu. Informacje zwrócone przez nie często wyglądały prawdopodobnie, natomiast nie były prawidłowe. W GPT-4 rzadziej zwracane są informacje nieprawdziwe. Zostało to przetestowane za pomocą rozwiązywania przez model różnego rodzaju standaryzowanych testów (np. egzaminu prawniczego), które teraz często zdaje celująco.

Sterowalność oznacza natomiast to, że łatwiej jest sprawić, by GPT-4 zrealizowało dane zadanie w konkretnie określony przez użytkownika sposób. Wynika to też ze zwiększonej kreatywności modelu.

Kolejnym aspektem, w którym GPT-4 jest lepsze jest logika. GPT-3 bardzo słabo radził sobie z zagadkami logicznymi. GPT-4 jest w tym lepszy, natomiast wstępne testy, które zrobiliśmy pokazują, że nadal nie jest to najmocniejsza strona modelu, szczególnie dla wejść typu “zero-shot” (czyli bez podawania prawidłowych przykładów).

GPT-4 oczami GPT-4

Za pośrednictwem ChatGPT streściliśmy wpis OpenAI, który przedstawia model. Oto czego się dowiedzieliśmy:

OpenAI prezentuje GPT-4, rewolucyjny krok w technologii uczenia głębokiego. Ten imponujący model multimodalny osiąga wyniki na poziomie ludzkim w różnych testach zawodowych i akademickich, bijąc poprzednią wersję, GPT-3.5. Przez 6 miesięcy OpenAI udoskonalało GPT-4, osiągając większą rzetelność informacji, sterowalność i przestrzeganie granic.

W porównaniu do GPT-3.5, GPT-4 jest niezawodniejsze, bardziej kreatywne i lepiej radzi sobie z zadaniami w 26 językach, nawet w tych z mniejszą ilością danych. Potrafi także obsługiwać obrazy, otwierając nowe możliwości dla użytkowników.

Jednak GPT-4 ma swoje ograniczenia, takie jak generowanie nieprawdziwych informacji czy błędów w rozumowaniu, dlatego należy korzystać z ostrożnością. Pomimo to, GPT-4 znacznie ogranicza ilość nieprawdziwych informacji w porównaniu z poprzednimi modelami.

Wytrenowany na danych publicznych i licencyjnych, GPT-4 został dopasowany do potrzeb użytkowników, korzystając z uczenia ze wzmocnieniem z ludzką informacją zwrotną (RLHF). OpenAI w przyszłości planuje większą personalizację modelu, ale w określonych granicach.

Co dalej?

Na razie model jest dostępny za pośrednictwem ChatGPT Plus (czyli wersji płatnej), a by uzyskać dostęp do API trzeba zapisać się na listę oczekujących. Nadal nie są dostępne wszystkie możliwości modelu, takie jak używanie obrazów czy dłuższe komendy wejściowe. Prawdopodobnie OpenAI chce uniknąć szturmu na swoje serwery, jaki miał miejsce przy okazji opublikowania ChatGPT.

Faktycznie, zgodnie z zapowiedziami Sama Altmana, nie jest aż tak rewolucyjny, jak wiele osób się spodziewało, ale stanowi solidny postęp względem GPT-3. Postęp nie polega tu na zastosowaniu nowych technik, a na sprawnej optymalizacji całości. Dzięki temu dostajemy do użycia sprawniejsze narzędzie.

<p>Loading...</p>