Diversity w polskim IT
Ihar Rubanau
Sigma Software
Ihar RubanauSenior Data Scientist @ Sigma Software

Sztuczna inteligencja ogólna i duże modele językowe

Z czym wiąże się AGI oraz czy LLM-y są częścią drogi do jej osiągnięcia? Zobaczmy szerszą perspektywę!
13.09.20248 min
Sztuczna inteligencja ogólna i duże modele językowe

Burza technologicznej osobliwości jest na horyzoncie, a sztuczna inteligencja ogólna (AGI — Artificial General Intelligence) jest jedną z najbardziej promowanych koncepcji. Przyjrzyjmy się bliżej, z czym wiąże się AGI i jakie są jej implikacje.

AGI przeciwko ludzkiej inteligencji

Co zaskakujące, nie ma jednolitej definicji „inteligencji ogólnej” ani nawet „inteligencji”. W przeszłości dominowało przekonanie, że tylko ludzie mogą być klasyfikowani jako inteligentni. Dlatego zwierzęta takie jak psy, koty, słonie, a nawet szympansy nie były uważane za inteligentne. To prowadzi nas do nieco smutnej świadomości, że słowo „inteligencja” zazwyczaj dotyczy wyłącznie „ludzkiej inteligencji”. Dlaczego „smutnej”? Wiemy bowiem, że psy i koty potrafią planować złożone strategie łowieckie, słonie rysować, a szympansy liczyć i uczyć się rozumienia słów (np. Koko, która nauczyła się do 1000 znaków). Zdolności te są zlokalizowane w korze nowej — części mózgu wspólnej u ssaków.

Istnieje również nowy, radykalniejszy pogląd. Przyjmuje się bez dowodów, że „sam proces rozwoju ma własną inteligencję: na przykład, jeśli weźmiesz kijankę (poprzednika żaby) i ręcznie przemieszasz jej narządy twarzy, te narządy twarzy zostaną przeniesione z powrotem na właściwe miejsce, gdy kijanka dojrzeje”. Levin definiuje „inteligencję” jako zdolność do osiągania tego samego celu za pomocą różnych środków, a przez lata on i inni udokumentowali wiele przypadków takiej adaptacyjności.

Co jest takiego wyjątkowego w ludzkim mózgu? Krótka odpowiedź brzmi: ludzka kora mózgowa jest większa (w stosunku do masy ciała). Bardziej szczegółowa odpowiedź: ma większą wydajność, która pozwala ludziom tworzyć język i rozumowanie. Język ułatwia komunikację i przekazywanie wiedzy, co znacznie przyspieszyło ewolucję człowieka w ciągu ostatnich 20 000 lat. W jaki sposób ludzki mózg wytwarza język?

Większość naukowców opisuje to jako „zjawisko emergentne”. Zjawisko to zostało trafnie opisane w niedawnym artykule Quanta Magazine: „Świat jest pełen takich emergentnych zjawisk: wielkoskalowych wzorów i organizacji wynikających z niezliczonych interakcji między częściami składowymi. Nie ma jednak uznanej teorii naukowej, która wyjaśniałaby emergencję. W szerokim znaczeniu zachowanie złożonego systemu można uznać za emergentne, jeśli nie można go przewidzieć na podstawie właściwości jego poszczególnych części”.

Mówiąc prościej, na pewnym poziomie zdolności mózgu (sieci neuronowej) język może wynikać ze złożonych zachowań subtelnych procesów zachodzących w mózgu — brzmi nieźle. Wciąż jednak, niestety, nie odpowiada to na główne pytanie: Jak?

Podsumujmy: inteligencja nie ma jasnej definicji i historycznie była uważana za wyłączną cechę ludzi. Jednak zwierzęta wykazują zdolności poznawcze osiągane przez ich korę mózgową, co podważa ten pogląd. Ponadto procesy rozwojowe, takie jak powrót narządów twarzy kijanek do początkowego rozmieszczenia, wskazują na wrodzoną inteligencję. Większa kora mózgowa człowieka wspiera język i rozumowanie, które są kluczowe dla komunikacji i przekazywania wiedzy. Jednak dokładne mechanizmy powstawania tych zdolności pozostają niejasne, podkreślając luki w naszym rozumieniu inteligencji.

Czy ChatGPT może zostać sklasyfikowany jako Junior AGI?

Duże modele językowe (LLM), takie jak ChatGPT i Google Gemini, to przede wszystkim modele statystyczne, które opierają się na formułach matematycznych w celu identyfikacji wzorców, w przeciwieństwie do ludzkiej kory mózgowej lub sieci neuronowych, które uczą się i dostosowują na podstawie złożonych wzorców. Wykorzystują one techniki takie jak word2vec do opisania korelacji między słowami, reprezentując je jako wektory w przestrzeni wielowymiarowej, aby uchwycić ich znaczenia i relacje.

Jeszcze do niedawna nikt nie założyłby się, że modele językowe będą wykazywać jakiekolwiek oznaki inteligentnego zachowania. Jednak począwszy od GPT-3.5, modele te wykazywały „iluzję” zdolności konwersacyjnych podobnych do ludzkich. Wywołało to debatę na temat tego, czy należy traktować takie modele jako prymitywne AGI. Dzięki najnowszemu GPT-4.0, z pomocą którego ludzie mogą zdać prawie każdy egzamin lepiej niż przeciętny człowiek, debata ta stała się jeszcze bardziej intensywna.

Aby zrozumieć implikacje tej debaty, możemy zastanowić się nad eksperymentem „Chiński pokój”, słynnym eksperymentem myślowym zaprojektowanym przez Johna Searle'a. „Chiński pokój” dowodzi, że komputer może przetwarzać symbole, aby imitować zrozumienie języka bez prawdziwego zrozumienia go, ilustrując różnicę między przetwarzaniem syntaktycznym a faktycznym zrozumieniem. Koncepcja ta jest kluczowa dla uświadomienia sobie ograniczeń obecnych LLM, które pomimo swoich zaskakujących możliwości, mogą naprawdę nie rozumieć języka, który przetwarzają.

Współczesne LLM można uznać za niemowlęce AGI, wywołujące rozległe debaty filozoficzne i naukowe oraz otwierające ogromne możliwości przyszłych transformacji. Wyobraźmy sobie roboty takie jak Atlas, które mówią, wyglądają i chodzą jak ludzie, pracujące na parkingach, w kawiarniach, supermarketach, a w niedalekiej przyszłości nawet jako nauczyciele. Ta potencjalna przyszłość podkreśla znaczenie toczącej się debaty na temat prawdziwej natury inteligencji w sztucznych systemach.

Zastanawiając się nad słynnym eksperymentem „Chiński pokój”, zaprojektowanym przez Johna Searle'a, można twierdzić, że komputer może przetwarzać symbole, aby symulować rozumienie języka bez jego rzeczywistego rozumienia. Ilustruje to różnicę między syntaktycznym przetwarzaniem a rzeczywistym rozumieniem. Widzimy modele, które w niektórych przypadkach są nie do odróżnienia od ludzi, a czasem nawet ich przewyższają. Współczesne LLM można uznać za niemowlęce AGI, otwierające szerokie debaty filozoficzne i naukowe oraz ogromne możliwości przyszłych transformacji. Wyobraźmy sobie roboty takie jak Atlas, które mówią, wyglądają i chodzą jak ludzie, pracując na parkingach, w kawiarniach, supermarketach, a wkrótce nawet jako nauczyciele.

Czy LLM ewoluują w dojrzałe AGI?

Modele statystyczne mają swoje ograniczenia i mogą nigdy nie osiągnąć poziomu ludzkiej kory mózgowej. Przyjrzyjmy się jednak temu tematowi z perspektywy analityków danych i specjalistów, którzy ściśle pracują z danymi. Czy zauważyłeś tekst na zdjęciach w tym artykule? Jeśli tak, mogłeś zauważyć, że tekst ten jest często losowym zestawem liter.

Przypomina nam to, że LLM to modele statystyczne; słowa na obrazku zostały wybrane na podstawie statystycznej bliskości Twojej wypowiedzi, a nie zamierzonego przez Ciebie znaczenia. Ograniczenie to podkreśla obecną lukę między treścią generowaną maszynowo a prawdziwym ludzkim zrozumieniem. Ale kto wie? W miarę postępów GPT-6 może mieć tak wiele parametrów dostosowywania i wyrafinowanych algorytmów, że nie będzie widocznej różnicy między „iluzją wiedzy” a „ludzką wiedzą”. Taki rozwój sytuacji może jeszcze bardziej zatrzeć granice, rodząc nowe pytania o przyszłość sztucznej inteligencji i jej rolę w naszych życiach.

Transformacyjny wpływ LLM/LMM na kluczowe branże

LLM i LMM mogą zrewolucjonizować inteligentną infrastrukturę, zwiększając wydajność systemów transportowych, użyteczności publicznej i sieci komunikacyjnych.

Na przykład system zarządzania ruchem oparty na sztucznej inteligencji w Singapurze dostosowuje czas sygnalizacji świetlnej w czasie rzeczywistym, zmniejszając korki i emisje. LMM analizują dane z czujników, aby przewidywać potrzeby dotyczące utrzymania i zapobiegać awariom.Systemy oparte na sztucznej inteligencji optymalizują również zarządzanie wodą i odpadami, co widać na przykładzie inteligentnego zarządzania wodą w Barcelonie, które wykrywa wycieki i oszczędza wodę.

W budynkach LLM i LMM optymalizują zużycie energii, zwiększają bezpieczeństwo i poprawiają komfort mieszkańców. Na przykład wykorzystanie przez Google sztucznej inteligencji DeepMind w swoich centrach danych zmniejszyło zużycie energii na chłodzenie o 40%. Inteligentne budynki, takie jak The Edge w Amsterdamie, wykorzystują sztuczną inteligencję do dostosowywania oświetlenia i temperatury w oparciu o obecność mieszkańców, znacznie zmniejszając zużycie energii.

Przenosząc się do sektora produkcyjnego, LLM i LMM nadal zwiększają produktywność i wydajność. Konserwacja profilaktyczna oparta na sztucznej inteligencji firmy Siemens skróciła przestoje sprzętu o 30%. Tesla planuje wprowadzić roboty humanoidalne do swoich linii produkcji samochodów, pokazując potencjał sztucznej inteligencji do zrewolucjonizowania procesów wytwórczych, zwiększając wydajność i precyzję. A to przecież dopiero początek.

Specjalista ds. danych w bardzo trudnej sytuacji, kto przetrwa burzę?

Palącym pytaniem w społecznościach IT i Data Science jest to, czy modele takie jak ChatGPT zastąpią nasze miejsca pracy w najbliższej przyszłości. Większość deweloperów twierdzi, że modelom tym brakuje zrozumienia „podobnego do ludzkiego”, a zatem nie mogą one w pełni przejąć kontroli. Równocześnie wielu uważa, że modele te rzeczywiście zautomatyzują większość zadań, z wyjątkiem tego, co nazywamy „rozumowaniem”. Dlatego bardziej trafnym pytaniem może być: „Jak bardzo usprawnią one naszą pracę?”. Z tej perspektywy modele te znacząco zmienią sposób, w jaki wyszukujemy informacje, kodujemy, a nawet komunikujemy się.

Wielu z nas używa ChatGPT lub Gemini codziennie. Powszechnie wiadomo, że LLM nie zawsze udzielają najlepszych odpowiedzi, często podając typowe odpowiedzi, a czasem wprowadzając w błąd nieskutecznymi rozwiązaniami. Jednak ilość czasu spędzanego przez ludzi na pracy z LLM radykalnie rośnie w porównaniu z innymi „klasycznymi” narzędziami.

Nowym i obiecującym trendem jest tworzenie wielu wyspecjalizowanych agentów, z których każdy zajmuje się określonymi zadaniami. Na przykład, jeden agent pisze wstępny tekst, inny sprawdza go i poprawia, a jeszcze inni optymalizują go dalej. W przeciwieństwie do obecnych systemów, w których pojedynczy model sztucznej inteligencji wykonuje wiele funkcji mniej wydajnie, to podejście wieloagentowe może wdrożyć setki agentów, z których każdy ma określoną rolę, co dramatycznie zwiększy wydajność i precyzję oraz potencjalnie zastąpi wiele tradycyjnych prac poprzez automatyzację.

W ciągu najbliższych 3-5 lat LLM zastąpi wiele typowych działań związanych z przetwarzaniem danych. Zadania te będą obejmować pisanie kodu, przygotowywanie szczegółowych podsumowań i wniosków, a nawet wybieranie i decydowanie o najbardziej odpowiednich modelach dla różnych zastosowań. Zmiana ta znacząco zoptymalizuje przepływy pracy w obszarze przetwarzania danych, czyniąc procesy bardziej wydajnymi i potencjalnie zmniejszając potrzebę interwencji człowieka w rutynowych zadaniach. W miarę ewolucji LLM, ich zdolność do pracy ze złożonymi funkcjami przetwarzania danych będzie się tylko poprawiać, prowadząc do dokładniejszych i szybszych wyników

Informacje o Sigma Software

Sigma Software to szwedzko-ukraińska firma IT oferująca ponad 100 możliwości pracy zdalnej na całym świecie. Naszymi klientami są znane na całym świecie firmy, takie jak AstraZeneca, Scania, SAS, Fortum, DanAds, Viaplay i inne. Tworzymy najlepsze w swojej klasie rozwiązania technologiczne i integrujemy ponad 20 istniejących produktów z naszego portfolio. Pomagamy przedsiębiorstwom w cyfryzacji ich działalności i wspieramy startupy w ich rozwoju. Pracując z Sigma Software, zyskujesz elastyczny harmonogram, kulturę rozwoju zawodowego, silny międzynarodowy zespół, światowej sławy klientów działających w ponad 10 sektorach biznesowych, różnorodne technologie i odpowiedzialnego pracodawcę. 

W ciągu ostatnich dwóch lat Grupa Sigma Software otworzyła trzy nowe biura w Polsce. W kraju dla firmy pracuje już ponad 200 konsultantów IT. Dla Sigma Software Warszawa stała się największym węzłem komunikacyjnym łączącym Ukrainę z Europą, a nawet całym światem, zwłaszcza po wybuchu inwazji rosyjskiej na pełną skalę dwa lata temu. Polska jest obecnie kluczowym rynkiem dla firmy, jeśli chodzi o przyciąganie talentów, angażowanie społeczności i dzielenie się wiedzą. 

Chcesz pracować przy projektach AI i Data Science w Sigma Software Poland? Obecnie mamy otwarte stanowisko dla Data Engineer and  Senior Data Engineer. Pełną listę otwartych stanowisk można zobaczyć tutaj.

<p>Loading...</p>