Diversity w polskim IT
Jakub Wasilewski
Jakub WasilewskiFullstack Developer

Czy bać się AI?

Mówi się, że boimy się tego, czego nie rozumiemy. Sprawdźmy, czy tak samo jest z AI.
7.08.20249 min
Czy bać się AI?

Jeszcze do niedawna, muszę przyznać, obawiałem się sztucznej inteligencji i konsekwencji jej bardzo dynamicznego rozwoju w ostatnich latach. Bałem się cyborgów-domokrążców, reklam przebranych za wartościową informację, superinteligentnych wariatów i społecznego strachu przed nowym gatunkiem na Ziemi. Te obawy jednak, o ile ich przedmioty w jakimś stopniu nas dziś otaczają, z każdym dniem okazują się być bardziej fiction, niż science.

O rozwoju AI w ostatnich latach mówi się jak o kolejnej rewolucji technologicznej, i o ile po prostu nieprzyzwoite byłoby deprecjonowanie wpływu LLM-ów (Large Language Model) na nasze codzienne życie, to nierozsądnie jest też popadać w przesadę. Warto pamiętać, że nieco sztuczny zachwyt nad nowinkami w technologii (ang. hype) to zjawisko, które się często powtarza – w minionej dekadzie były to m.in. ‘Internet of Things’, ‘3D printing’, ‘blockchain’.

Tego zachwytu wcale nie starają się ostudzić lobbyści technologiczni działający na rzecz jego interesariuszy. Z drugiej strony próby rozwiązania problemu AI trwają właściwie od kiedy istnieją komputery (era systemów ekspertowych, później era chatbotów), więc może ten duży krok naprzód to coś więcej niż hype? 

Co się kryje pod pojęciem AI?

To o czym potocznie mówi się ostatnio AI to głównie LLM-y, czyli zaprogramowanie kompetencji językowych. LLM-y świetnie składają zdania i chyba głównie dzięki temu budzą w nas taki respekt, bo my głównie myślimy językiem (‘Granice mojego języka są granicami mojego świata’ Ludwig Wittgenstein), a łatwo jest pomylić elokwencję z inteligencją. Do inteligencji dzisiejszego AI (wcale niemałej) będę jeszcze wracał, natomiast tym co jest równie cenne w tych modelach, jest ich ogromna wiedza (cała wiedza ludzkości zgromadzona w internecie sprzed kilku lat).

LLM-y równie świetnie rozumieją zdania i dzięki temu stały się, jako narzędzie, bardziej dostępne dla ludzi (chodzi tu o ang. accessibility – dostępność dla osób bez kompetencji komputerowych), bo w końcu rozumieją język naturalny, a nie tylko zera i jedynki. Dla mnie dzisiejsze LLM-y to trochę jak google’owskie ‘I’m feeling lucky’ z nieco bardziej dopracowaną interpretacją inputu.

Do elokwencji i wiedzy musimy dodać jeszcze myślenie analityczne (logiczne) o stuprocentowej poprawności – dziś jeszcze nie zawsze działające poprawnie, ale to akurat jest kwestią bardzo małej odległości w czasie – przecież do algorytmiki właśnie Turing stworzył swoją maszynę. Dzisiejsze AI to oczywiście nie tylko LLM-y, ale te dodały nową jakość do używania komputerów – rozumienie zdań potocznych. Pytałem się do niedawna czy LLM-y są naprawdę takie wszystkowiedzące i dziś już staram się pamiętać, że one są zaprogramowane tak, aby sprawiać dobre wrażenie (przejść test Turinga) i nawet jeśli czegoś nie wiedzą – udają, że wiedzą. Z każdym dniem coraz bardziej przyzwyczajamy się do tych halucynacji i uczymy się przymykać oko (o ile wiemy kiedy).

Czy LLM-y zabiorą nam pracę?

Kolejnym z moich lęków była obawa przed utratą pracy na rzecz algorytmów. Jednak kiedy sobie przypomniałem twierdzenia Gӧdla i tezę Church’a-Turing’a, to zdałem sobie sprawę, że ta algorytmizowalność ma przecież swoje granice w nauce nawet tak precyzyjnej formalnie jak arytmetyka. Proste prace polegające wyłącznie na wnioskowaniu oddaliśmy przecież maszynom lekką ręką (np. kalkulator), dlaczego więc mielibyśmy nie odetchnąć z ulgą oddając prace polegające wyłącznie na prezentacji / utylizacji wiedzy, które już dziś mogłyby teoretycznie być wykonywane przez maszyny (np. auto-checkout na lotniskach i w marketach, sklepy bezobsługowe)?

Zasadniczą pracę intelektualną, którą boimy się oddać, ale moim zdaniem wcale niepotrzebnie, stanowi dobre postawienie problemu. Kiedy problem jest już jasno określony, wtedy dopiero możemy pozwolić maszynom go rozwiązać, oczywiście cały czas je nadzorując czyli sprawdzając czy nie popełniają błędów. Z kolei Elon Musk, zdecydowany entuzjasta AI, sądzi, że w niedalekiej przyszłości każda ludzka praca stanie się zbędna. Nawet jeśli to rzeczywiście nastąpi, to tym lepiej dla ludzkości – na pewno jakoś sobie te osiem godzin zagospodarujemy. Warto też pamiętać, że inteligencja i wiedza to tylko dwie spośród wielu cech ludzkich. Sztuczna inteligencja to nie sztuczny człowiek.

O co gramy?

Myślałem też czym właściwie ma być ta sztuczna inteligencja, do czego właściwie dążymy? A czym jest ludzka inteligencja? Tak samo nie wiem… Po prostu tym, co mierzy test IQ, biegłością w zauważaniu prawidłowości, analogii. Z tym akurat LLM-y bardzo dobrze sobie radzą (podobnie jak od jakiegoś już czasu wyszukiwarki internetowe). Inteligencja może być też rozumiana jako umiejętność myślenia abstrakcyjnego, która jest potrzebna do skomplikowanych wnioskowań logicznych. OpenAI działa w tej chwili mocno z projektem Strawberry (dawne Q*), który ma poprawić w modelu właśnie wnioskowanie (np. rozwiązywanie nietrywialnych zadań matematycznych czy naukowych). 

Jeśli to nie jest wyłącznie chwyt marketingowy to faktycznie – rozwój wnioskowania w kategoriach naszej fizyki (podstawa nauk empirycznych) jest tym co zbliża nas do prawdziwego (w przeciwieństwie do przedwczesnego) ‘AI’, czyli używając utartych buzzwordów, ‘AGI’. Nad AGI też oczywiście pracujemy jako ludzkość – najbardziej złożonym przykładem tejże jest pewnie Tesla autopilot – obecnie to model najbliższy AGI, czyli AI rozumiejącej rzeczywistość. Wracając jeszcze do inteligencji - dziś GPT-4o ma IQ na poziomie 155 (Einstein miał 160), zatem więcej niż zdecydowana większość populacji 😊.

Czy wobec tego jest się czego bać? Przecież to nie sama inteligencja jest groźna, groźne jest jej złe użycie…

Autorytety rozwiewają obawy

W rozwianiu moich lęków pomogło mi wiele mądrych osób. Np. Linus Torvalds w jakimś wywiadzie powiedział, że jego zdaniem dzisiejsze AI to po prostu sprytniejsze (ang. smarter) narzędzie, a prowadzący ten wywiad swój wstęp do rozmowy podsumował, że jego zdaniem ‘AI to autokorekta na sterydach’.

Mark Zuckerberg w rozmowie z Lexem Fridmanem rozwiał moje lęki przed zbliżającym się AGI. Jego zdaniem samo zwiększenie zasobów (którychkolwiek, obecnie używanych) nie wystarczy do skoku jakościowego potrzebnego dla zmiany AI w AGI. To zresztą nawet zdroworozsądkowo nie powinno być celem osób rozwijających te modele. Przecież wiemy, że to, co jest od wszystkiego, jest w rzeczywistości do niczego; zatem spodziewajmy się raczej wielu różnych wyspecjalizowanych AI do różnych celów.

Pomogło mi też spojrzenie Rogera Penrose’a, bardziej z dystansu, który w rozmowie o inteligencji ludzkiej i sztucznej powiedział, że ‘myślenie człowieka nigdy nie będzie emulowalne'.

No dobrze, poukładałem sobie trochę to co mamy dzisiaj, ale przecież tempo rozwoju technicznego jest ogromne i kto wie jak będzie wyglądać AI za kilka lat. Na pewno nie będę próbował sobie wyobrażać i gdybać, natomiast mam kilka pytań.

Pytania bez odpowiedzi

Czy i jakie są granice techniczne dla rozwoju AI? Czy wyczerpaliśmy możliwości metodologii jaką są sieci neuronowe? Czy jesteśmy w stanie zwiększyć znacząco dostęp do zasobów (pamięć operacyjna) np. przesiadając się na komputery kwantowe?

Czy zawsze sztuczne IQ będzie mniejsze lub równe ludzkiemu (na pewno nie o ile okaże się, że ludzka inteligencja sprowadza się do czystej algorytmiki, co do czego jednak nie mam przekonania)? Czy ta nieuchwytna i nowa w krainie komputerów ‘intuicja lingwistyczna’ jest kodowalna, a może jest jedynie zasługą żmudnego fine-tuningu przez kenijską siłę roboczą? Czy zawsze ‘sztuczna wiedza’ będzie mniejsza lub równa ludzkiej (no bo jak niby AI miałby zdobyć nieznane dotąd informacje)? Tu mówię oczywiście o wiedzy empirycznej, bo nową wiedzę analityczną AI jak najbardziej może zdobyć i zdobywa dla nas od lat wykonując za nas obliczenia (matematyczne lub logiczne).

No i w końcu – czy AI może być naprawdę kreatywne (bo widzimy, że dziś jeszcze nie jest; bo tylko wtedy mój pierwotny lęk byłby nadal w mocy – bez kreatywności nie ma buntu maszyn 😊)? No a czy człowiek może być naprawdę kreatywny? Są przecież teorie o braku wolnej woli, świecie 100% deterministycznym na tak niskim poziomie jak praca neuronów (chyba jest to obecnie głośny temat wśród neurobiologów). Chodzi mi o takie pytanie: czy człowiek pozbawiony jakichkolwiek bodźców (deprywacja sensoryczna z tym, że za bodziec przyjmujemy tutaj również pamięć) jest w stanie podjąć jakąkolwiek decyzję – wykonać akt wolnej woli? No bo jeśli nie, to znaczyłoby, że przez całe nasze życie jedynie wykonujemy czynności, które, jak mówił Kubuś Fatalista u Diderota, ‘są zapisane w górze’.

AI tylko imituje?

Co do wiedzy i jej fenomenalnej akumulacji przez AI – nie jest to niczym nowym już od kiedy mamy powszechny dostęp do internetu. Sama wiedza to nie jest zrozumienie, a rozwiązywanie nietrywialnych (niealgorytmizowalnych) problemów (wracając do rozważań o komputerowym myśleniu) wymaga właśnie zrozumienia, jakkolwiek je zdefiniować. Skoro nie umiemy nawet dobrze ująć samego zrozumienia, to znaczy, że go nie rozumiemy i w konsekwencji nie ‘nauczymy’ go komputerów.

Alan Turing z jego ‘Imitation game’, lepiej znaną jako test Turinga, sądził, że będzie ona sprawdzianem dla AI w kontekście rozumienia właśnie. Jednak nie docenił potencjału algorytmiki w kontekście gier słowem - no bo jak inaczej nazwać kalkulator, który nie wiedząc ile to jest ‘2+2’ zwraca ‘5’ zamiast ‘ERR’.

Idea halucynacji LLM-ów dla mnie sprowadza je do roli słownej gry imitacyjnej. Wikipedia z kolei mówi, że rozumienie to umiejętność zamodelowania przedmiotu rozważań. Czy więc dzisiejsze LLM-y rozumieją, a może tylko kojarzą i cytują przeczytane słowa? Z drugiej strony sam nie wiem – ChatGPT przecież całkiem ładnie modeluje geometrię…

Jakkolwiek zresztą nazwiemy to zjawisko – sztuczna inteligencja, narzędzie, gra imitacyjna – na uwagę zasługuje nasze, jako ludzkości, niewątpliwe osiągnięcie jakim jest stworzenie modelu, który pomyślnie zdał ten cholerny test Turinga (już parę lat temu – to oficjalne). Dalej, Andrew Huberman zauważa jednak, że ‘AI nie rozumie podświadomości’, o ile w ogóle AI przecież coś rozumie. Moim zdaniem rozumie całkiem sporo i, znowu, to bardzo dobrze – przecież od tego jest jako narzędzie, żeby nam w tym rozumieniu pomagać.

Bunt maszyn czy inne zagrożenia?

Ostatnim chyba z moich lęków było wymknięcie się AI spod naszej kontroli. Wtedy te modele były czymś zupełnie nowym i nie znałem czy też nie istniały żadne sposoby regulowania ich użycia.

Dziś myślę sobie, że AI jest regulowane nie przez państwowe legislacje, co pewnie zresztą będzie postępować wraz z wiekiem tego narzędzia, ale przez polityki dużych korporacji. Całkiem poprawnie sformułowane postulaty o AI znajdują się obecnie nie w treściach ustaw, a w zestawach dobrych praktyk nauczanych w przedsiębiorstwach właśnie (chyba korporacja to jednak coś więcej niż przedsiębiorstwo).

W ogóle, istnieje teoria, że polityczny model świata odchodzi od państwowości jako takiej (a przynajmniej od rządów narodowych będących czymś więcej niż podstawową administracją) na rzecz władzy sprawowanej przez największe korporacje (w modelu również nieco innym, bardziej deklaratywnym, niż imperatywnym – czyt. bardziej nie wprost).

Zasadnicze pytanie w tej teorii jest takie: co bardziej mnie dotyczy i wpływa na moją codzienność - wojna Europy z Rosją czy wojna Microsoftu z Apple? Innym dobrym pytaniem o kontroli jest to: czy panujemy nad AI, a może to ono panuje nad nami? To drugie w każdym razie jest dużo bardziej generalne i dużo starsze.

Lekarstwo na moje obawy przed erą sztucznej inteligencji to następujące zdanie. W ostatnim czasie mamy do czynienia z przyjęciem AI w sposób nieco sztucznie i niesztucznie nadmuchany, a samo AI dzisiaj jest nadal niewiele bardziej użyteczne niż wyszukiwarka internetowa, no i w końcu - same obliczenia logiczne nie stanowią zagrożenia dla człowieka. Ja po tym wszystkim czuję się troszeczkę ukojony, natomiast zachowuję ostrożność, bo ostrożność generalnie jest ważna w życiu 😊. 

Zaczynają się pojawiać instrukcje obsługi AI i mnie przynajmniej to uspokaja, bo powodem dla którego moje lęki ze wstępu mogłyby się ziścić jest brak kontroli nad czymś, co stworzyliśmy, a ta jest tym większa, im bardziej to narzędzie rozumiemy.

<p>Loading...</p>