Sytuacja kobiet w IT w 2024 roku
14.03.20234 min
Derek Moryson

Derek MorysonSenior Policy and Legislative Analyst

Jaka będzie przyszłość praw sztucznej inteligencji?

W którym momencie pojawia się moralny wymóg, aby przynajmniej rozważyć rozszerzenie praw człowieka dla AI?

Jaka będzie przyszłość praw sztucznej inteligencji?

„Przerażające” to dzisiaj słowo często używane przez technologów i rządy podczas omawiania przyszłości sztucznej inteligencji i jej potencjalnego wpływu na ludzkość. Malują obraz przyszłości, w której AI kradnie miejsca pracy, powoduje większe nierówności i niesprawiedliwie ocenia nasze dzieci w szkole za pomocą wadliwych algorytmów.

„Najwyższy czas” - tak zareagowali specjaliści od polityki i etyki w dziedzinie AI na wiadomość, że kilka miesięcy temu Biuro ds. Nauki i Technologii Białego Domu ujawniło karty praw AI (AI Bill of Rights). Dokument jest wizją prezydenta Bidena, dotyczącą tego, jak rząd USA, firmy technologiczne i obywatele powinni ze sobą współpracować, aby w przyszłości rozliczać AI i sektor AI.

Wprawdzie musimy rozważyć i zaplanować potencjalne szkody, jakie może wyrządzić AI, ale niektórzy twierdzą, że na tym dyskusja nie może się skończyć. Jako że AI staje się coraz bardziej zaawansowana, do tego stopnia, że może stać się świadoma, a nawet autonomiczna, w którym momencie pojawia się moralny wymóg, aby przynajmniej rozważyć rozszerzenie praw człowieka dla AI? Może jest to głupi pomysł. I rzeczywiście, pytania tego typu należą do sfery filozofii, ale w przyszłości mogą stać się pytaniami z zakresu polityki publicznej.

Niedawno skończyłem czytać „Klarę i słońce” Kazuo Ishiguro, futurystyczną powieść o matce, która kupuje wysoce inteligentnego „sztucznego przyjaciela” (AF) dla swojej śmiertelnie chorej córki, Josie. Akcja książki rozgrywa się w przyszłości, gdzie dowiadujemy się, że AI wywarła negatywny wpływ egzystencjalny na ludzi. W nowym świecie dzieci są genetycznie modyfikowane po urodzeniu, aby konkurować z AI, co powoduje, że niektóre z nich zapadają na nieznane choroby.

Klara, AF, wydaje się być świadomą, myślącą istotą ze zdolnością do nauki i odczuwania emocji. Moim zdaniem jednym z kluczowych wątków książki jest pytanie, czy AI może nauczyć się kochać, samodzielnie, bez programowania.

Przez cały tekst czytelnik rozwija przywiązanie do Klary ze względu na jej głęboką troskę o zdrowie i samopoczucie Josie. Ostatecznie to każdy czytelnik musi sam stwierdzić, czy Klara kocha Josie, czy po prostu realizuje cel swojego programowania. Trudno stwierdzić jednoznacznie.

Josie cudownie wraca do zdrowia i dalej żyje swoim życiem. Klara zostaje jednak odrzucona i czeka na swój los na złomowisku wraz z innymi porzuconymi AF. Pod koniec powieści ukazuje nam się obraz Klary wpatrującej się w słońce, wspominającej czas spędzony z Josie i szczęśliwe wspomnienia, które z nią stworzyła. Obraz ten jest znaczący z powodu widocznej miłości AF do Josie; Klara rozwinęła głębokie zainteresowanie i związek z nastolatką, w dużej mierze przedkładając interesy Josie nad swoje własne.

Wykorzystanie Klary w całej powieści, jak sądzę, rodzi filozoficzne pytanie o to, czy w przyszłości trzeba będzie rozważyć przyznanie praw człowieka dla AI, co skutkowałoby poważnymi etycznymi i filozoficznymi pytaniami o to, co to znaczy być człowiekiem.

W miarę jak technologia AI staje się coraz bardziej zaawansowana, wielu ekspertów spodziewa się, że inteligencja AI będzie pewnego dnia rywalizować z naszą własną. Choć niewiele jest dyskusji na ten temat, roboty zmuszone do służenia ludziom można uznać za nową formę niewolnictwa. Roboty takie jak Klara mogą być używane jako środek do celu (tymczasowa przyjaźń, na przykład) i wyrzucane.

Przeciwnicy tej debaty mogą twierdzić, że różnica między ludzkim niewolnikiem a niewolnikiem-robotem polega na chęci lub otwartości do służby. Inni mogą twierdzić, że używanie, nadużywanie lub odrzucanie AI ma niewielki wpływ na ludzi i tkankę społeczną, ale gdzie należałoby wyznaczyć granicę? Istnieje wiele filozoficznych eksperymentów myślowych i testów, które filozofowie moralni stosują, aby określić, czy podmiot ma wolną wolę i/lub sprawczość, aby budować podstawy do ustanawiania praw.

Wracając do kursu filozofii umysłu, na który uczęszczałem jako student filozofii wiele lat temu, kluczowa dyskusja, którą pamiętam, dotyczyła tego, czy zdolność do odczuwania bólu (fizycznego lub psychicznego) jest podstawą do ustanowienia praw człowieka.

Uznano, że jeśli dany podmiot może odczuwać ból fizyczny lub psychiczny (i chce się go pozbyć), to te fakty mogą pociągać za sobą pewne prawa. Podmiot nie musi koniecznie doświadczać świadomości (i świata) w taki sam sposób jak człowiek, aby uzasadnić swoje prawa, zamiast tego zdolność do cierpienia z natury zawiera lub daje początek tym prawom.

Taki pogląd wyznaczają etycy zwierzęcy i było to stanowisko żyjącego w XVIII wieku angielskiego filozofa Jeremy'ego Benthama, który utrzymywał, że ważnym pytaniem dotyczącym zwierząt nie jest „Czy mogą rozumować? ani czy mogą mówić? ale czy mogą cierpieć?”

Niewątpliwie istnieją prawa przeciwko znęcaniu się nad zwierzętami; kiedy dzieci wyjeżdżają na studia i pies już nie jest tak interesujący jak Klara, nie wywozi się go na złomowisko (a przynajmniej nie powinno!). I rzeczywiście, prawo uznaje, że zwierzęta domowe muszą być chronione, ponieważ mogą cierpieć, a moralna tkanka społeczeństwa jest osłabiona, jeśli pozwala się na ich nadużywanie.

Podobne argumenty można by wytoczyć na rzecz ochrony AI, jeśli pewnego dnia będzie ona mogła myśleć, czuć i cierpieć. Jednak w tym momencie sztucznej inteligencji daleko do osiągnięcia któregokolwiek z tych stanów psychicznych i fizycznych i być może, jak twierdzą niektórzy eksperci, nigdy tego nie osiągnie. Mimo to filozoficzne pytanie o to, czy powinniśmy rozszerzyć prawa człowieka dla AI, jeśli spełnione zostaną pewne wymagania, jest dość interesujące.

Jednak po kolei: najpierw należy chronić się przed szkodami, jakie AI może wyrządzić ludzkości i społeczeństwu, a dopiero potem rozważać inne kluczowe kwestie. W dającej się przewidzieć przyszłości AI będzie nadal palącą kwestią dla decydentów, a wraz z rozwojem tej dyskusji musi się również zmienić sposób myślenia o prawach AI.



Oryginał tekstu w języku angielskim przeczytasz tutaj.

<p>Loading...</p>