18.08.20225 min

Maciej OlanickiRedakcja Bulldogjob

Jak big tech monopolizuje prace nad AI

Dowiedz się, jakie zagrożenia mogą na nas czyhać, jeśli rozwój sztucznej inteligencji nadal przebiegał będzie przede wszystkim w tajemnicy i w zaciszach laboratoriów należących do największych korporacji IT.

Jak big tech monopolizuje prace nad AI

Badania nad sztuczną inteligencją to dziedzina nauki, która chyba w największym stopniu budzi niepokój tzw. opinii publicznej. „Terminator”, „Odyseja kosmiczna”, „Matrix”, „Ex Machina”, czy genialne, acz nieco już chyba zapomniane, „Diabelskie nasienie” z 1977 r. to utwory kultury, które ogromnie oddziałały i oddziałują na zbiorowości, wywołując przynajmniej ostrożność, a często wręcz strach. Ale to nie wizja zagłady z rąk maszyn powinna nas w tej chwili napawać największymi obawami, lecz to, w jak bardzo zakulisowy sposób przebiega rozwój sztucznej inteligencji. 


Rozwój AI za parawanem

Bardzo często najzwyczajniej w świecie nie wiemy, nad czym pracuje big tech i na jak bardzo zaawansowanym etapie prac się aktualnie znajduje. Co jakiś czas największe korporacje IT dzielą się z nami lakonicznymi komunikatami o osiągnięciu kolejnego kamienia milowego, jednak kulisy prac, czy choćby bieżące obiekty badań pozostają tajemnicą przedsiębiorstw skrywaną w laboratoriach. 

Trzeba oddać, że da się też zauważyć postępującą demokratyzację dostępu do różnych bibliotek czy silników NLP, ale o awangardzie badań nad SI nie wiemy nic konkretnego. Więcej niż pewne, że to, czym big tech się dzieli, nie jest tym, nad czym dzisiaj pracuje – są to już raczej zgrane karty, w przypadku których udostępnienie źródła nie zagrozi konkurencyjności żadnego z departamentów. W kwestii rezultatów najnowszych badań jesteśmy natomiast zdani na wspomniane komunikaty-wyimki, starannie zredagowane i publikowane przede wszystkim w celu podbicia wartości akcji.

Problem ten jest coraz częściej podnoszony przez akademików, zwłaszcza w Stanach Zjednoczonych oraz Wielkiej Brytanii. Sztuczna inteligencja jest w ich optyce osiągnięciem nauki o znaczeniu wręcz cywilizacyjnym i apelują oni o walkę ze zjawiskiem, które już dziś jest widoczne jak na dłoni – big tech buduje monopol na pracę nad sztuczną inteligencją

I może się to okazać – przynajmniej tu i teraz – znacznie groźniejsze niż losy, jakie zgotowali bohaterom scenarzyści filmów SF.


Sztuczna inteligencja, ale z głową

Problem zawłaszczania badań przez sektor prywatny dostrzeżono przed kilku laty na Uniwersytecie Stanford, czego skutkiem było utworzenie na początku 2019 roku Stanford Institute for Human-Centered Artificial Intelligence

Założyciele wyszli z założenia, że sztuczna inteligencja ma potencjał, by „radykalnie” zmienić w zasadzie każdy aspekt naszego życia i nierozsądnie byłoby się dopuszczać jakiejkolwiek niefrasobliwości w procesie jej rozwoju. A z tejże niefrasobliwości słyną przedsiębiorstwa kierujące się wyłącznie zyskiem, na co wystarczającym dowodem jest historia katastrof przemysłowych czy w ogóle stan naszej planety.

W Standford HAI sztuczna inteligencja ma być rozwijana w sposób interdyscyplinarny i z naciskiem na takie wartości, jak uczciwość, humanizm, zrównoważenie, bezstronność  i niezależność. Są to więc cnoty, które w pierwszej kolejności byłyby zaniedbywane w spółkach giełdowych w sytuacji, gdy „trzeba dowieźć” przed publikacją kolejnego kwartalnego raportu finansowego. HAI to instytut naukowy i nie ma mowy o spieniężaniu rezultatów jego prac, co ma stanowić o wyjątkowości.

Jednym ze wspomnianych rezultatów prac jest publikacja „Building a National AI Research Resource: A Blueprint for the National Research Cloud” opublikowana w październiku minionego roku. Czytamy w niej, że rozwój sztucznej inteligencji jest kwestią na tyle ważką, że prace nad nią powinny zostać podjęte w ramach szerokiej inicjatywy łączącej biznes, naukę i władze federalne. Naukowcy zachęcają do budowy państwowych placówek badawczych, gdzie przecinałyby się ścieżki i interesy wszystkich trzech stron i mniej lub bardziej między wierszami przestrzegają przed całkowitym zawłaszczeniem SI przez big tech.

Znacznie bardziej bezpośrednio autorzy raportu wypowiedzieli się w artykule opublikowanym na łamach „The Hill” w sierpniu 2021 r.:

Do osób zaniepokojonych koncentracją możliwości badawczych nad SI w rękach prywatnych firm technologicznych: już znajdujemy się w takim momencie. Brak National Research Cloud tylko jeszcze bardziej skonsoliduje władzę sektora prywatnego w zakresie sztucznej inteligencji. 


Pracownicy Stanford HAI nie tylko diagnozują problem, ale są w stanie już dzisiaj wskazać jego konkretne, negatywne skutki:

Dekadę temu doktor nauk nad SI chętniej wybierał karierę akademicką, a nie w sektorze prywatnym. Dzisiaj dwukrotnie większe jest prawdopodobieństwo, że wybierze przemysł. To doprowadziło do dwóch problemów. Po pierwsze, badania prowadzone przez sektor prywatny podlegają kierownictwu, nadzorowi i wetu firm technologicznych, co doprowadza do krótkowzroczności w badaniach. Na przykład Facebook odrzucił wyniki wewnętrznych badań nad szkodliwym wpływem Instagrama na nastolatki. Po drugie, badania sektora prywatnego mogą być skierowane wyłącznie na wąski obszar zastosowań. Jak powiedział kiedyś Data Scientist, Jeff Hammerbacher: największe umysły mojego pokolenia myślą o tym, jak sprawić, by ludzie klikali więcej reklam.


Zachęcam do lektury całego artykułu opublikowanego przez naukowców ze Stanford HAI w „The Hill”. My tymczasem przejdźmy do nadrzędnego problemu, który stanowi dla niezależnych inicjatyw naukowych, dostrzegających problem monopolu big tech na rozwój AI, kluczowe wyzwanie.


Drenaż ludzkich mózgów

Są nim oczywiście pieniądze, jakie największe korporacje IT mogą zaoferować specjalistom zajmującym się badaniami nad sztuczną inteligencją. Od lat dochodzi do masowego drenażu mózgów przesuwającego coraz większą liczbę wybitnych specjalistów z uczelni do korporacji. Nieuczciwie byłoby jednak twierdzić, że chodzi wyłącznie o te pieniądze, które naukowcy otrzymują za swoją pracę. Chodzi również o środki przeznaczane na badania, których brakuje na uczelniach.

To ważny aspekt, gdyż nie chodzi tu wyłącznie o „kupowanie” kadr. Nawet ci ambitni, wręcz idealistyczni badacze zachęcani są nie wysokością pensji i wynikającym z tego stylem życia, lecz ogromnymi możliwościami co do rozmachu badań nad sztuczną inteligencją. Zasobami przeznaczonymi na R&D, których nie będzie w stanie zapewnić nawet najlepsza, najlepiej finansowana uczelnia

To właśnie stąd bierze się apel Stanford HAI w sprawie utworzenia przez rząd federalny trójstronnych placówek badawczych – uczelnie potrzebują pieniędzy, by utrzymać przy sobie wybitnie trudnych do zastąpienia specjalistów. 

Według danych zgromadzonych przez  „The Guardian” liczbę naukowców uczelni w Oxfordzie czy UCL zwerbowanych przez należące do Google DeepMind należy szacować na ok. 200 osób, przy czym z LinkedIn możemy się dowiedzieć, że jest to firma zatrudniająca w ogóle (we wszystkich działach) od 500 do 1000 pracowników. Ponadto liczba ofert pracy w UK związana bezpośrednio z badaniami nad sztuczną inteligencją wzrosła od 2014 roku o 485%. Należy zakładać, że głód sektora prywatnego na wysoko wykwalifikowanych w dziedzinie badań nad AI będzie tylko rósł.


A co, jeśli…

W takich okolicznościach, zamiast podsumowywać – pogdybajmy. W ostatnim czasie bardzo nagłośnionym faktem medialnym było rzekome osiągnięcie świadomości (czy raczej wrażliwości, percepcji charakterystycznej dla żywej istoty) przez LaMDA ogłoszone przez jednego z pracowników Google, Blake’a Lemoine’a. On sam siebie określa mianem chrześcijańskiego mistyka, co może mówić co nieco o jego tendencjach do dostrzegania bytów tam, gdzie ich występowanie jest wątpliwe. 

Skutek? Google zawiesiło Lemoine’a, zdementowało jego rewelacje i wszczęło dochodzenie, które zakończyło się zwolnieniem. Wszystko to było argumentowane ujawnieniem tajemnicy przedsiębiorstwa. No właśnie – Lemoine nie został zwolniony z powodu globalnego medialnego szumu, który wzniecił, lecz przez to, że część z opublikowanych przez niego przy okazji informacji była niejawna, stanowiła tajemnicę Google.

A teraz – właśnie w ramach gdybania, eksperymentu myślowego – spróbujmy sobie odpowiedzieć na pytanie: czy gdyby w trakcie prac nad LaMDA rzeczywiście dostrzeżono by oznaki percepcji, czy wrażliwości cechującej istoty świadome, to jak myślisz, jak prędko Google podzieliłoby się taką informacją ze światem?

<p>Loading...</p>