28.07.20233 min
Bulldogjob

Bulldogjob

Giganci od AI łączą siły. Powstało Frontier Model Forum

Microsoft, OpenAI, Anthropic i Google łączą siły w Frontier Model Forum w walce o bezpieczną przyszłość SI generatywnej. Tak mówią.

Giganci od AI łączą siły. Powstało Frontier Model Forum

Czołowe firmy zajmujące się generatywną sztuczną inteligencją - Google, OpenAI, Microsoft i Anthropic - połączyły siły i powołały do życia Frontier Model Forum. Po co? Według oficjalnych informacji ma na celu zapewnienie bezpiecznego i odpowiedzialnego rozwoju generatywnej AI, która obecnie rozwija się w zawrotnym tempie.

Dlaczego to ważne?

Otóż SI generatywna to technologia, która potrafi tworzyć treści na poziomie ludzkiego twórcy. Może to być niesamowicie przydatne, na przykład do rozwoju nowych narzędzi czy w dziedzinach takich jak opieka zdrowotna i edukacja. Jednak takie AI ma również swoje ciemne strony, o której rozmawia się ostatnio namiętnie. Istnieje ryzyko, że może być używane do tworzenia treści dezinformacyjnych, szkodliwych lub nawet nielegalnych. Już nie mówiąc o czarnych scenariuszach rodem z Ex-Machiny.

Stąd powstało wspaniałomyślne Frontier Model Forum, które ma za zadanie rozwiązać te trudne kwestie. Grupa liderów branży chce skoncentrować się na badaniach nad bezpieczeństwem i ustaleniu najlepszych praktyk, aby ograniczyć ryzyko nadużyć tej technologii.

Jak chcą osiągnąć cel?

Frontier Model Forum ma dążyć do ułatwienia komunikacji i współpracy pomiędzy firmami, rządami, decydentami politycznymi oraz środowiskiem akademickim. Planuje zaangażować organizacje projektujące i rozwijające duże modele AI. Aby dołączyć do forum, firmy muszą wykazać silne zaangażowanie w bezpieczeństwo swoich modeli oraz gotowość do współpracy w badaniach i inicjatywach dotyczących bezpieczeństwa.

W planach jest również utworzenie rady doradczej oraz grupy roboczej do finansowania celów inicjatywy.

Dlaczego to brzmi umiarkowanie kolorowo?

Wszystko to brzmi super, ale oczywiście pojawiają się obawy. Po pierwsze, czy forum będzie w stanie faktycznie egzekwować te standardy bezpieczeństwa? Czy jedynie będzie to kolejna deklaracja do pochwalenia się w mediach?

Druga kwestia to regulacje prawne wokół AI. W ostatnim czasie pojawił się projekt unijny AI Act, który ma uregulować tę dziedzinę. Czy Frontier Model Forum będzie miało wpływ na to, jak ta regulacja będzie wyglądać?

Pamiętajmy też, że firma OpenAI, która jest jednym z uczestników forum, była już obiektem kontrowersji związanych z prawami autorskimi. Oskarżono ich o naruszanie praw autorskich podczas szkolenia modeli AI. Czy Frontier Model Forum będzie miało wpływ na takie praktyki?

Coś się jednak dzieje

Mimo tych wątpliwości, inicjatywa Frontier Model Forum jest ważnym krokiem we właściwym kierunku. Możemy narzekać i doszukiwać się luk w takich pomysłach, czy nawet niecnych scenariuszy dotyczących wymiany informacji między firmami. Możemy też odstawić pesymistyczne scenariusze na bok i przyjąć, że dobrze, iż cokolwiek w tematach bezpieczeństwa wokół AI idzie do przodu i wierzyć, że nawet jeśli gdzieś na górze chodzi o kasę, finalny efekt będzie oddziaływał pozytywnie na nasze funkcjonowanie w galopującym świecie technologii.

Świat generatywnej sztucznej inteligencji staje przed wieloma wyzwaniami, i dobrze, że liderzy branży podejmują wspólne działania w celu zapewnienia bezpieczeństwa i odpowiedzialności w tej dziedzinie, mimo wszystko. 

Będziemy śledzić rozwój Frontier Model Forum i czekamy na wyniki ich prac. To temat, który z pewnością będzie długo omawiany w środowisku IT. W międzyczasie, miejmy nadzieję, że te czołowe firmy rzeczywiście będą działać na rzecz dobra społeczeństwa i wykorzystania SI generatywnej w odpowiedzialny sposób.

<p>Loading...</p>