NVIDIA: mamy już AI projektującą układy scalone
Tempo, w jakim ewoluuje NVIDIA jest godne podziwu. Podobno przyroda nie znosi próżni i nie ma już dziś większych wątpliwości, że jeżeli Intel nie podniesie się po latach niepowodzeń, to właśnie Zieloni ochoczo zajmą miejsce Niebieskich. NVIDIA sporo eksperymentuje ze sztuczną inteligencją, czego ostatnim przykładem mogą być projektowane przez nią układy scalone.
AI NVIDII projektuje już czipy
O automatyzacji coraz większej liczby zadań stawianych przez dekady przed ludzkimi, wysoko wykwalifikowanymi (a zatem kosztownymi) specjalistami pisaliśmy w ostatnim czasie sporo. Dość wspomnieć sztuczną inteligencję, która wypada już przyzwoicie na tle swoich ludzkich konkurentów czy oprogramowanie, którego zastosowaniem jest debugowanie maszynowo wygenerowanego kodu.
Opublikowane przez przedstawicieli NVIDII rewelacje (dostępne tutaj) sugerują jednak osiągnięcie nowego poziomu – takiego, w którym sztuczna inteligencja projektuje nie tylko software, lecz również hardware. A konkretniej układy scalone.
O tym jak ważne jest zagospodarowanie miejsca na płytach głównych naszych pecetów, przekonał się wspomniany już Intel, ale nie tylko. Dalsza miniaturyzacja w wykonaniu Niebieskich nie wiąże się już wszakże ze zmniejszaniem elementów składających się na tranzystory (coś, co mylnie nazywa się procesem litograficznym), lecz takim upakowaniem już istniejących elementów, aby zmieściły się kolejne. A w tym może być pomocne AI.
Geometria, czyli zwięzłość
Zauważa to NVIDIA, która w geometrii, bo dopatruje się pola do popisu dla sztucznej inteligencji. Bill Dailly, jeden z osób decyzyjnych w dziale R&D NVIDII, zadeklarował, że korporacja aktywnie działa w zakresie wewnętrznego opracowania sztucznej inteligencji wyspecjalizowanej właśnie w projektowaniu płytek, układów scalonych. Aktualnie odnosi się to przede wszystkim do GPU.
Grafika staje się coraz bardziej istotna w zakresie wspomagania kluczowych zadań obliczeniowych. Coraz częściej do łask wraca koncepcja wspomagania standardowych procesorów o możliwości bezpośrednio programowalnych macierzy bramek – kart rozszerzeń FGPA, które będą sobie radzić lepiej choćby z operacjami zmiennoprzecinkowymi w serwerach o architekturze x86 czy nawet ARM.
Czy to się uda?
Na ile NVIDIA faktycznie zacznie posługiwać się projektowanymi przez sztuczną inteligencję bramkami lub grafikami, a na ile jest to wypowiedź mająca na celu podbicie wartości akcji? Któż to wie. Z pewnością jednak należy śledzić dokonania Zielonych w tym obszarze, zwłaszcza biorąc pod uwagę martwotę ekstrapolacji Moore’a oraz wpływu problemów z dostępnością półprzewodników na produkcję CPU.