Koniec ery tranzystorów, czyli komputer kwantowy i jego możliwości
Rok 2019 był bardzo interesujący z punktu widzenia rozwoju komputerów kwantowych. Podczas targów CES w Las Vegas, IBM zaprezentował swój własny komputer kwantowy o nazwie
Q System One. Co prawda była to niedziałająca replika, ale uznano to za pewnego rodzaju znak nadejścia nowej ery.
Do tej pory tego typu maszyny wymagały bardzo specyficznych, laboratoryjnych warunków. Kubity, na których bazują komputery kwantowe, są bardzo wrażliwe fizycznie. Wszelkie wibracje czy zmiany pola elektromagnetycznego sprawiają, że tracą swoje właściwości i ulegają dekoherencji kwantowej. Wskazane zatem jest odizolowanie ich od otoczenia i utrzymania temperatury wewnątrz na poziomie zera całkowitego (IBM Q System One = 0,001 Kelwina, tj. -273,149 °C). Słowem - zimniej niż w przestrzeni kosmicznej. Zapewnić to miała hermetyczna obudowa ze szkła borokrzemianowego.
20-kubitowy System One sam w sobie nie jest przełomem w rozwoju komputerów kwantowych. Przełomowe jest to, że jest pierwszym zintegrowanym systemem kwantowym możliwym do zastosowania komercyjnego. Nie wymaga tak sterylnych warunków jak do tej pory i może stanąć obok innych systemów w centrum danych. Dodatkowo dobrze wygląda. Nad futurystycznym designem czuwało londyńskie studio Map Project Office i projektanci wnętrz z Universal Design Studio.
W drugiej połowie roku Google ogłosił osiągnięcie supremacji kwantowej i opublikował badania naukowe. Supremacja kwantowa od dawna uważana jest za kamień milowy. Ma dowodzić wyższości komputerów kwantowych nad komputerami opartymi o tranzystory.
Eksperyment polegał na wykonaniu losowych operacji na kubitach i odczytaniu wyniku. Wygenerowany i zakodowany w systemie dwójkowym zestaw cyfr został następnie sprawdzony pod kątem faktycznego losowego rozkładu. Komputer Sycamore w ciągu 200 sekund, wykonał obliczenia, które superkomputerowi Summit firmy IBM, zajęłyby 10 tysięcy lat. Sam Summit może wykonać 200 tysięcy trylionów operacji na sekundę, składa się z 4608 serwerów i jest wyposażony w ponad 10 petabajtów (PB) pamięci operacyjnej RAM.
54-kubitowy procesor komputera Sycamore był zdolny wykonać obliczenia, które znacznie przekraczają zdolności nawet najszybszego komputera na świecie (procesor Sycamore jest złożony w istocie ze 142 kubitów, jednak kontrolowanych jest tylko 54 z nich, w tym jeden nie działa poprawnie). Co prawda ta przewago została udowodniona tylko w jednym, konkretnym przypadku, a i sam IBM kwestionował prawdziwość niektórych kwestii, pokazuje jednak słuszny kierunek zastosowania mechaniki kwantowej w rozwiązywaniu skomplikowanych problemów.
Wiele się o tym mówi i słyszy. Pytanie czy nasza znajomość tematu jest wystarczająca, aby zrozumieć czym tak naprawdę jest komputer kwantowy i jakie jest/może być jego potencjalne zastosowanie komercyjne.
W klasycznych komputerach dane zapisywane są w systemie binarnym. Bity, czyli podstawowe jednostki informacji, mogą przyjmować dwie wartości: 0 albo 1. Ten binarny układ w układach scalonych ma odzwierciedlenie w dwóch rodzajach wartości napięcia na tranzystorach. Te z kolei tworzą bramki logiczne. Wszelkie obliczenia opierają się właśnie na manipulowaniu stanami tranzystorów.
Komputery kwantowe przechowują informację w postaci kubitów (bity kwantowe). Mogą one przyjmować wartość 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej, mogą także przyjmować obie wartości na raz. Ten proporcjonalny stan pośredni bycia między 0 a 1 nazywany jest superpozycją.
W modelu binarnym mamy dwa rodzaje wartości: 0 lub 1. W modelu kwantowym występują skomplikowane splątania, gdzie kubity przyjmuje po części wartość 0 i po części 1 w jednym momencie i są zależne od siebie.
Jeden kubit to dwie wartości. Dwa kubity to 4 wartości (00, 01, 10, 11), trzy kubity to już osiem splątanych ze sobą wartości (000, 001, 010, 100, 101, 110, 011, 111), pięć kubitów to aż 32 stany, osiem- 64 stany itd. Nie są to stany niezależne, dlatego mówi się o ich „splątaniu”.
Ta różnica w wydajności obliczeniowej stanowi największą przewagę komputera kwantowego nad klasycznym. Splątanie kubitów kwantowych umożliwia wykonywanie obliczeń na wszystkich wartościach równolegle, podczas gdy klasyczne komputery realizują obliczenia w określonej kolejności, jedna po drugiej. Dotyczy to także możliwości odczytania wszystkich możliwych rozwiązań (przy zastosowaniu wielu pomiarów, z uwagi na to, że wynik końcowy jest uśrednieniem).
Stany kwantowe mogą wchodzić ze sobą w interferencję kwantowe ( tak jak w przypadku fal o ich trwałości zadecyduje spójność, korelacja faz i równość częstotliwości), co pozwala na szybsze i dokładniejsze przetwarzanie nawet bardzo dużych zbiorów danych. Zainteresowanym pogłębieniem tematu polecam zewnętrzne źródło.
Kubity są elementami większej całości. Wspólnie tworzą one rejestr kwantowy. Dane z rejestru są z kolei przetwarzane przez obwody kwantowe.
Aby móc realnie korzystać z możliwości komputera potrzebne jest jakieś oprogramowanie, które wykorzystuje mechanikę kwantową (splątania, interferencje amplitud prawdopodobieństwa, superpozycję) oraz algorytmy kwantowe, bazujące na rozkładzie prawdopodobieństwa i jego zmianie (np. algorytm Grovera, algorytm Shore’a czy Kitajewa). Na razie opracowano tylko kilka algorytmów, a sam proces ma dużą złożoność i czasochłonność obliczeniową.
Ze względu na losowość samego procesu, algorytmy muszą zostać uruchomione co najmniej dwukrotnie i należy uwzględniać zasady prawdopodobieństwa, jeśli chcemy uzyskać wiarygodne wyniki obliczeń. Zainteresowanym symulacjami środowiska kwantowego za pomocą kwantowej maszyny wirtualnej polecam: rigetti, ProjectQ, Quantum Computing Cloud Platform.
W chwili obecnej trudno mówić o komercjalizacji i upowszechnieniu rozwiązań kwantowych z kilku powodów. Liczba potencjalnych zastosowań jest ogromna - od symulacji struktury molekuł, nanotechnologii, optymalizacji ruchu w logistyce, uczenia maszynowego czy łamania szyfrów. Wymagane jest jednak dopracowanie technologii, odpowiedniego oprogramowania i uczynienia ich bardziej przystępnymi.
Mówiąc o zastosowaniu komputerów kwantowych, często wciąż poprzedzamy to określeniem „potencjalne”, „teoretyczne” czy „w trakcie eksperymentów”.
Jednym z tego typu rozwiązań są prace nad internetem kwantowym z wykorzystaniem technologii laserowej. Aby było to możliwe, sygnały świetlne musiałyby przenosić informacje kwantowe i jednocześnie być zdolne do interakcji ze spinami elektronów wewnątrz odległych komputerów.
Nad tego typu rozwiązaniem pracowali japońscy naukowcy z Uniwersytetu w Osace. Udało im się zastosować promień laserowy do wysłania informacji kwantowej do kropki kwantowej poprzez zmianę stanu spinowego elektronu. To nic innego, jak optyczna manipulacja spinami elektronów. Osiągnęli tym samym możliwość odczytania jego stanu spinowego i potwierdzenie tego stanu.
Naukowcom z QuTech z Uniwersytetu Technicznego w Delft w Holandii udało się wygenerować z kolei nowe kwantowe splątanie, którego powstanie odbyło się szybciej, niż utracenie. To jest właśnie jedno z największych wyzwań w tej dziedzinie - utrzymać splątanie na tyle długo, żeby udało się przesłać splątane informacje do kolejnych węzłów. Połączenie wielu węzłów kwantowych i transferowanie informacji otworzy tym samym drogę do stworzenia sieci.
Opisywany w magazynie „Nature” eksperyment mówił o wygenerowaniu długotrwałego splątania na dystansie 1,3 kilometra. Połączenie pozostało aktywne jednak tylko przez ułamek sekundy. W planach naukowców są dalsze prace nad internetem kwantowym i budowa sieci między 4 miastami w Holandii.
Od czasu tego eksperymentu (2015), prędkość przesyłania danych wzrosła dziesiątki razy – wiadomości na odległość 20 kilometrów można wysyłać z szybkością 1Mbps.
Kwantowy dysk twardy
Zespołowi fizyków z Australii i Nowej Zelandii udało się przez 6 godzin przechować dane w krysztale europu (pierwiastek chemiczny), które zapisane zostały przy zastosowaniu laserów kwantowych. W celu utrwalenia procesu zapisu, kryształ następnie poddano działaniu stałego i zmiennego pola magnetycznego. Te dwa pola izolują spiny europu i zapobiegają wyciekaniu informacji kwantowych.
Jeśli uda się opracować trwałą technikę zapisu i przechowywania danych nietrwałych stanów kwantowych, będziemy mieć do czynienia z rewolucją.
Kwantowy komputer do przewidywania przyszłości
Naukowcy z australijskiego i singapurskiego uniwersytetu skonstruowali urządzenie, które opiera się na śledzeniu ruchu kwantów światła (fotonów) w systemie. Każdy etap skutkuje dwoma wynikami. Przeprowadzone symulacje pokazywały każdą możliwą trajektorię fotonów dla trzech etapów.
Według teorii Richarda Feynmana, kwant przemieszczający się pomiędzy dwoma punktami niekoniecznie porusza się po jednej trasie. Jest możliwe, że porusza się jednocześnie po wszystkich możliwych trasach (superpozycja kwantowa). Dokładny pomiar pozwoli ustalić jedną trajektorię przemieszczania.
Na razie możliwe jest wygenerowanie 16 różnych opcji przyszłości danego układu. Przy jednoczesnym zastosowaniu sztucznej inteligencji możliwe będzie wkrótce długoterminowe prognozowanie pogody, notowań giełdowych, zaprojektowanie idealnie zoptymalizowanego portfela inwestycyjnego i innych zjawisk wymagających wzięcia pod uwagę ogromnej ilości zmiennych.
Problemem tutaj nie jest brak dostępu do danych czy nieodpowiednie algorytmy, ale właśnie nieodpowiednie zasoby mocy obliczeniowych.
Kryptografia kwantowa
Firma Thales prowadzi już prace nad kwantowym generatorem liczb losowych, który zapewni tworzenie silnych kluczy oraz samą dystrybucję kluczy. W przypadku potrzeby zastosowania operacji kryptograficznych, związany z nimi klucz zostanie przesłany pomiędzy wszystkimi węzłami komunikacyjnymi.
Bezpieczeństwo szyfrowania danych w dużej mierze zależy od poziomu trudności rozkładu dużych liczb w liczby pierwsze. Odpowiedzialne za to algorytmy faktoryzacji dokonują prób dzielenia przez kolejne liczby. Jest to możliwe. Superkomputery posiadają takie właściwości, z tym że jest to kompletnie nieopłacalne i niepraktyczne.
Algorytmy kwantowe pozwalają na sprawdzenie wszystkich potencjalnych kombinacji jednocześnie oraz synchroniczne odczytanie prawidłowego rozwiązania. To nieporównywalnie skraca czas. Algorytmy szyfrowania asymetrycznego (wykorzystują kilka kluczy- prywatny i publiczny), będą wymagały tym samym innej niż dotychczasowa metody ochrony danych. O łamanie szyfrowania RSA-2048 w 8 godzin na komputerze kwantowym można przeczytać tutaj.
Trwają także prace nad nowymi metodami szyfrowania, odpornego na możliwości komputerów kwantowych. W szczególności tyczy się to kryptografii klucza publicznego, która jest najbardziej rozpowszechniona w komunikacji online i wykorzystywana w blockchainie.
Kwantowy blockchain i kryptowaluty
Ogłoszenie przez Google supremacji kwantowej otworzyło dyskusję nad kwantową odpornością blockchainów.
Architektura blockchain opiera się na dwóch rodzajach klucza zabezpieczającego: prywatnego i publicznego. Wykonujący transakcję dzieli się kluczem publicznym z nadawcą transakcji, który w celu jej potwierdzenia używa klucza prywatnego. Wejście w posiadanie wiedzy na temat klucza prywatnego oznacza przejęcie kontroli nad transakcją. Jest to teoretycznie możliwe poprzez zastosowanie ogromnej mocy obliczeniowej oraz obliczenie klucza prywatnego na podstawie klucza publicznego.
Eksperci uspokajają, że przeprowadzony eksperyment Google jest dalece niewystarczający, gdyż obliczenia kwantowe z poprawą błędów są o wiele trudniejsze i do złamania kluczy prywatnych potrzebna byłaby moc obliczeniowa liczona w tysiącach kubitów. Teoretycznie, jeden z algorytmów do obliczeń kwantowych - algorytm Shora, pozwala na szybki faktoring dużych liczb pierwszych. Komputer kwantowy o odpowiednio dużej mocy mógłby być zatem w stanie sprawnie zaburzyć kryptografię klucza prywatnego.
Osiągnięcie tego stanu zapewne jeszcze potrwa. Kiedy komputery kwantowe znajdą się w powszechnym użytku, będzie można je wówczas wykorzystać także do kodowania kwantowego. Kodowanie to nie będzie łatwo podatne na złamanie przy użyciu komputerów kwantowych.
Machine Learning
Sieci neuronowe muszą być stale trenowane i uczone określonych zachowań w oparciu o algorytmy i ogromne ilości danych. Wyniki obliczeń opierają się przy tym również na prawdopodobieństwie jego wystąpienia. Algorytmy automatycznie są korygowane, aby zwiększyć szansę wystąpienia poprawnego wyniku.
Quantum Machine Learning to jedna z nowszych dziedzin badań naukowych, która próbuje wykorzystać moc komputera kwantowego, aby zwiększyć szybkość klasycznych algorytmów uczenia maszynowego.
Naukowcom z włoskiego Uniwersytetu w Pawii udało się efektywniej niż dotąd użyć mechaniki kwantowej do obliczeń na sieciach neuronowych. Ta nowa metoda pozwala na szybsze rozpoznawanie obrazów, sortowanie elementów wejściowych i podejmowanie decyzji. Szczegóły dotyczące eksperymentu są dostępne tutaj.
W obszarze komercyjnym można z kolei podać przykład Volkswagena, który rozpoczął współpracę z D-Wave, aby za pomocą komputera kwantowego wypracować optymalny przepływ ruchu dla 10 tys. taksówek w Pekinie. Podobnie Daimler, który bada możliwości komputerów kwantowych w kierowaniu autonomiczną flotą samochodów oraz jeden z koncernów lotniczych, który pracuje nad wykorzystaniem komputera kwantowego w testach autopilota. Najnowsze algorytmy autopilota są już zbyt skomplikowane dla klasycznych komputerów.
Podsumowanie
To tylko zarys potencjalnych możliwości. Celowo nie wchodziłam już w nieznany mi obszar nanotechnologii i modelowania molekularnego, które pozwala na opracowywanie nowoczesnych leków i tworzyw. Czas pokaże, w którą stronę będzie rozwijała się nauka i technologia oraz jaką w tym rolę odegrają komputery kwantowe.