W 2019 roku Google zrobił fale, twierdząc, że osiągnął coś, co zostało nazwane “kwantową supremacją” – zdolność komputera kwantowego do wykonywania operacji, których symulacja na standardowym sprzęcie obliczeniowym wymagałaby szalenie niepraktycznej ilości czasu. To twierdzenie okazało się kontrowersyjne, ponieważ operacje były niewiele więcej niż punktem odniesienia, który polegał na tym, aby komputer kwantowy zachowywał się jak komputer kwantowy; oddzielnie ulepszone pomysły na to, jak wykonać symulację na superkomputerze znacznie skraciły wymagany czas.
Ale Google powraca z nową eksploracją benchmarku, opisaną w artykule opublikowanym w Nature w środę. Wykorzystuje punkt odniesienia do zidentyfikowania tego, co nazywa przejściem fazowym w wydajności swojego procesora kwantowego i wykorzystuje go do identyfikacji warunków, w których procesor może działać z niskim poziomem szumów. Korzystając z tego, ponownie pokazują, że nawet dając klasycznemu sprzętowi każdą potencjalną przewagę, symulacja rzeczy wymagałaby superkomputerowi kilkunastu lat.
Benchmarking krzyżowy
Test porównawczy dotyczy wydajności tak zwanych kwantowych obwodów losowych, które polegają na wykonywaniu zestawu operacji na kubitach i umożliwieniu ewolucji stanu systemu w czasie, tak że wynik zależy w dużej mierze od stochastycznego charakteru wyników pomiarów w mechanice kwantowej. Każdy qubit będzie miał prawdopodobieństwo wytworzenia jednego z dwóch wyników, ale jeśli to prawdopodobieństwo nie jest jedno, nie ma sposobu, aby wiedzieć, który z wyników faktycznie uzyskasz. W rezultacie wynikiem operacji będzie ciąg prawdziwie losowych bitów.
Jeśli w operacje jest zaangażowana wystarczająca ilość kubitów, to coraz trudniej jest symulować wydajność kwantowego obwodu losowego na klasycznym sprzęcie. Ta trudność jest tym, czego Google pierwotnie użyło, aby ubiegać się o supremację kwantową.
Dużym wyzwaniem związanym z uruchamianiem kwantowych obwodów losowych na dzisiejszym sprzęcie jest nieuchronność błędów. I istnieje specyficzne podejście, zwane benchmarkingiem cross-entropii, które łączy wydajność kwantowych obwodów losowych z ogólną wiernością sprzętu (co oznacza jego zdolność do wykonywania operacji bezbłędnych).
Główny naukowiec Google Sergio Boixo porównał wykonywanie kwantowych obwodów losowych do wyścigu między próbą zbudowania obwodu a błędami, które go zniszczyłyby. “W istocie jest to rywalizacja między korelacjami kwantowymi rozprzestrzeniającymi się, ponieważ się plączesz, a losowe obwody splątują się tak szybko, jak to możliwe” – powiedział Ars. “Używamy dwóch bramek qubitowych, które splątają się tak szybko, jak to możliwe. Więc jest to rywalizacja między korelacjami lub splątaniem, które rośnie tak szybko, jak chcesz. Z drugiej strony, hałas robi coś przeciwnego. Hałas zabija korelacje, zabija wzrost korelacji. Więc to są dwie tendencje.”
W artykule skupiono się na wykorzystaniu benchmarku entropii krzyżowej do zbadania błędów występujących w najnowszej generacji układu Sycamore firmy i wykorzystania tego do zidentyfikowania punktu przejściowego między sytuacjami, w których dominują błędy, a tym, co artykuł określa jako “reżim niskiego poziomu szumów”, w którym prawdopodobieństwo błędów jest zminimalizowane – gdzie uwikłanie wygrywa wyścig. Naukowcy porównali to do przejścia fazowego między dwoma państwami.
Niski poziom hałasu
Naukowcy wykorzystali szereg metod do zidentyfikowania lokalizacji tego przejścia fazowego, w tym szacunki liczbowe zachowania systemu i eksperymenty z wykorzystaniem procesora Sycamore. Boixo wyjaśnił, że punkt przejścia jest związany z błędami na cykl, przy czym każdy cykl obejmuje wykonanie operacji na wszystkich zaangażowanych kubitach. Tak więc całkowita liczba używanych kubitów wpływa na lokalizację przejścia, ponieważ więcej kubitów oznacza więcej operacji do wykonania. Ale tak samo jak ogólny wskaźnik błędów w procesorze.
Jeśli chcesz działać w trybie niskiego poziomu szumów, musisz ograniczyć liczbę zaangażowanych kubitów (co ma efekt uboczny ułatwiający symulację na klasycznym sprzęcie). Jedynym sposobem na dodanie większej liczby kubitów jest obniżenie wskaźnika błędów. Podczas gdy sam procesor Sycamore miał dobrze zrozumiały minimalny wskaźnik błędów, Google mógł sztucznie zwiększyć ten wskaźnik błędów, a następnie stopniowo go obniżać, aby zbadać zachowanie Sycamore w punkcie przejściowym.
Reżim niskiego poziomu szumów nie był wolny od błędów; każda operacja nadal ma możliwość błędu, a kubity czasami tracą swój stan, nawet gdy siedzą i nic nie robią. Ale ten wskaźnik błędu można oszacować za pomocą benchmarku cross-entropy, aby zbadać ogólną wierność systemu. Nie było tak poza punktem przejściowym, gdzie błędy występowały na tyle szybko, że przerwały proces uwikłania.
Gdy tak się dzieje, rezultatem są często dwa oddzielne, mniejsze splątane systemy, z których każdy podlegał podstawowym wskaźnikom błędów układu Sycamore. Naukowcy zasymulowali to, tworząc dwa odrębne skupiska splątanych kubitów, które mogą być splątane ze sobą za pomocą jednej operacji, umożliwiając im włączanie i wyłączanie splątania do woli. Pokazali, że to zachowanie pozwoliło klasycznemu komputerowi na sfałszowanie ogólnego zachowania poprzez rozbicie obliczeń na dwa możliwe do opanowania kawałki.
Ostatecznie wykorzystali swoją charakterystykę przejścia fazowego, aby zidentyfikować maksymalną liczbę kubitów, które mogliby utrzymać w reżimie niskiego poziomu szumów, biorąc pod uwagę podstawową szybkość błędu procesora Sycamore, a następnie wykonali na nich milion losowych obwodów. Chociaż jest to stosunkowo łatwe do zrobienia na sprzęcie kwantowym, nawet zakładając, że moglibyśmy zbudować superkomputer bez ograniczeń przepustowości, symulacja zajęłoby około 10 000 lat na istniejącym superkomputerze (system Frontier). Pozwalając całej pamięci systemu na działanie jako pamięć wtórna, skracając oszacowanie do 12 lat.
Co nam to mówi?
Boixo podkreślił, że wartość pracy nie jest tak naprawdę oparta na wartości wykonywania losowych obwodów kwantowych. Prawdziwie losowe ciągi bitowe mogą być przydatne w niektórych kontekstach, ale podkreślił, że prawdziwą korzyścią jest lepsze zrozumienie poziomu szumu, który może być tolerowany w algorytmach kwantowych bardziej ogólnie. Ponieważ ten benchmark został zaprojektowany tak, aby jak najłatwiej było prześcignąć klasyczne obliczenia, potrzebujesz najlepszych standardowych komputerów, aby mieć jakąkolwiek nadzieję na pokonanie ich w odpowiedzi na bardziej skomplikowane problemy.
“Zanim będziesz mógł wykonać jakąkolwiek inną aplikację, musisz wygrać na tym benchmarku” – powiedział Boixo. “Jeśli nie wygrywasz na tym benchmarku, to nie wygrywasz na żadnym innym benchmarku. To najłatwiejsza rzecz dla hałaśliwego komputera kwantowego w porównaniu do superkomputera.”
Wiedza o tym, jak zidentyfikować to przejście fazowe, zasugerował, będzie również pomocna dla każdego, kto próbuje uruchomić przydatne obliczenia na dzisiejszych procesorach. “Gdy definiujemy fazę, otwiera to możliwość znalezienia aplikacji w tej fazie na hałaśliwych komputerach kwantowych, gdzie będą one lepsze od klasycznych komputerów” – powiedział Boixo.
W tym argumencie jest ukryta wskazówka, dlaczego Google skupił się na iteracji na konstrukcji pojedynczego procesora, mimo że wielu jego konkurentów naciskało na szybkie zwiększenie liczby kubitów. Jeśli ten benchmark wskazuje, że nie możesz uzyskać wszystkich kubitów Sycamore’a w najprostsze obliczenia reżimu o niskim poziomie szumów, to nie jest jasne, czy zwiększenie liczby qubitów ma dużą wartość. A jedynym sposobem na zmianę tego jest obniżenie podstawowego wskaźnika błędów procesora, więc na tym właśnie skupia się firma.
Wszystko to jednak zakłada, że masz nadzieję uruchomić przydatne obliczenia na dzisiejszych hałaśliwych kubitach sprzętowych. Alternatywą jest użycie kubitów logicznych skorygowanych o błędy, które będą wymagały znacznego wzrostu liczby kubitów. Ale Google widzi podobne ograniczenia ze względu na podstawowy wskaźnik błędów Sycamore w testach, które wykorzystywały go do hostowania korygowanego błędów logicznego qubit, do czego mamy nadzieję wrócić w przyszłym zasięgu.