
Wyobraźcie sobie urządzenie, które zamiast liczyć kolejne cyfry w nieskończonym ciągu, dostarcza wam losowe bity – i to z gwarancją, iż nikt ich nie przewidział.
Zespół naukowców z Uniwersytetu Teksasu w Austin i IBM-Quantinuum połączył siły, by udowodnić, iż ich 56-kubitowy komputer H2-1 potrafi coś więcej niż tylko imponować rywalom symulacją klasycznych algorytmów. Po raz pierwszy w historii urządzenie kwantowe wygenerowało certyfikowaną losowość, co oznacza, iż jej autentyczność weryfikuje sama matematyka i złożoność obliczeń.
Eksperyment ten jest pierwszym praktycznym zastosowaniem losowych obwodów kwantowych (Random Circuit Sampling, RCS) do zadań wykraczających poza czystą demonstrację supremacji kwantowej. Z demonstracji praktycznych wiemy już, iż komputery kwantowe mogą być szybsze czy bardziej energooszczędne ale dotąd nie udowodniono, iż potrafią wykonać coś, co rzeczywiście ma wartość aplikacyjną. Teraz – dzięki połączeniu z potężnymi superkomputerami Frontier i Summit – udało się wygenerować ponad 71 tys. bitów prawdziwie losowych.
To też jest ważne:
Czym jest certyfikowana losowość?
Losowość to nie tylko żargon komputerowy – to fundament bezpieczeństwa w kryptografii, loteriach i testach uczciwości. Problem polega na tym, iż większość generatorów pseudolosowych opiera się na skomplikowanych algorytmach, które mogą być odtworzone lub przewidziane, jeżeli ktoś pozna ich wewnętrzne działanie. Certyfikowana losowość usuwa tę lukę, bo opiera się na zasadach mechaniki kwantowej oraz dowodach złożoności obliczeniowej.
W protokole wykorzystanym przez naukowców klient najpierw generuje serię pseudolosowych obwodów kwantowych i wysyła je do zdalnego serwera z komputerem kwantowym. Serwer zwraca próbki bitów, a klient weryfikuje je dzięki testu cross-entropy benchmarking (XEB). A jak działa protokół RCS?
Na poziomie makro wygląda to niepozornie: klient wysyła partie obwodów (po 30-40 na raz), a potem czeka maksymalnie 2,5 sekundy na wynik. jeżeli cała partia nie wróci na czas zlecenie jest anulowane – żadnych kompromisów. Taki rygor uniemożliwia stosowanie klasycznych symulacji, które musiałyby poświęcić znacznie więcej zasobów by nadążyć za kwantowym tempem.
Kluczem jest ograniczenie czasu i pomiar jakości zwróconych bitów. XEB ocenia, jak bardzo rozkład zwróconych danych odpowiada temu idealnemu, wyliczanemu przy pomocy symulacji kwantowej. Wysoki wynik XEB przy krótkim czasie generacji jest dowodem, iż za generacją nie stał żaden klasyczny superkomputer – przynajmniej w praktycznie osiągalnych ramach mocy obliczeniowej.
Wyniki na przykładzie Quantinuum H2-1
Quantum H2-1 pracujący na 56 kubitach z pułapką jonów wykonał niemal 61 tys. obwodów. Z tego 30 tys. próbek zostało uznanych za ważne – średni czas na próbkę wyniósł ok. 2,15 s, a wynik XEB osiągnął wartość około 0,32, przekraczając próg 0,3. To wystarczyło, by uzyskać 71 313 bitów entropii przy założeniu, iż ewentualny przeciwnik dysponuje czterokrotnie większą mocą niż najszybszy superkomputer świata.
Następnie bity te poddano ekstrakcji dzięki silnego ekstraktora typu Toeplitz, co pozwoliło uzyskać ostatecznie 71 273 certyfikowanych bitów losowych przy zużyciu jedynie 32-bitowego ziarna początkowego. Mówiąc wprost: w zamian za niewielką ilość startowej entropii naukowcy zyskali niemal 2,2-megabajtowy plik prawdziwie losowych danych.
Dlaczego to jest ważne?
Losowość to podstawa wielu systemów – od kryptowalut po protokoły bezpieczeństwa. Te 70 tysięcy bitów może zabrzmieć jak kropla w morzu, ale w kontekście certyfikacji to gigantyczny krok. Po raz pierwszy mamy praktyczny przykład, iż kwantowy komputer potrafi spełnić realne wymagania branży i dostarczyć bezpieczne zasoby dla przyszłych aplikacji.
Naukowcy nie zatrzymują się na 56 kubitach. Planowane są eksperymenty z wyższą głębokością obwodów, lepszą wiernością (fidelity) i skróceniem czasu generacji poniżej sekundy. Zwiększenie liczby kubitów i prędkości pracy może umożliwić osiągnięcie przepustowości losowości rzędu setek bitów na sekundę – konkurencyjnej wobec NIST-owskiego Public Randomness Beacon.
Równocześnie należy liczyć się z rozwojem technik symulacji kwantowych na superkomputerach. Każda innowacja po stronie przeciwnika zmusi twórców protokołu do modyfikacji zestawów obwodów wyzwania, by utrzymać przewagę. To dynamiczna gra w kotka i myszkę – ale jest to właśnie istota badań nad bezpieczeństwem opartym na fizyce.
Zastosowania poza generowaniem liczb
Certyfikowana losowość to nie tylko statystyki – to brama do nowych protokołów kryptograficznych i komunikacji rozproszonej. Możliwe stają się też systemy wielostronnej weryfikacji losowania ważnych wydarzeń, jak wybory czy losowania loterii, bez konieczności zaufania centralnemu organowi. Pojawiają się też pomysły na hybrydowe systemy, w których kwantowe źródło losowości weryfikuje klasyczne procedury, podnosząc poziom bezpieczeństwa choćby tradycyjnych algorytmów.
Kwantowy komputer Quantinuum H2-1 pokazał, iż nie jest już wyłącznie zabawką naukowców, ale narzędziem zdolnym wykonywać praktyczne zadania. Dzięki certyfikowanej losowości pierwszy raz dostarczyliśmy dowód na realne zastosowanie RCS, uzyskując ponad 70 tys. bitów prawdziwej losowości w czasie rzędu minut. To nie tylko sukces eksperymentalny, ale zapowiedź nowych usług i produktów w obszarze bezpieczeństwa cyfrowego. Z pożytkiem dla nas wszystkich.