Komputery kwantowe o krok bliżej. Przełomowe pomiary dokładności kwantowej bramki logicznej
Po raz pierwszy w historii zmierzono dokładność dwukubitowych operacji logicznych w krzemie. Dokonał tego zespół prof. Andrew Dzuraka z Uniwersytetu Nowej Południowej Walii (UNSW), który w 2015 jako pierwszy stworzył dwukubitową bramkę logiczną w krzemie.
Wszystkie obliczenia kwantowe mogą składać się z jedno- i dwukubitowych operacji. To podstawowe budulce obliczeń kwantowych. Gdy je mamy, możemy wykonać dowolne obliczenia kwantowe, jednak precyzja obu tych rodzajów obliczeń musi być bardzo wysoka, wyjaśnia profesor Dzurak.
Od czasu, gdy w 2015 roku zespół Dzuraka stworzył pierwszą dwukubitową bramkę logiczną umożliwiając w ten sposób prowadzenie obliczeń z użyciem dwóch kubitów, wiele zespołów naukowych zaprezentowało podobne konstrukcje. Jednak dotychczas nie była znana dokładność obliczeń dokonywanych za pomocą takich bramek
Precyzja obliczeń to kluczowy parametr, który decyduje o tym, na ile dana technologia kwantowa może zostać zastosowana w praktyce. Potęgę obliczeń kwantowych można wykorzystać tylko wtdy, jeśli operacja na kubitach są niemal idealne, dopuszczalne są minimalne błędy, mówi doktor Henry Yang, współpracownik Dzuraka.
Australijscy naukowcy opracowali test oparty na geometrii Clifforda i za jego pomocą ocenili wiarygodność dwukubitowej bramki logicznej na 98%. Osiągnęliśmy tak wysoką dokładność dzięki zidentyfikowaniu i wyeliminowaniu podstawowych źródeł błędów, poprawiając w ten sposób dokładność obliczeń do takiego stopnia, że zrandomizowany test o znaczącej dokładności – tutaj 50 operacji na bramce – może zostać przeprowadzony na naszym dwukubitowym urządzeniu, dodał doktorant Wister Huang, główny autor artykułu, który opublikowano na łamach Nature.
Komputery kwantowe będą mogły rozwiązać problemy, z którymi klasyczne komputery nigdy nie będą w stanie sobie poradzić. Jednak większość tych zastosowań będzie wymagała użycia milionów kubitów, więc będziemy musieli korygować błędy kwantowe, nawet jeśli będą one niewielkie. Aby korekcja tych błędów byla możliwa, same kubity muszą być niezwykle dokładne. Dlatego też podstawową rzeczą jest ocena ich dokładności. Im bardziej dokładne kubity, tym mniej będziemy ich potrzebowali, a zatem tym szybciej będziemy w stanie wyprodukować prawdziwy komputer kwantowy, dodaje profesor Dzurak.
Australijczycy zauważają jeszcze jedną świetną informację, która płynie z ich badań. Otóż krzem po raz kolejny dowiódł,; że jest świetną platformą obliczeniową. Jako, że materiał ten jest wykorzystywany w przemyśle elektronicznym od niemal 60 lat jego właściwości, ograniczenia i problemy z nim związane zostały dobrze poznane, zatem już istniejące fabryki będą w stanie przestawić się na nową technologię.
Jeśli okazałoby się, że dokładność kwantowych obliczeń na krzemie jest zbyt niska, to mielibyśmy poważny problem. Fakt, że wynosi ona blisko 99% to bardzo dobra wiadomość. Daje nam to możliwość dalszych udoskonaleń. To pokazuje, że krzem jest odpowiednia platformą dla prawdziwych komputerów kwantowych, cieszy się Dzurak. Myślę, że w najbliższej przyszłości osiągniemy znacznie większą dokładność i otworzymy w ten sposób drzwi do zbudowania prawdziwego odpornego na błędy komputera kwantowego. Obecnie jesteśmy bliscy granicy, poza którą w dwukubitowych systemach będzie można zastosować korekcję błędów, dodaje.
Warto w tym miejscu przypomnieć, że niedawno zespół Dzuraka poinformował na łamach Nature Electronics o osiągnięciu rekordowej dokładności jednokubitowej bramki logicznej. Wyniosła ona 99,96%.
Komentarze (13)
Gość, 14 maja 2019, 20:19
Czy coś konkretnego udało się już obliczyć komputerem kwantowym? To co czytam dotychczas to wygląda mi na zwykłe bicie piany - tak chyba trzeba żeby zdobywać fundusze na badania. Czuję, że nic z tego nie będzie i że to urządzenie nigdy nie będzie wystarczająco wydajne. Przy tym stopniu skomplikowania i wyśrubowanych warunkach w jakich to musi pracować to zakrawa na cud żeby to działało.
Ergo Sum, 15 maja 2019, 09:34
Mam podobne wątpliwości. Niedawno słyszeliśmy że komputery kwantowe mające kilkadziesiąt kubitów już pokonają wszystko co możliwe na ziemi, a że są już niemal takie to lada moment czekają nas epokowe odkrycia. Teraz nagle słyszymy że potrzeba milionów kubitów żeby cokolwiek pożytecznego dokonać. Przy milionie kubitów z precyzją 99% każdy, potrzeba kwadrylionów operacji żeby jedna była prawidłowa. Nawet gdyby wydajność poprawić milion razy to i tak to jest to jakaś fantasmagoria. Jestem totalną laiczką w temacie, ale martwi mnie, że wizja odsuwa się coraz bardziej. Obawiam się że niedługo jakiś naukowiec udowodni, że zasada nieoznaczoności albo cokolwiek innego w ogóle zabrania uzyskania realnej przydatności komputerów kwantowych i całe badania szlag trafi.
Rowerowiec, 16 maja 2019, 23:04
Po co te smutki i obawy. Zwykle komputery zanim postawiliśmy je na stole lub biurku w domu, były tworzone jakieś 40 lat. Tutaj też będzie podobnie. Jest wiele barier do przejścia i to powoli się udaje. Wydaje mi się że kwantowym nie będzie zarządzał człowiek a sztuczna inteligencja. Wtedy będzie przydatny. Tak będzie.
ex nihilo, 16 maja 2019, 23:42
Całkiem nie tak to wygląda. Na milionie kubitów 99% by można osiągnąć zupełnie abstrakcyjną precyzję pojedynczej operacji.
Ergo Sum, 17 maja 2019, 11:12
Oduczmy się raz na zawsze używać argumentu typu "okrągła ziemia też była na początku wyśmiewana". Komputery kwantowe, nawet jeśli realne i skuteczne NIE SA ani okrągłą ziemią ani komputerami zwykłymi. Są miliony pomysłów które okazały się utopią. NIE WIEMY czy komputery kwantowe (czy cokolwiek innego) są utopią - a ja zaczynam sądzić że niestety tak. Moje obawy wynikają z tego że nieoznaczoność chcemy zmusić do pracy w makroskali o czym możemy się przekonać że nie jest możliwe. Dużo lepsze było by stworzenie bramek logicznych w systemie nie zero-jedynkowym lecz np. z 5 możliwymi stanami. To jakby "pół drogi" do komputerów kwantowych a sprawa całkowicie kontrolowana - lub też stworzyć hardwarowy system neuronowy który oprócz 0 i 1 ma też zapamiętaną wagę tego stanu. Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję".
Afordancja, 17 maja 2019, 11:27
hm..a jest jakaś różnica między wyborem hardwerowym a softwerowym? W kontekście tej "intuicji"?
Ergo Sum, 17 maja 2019, 11:45
jest - szybkość, energochłonność itp - która w przypadku wielkich symulacji przekracza jakiekolwiek możliwości obecnej techniki. Symulacja mózgu na systemach 0-1 jest obecnie i długo jeszcze będzie poza naszymi możliwościami. Tymczasem w przypadku logicznych bramek z kilkoma pozycjami i z pamięcią stanu było by to wielo-wielokrotnie łatwiejsze i skalowalne. IMHO
Afordancja, 17 maja 2019, 12:27
hm...
Rozumiem, czyli uważasz, że zmieniać klasycznego bita na komórkę pamięci zmiennoprzecinkową przyspieszy komputery. Bo w zasadzie chodzi o pamięć i manipulację na jej wartościach. Taki pewien tego akurat nie jestem, bo w sumie stworzenie stanów oprócz wysokiego i małego gdzieś po między nie jest technicznie problemem, jednak obliczenia na tym matematyczne w sumie nie muszą już być takie szybkie (binarnie naprawdę szybko i łatwo się liczy).
No ale chodzi tyko o szybkość jak rozumiem, bo same stany pomiędzy nic nie dają bo osiągamy je teraz softwarowo. chociaż tak na boku mogę powiedzieć, że w sumie już są chipy które służą do symulacji sieci neuronowych i tam już hardwerowo mamy neurony (właśnie z pamięcią z przecinkami) jednak ich moc polega nie na tych przecinkach a własnie na równoległym przetwarzaniu tzn. taką samą operację matematyczną robimy równocześnie na N komórkach i dlatego właśnie karty graficzne w tej branży wygrywają ze zwykłym prockiem).
Mam pewne wątpliwości było b to łatwiejsze (no ale kwestia tego jak byś to widziała), lepszej skalowalności też nie widzę (ale znów nie wiem jak Ty to widzisz w praktyce).
Podsumowując, jeśli chodzi o "intuicję" przewagi między systemami binarnymi a N-arnymi
nie ma,
Tylko wg. Ciebie różnica jest w szybkości, energetyczności itd. której nam brakuje aby symulować mózg,
To poruszając się w klasycznych komputerach uważam, że przyszłość jest w jakiejś zwykłej fizyce czy chemii i równoległej operacji na wielu komórkach pamięci, a nie wpowadzeniu N stanowych bitów bo to jest osiągalne w sumie już teraz (technicznie)
Mariusz Błoński, 17 maja 2019, 13:57
Moim zdaniem powstaną raczej hybrydy niż "czyste" komputery kwantowe. Część kwantowa takiej hybrydy będzie odpowiedzialna za zawężenie zestawu możliwych wyników do jakichś rozsądnch granic, a część klasyczna określi dokładny wynik.
Ergo Sum, 19 maja 2019, 03:04
Nie udowodniłeś tego. Udowodniłeś jedynie dwa swoje założenia - oszczędność energii na bramkach typu 0-1 i ich szybkość. Mówiąc o szybkości i energii miała w ogóle na myśli różnicę hard i soft.
Mózg pracuje inaczej niż komputer dlatego żeby go symulować musimy na symulacje jednej synapsy przeznaczać całe paczki tranzystorów, bramek i czego tam jeszcze. Po takim zadaniu problem rośnie wykładniczo w procesie ważenia, następnie kolejny wykładniczy przyrost w procesie utrwalania wyniku i kolejny w procesie ważenia tego utrwalania. A dochodzi jeszcze jeden stopień tworzenia sieci tych elementów. W przypadku miliardów neuronów to długo jeszcze będzie niewykonalne przez systemy 0-1
Symulując mózg musimy wprowadzić wagę operacji i wagę zapamiętywania tej operacji. Wprowadzenie jednego zespołu który ma te wszystkie parametry jednocześnie może na początku wymagało by znacznych energii, i działało by wolno ale przynajmniej było by wykonalne.
smoczeq, 19 maja 2019, 19:52
Jest już coś takiego:
https://www.kurzweilai.net/ibm-scientists-emulate-neurons-with-phase-change-technology
Afordancja, 19 maja 2019, 20:30
Ja nie chciałem udowadniać. Tylko chciałem raczej dociec Twój tok rozumowania, bo pisałaś (w kontekście "intuicji" )
1) wprowadzić zamiast systemu binarnego N-arny,
2) pisałaś, że "Taki system hardwarowo może wybierać co mu się "bardziej" podoba a więc może mieć "intuicję"." Tylko, że softwarowo też może wybierać co mu się "bardziej" podoba (ps. tak na prawdę to tak nie działa, że coś wybiera "bardziej").
3) Ostatecznie zrozumiałem, że chodzi tylko o energetyczność i szybkość a nie o jakąś nową jakość.
No i teraz nie wiem
(jaka jest przewaga systemu N-arnego nad binarnym w kontekście "intuicji" jak i nie wiem jaka jest przewaga systemu hadrwerowego vs softwerowego, po za oczywiście wspomnianą po za szybkością i energochłonnością. (
hm...rozumiem i nie rozumiem
otóż już takie systemy hardwerowe odnośnie symulacji neuronów istnieją i to różne, i jedne z nich używają systemu 0-1 bo to i tak wystarcz do prezentacji liczb prawie dowolnej precyzji. Bo problemem jest tutaj nie sama liczba przecinkowa tylko szybkie mnożenie wielu liczb równolegle (w zasadzie mnożenie macierzy) i binarne są naprawdę szybkie. Drugim ciekawym podejściem w branży hardwwarowego podejśćia nie jest N-stanowego (bo dalej nie widzę korzyści) jest budowanie układów nazwijmy to ciągłych które symulują bezpośrednio pewien model neuronu.
Nie rozumiem, co i czy to teraz jest niemożliwe?
Rowerowiec, 31 maja 2019, 15:45
Przecież kilkanaście lat temu powstał układ (nie pamiętam niestety dokładnej nazwy), który potrafił o rząd wielkości szybciej obliczać różne rozwiązania na bazie sieci neuronowej, tyle że miał niestety jak człowiek, pewien stały i wpisany w obliczenia gwarantowany procent błędu. Wydaje mi się, że jeśli nie dojdziemy jeszcze do opanowania korekcji błędów w komputerach kwantowych, gdzie margines błędu będzie duży, to chociaż przybliżymy się bardzo do wyników, które już na ostatnim etapie będą wymagały tylko małej mocy obliczeniowej konwencjonalnego komputera.
Afordancja, 31 maja 2019, 16:34
Szybciej niż co? Jakie obliczenia? Chodzi o klasyfikację obiektów?