IEEE tworzy standard komputera kwantowego
IEEE Standards Association, wchodzące w skład Instytutu Inżynierów Elektryków i Elektroników (IEEE), pracuje nad stworzeniem międzynarodowego standardu komputera kwantowego. Trwające prace nad standardem IEEE P7130 mają ułatwić dostęp do technologii kwantowych szerszej grupie deweloperów, matematyków, inżynierów, biologów czy klimatologów. William Hurley, przewodniczący IEEE Quantum Computing Working Group mówi, że w standardzie zostaną zdefiniowane terminy związane m.in. z kwantowym tunelowaniem, superpozycją, splątaniem oraz wszelkie terminy pokrewne, odnoszące sie nie tylko do fizyki maszyn kwantowych. Obecnie nad komputerami kwantowymi pracuje wiele ośrodków i często, właśnie ze względu na brak jednoznacznych standardów, trudno jest im sie ze sobą komunikować.
W działaniach na rzecz powstania IEEE P7130 bierze udział wielu różnych graczy, od IBM-a, który od ponad 30 lat pracuje nad komputerem kwantowym, po niewielką kanadyjską firmę 1Qbit opracowującą algorytmy ogólnego przeznaczenia dla komputerów kwantowych i niestandardowych procesorów. Świat nauki reprezentuje m.in. Tokijski Instytut Technologiczny i wciąż zgłaszają się kolejni zainteresowani. Łączymy startupy, legendy świata IT oraz wielkie korporacje. Chcemy, by nasza grupa miała dobre kontakty ze wszystkimi zainteresowanymi, w tym ze światem nauki, mówi Hurley.
Na razie grupa firm i osób pracujących nad komputerami kwantowymi jest dość mała, ale szybko się rozrasta. Analitycy z firmy Morgan Stanley przewidują, że w następnej dekadzie rynek najpotężniejszych komputerów wzrośnie dwukrotnie. Ich zdaniem firmami, które mają największe szanse na skomercjalizowaniu swoich prac nad kwantowym komputerem są IBM, Google, Microsoft i Nokia Bell Labs.
Google testuje obecnie 20-kubitowy procesor, a przed końcem roku ma posiadać 49-kubitowy układ. Microsoft bardzo dużo inwestuje w prace nad kwantowymi komputerami skupiając się nad opracowaniem skalowalnego sprzętu i oprogramowania korzystającego z tzw. topologicznego kubita. Z kolei IBM przed czterema miesiącami poinformował, że stworzył i przetestował swój najpotężniejszy procesor kwantowy ogólnego przeznaczenia, który powstał w ramach inicjatywy IBM Q.
Intensywne prace prowadzone przez przemysł skłoniły IEEE do rozpoczęcia prac nad standardem dla komputerów kwantowych.
Obecnie w portfolio IEEE znajduje się ponad 1200 obowiązujących standardów, a organizacja pracuje nad 650 kolejnymi. Hurley mówi, że dobrym punktem wyjścia jest stworzenie obowiązujących definicji, gdyż firmy zachwalające swoje kwantowe osiągnięcia używają tych samych określeń na opisanie różnych rzeczy. Jako potencjalny klient jestem w tym zagubiony, stwierdza Hurley. Ma on nadzieję, że zarys standardu pojawi się już w przyszłym roku i specjaliści zaczną go używać jako punktu odniesienia.
Komentarze (4)
Superman, 5 września 2017, 13:19
thikim, 5 września 2017, 14:45
Mało, dużo- zależy z czym porównujemy
No i ośrodki a firmy i osoby to niekoniecznie to samo.
Mało, dużo- zależy z czym porównujemy
Zły pomysł. Najpierw należy dać walczyć konkurencyjnym modelom. Dopiero praktyka pokaże co jest warte ustandaryzowania. Rynek komputerów kwantowych dopiero się rodzi. Standaryzować należy to co się rozumie
pogo, 5 września 2017, 15:14
Z tego co rozumiem to chodzi o ustandaryzowanie słownictwa, bo:
peceed, 6 września 2017, 02:20
Standaryzacja nie dotyczy jakiejkowiek architektury, a jedynie nomenklatury. Dzięki temu nowo wybudowane komputery kwantowe będą mogły być jednoznacznie charakteryzowane.
Zyski ze standaryzacji architektur będą znikome - koszty takich komputerów z pewnością bedą olbrzymie, aby w pełni wykorzystać ich możliwości będzie się programować "do metalu", przy czym wykonywane tam obliczenia ograniczą się oczywiście do jakichś kwantowych kerneli obliczenowych. Nikt jeszcze nie zademonstrował użytecznego kwantowego komputera cyfrowego.
Osobiście mam podejżenia, że w praktyce nie uzyskamy dowolnego skalowania obliczeń kwantowych. W pewnym momencie przyrost wydajnosci ze zwiększania ilości qbuitów musi być całkowicie pożarty przez wykładniczo skracany z ilością qbitów czas obliczeń (dekoherencja), to mój taki mały no-go theorem dla skalowalenego kwantowego speedupu. Problem czy to N może być wystarczająco wielkie aby uzyskać przewagę nad klasycznym komputerem po uwzględnieniu rozmiaru i poboru mocy całej aparatury jest otwarty.