Biurkowy potwór: Tesla Personal Supercomputer
Nvidia, wraz ze swoimi partnerami, wśród których znaleźli się m.in. Dell i Lenovo, zapowiedziała dzisiaj początek superkomputerowej rewolucji. Ma być ona możliwa dzięki maszynie Tesla Personal Supercomputer, która wykorzystuje GPGPU (General Purpose Graphic Processing Unit - procesor graficzny ogólnego przeznaczenia) Tesla oraz architekturę CUDA. Tesla Personal Supercomputer to nic innego jak superkomputer w obudowie zwykłego peceta.
Po raz pierwszy CUDA i układ Tesla zostały zaprezentowane w ubiegłym roku. Przypomnijmy, że pomysł Nvidii polega na wykorzystaniu procesora graficznego do równoległego przetwarzania innych danych niż informacje dotyczące wyświetlania grafiki. Dzięki temu, że nowoczesne graficzne są zwykle bardziej wydajne niż CPU, możemy uzyskać dodatkowy przyrost mocy.
Z kolei CUDA (Compute Unified Device Architecture) to zestaw narzędzi, który umożliwia developerom tworzenie w języku C aplikacji dla Tesli i nie tylko dla niej, gdyż w niezbędne komponenty CUDA zostały wyposażone także sterowniki dla nowych procesorów z serii GeForce oraz Quadro.
Technologią CUDA zainteresował się przede wszystkim świat naukowy. Nic dziwnego, gdyż to właśnie na uniwersytetach i w instytucjach badawczych najbardziej przydaje się wysoko wydajne przetwarzanie wielowątkowe. Już teraz wiadomo, że w porównaniu z komputerem wyposażonym tylko w procesor x86 maszyna dodatkowo wykorzystująca technologię CUDA charakteryzuje się od 18- (kodowanie wideo) do nawet 149-krotnie (symulacje finansowe) zwiększoną wydajnością. Na University of Utah komputer z CUDA zapewnia 146-krotnie szybszą pracę przy obrazuwaniu medycznym, a uczeni z University of Maryland 30-krotnie szybciej dokonują sekwencjonowania genomu.
O zainteresowaniu technologią Nvidii świadczy też fakt, iż kursy programowania dla CUDA są prowadzone na ponad 50 uczelniach wyższych, a na całym świecie już 25 000 programistów pracuje z tą technologią.
Wraz z wydajnością idzie oszczędność energii. Serwer Tesla S1070, z którego korzystają m.in. firmy Chevron, Petrobras, Motorola czy Kodak i takie uczelnie jak uniwersytet w Heidelbergu, University of Maryland, Rice University czy Chińska Akademia Nauk, zapewnia 18-krotnie większą wydajność na wat niż serwer z procesorami x86.
Nvidia wraz z partnerami postanowili jednak pójść dalej. Ogłosili powstanie gotowego biurkowego superkomputera Tesla Personal Supercomputer. Jego maksymalna wydajność może wynieść do 4 teraflopsów, zapewnianych dzięki 960 rdzeniom i 4 procesorom (prawdopodobnie Tesla C1060). Komputer pracuje ze standardowymi edycjami Windows i Linux (w przyszłości także Mac OS X), a jego cena wyniesie mniej niż 10 000 dolarów.
Innymi słowy, jak zapewnia Nvidia, każdy z zainteresowanych naukowców może nabyć maszynę o 250 razy bardziej wydajną niż pecet i 100 razy tańszą niż wysoko wydajny klaster. Za stosunkowo niewielką cenę zyska peceta o wydajności superkomputera.
Z przeprowadzonych przez Nvidię testów wynika, że Tesla Personal Supercomputer znacząco przyspiesza wykonywanie zadań typowych dla przemysłu i nauki. I tak na przykład czas wykonania przeciętnego zadania z zakresu chemii skraca się z 4,6 dnia do 27 minut, modelowanie w neurologii trwa nie 2,7 doby, a pół godziny. Z kolei trójwymiarowa ultradźwiękowa tomografia komputerowa zajmie 16 minut zamiast dotychczasowych 3 godzin.
Jak już wspomniano, Nvidia i partnerzy kierują swoją ofertę do naukowców i inżynierów, których liczbę oceniają na 15 milionów na całym świecie.
Oczywiście pojawienie się Tesla Personal Supercomputer nie oznacza, że na tym kończą się możliwości architektury CUDA. Można ją dalej skalować tworząc standardowy klaster obliczeniowy, który będzie 5000 razy bardziej wydajny od zwykłego peceta, a jego cena zamknie się w granicach od 100 000 do miliona dolarów.
Niewykluczone zatem, że już wkrótce na listę 500 najpotężniejszych superkomputerów na świecie trafią pierwsze maszyny z architekturą CUDA.
Komentarze (10)
thibris, 18 listopada 2008, 09:50
Teraz każda uczelnia będzie mogła sobie pozwolić na taki "superkomputer" - rewelacja. Ciekawe jak się to przełoży na przyspieszenie wszelakich eksperymentów - które do tej pory były obrazowane/obliczane baaardzo długo. Ile eksperymentów w ogóle ruszy z miejsca, gdyż pojawią się zasoby na takie obrazowanie/obliczenia na maszynach dostępnych na uczelni.
Sam bym chciał zobaczyć o ile wzrośnie liczba przetwarzanych próbek w Seti@home przez standardowy komputer z technologią CUDA.
lililea, 18 listopada 2008, 10:13
No ale żeby przyspieszyć obliczenia trzeba nowe oprogramowanie.
Programowanie na maszyny wieloprocesorowe jest w powijakach cały czas...
thibris, 18 listopada 2008, 11:30
Tylko patrząc na możliwości procesorów wielordzeniowych a architektury CUDA i systemu Tesla Personal Supercomputer podejrzewam, że więcej ludzi będzie chętnych programować to cacko niż zwykłe procki. Dodatkowo (domniemywam tylko) oprogramowanie do obrazowania i obliczeń (którymi Ci naukowcy się zajmują) i tak pewnie musiało być tworzone od podstaw. Więc nie powinno być problemu między wyborem - robić program na zwykły procesor, czy robić program do obsługi CUDA.
lililea, 18 listopada 2008, 12:46
Zobaczymy, nie byłabym tak optymistycznie nastawiona.
To nie jest mały soft, stworzenie go od podstaw też nie kosztuje mało.
Pewnie studenci będą klepać.. ;D
thibris, 18 listopada 2008, 14:18
Dotychczas też studenci klepali + inżynierowie z danej uczelni i jakoś im razem wychodziło. Teraz też dadzą sobie radę. Na szczęście programuje się to w starym dobrym "C", więc trudności "leksykalnych" być nie powinno. Zauważ też że:
Śmiem twierdzić że starczy
lililea, 18 listopada 2008, 15:04
No... moje współczucie, programowanie dużego kodu w starym dobrym C, bywa... cóż... nieprzyjemne, chodź fakt że efektywność programowania w tym języku jest często dobrą nagroda nawet na normalne komputerki.
itneron, 18 listopada 2008, 16:22
@lililea nie wiem skąd Twój brak wiary w dzisiejszych programistów W starym, dobrym C klepią od dawna i nie przeszkadza im, że to jest nieprzyjemne. Do tego typu zastosowań język nie może być "za bardzo" wysokopoziomowy, bo liczy się wydajność i elastyczność,a nie szybkość tworzenia oprogramowania. Lepiej tworzyć program dłużej, i krócej czekać na obliczenia, niż szybko "poskładać program z klocków" i patrzeć jak się wlecze
Pozdrawiam
Krystus, 19 listopada 2008, 17:39
Niestety coraz mniej ludzi tak uważa. Dla wielu liczy się już tylko Java albo C# "...a procesor jest od tego żeby liczył". :
thibris, 19 listopada 2008, 18:56
Dla jakich wielu ? Dla tych którzy się zajmują obliczeniami na klastrach uczelnianych ? Czy dla tych co się zajmują aplikacjami webowymi ? Bo mówiliśmy o tych pierwszych. Dla nich Java nie nadaje się do niczego - bo za wolna. C zdecydowanie wygląda na najlepsze rozwiązanie...
Tomek, 20 listopada 2008, 01:57
Na coś trzeba wykorzystać potencjał