Rozważania o przyszłości superkomputerów
Podczas odbywającej się właśnie w Portland konferencji SC09, zebrani zastanawiają się nad przyszłością superkomputerów. Na organizowanych przez Departament Energii warsztatach trwają rozmowy o systemach 1000-krotnie bardziej wydajnych niż Jaguar, obecny lider listy TOP500.
Mowa zatem o systemach, których wydajność będzie liczona w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę. Potrzebujemy tak potężnych systemów do tworzenia dokładnych modeli klimatycznych, prac nad wydajnymi bateriami czy pozyskiwaniem energii z fuzji jądrowej.
Przedstawiciele Departamentu Energii, który sfinansował wiele najpotężniejszych superkomputerów na świecie, twierdzą, że w latach 2011-2013 powstanie system o wydajności około 10 petaflopsów. Pierwszy komputer, który przekroczył barierę teraflopsa powstał w 1997 roku, a w 2008 pokonano petaflops. Eksaflopsowa maszyna ma pojawić się około 2018 roku.
Twórcy takiego systemu będą musieli rozwiązać wiele problemów, a jednym z najpoważniejszych będzie zapewnienie mu odpowiedniej ilości energii. Jaguar potrzebuje do pracy 7 megawatów, a nieco mniej wydajny Roadrunner - 3,9 MW. Zdaniem Dave'a Tureka z IBM-a eksaflopsowa maszyna będzie potrzebowała około 2 gigawatów mocy. Skąd tak olbrzymi pobór? Szacunki mówią, że komputer o wydajności eksaflopsa musi zostać wyposażony w 10-100 milionów rdzeni obliczeniowych. Turek sądzi, że bardziej dokładne są szacunki bliżej górnej granicy. To z kolei rodzi kolejne problemy. Tak olbrzymia liczba rdzeni będzie oznaczała liczne awarie, a więc trzeba skonstruować narzędzia do diagnostyki i naprawy superkomputera.
IBM już teraz pracuje nad zapobieżeniem wielu problemom. Błękitny Gigant chce stworzyć eksaflopsowy system, który do pracy będzie potrzebował nie więcej niż 20 megawatów i zmieści się w 70-80 szafach. Rozwiązaniem może być tworzenie systemów hybrydowych, które z jednej strony będą korzystały z procesorów różnych producentów, a z drugiej będą używały do obliczeń nie tylko CPU ale i GPU.
Komentarze (2)
sig, 16 listopada 2009, 20:50
Przy tego typu zadaniach zwykle wykonuje się te same obliczenia na rożnych zbiorach danych, tak wiec GPU sprawdzi sie dużo lepiej. Podejrzewam że przyszłość będzie należała do bardziej rozbudowanych wersji tesli od nvidii, wspartych kilkoma rdzeniami ogólnymi (na czymś trzeba system operacyjny uruchomić). Poza tym czas krzemu dobiega końca, procesory magnetyczne czy też optyczne nie będą już tak "prądożerne". Swoją drogą przy tego typu mocach można by pomyśleć nad zamianą ciepła z powrotem w prąd, co rozwiązało by przynajmniej część problemów (mniej mocy trzeba dostarczyć z zewnątrz = mniej awarii)
mef, 16 listopada 2009, 22:38
Urządzenie do odzyskiwania energii też mogło by ulec awarii.