Fermi - przyszłość według Nvidii
Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia.
Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA.
Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji.
Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2.
Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM.
Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego.
Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy.
Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL.
Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego.
Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.
Komentarze (10)
scanner, 1 października 2009, 18:56
A te rdzenie i procesory to ile zasilaczy będą potrzebowały do stabilnego działania?
I czy chłodzenie powietrzne jeszcze wystarczy?
Może tak bardziej skupić się na odejściu od krzemu a nie na upychaniu tranzystorów?
Tolo, 1 października 2009, 19:29
Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy procesorów.
Chyba chodzi o najzwyklejsze tranzystory.
Mariusz Błoński, 1 października 2009, 19:58
Dokładne tak.
Dzięki.
biceps, 2 października 2009, 00:26
Wg pracownika NV karta nie pobiera więcej prądu niż dzisiejsze rozwiązania. A co do chłodzenia powietrzem to tak jak na fotkach, jest chłodzona powietrzem
lucky_one, 2 października 2009, 08:45
Ehhh... jeszcze nie zdążyłem kupić GeForce'a z serii 8 ani dwurdzeniowego procesora, a tu już się szykuje kolejna zmiana Biedni to mają ciężko..
marximus, 2 października 2009, 11:36
może wreszcie karta graficzna nie będzie wykorzystywana tylko w czasie grania, łatwiej będzie wydać na nią kasę skoro będę miał świadomość że oprócz grania będę ją wykorzystywał w codziennych zadaniach
Przemek Kobel, 2 października 2009, 11:42
Ta firma nie produkuje układów scalonych, więc odejdzie od krzemu wtedy, kiedy zrobi to TSMC (czy kto tam teraz jest zleceniobiorcą nvidii).
scanner, 2 października 2009, 11:53
Przemku, nie wmówisz mi, ze producenci sprzętu nie mają wpływu na postęp technologiczny, że nie mają udziału i wiedzy w aktualnych badaniach i planach. Tym bardziej producenci sprzętu komputerowego, który w znacznej mierze nakręca światową gospodarkę i zapewnia rzekę pieniędzy płynącą do kasy.
Przemek Kobel, 2 października 2009, 15:04
Nvidia to tzw. firma typu fabless. Oni projektują układ na podstawie swoich założeń, testują wszystko na symulatorze, wrzucają projekt do dostarczonego przez fabrykę "kompilatora", to potem leci na taśmę i po trzech tygodniach wracają fizyczne sample do testowania. Kilka razy nvidia przejechała się na zbyt szybkim przejściu na nowy proces proponowany przez TSMC, więc najwyraźniej nie brali udziału w pracach nad "gęstszymi" technologiami fotolitograficznymi. Ale firmy tego rodzaju mogą mieć spory udział w powstawaniu technologii umożliwiających używanie częściowo uszkodzonych struktur (patrz: geforce mx i inne "osłabione" karty graficzne).
Mariusz Błoński, 2 października 2009, 16:05
@scanner: Skoro z krzemu nie rezygnują IBM i Intel, którzy mają znacznie większą swobodę w tym zakresie niż ktokolwiek inny, to znaczy, że obecenie porzucenie krzemu jest niemożliwe (i nieważne, czy z przyczyn technologicznych czy biznesowych). Przypuszczam też, że pojedyncza firma i tak sama niewiele wywalczy. Cały przemysł pewnie musi być na to gotów. Intel jest w końcu zależny od producentów płyt głównych, pozespołów do nich, a przede wszystkim od producentów narzędzi, które wykorzystuje w swoich fabrykach.