HIVE ma być 1000-krotnie bardziej wydajna od współczesnych procesorów
Amerykańska DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) finansuje stworzenie nowego typu procesora. Nie von-Neumannowski układ o nazwie HIVE (Hierarchical Identify Verify Exploit) jest opracowywany przez takie firmy i organizacje jak Intel, Qualcomm Northrop Grumman, Pacific Norhwest National Laboratory oraz grupę uniwersytetów. Na rozwój układu DARPA przeznaczyła 80 milionow dolarów, całość projektu pochłonie ponad 100 milionów USD, a prace zaplanowano na 4,5 roku.
Gdy przyjrzymy się dzisiejszym procesorom, to zobaczymy, że korzystają one z architektury opracowanej przez von Neumanna w latach 40. ubiegłego wieku. CPU i GPU wykonują co prawda obliczenia równolegle, ale każdy z rdzeni to wciąż procesor von Neumanna – mówi Trung Tran, menedżer w Microsystems Technology Office w DARPA.
Żeby uświadomić sobie potrzebę opracowania nowej architektury procesora trzeba zdać sobie sprawę z faktu, że ponad 90% obecnie dostępnych danych zostało stworzonych w ciągu ostatnich kilku lat. Dane te to bezcenna kopalnia informacji dla nauki, systemu opieki zdrowotnej czy biznesu. Problem jednak w tym, że współczesne procesory nie radzą sobie z indeksowaniem, przechowywaniem i analizowaniem tych informacji.
HIVE ma przede wszystkim poprawić wydajność analizy wielkich zestawów danych korzystając przy tym z maszynowego uczenia się i sztucznej inteligencji. Będzie on w stanie analizować informacje w zupełnie odmienny sposób, niż robią to współczesne procesory, a dzięki innej architekturze będzie też inaczej pracował i w inny sposób korzystał z pamięci. Zakładamy, że do połowy 2021 roku w ramach projektu HIVE powstanie 16-węzłowa platforma demonstracyjna, której wydajność na wat będzie 1000-krotnie wyższa od najlepszych współczesnych rozwiązań – mówi Dhiraj Mallick, wiceprezes Data Center Group i dyrektor intelowskiej Innovation Pathfinding and Architecture Group.
Główną część HIVE ma stanowić „procesor analizy grafów”, który będzie w stanie tworzyć graficzne reprezentacje związków pomiędzy różnymi danymi, od oczywistych, takich jak relacje pomiędzy osobami, po mniej oczywiste, jak np. zależność częstotliwości wizyt u lekarza od środowiska geograficznego.
Prawdopodobnie większość prac sprzętowych będzie przeprowadzał Intel, którego procesory Xenon Phi są, obok układów GPU, najbliższe temu, co chce osiągnąć DARPA. Nie oznacza to, oczywiście, że HIVE będzie bazował na Xenonie Phi. Jak już bowiem zaznaczono na wstępie, ma powstać zupełnie nowa architektura.
Komentarze (7)
Ergo Sum, 12 czerwca 2017, 12:48
Pisałam o grafach do zastosowania w procesorach i systemach uczenia się artykuł na blogu jakieś 10 lat temu. Ale kto by tam słuchał "amatorki". Ma "dziwaczne wizje" i tyle.
Przemek Kobel, 12 czerwca 2017, 13:35
Maszyna von Neumanna to po prostu procesor (akumulator - czyli obecne rejestry i logika sterująca), układy wejścia-wyjścia i pamięć (wspólna dla kodu i danych - inne architektury miewają w tym miejscu swoje odchylenia).
Nie wiadomo więc, czym toto ma się różnić od tej architketury, wiadomo tylko, że w ciągu sekundy ma obrabiać grube gigabajty danych
(pewnie będzie to osobna pamięć, czyli co - architektura harwardzka i wielokanałowy kontroler pamięci?), natomiast "grafowość"
procesora nie ma polegać na "graficznej" reprezentacji czegokolwiek, tylko na łączeniu paczek danych w układach wiele-do-wielu (czyli nie drzewka, a jakieś kleksy).
Jajcenty, 12 czerwca 2017, 15:24
Czyli właśnie grafy. Zatem reprezentacja ma być bardziej "grafowa" niż graficzna.
thikim, 12 czerwca 2017, 21:09
Rok 2016:
http://www.contractrandd.com/?p=2590
a tu jest więcej:
http://www.darpa.mil/attachments/HIVE_Proposers_Day_PM_Briefing.pdf
Przemek Kobel, 13 czerwca 2017, 12:50
Tak naprawdę, to największym problemem będzie pamięć. Obecnie ona jest szybka, ale pod warunkiem, że ciągniemy dane "burstami" - najpierw jest faza adresowania pamięci, a potem leci zawartość kolejnych komórek.
Powodów takiego sposobu pracy jest wiele, ale one wszystkie sprowadzają się do tego, że ustawienie adresu zabiera czas, więc należy to robić jak najrzadziej.
To co narysowano w tej prezentacji wymagałoby ogromnych ilości pamięci statycznej, ale ponieważ to na razie nierealne, to prawdopodobnie skończy się jakimś nowym rodzajem cache'u - bo ja wiem, może pamięcią asocjacyjną, ale używającą innych danych do "kojarzenia".
gucio222, 17 czerwca 2017, 21:42
Dziwi mnie tylko niski budżet wojskowego projektu. Za tą kasę to wynagrodzenie wypłaci sobie parę managerów, jakiś prezes, generał oraz sekretarka na waciki, inżynierom zostanie z tego może ze 1oo tyś $ na opracowanie. Chyba że prezesi zlecą to za 10tyś$ jakieś hinduskiej firmie spod New Delhi
Calamity J, 18 czerwca 2017, 03:45
Niewiele z tego niestety potrafię zrozumieć. Mam wrażenie, że zamiast tego co obecnie panuje - zwielokratniania core'ów i zrównoleglania ich pracy oni chcą wprowadzić analogiczną paralelyzację na poziomie dostępu do danych. Czyli zostałaby wielordzeniowość, ale pojedyncze rdzenie będą miały jakiś nowy, niezależny mechanizm dostępu do (wspódzielonej?) pamięci / danych i dzięki temu hardware będzie bardziej odzwierciedlał sposób działania programów operujących na grafie. Problemy grafowe średnio nadają się do szatkowania i równoległego przetwarzania, więc stąd może zmiana architektury ma pozwolić na aż taki skok wydajności - rzędu 1000x.