Microsoft o procesorze HoloLens
Microsoft zdradził pierwsze szczegóły na temat procesora dla HoloLens. Produkowany przez TSMC 28-nanometrowy układ wykorzystuje 24 rdzenie Tensilica DSP, 8 megabajtów cache'u i 65 milionów tranzystorów. Zmieszczono też w nim gigabajt pamięci LPDDR3. Rdzenie Tensilica zostały wybrane ze względu na ich elastyczność. Microsoft dodał do nich 300 własnych instrukcji. Jeśli nie doda się własnych instrukcji, dokładność wykonywania obliczeń nie jest taka, jakiej sobie życzymy - mówił Nick Baker z Microsoftu.
Wiadomo też, że nowy układ jest w stanie przeprowadzić w ciągu sekundy bilion operacji na pikselach i zużywa przy tym mniej energii niż 4-watowy intelowski Cherry Trail SoC, który jest głównym procesorem HoloLens. HoloLens Processing Unit (HPU) przyjmuje dane z pięciu kamer, czujnika odległości i czujnika ruchu. Rozpoznaje też gesty i jest w stanie tworzyć mapy otoczenia. Dane są kompresowane i wysyłane do intelowskiego procesora.
HPU zapewnia 200-krotnie szybsze przetwarzanie danych w porównaniu z akceleratorami programowymi. Wiadomo też, że układ jest częścią HoloLens Developer's Kit, który został udostępniony w marcu i kosztuje 3000 USD.
Komentarze (7)
xpil, 24 sierpnia 2016, 12:55
"...jest w stanie przeprowadzić w ciągu sekundy bilion operacji..."
Bilion operacji na sekundę? Przypominam, że angielskie "billion" to po naszemu "miliard". No chyba że jajogłowi z M$ faktycznie wykombinowali jak wykonać bilion operacji na sekundę. Tylko gdzie znaleźć bilion pikseli? Musielibyśmy pracować w rozdzielczości 10,000 x 10,000 i z prędkością 10,000 klatek na sekundę...
Arlic, 24 sierpnia 2016, 13:21
Zakładając, że obraz był czarno-biały, nie zmieniał się w czasie, nie działała żadna inna operacja oraz, że każda z tych operacji trwała 1 cykl zegarowy - a te założenia są błędne..
Jeżeli ten układ ma wyspecjalizowane jednostki pod daną operacje - to czemu nie bilion instrukcji na sekundę.
rahl, 24 sierpnia 2016, 13:45
Aktualnie produkowane CPU mobilne osiągają wydajność na poziomie 1GFLOP i więcej. Osiągnięcie podobnej i nawet sporo wyższej wydajności w układzie specjalizowanym nie stanowi na dzień dzisiejszy żadnego problemu.
Przetwarzanie obrazu jest to proces znacznie bardziej skomplikowany i wymagający obliczeniowo niżby to wynikało z ilości przetwarzanych pikseli. Wystarczy popatrzeć na wydajność topowych GPU (9000 Gflops), która ciągle jest zbyt mała do Raytracingu w czasie rzeczywistym.
Przemek Kobel, 24 sierpnia 2016, 14:49
Raytracowanie w czasie rzeczywistym? Z tego co kojarzę, w przemyśle filmowym nie robi się tego nawet w czasie nie-rzeczywistym. Wystarczająco dobre rezultaty dają serie uproszczonych efektów dopasowanych do danej sekwencji, niż pełny raytrace w wysokiej rozdzielczości i jeszcze z odpowiednio dużym AA. Co i tak nie jest w stanie pobić metod Lucasa, który np. zamiast engine'ów do generowania dużej ilości ludzików, użył pomalowanych patyczków z watą.
A tak w ogóle ten HPU podobno niczym sie nie różni od układów GPU (nie licząc tego, że jest od nich dużo słabszy).
thikim, 24 sierpnia 2016, 15:59
Jak najbardziej realne i to od dawna. Mówimy tu o procesorach DSP.
http://gdr.geekhood.net/gdrwpl/heavy/studia/Lecture2007%23C__Procesory.pdf
xpil, 24 sierpnia 2016, 19:05
Cholera, prawdę mówicie. Zwracam honor. Chyba muszę nadgonić zaległości
rahl, 24 sierpnia 2016, 19:13
Nie robi się tego, ponieważ brak mocy obliczeniowej i tyle, nie ma w tym żadnej filozofii ani drugiego dna. Nawet potwory obliczeniowe oparte na 12 Teslach są do tego za słabe.
"nie robi się tego nawet w czasie nie-rzeczywistym" = w czasie rzeczywistym.
Skoro twoim zdaniem używają uproszczonych modeli to ciekawe dlaczego generowanie kilkudziesięciu-sekundowej sceny zajmuje render-farmom całe godziny (czasami nawet dni).