Windows i 128 bitów?
Microsoft pracuje nad 128-bitowymi wersjami Windows 8 i Windows 9. Takie informacje zdradził na swoim profilu w serwisie LinkedIn Robert Morgan, pracownik działu Microsoft Research.
Profil Morgana został już usunięty z Sieci, jednak można go znaleźć w cache'u wyszukiwarki Google. Morgan, opisując swoje doświadczenie zawodowe, stwierdza: "Pracuję w departamencie zajmującym się badaniami i rozwojem, w którym powstają długoterminowe plany strategiczne. Jednym z projektów R&D są prace nad 128-bitową architekturą kompatybilną z jądrem Windows 8 i Windows 9".
Specjaliści już od pewnego czasu apelują, by Microsoft porzucił produkcję 32-bitowych wersji systemu operacyjnego. Windows 7 ma być ostatnim systemem z Redmond, który będzie oferowany w edycjach 32-bitowych. Dotychczas spodziewano się jedynie, że Windows 8 ukaże się tylko w wersji 64-bitowej. Teraz okazuje się, że być może będzie i wersja 128-bitowa.
Komentarze (17)
Przemek Kobel, 8 października 2009, 16:53
Okej, a ktoś ma sugestie co do CPU, który miałby jakąś realną przewagę nad dzisiejszymi hybrydami 32/64?
ciembor, 8 października 2009, 21:04
Jest jedna zaleta. Zmiana architektury ożywia rynek, przez co szybciej wdrażane są inne udogodnienia technologiczne.
mikroos, 8 października 2009, 21:07
Jasne. Wszystko będzie super do momentu, w którym za parę lat się okaże, że razem z komputerem musisz wymienić lodówkę i piec CO, bo okaże się, że są niekompatybilne z systemem zarządzania w coraz bardziej zinformatyzowanym domu.
macintosh, 8 października 2009, 21:59
Obecnie wąskimi gardłami są dyski twarde.
Tolo, 8 października 2009, 22:32
Zastanawiam się czy to przeciek przypadkowy czy specjalny.
Jeśli to przypadek to znaczy ze Windowsa tworzą kretyni.
Jeśli specjalny to pytanie co on ma na celu.
Jest jeszcze jedna opcja ze to fake.
Nic nie stoi na przeszkodzie temu żeby na jakimś portalu tego typu pojawił się profil Romka Kowalskiego pracującego dla firmy x czy y zdradzającego tajne plany
Pomyślcie jaki ferment by wywołał Romek na przykład nowym projektem NK czy gg albo jakiegoś prtalu który polegałby na powiedzmy (żeby było kontorwersyjne) geolokalizacji użytkowników w oparciu o treści rozmów maili czy fotek w celach marketingowych. News by się z nalazł na kilku poważnych i mniej poważnych portalach pewnie by się wypowiedzieli jacyś eksperci może by i rzecznika GIODO przywołana do tablicy. Rzecznicy firm by oczywiście dementowali ale znalazła by się grupa wyznawców twierdząca ze to spisek światowy albo tylko lokalny albo ze tak naprawdę stoją za tym służby specjalne i ze to nie prawda co mówią rzecznicy.
Jeszce jedna dygresja na ten temat, chociaż wiemy już ze ms chce nas doić raz na 3 lata. To by się mogło nawet kupy trzymać no bo powiedzcie sami czym m$ może świat zaskoczyć raz na 3 lata? No nie za bardzo niczym wielkim i dla tego nie trzyma kompatybilności wstecz i cały czas próbuje robić coś nowego.
No ja rozumie ze wszystko idzie do przodu i nawet bilowi g przypisuje się słowa o 640 kilobajtach pamięci niezależnie od tego czy to on czy nie on, kiedyś te słowa miały sens one śmieszą dziś, ale do rzeczy. 3 lata to według mnie za krótki okres na tworzenie systematycznie czegoś nowego po prostu można się wystrzelać.
Weźmy takiego xp to jest system który oferuje użytkownikom funkcjonalność i niezawodność i kilka innych rzeczy na poziomie jaki można uznać za akceptowalny na tyle by nie chcieć się tego pozbyć bez dodatkowych "przekownywaczy" a to był dość poważny motor sprzedaży windowsów. No i to jest gwoźdź do trumny m$. Oni muszą ciągle robić coś co będie lepsze nie mogą zrobić czegoś o czym powiedzą ze jest tak samo dobre jak poprzednik. Ja ciągle jestem zdania ze jeśli ms nie zmieni taktyki to sie kiedyś wystrzela.
Swoją drogą to tez dość ciekawe ze robią już 8 ale zastanawiają się co by tu do 9 dołożyć żeby było lepsze od 8 jak nic mądrego nie wymyśla to okroją 8 tak żeby się nie musieć wysilać przy 9 a kasiorke na nowym zarobić tak jak to było z 7 który miał być czymś innym niż jest.
A te 128 bitów to mnie troszkę straszy. Chyba tylko po to żeby dynamika na rynku była bo coś produkować trzeba. Mam core 2 duo jakiegoś nie najgorszego gf do tego jakiś dysk i to jest w stanie uciągnąć win/lin i do tego 2 systemy w virtualboxie i dalej da się tego używać. Podejrzewam ze ten sprzęcik powinien mi służyć jeszcze klika latek. Ale to nie jest zdrowe jak ludzie kupują sprzęt pod system operacyjny to jest wręcz chore bo to jest kolejna banka która kiedyś pęknie.
Mariusz Błoński, 9 października 2009, 01:24
Ja tu widzę inne ciekawe info. Jeśli MS pracuje nad Windows 9, to znaczy, że ew. nastepca Windy ma ja zastapic nie wczeniej niz za 9-15 lat.
Przemek Kobel, 9 października 2009, 11:08
Kości nvidii raczej nie zastąpią procesorów ogólnego przeznaczenia. Tak samo jak nie zrobiły tego procesory wektorowe (w zasadzie to to samo co MMX-SSE i właściwie GPU), ani procesory DSP.
A wąskich gardeł jest więcej. Np. łączność (ethernet), kontroler pamięci czy ogólnie kontrolery magistrali rozszerzeń (teraz to PCI w różnych odmianach). Kiedyś zdarzało się spotkać systemy "dobrze wyważone", tzn. takie, w których cała maszyna miała "zgrane" parametry wszystkich tworzących ją elementów. Teraz niestety rozsądek przegrywa i zdarzają się np. procesory, które teoretycznie mogą przetworzyć x informacji, podczas gdy są w stanie odebrać/wysłać gdziekolwiek tylko 0.2x (włączając w to cache).
A co do tematu głównego - w tej chwili procesory nawet nie są w pełni 64-bitowe (magistrala adresowa jeszcze nie dobiła do 40 bitów), więc te 128 to delikatnie na wyrost chyba.
wilk, 10 października 2009, 01:28
Architektura x-bitowa nie determinuje fizycznej szerokości magistrali, a rozmiary rejestrów.
Przemek Kobel, 12 października 2009, 14:37
A właśnie nie. Motorola 68000 - podstawa komputerów Atari ST, Amiga i wczesnych Maków, była powszechnie uznawana za procesor 16-bitowy. A wewnątrz było osiem rejestrów danych i osiem adresowych - wszystkie miały po 32 bity bez żadnych sztuczek z podwórka w x86. Dodam, że 13 trybów adresowania w 68k to były autentycznie różne sposoby obliczania adresu wynikowego, a nie tylko użycie do adresowania innych rejestrów (jak to wymyślił sobie Intel).
68030 mimo właściwie identycznego assemblera była już 32-bitowa. Różnica była tylko w liczbie nóżek adresowych i danych. No i w MMU.
Poza tym, gdyby nawet popatrzeć na świat Intela po ichniemu, to 8086 nie był 16-bitowy, tylko po części 20-bitowy. A z kolei 8080 (czy też Z-80 z pamiętnego ZX-Spectrum) miał jako żywo możliwość używania rejestrów w trybie 16-bitowym.
Już jest jaśniej?
wilk, 13 października 2009, 00:48
No tak, ale co tutaj sprzecznego z tym co napisałem? Ten procek i tak był wewnętrznie 32-bitowy. Z podobną sytuacją mieliśmy do czynienia przy 386SX. Nie potrafię jednoznacznie powiedzieć Ci skąd to powszechne przekonanie o 16-bitowości, bo programowanie asemblera pod tym prockiem mnie niestety ominęło. Możliwe, że wina tkwiła właśnie w nim i nie zawierał on adresowań 32-bitowych we wszystkich trybach. Bardziej prawdopodobne jednak jest to, że takie przekonanie płynie zwyczajnie z powodu 16-bitowej szyny danych i różnic w nomenklaturze oznaczeń, wówczas więc i 386SX musiałby być nazywany 16-bitowym, a nie jest. Zwyczajnie w pewnym momencie przestano określać bitowość architektury szerokościami szyn, a zaczęto brać pod uwagę wewnętrzną architekturę.
Bo miał szynę adresową 20-bitową? Ale ona była adresowana w trybie segment:offset - oba po 16 bitów, więc de facto może powinniśmy nazywać go 32-bitowym? No proszę Cię...
Tylko, że oba miały 8-bitowy akumulator, tudzież w skrócie główny rejestr nie dało połączyć się w parę. Natomiast wspomniany wyżej 8086 miał ALU całkowicie 16-bitowe.
A było w ogóle ciemno?
Przemek Kobel, 13 października 2009, 12:55
Offset był starszy od segmentu tylko 4 o bity. 16+4...
Co daje przewagę trzy do jednego na korzyść 16-bitów (jak kto się uprze to nawet sześć)
Wszystkie tryby były 32-bitowe. Istniały skróty, np. można było podać 16-bitowy ujemny adres, który był tłumaczony na 32 bity z początkowymi FF (bardzo pożyteczne - można było szybciej wykonywać operacje na wysokich obszarach adresowych), albo podać 16-bitowy adres w trybie względnym (krótkie pętle, odgałęzienia), można też było ładować kawałki rejestrów (16 albo 8 bitów), ale to wszystko. Od strony sprzętu magistrala adresowa nie zawierała A0 (bo adresowała słowa a nie bajty) i próba uruchomienia kodu bądź wykonania operacji 16- lub 32-bitowej od nieparzystego adresu bajtowego dawała wyjątek. W 68030 zostało to "poprawione", ale efekt był taki, że nieparzyste adresy były przetwarzane prawie o połowę wolniej (trzeba było pobrać dwa słowa do jednej operacji).
Myślę, że przypisywanie procesorów do poszczególnych generacji to teraz bardziej sprawka marketingowców niż inżynierów.
wilk, 13 października 2009, 18:32
Tak. Segment*16+offset = adres wynikowy. Ale w dalszym ciągu adres był wskazywany przez dwa rejestry 16-bitowe (a nie rejestr 16 bitowy i 4 bitowy). Arytmetyką wyliczania zajmował się procek i dopiero na końcu wychodziło 20 bitów. Fakt ten pozwalał na wskazywanie tego samego miejsca przez różne adresy, choć przyjmowało się dopełnianie rejestru segmentowego w celu normalizacji adresu.
Nawet gdyby nie byłoby owego nakładania i adres wynikowy byłby 32-bitowy, to i tak nie zrobiłoby to z 8086 procesora 32-bitowego. Miej na uwadze to, że większość procesorów 8-bitowych jak 6800, 8080, 6502, 8051 ma licznik programu 16-bitowy.
Nie zgodzę się. Zwróć uwagę na 64-bitowe rejestry MMX obecne już od czasów procesorów klasy 586, które de facto nakładały się na rejestry zintegrowanego FPU, a mimo to nawet oceniając według wewnętrznej architektury nie nazywamy tych procesorów 64-bitowymi (czy 128-bitowymi z powodu SSE).
wilk, 13 października 2009, 18:52
Ach, zapomniałem jeszcze o jednym i przepraszam za podwójnego posta. Otóż:
Tutaj trzeba by spojrzeć na schemat strukturalny czy to były faktycznie rejestry 16-bitowe mapowane na dwa rejestry B+C, D+E itd. (tak jak mamy w przypadku np. RAX>EAX>AX=AH+AL). Czy też dwa rejestry 8-bitowe, które to dopiero "procesor" sklejał w określonym trybie adresowania w jeden. Obstawiam ten drugi wariant.
Przemek Kobel, 16 października 2009, 14:52
To nic nie da, bo i tak zawsze można będzie podać kontrprzykład. Może MC68K był po prostu zbyt dobry i nie łapał się na ówczesne definicje (jego architektura jest używana do dzisiaj, do niedawna jako Dragonball w palmach, teraz już chyba tylko mikrokontrolery).
wilk, 16 października 2009, 15:43
Tutaj nie sposób nie przyznać Ci racji, to był niezły procesor, choć słowa uznania należą się również całemu podsystemowi AGA (w tym rewelacyjnie uzdolnionej muzykalnie Pauli), dzięki czemu zdobył on sporą popularność.
krzabr, 19 października 2009, 01:00
Już jest pierwszy częściowy procesor 128 bitowy :
http://forums.amd.com/devblog/blogpost.cfm?threadid=88161&catid=271
Co do kart graficznych to ich moc obliczeniowa jest wielokrotnie silniejsza niż cpu jednak obsługuje ona tylko najprostsze instrukcje i nie ma dobrego jezyka programowania dla GPU . Więc póki co sukcesy święcić będą technologie typu OpenCL , a sytuacji cpu może odmienić zwyczajny socket translacyjny zbliżony do tego jaki został zainstalowany w sicortexie lub rozszerzenie zaawansowanych instrukcji w gpu ....
Przemek Kobel, 20 października 2009, 11:20
Zależy skąd się patrzy. Globalnie to należałoby podziękować Jabłuszkom, mimo, że to one są odpowiedzialne za ukatrupienie całego konceptu.