Nowy czterordzeniowiec Intela
Bez zbytniego rozgłosu zadebiutował nowy czterordzeniowy procesor Intela. Układ, przeznaczony dla serwerów i stacji roboczych, pojawił się na rynku wcześniej, niż oczekiwano.
Xeon E5335 taktowany jest zegarem o częstotliwości 2 GHz i korzysta z 8-megabajtowej pamięci cache poziomu drugiego. Układ współpracuje z podstawką LGA771 i 1333-megahercową szyną systemową. Jego TDP (thermal design power – pobór mocy wyrażony wydzielaniem ciepła) wynosi 80 watów.
Producent wycenił Xeona E5335 na 690 USD przy zakupie 1000 sztuk.
Początkowo Intel planował premierę tego procesora na pierwszy kwartał przyszłego roku. Koncern poinformował, że termin rozpoczęcia sprzedaży przyspieszono, gdyż domagali się tego producenci sprzętu komputerowego.
Xeon 5335 może pracować w konfiguracjach dwuprocesorowych i właśnie w takich będzie sprzedawany przez HP, Della, Silicon Graphics i IBM-a. Nie wiadomo, kiedy procesor będzie dostępny dla mniejszych producentów sprzętu.
W pierwszym kwartale przyszłego roku na rynek mają trafić energooszczędne wersje czterordzeniowych układów. Ich TDP ma wynieść jedynie 50 W.
Komentarze (3)
Gość FF 3.0 i Opera 10.0 + TOR, 5 stycznia 2007, 18:09
Zwykłe naciąnganie jeśli musisz mieć dobry procesor to kup sobie IBM G6(3.2GHz) lub P4 965EE(3.73GHz x 2. 65nm) albo poczekaj na AMD64 FX-76(3.6GHz 65nm).
Ważne jest to ile Hz-ców ma rdzeń a nie suma rdzeni.SONY ma 8 rdzeniowwego CELL-a(3.2GHz 65nm najnowsze wersje) więnc teraz normą powinno być np.P4 965EE.8 x 3.73GHz 45nm z możliwością współdźielenia pamięnci podręncznej 8 x 4096MB.
Gość G6-CELL-P4-AMD, 6 stycznia 2007, 21:49
Procesor Power6 taktowany zegarem szybszym niż 5 GHz, procesor Cell z zegarem ponad 6 GHz i 80-rdzeniowy procesor Intela - taka będzie najbliższa przyszłość rynku procesorów.
Najnowsze koncepcje przedstawiono w materiałach na technologiczną konferencję, która odbędzie się w lutym w USA.
Jak poinformował portal DailyTech, podczas International Solid State Circuits Conference, organizowanej w San Francisco przez amerykańskie Stowarzyszenie Inżynierów Elektryków i Elektroników, zostanie przedstawiony kilkuletni plan rozwoju najważniejszych konstrukcji mikroprocesorowych na świecie. Tworzony przez IBM nowy procesor Power6 będzie pracował z zegarem "powyżej 5 GHz". Pierwsze procesory tego typu mają pojawić się na rynku jeszcze w 2007 roku. Nowy procesor IBM ma działać w systemach informatycznych "wymagających wysokiej wydajności". Będzie on jednostką dwurdzeniową, wyprodukowaną w technologii 65- nanometrowej, zawierającą 700 mln tranzystorów.
Nowy procesor Cell, tworzony przez Toshibę, IBM i Sony, występuje pod nazwą Cell Broadband Engine. Druga generacja tych procesorów ma pracować z zegarami od 3 do 6 GHz i ma być wykonana w technologii 65 nanometrów. Cell ma być stosowany w pracach związanych grafiką i multimediami.
Intel będzie nadal rozwijał linię procesorów wielordzeniowych. Szczytowy punkt rozwoju tej technologii ma stanowić 80-rdzeniowy procesor, wykonany w technologii 65-nanometrów, pracujący z zegarem nieco powyżej 4 GHz.
Także dwie inne firmy przedstawiły na International Solid State Circuits Conference swoje nowe procesory. Niagara2 koncernu Sun Microsystems ma być procesorem dla systemów wymagających bardzo dużej wydajności, zaś Barcelona firmy AMD to procesor czterordzeniowy, zarówno dla małych serwerów, jak i wydajnych stacji roboczych oraz komputerów typu desktop. Barcelona znajdzie się na rynku w połowie 2007 roku.
Gość Przepowiednia, 7 stycznia 2007, 00:17
Dzisiejsze urządzenia docenimy szczególnie wówczas, gdy przypomnimy sobie komputery sprzed 50 laty, które wymagały skomplikowanych operacji manualnych (patrz: "Zapomniane technologie"), ukończenia specjalnych kursów obsługi oraz umiejętności czytania (sic!).
Monopolista 3Dfx
Po zastoju w latach 2001-2006 przemysł IT szybko nabrał rozpędu. Podstawą rozwoju stały się technologie opracowane w poprzedniej pięciolatce, które wówczas były jednak zbyt drogie, by choćby spróbować wprowadzić je na rynek.
Wbrew powszechnym oczekiwaniom pochodzące z zeszłego wieku tzw. prawo Moore'a (mówiące, że wydajność komputerów podwaja się co 18 miesięcy) pozostało prawdziwe przez pierwsze trzy dekady naszego stulecia. Stało się to możliwe dzięki ostrej konkurencji między firmami mikroprocesorowymi, które nie szczędziły nakładów na badania, byle tylko choćby o pół teraherca wyprzedzić konkurencję. Szczególnie owocna okazała się rywalizacja między Intelem a 3Dfx (firmą, która do 2020 roku nosiła nazwę nVidia). Intel przodował w wykorzystaniu do produkcji procesorów nanotechnologii. Przegrywający w tym wyścigu 3Dfx zdobył się na krok rozpaczliwy: wykupił trzy słynne uczelnie: MIT, Carnegie Melon i Fraunhofer-Institut, razem z prawem własności do wszelkich prowadzonych tam badań. Dzięki tej inwestycji w 2015 roku mógł na nanotechnologię odpowiedzieć pierwszym domowym mikroprocesorem optycznym Dodatkowo 3Dfx postawił na polimery podczas gdy Intel trwał przy krystalicznym węglu jako nośniku. Pamiętamy, że legendarny Optical-Voodoo 1 wymagał osobnej obudowy wielkości małej lodówki. Kwestia wielkości procesora i jego umiejscowienia względem pozostałych komponentów systemu zeszła jednak na dalszy plan, gdy w domach masowo implementowano mechanizmy przetwarzania rozproszonego, czyli tzw. gridu.
Fani "optyka" cenili sobie jego cichą i niepodgrzewającą atmosfery pracę. Tradycyjny "krzem" już nigdy nie odzyskał utraconej pozycji, do dziś natomiast stosowany jest tam, gdzie małe wymiary są ważniejsze niż duże zużycie prądu i konieczność zastosowania aktywnego i hałaśliwego chłodzenia.
Podziemna moc
Najważniejszym wydarzeniem z dzisiejszego punktu widzenia było zwiększenie odległości między komputerem a wyświetlaczem i urządzeniami peryferyjnymi. Upowszechnienie w latach 2010-2015 Terabit-Ethernetu pozwoliło wyprowadzić jednostkę centralną z mieszkania i przenieść ją do piwnicy. Superszybkie sieci lokalne doprowadzone do każdego pomieszczenia przekazywały w jedną stronę dane do wyświetlaczy na ścianach, a w drugą polecenia z urządzeń peryferyjnych oraz czytników danych. Warto pamiętać, że jeszcze trzydzieści lat temu zdarzali się pasjonaci, którzy sami konfigurowali swoje komputery, a nawet je osobiście składali (!) i samodzielnie usiłowali sobie radzić z pojawiającymi się problemami. Obecnie należy to do obowiązków administracji osiedla, która w równym stopniu odpowiada za usuwanie awarii wodociągowych, co sporadycznych zawieszeń systemu operacyjnego.
Wszyscy za jednego
Dziś, "kupując" komputer, płaci się de facto za prawo do korzystania z blokowego klastra. Rezygnacja z posiadania indywidualnych skrzynek rozwiązała kilka istotnych problemów. Pierwotne pecety jednak praktycznie zawsze były niedopasowane do potrzeb - przez większość czasu ich moc obliczeniowa była wykorzystywana w niewielkim stopniu, a gdy użytkownik zapragnął rozerwać się przy nowej grze, przeważnie narzekał na niezbyt płynną animację. Zerwanie z indywidualizmem oraz popularyzacja technologii przetwarzania rozproszonego grid pozwoliło współdzielić moc obliczeniową w obrębie bloku mieszkalnego czy osiedla willowego, a od 2020 praktycznie w całej Europie, USA i większości krajów Azji.
Sąsiedzkie współdzielenie czasu procesorów rozszerzono także poza blokowiska po udostępnieniu dla użytkowników indywidualnych infrastruktury Internetu 2 Przeciętny obywatel ma dziś do dyspozycji więcej mocy obliczeniowej niż wojskowe ośrodki badawcze sprzed pół wieku, co sprawiło jednak nieoczekiwane kłopoty.
Kwant kontra bit
Lawinowy przyrost wydajności komputerów osobistych sprawił, że dawne metody szyfrowania, wykorzystywane przy każdorazowej transakcji, e-wyborach czy zakupach online i w tysiącu innych sytuacji, okazały się zbyt łatwe do siłowego przełamania. Niezbędne stało się zastosowanie metod kryptograficznych opartych na mechanice kwantowej.
Choć komputery kwantowe znane były od początku stulecia (patrz: CHIP 12/1998, s. 60; CHIP 7/2001, s. 46), to do końca drugiej dekady nie było potrzeby ich stosowania w domach i zakładach pracy. Nawet jednak gdy grid postawił pod znakiem zapytania sens tradycyjnych szyfrów, nadal nie istniały racjonalne powody do zastąpienia tradycyjnej architektury komputerów osobistych przez mechanizmy oparte na zjawiskach kwantowych. Znakomita większość zadań mogła zostać wykonana za pomocą klasycznych technologii. Rozszerzono więc jedynie tradycyjną architekturę PC o powszechną dziś QC (Quant-Card). Nowy podzespół oprócz szyfrowania i deszyfrowania zajmował się wkrótce także realizowaniem zadań sztucznej inteligencji.Najważniejszą jednak zmianą, wywołaną wprowadzeniem QC, była możliwość rezygnacji z pracy umysłowej, świadczonej dotąd przez ludzi. Czwarta generacja Quant-Card, wprowadzona na rynek w 2028 roku, okazała się wystarczająco sprawna, by skutecznie zasymulować umysł absolwenta wyższej uczelni o ilorazie inteligencji na poziomie IQ 130. Zatrudnianie i opłacanie ludzi stało się w tym momencie ekonomicznym absurdem. Wszyscy znamy konsekwencje tego przełomu. Tak zwana Rewolucja Artystyczna, która miała miejsce w krajach rozwiniętych w latach 2030-2035, zmieniła sposób kształcenia. Od tej pory liczy się tylko innowacyjność, oryginalność i talent artystyczny - od racjonalności i wiedzy mamy maszyny.
Ostateczny koniec piractwa
W upowszechnieniu się idei sąsiedzkich klastrów wielką rolę odegrały BSA i inne organizacje walczące z tzw. piractwem. Odcięcie użytkownika komputera od sprzętu pozwoliło wyeliminować zjawisko nielegalnego korzystania z programów, systemów operacyjnych, muzyki, filmów itp. Od 2021 roku coraz popularniejsze stało się wliczanie do czynszu abonamentu za korzystanie z systemów operacyjnych, aplikacji użytkowych oraz danych kulturalno-rozrywkowych. Przełomem stało się zdelegalizowanie w 2030 roku w USA prawa do indywidualnego posiadania urządzenia cyfrowego niepodpiętego do publicznej infrastuktury sieciowej. W ciągu następnej dekady podobne regulacje przyjęły niemal wszystkie kraje świata (oprócz Libii i rządzonej przez Fidela Castro Kuby). Obecnie przechowywanie urządzenia przetwarzającego dane, niezgodnego z regulacjami zawartymi w tzw. Secure Computing Act, jest w wiekszości krajów traktowane równie surowo co handel narkotykami.Prawdziwa mobilność.Tym, czym Terabit-Ethernet i grid były dla komputerów domowych, tym dla urządzeń kieszonkowych stał się standard Wi-Fi 2. Możliwość korzystania z tych samych aplikacji w domu, na plaży czy w trakcie grzybobrania może się dziś wydawać oczywista, ale warto pamiętać, że pół wieku temu człowiek pozbawiony dostępu do sieci kablowych mógł co najwyżej komunikować się głosowo. Wymiana dwuwymiarowych, nieruchomych obrazów uznawana była na początku naszego wieku za wielkie osiągnięcie. Dziś niewiele jest miejsc na Ziemi, gdzie zabrakłoby nam mocy obliczeniowej. Choć oczywiście Wi-Fi 2 nie pozwala na rzeczywistą zdalną pracę na maszynie spoczywającej w piwnicy naszego domu, to ujednolicony system subskrybcji gwarantuje każdemu podatnikowi dostęp do najbliższego klastra, dysponującego wolnymi mocami. Jako anegdotę warto tu przypomnieć, że kiedyś osobom potrzebującym korzystać z technologii przetwarzania informacji w podróży (a kto niby tego nie potrzebuje?) proponowano tzw. notebooki, czyli ważące do 5 kilogramów komputery, z trudem mieszczące się do sporej torby. Trzeba pamiętać, że część tej pokaźnej masy stanowił wyświetlacz o oszałamiającej wielkości sięgającej... 15 cali. Trudno sobie wyobrazić, jak można było cokolwiek zobaczyć na tak małym ekranie, prawda?
Napisy na ścianach.
Najważniejszym wynalazkiem z dzisiejszego punktu widzenia było wprowadzenie w 2034 roku do procesu produkcyjnego materiałów budowlanych warstwy nanoekranów, (zwanych dawniej elektronicznym papierem.Organiczne wyświetlacze, które stanowiły podstawę nanoekranów znane były od końca XX wieku a elastyczne, składane ekrany o grubości nieprzekraczającej 3 milimetrów przy praktycznie nieograniczonej powierzchni powszechnie stosowano od 2017 roku. Od tamtej pory można było nosić ekran ze sobą i rozkładać go nawet na ziemi, ale... właśnie - trzeba go było nosić. Nanoekrany stanowiące zewnętrzną warstwę każdej ściany, tak zewnętrznej, jak i wewnętrznej, pozwoliły uwolnić się od lekkich wprawdzie, ale niezbyt poręcznych płacht. Rozkładanie organicznych wyświetlaczy na świeżym powietrzu było szczególnie irytujące w wietrzne dni...
Nanoekrany spotkały się początkowo z ostrą krytyką, gdyż brak odpowiednich regulacji prawnych prowadził do nadużyć ze strony właścicieli sklepów. Konfigurowali oni swoje systemy reklamy ulicznej, tak by odczytywały dane osobowe przechodniów, a następnie po nazwisku wzywały do zrobienia zakupów. Gorszący widok przemykającego chyłkiem człowieka, którego goni wielki napis na ścianie: "Kowalski! Kiedy wreszcie kupisz zabawkę dla Twojej Zosi?!!" był wówczas, niestety, dość częsty.
Początkowy chaos minął, korzyści pozostały: możemy mieć ekran w każdym miejscu, w którym jest chociaż jedna ściana. Wielkość obrazu ogranicza nam jedynie liczba chętnych do skorzystania z tego samego kawałka muru, co, niestety, przy stale rosnącym przeludnieniu staje się poważnym problemem (jeszcze w zeszłym roku statystyczny obywatel aktywował nanoekran o przekątnej 53, gdy w tym roku jedynie 49 cali).DNA pamięta wszystko.
Dawni miłośnicy filmów (wówczas jeszcze całkowicie pozbawionych interaktywności) gromadzili swe zabytkowe zbiory na płaskich dyskach, wykorzystujących do przenoszenia informacji zapis optyczny. Metoda ta nie była zbyt wydajna. Choć trudno w to uwierzyć, jeszcze trzydzieści lat temu na wykorzystujący tzw. niebieski laser krążek wielkości talerzyka do ciastek mieściło się zaledwie kilkanaście dwuwymiarowych filmów o żałosnej rozdzielczości. Pamięci holograficzne które w 2018 roku zastąpiły dwuwymiarowe metody zapisu, też nie wystarczyły na długo. Na szczęście wówczas pojawiły się szybkie metody syntezy DNA, będące podstawą dzisiejszych biopamięci. Warto tu przypomnieć, że metodę zapisu informacji w formie łańcuchów związków chemicznych znano już na początku XXI wieku (patrz: CHIP 12/2000, 258). Wówczas jednak zarówno zapis, jak i odczyt były niezwykle wolne - odszyfrowanie kilkuset megabajtów trwało nawet kilkanaście godzin. Dopiero wynalezienie w 2034 roku szybkej metody syntezy DNA pozwoliło na produkcję powszechnych dziś biokrążków, na których w ciągu minuty możemy zapisać do 27 petabajtów danych (dane dla modelu Seagate Whale IV).
Od 2035 roku coraz silniejsza była tendencja do umieszczania układów interfejsu w cyberprotezach oraz digitalizowania zmysłów.