Serwer na laptopowych procesorach
Via Technologies informuje o powstaniu niewielkiego serwera korzystającego z laptopowych procesorów Nano. Urządzenie Mserv S2100 ma wielkość biurkowego desktopa, a jego procesor taktowany jest zegarem od 1,3 do 1,6 GHz.
Serwer powstał z myślą o zastosowaniu go w domach i małych firmach jako urządzenia do przechowywania kopii zapasowych czy hostowania aplikacji sieciowych. Wyposażono go w dwa porty Gigabit Ethernet oraz możliwość zainstalowania do 4 terabajtów pamięci masowej. Maszyna sprzętowo wspiera wirtualizację i korzysta ze sprzętowego szyfrowania danych w locie.
Mserv S2100 to kolejny przykład zastosowania energooszczędnych procesorów notebookowych w serwerach. Maszyny takie są tanie i charakteryzują się niskimi kosztami obsługi. Są często bardzo dobrą alternatywą dla większych, bardziej wydajnych serwerów, gdyż w wielu przypadkach - np. przy przechowywaniu kopii zapasowych - wykorzystuje się jedynie część ich mocy i ponosi spore koszty związane ze zużyciem energii.
Procesory Nano wykorzystał również Dell w serwerze XS11-VX8, a dział badawczo-rozwojowy Microsoftu stworzył eksperymentalny serwer wykorzystujący 50 procesorów Atom.
Komentarze (13)
Jurgi, 13 stycznia 2010, 21:28
Pomyśleć, że jeszcze parę lat temu energooszczędność procesora była w ogóle ignorowana. Mam wrażenie, że niedługo wysunie się za to wręcz na pierwsze miejsce wśród istotnych (dla kupującego) parametrów.
Mariusz Błoński, 13 stycznia 2010, 21:37
Dla klienta indywidualnego nic się nie zmienia. Przeciętny Kowalski nie będzie patrzył na TDP.
To ma znaczenie tylko w centrach bazodanowych, gdzie gra idzie od dziesiątki/setki tysięcy dolarów oszczędności. Stąd w nowoczesnych procesorach serwerowych masz np. technologie dostosowywania poboru mocy do wykonywanych zadań czy wyłączające nieużywane rdzenie.
thibris, 14 stycznia 2010, 00:05
Przeciętny Kowalski będzie za to patrzał na długość pracy na bateriach (jesli mówimy o niestacjonarnych pecetach) jak i o zasilaczu. Często ostatnio widuję jak ludzie kupujący komputery zwracają uwagę na zasilacze - im "mniejszy Watowo" tym lepiej. Minęły już czasy gdy często człowiek który nie miał zasilacza 1000W był uważany za cieniasa...
czesiu, 14 stycznia 2010, 01:25
Osobiście w życiu nie kupił bym zasilacza 1000w - przecież, jeżeli komputer faktycznie potrzebuje tyle prądu, to bym zbankrutował, przy średniej pracy 10h dziennie 30 dni w miesiącu mam dodatkowe ~150zł opłaty za prąd - tylko szaleńcy godzą się na takie koszty dodatkowych 2FPS
thibris, 14 stycznia 2010, 01:51
Tylko szeleńcy kupują takie zasilacze i wcale nie przekłada się to na wydajność. Kupując komputer też byłem przekonany że bez zasilacza 700W nie uciągnę takiego sprzętu. Trafiłem jednak na dwa serwisy na których po podaniu składowych komputera (pełne parametry vide model procka, model ram + kilka szacunkowych jak ilość wiatraczków 80mm w obudowie) szacował zapotrzebowanie zestawu na moc. Okazało się że mój zestaw potrzebował z tego co pamiętam jakieś 390W, więc z zapasem wziąłem MARKOWY zasilacz 430W i do dzisiaj nie miałem żadnych problemów, nawet w bardzo stresowych warunkach dla całej maszyny
Więc te zasilacze to raczej nie kwestia wydajności, lecz niewiedzy i przeświadczenia że więcej = lepiej.
czesiu, 14 stycznia 2010, 02:02
Tak, o tym pisałem wiadomo, zasilacz 1000w nie oznacza automatycznie, że tyle pobiera. Jednak ja się odnosiłem do osób, które mają płytę na 2 procesory czterordzeniowe + 8gb ram + 2 dwurdzeniowe karty graficzne w sli + macież raid z 4 dyskami twardymi jednym słowem totalne ekstremum, które wydaje na stacjonarnego kompa 15k + komputer kręci i chłodzi wodą wraz z ogniwem Peltiera, bo azot jest zbyt mało dostępny.
thibris, 14 stycznia 2010, 03:28
Tylko że taki sprzęt nie wyciśnie dodatkowych 2fps, lecz jakby ciut więcej
Jeśli ktos potrzebuje (ewentualnie wydaje mu się że potrzebuje) najlepszego sprzętu to taki sobie kupi, tylko mówiliśmy o przeciętnych Kowalskich, którzy do niedawna nie zwracali w ogólę uwagi na prądożerność swoich komputerów.
czesiu, 14 stycznia 2010, 11:09
To na przykładzie gry KWake 3 - jaka jest różnica czy będziesz miał 150 fps, czy też 350 fps? Żeby było śmieszniej Co jakiś czas wychodzi nowa biblioteka DirectX, która jest wymagana przez nowsze gry dla wyświetlenia pełnej dosłownie "oczojebności" - w efekcie karty graficzne nawet najlepsze aktualnie na rynku za 3 lata już nie będą najlepszymi, ba pod względem DirectXa będą zacofane. Przykład z życia: ostatnio zastąpiłem wysłużonego GeForce 4400 titanium (koszt wtedy 1000zł) na Radeona 3850 za 340zł, który na tym samym sprzęcie bije wydajnością gieforsa o ponad 80%.
krzabr, 14 stycznia 2010, 12:11
Pozostaje tylko czekać aż powstaną serwery i superkomputery oparte na ARM (już były takie eksperymenty badawcze) .
Oraz powstaną maszyny RISCowe oparte wyłącznie na GPU bez CPU . Już nvidia coś podobnego produkuje jednak to ma CPU . Ale za pare lat będą maszyny do obliczeń bez cpu bo on stanie się zbędny do takich celów . A system bazowy który by obslużył taką maszyn już istnieje . Pozostaje tylko problem z portowaniem oprogramowania ale po przeniesieniu GCC lub PCC na GPU ten problem zniknie
thibris, 15 stycznia 2010, 00:02
Jaka jest różnica między 40 a 50 fps, a jaka pomiędzy 80 a 100 ? Zakładam że masz monitor LCD, ile wyciąga on FPS tak sam z siebie ? Płynna animacja to ~30FPS, większość filmów ma 23 FPS, a jakoś ludzie ogladają i nie psioczą. Zawsze się znajdzie grupa ludzi którzy będą chcieli mieć te 350 FPS, ale co na to poradzisz ?
Nie będą najlepszymi już za jakieś 5-6 miesięcy, ale to drobny szczegół
@krzabr
Po co portować soft w maszynach do obliczeń ? Myślę że w takich przypadkach będzie tam oprogramowanie specjalistyczne tworzone pod ten typ maszyn/zastosowań.
krzabr, 17 stycznia 2010, 21:38
Mając na myśli oprogramowanie myślałem nad systemem operacyjnym , sterownikami , kompilatorami oraz bibliotekami do spejalistycznych obliczeń .
A nie ma co ukrywać że przeniesienie Linuxa/BSD lub Solarisa znacznie by przyśpieszyło i rozszerzyło wykorzystanie takich maszyn .
Jurgi, 18 stycznia 2010, 10:18
O, nie zgodzę się. Widzę, że coraz więcej ludzi patrzy przy wszystkim na zużycie prądu, nieraz maniacko. Zużycie energii było jednym z powodów, dla których p awarii starego sprzętu kupiłem laptopa, a nie desktopa. A skąd się bierze popularność nettopów z Atomami? Przecież nie z samego ładnego wyglądu.
Przy kupowaniu lodówki też się kiedyś nie patrzyło na to, ile watt zżera, dziś to jest jeden z głównych punktów wybitych na ulotkach.
thibris, 18 stycznia 2010, 19:22
Bardzo dobry pomysł - wlepianie na kompach naklejek - "klasa energetyczna A+"