Ogrzewanie chmurą
W dokumencie The Data Furnaces: Heating Up with Cloud Computing specjaliści z Microsoft Research proponują ogrzewanie domów ciepłem odpadowym z chmur obliczeniowych. Podobne pomysły nie są niczym nowym, jednak inżynierowie Microsoftu wpadli na nowatorski pomysł tworzenia infrastruktury chmur. Proponują oni mianowicie, by serwerów nie instalować w wielkim centrum bazodanowym, ale... w domach, które mają być przez nie ogrzewane. W ten sposób rachunki w gospodarstwie domowym za ogrzewanie spadłyby niemal do zera. Olbrzymie kwoty, rzędu 280-324 dolarów rocznie od serwera, zaoszczędziliby również właściciele chmur obliczeniowych.
Autorzy dokumentu przewidują, że serwery byłyby umieszczane w piwnicach domów jednorodzinnych. Właściciele domów byliby zobowiązani do ewentualnego restartowania maszyn w razie potrzeby. Jak twierdzą badacze z Microsoft Research właściciele chmur już od początku zanotowaliby poważne oszczędności. Nie musieliby bowiem ponosić kosztów związanych z budową lub wynajęciem i utrzymaniem pomieszczeń, budową sieci energetycznej i teleinformatycznej, systemu chłodzenia, obniżyliby koszty operacyjne. Z drugiej strony zauważają, że energia elektryczna jest sprzedawana odbiorcom indywidualnym drożej niż odbiorcom biznesowym, zwiększyłyby się koszty konserwacji, gdyż maszyny byłyby rozrzucone do po dużej okolicy, ponadto nie we wszystkich domach dostępne są łącza o wymaganej przepustowości.
Oczywiście do domów jednorodzinnych trafiałyby niewielkie serwery. Większe maszyny można by ustawiać w biurowcach, gdzie również zapewnią ogrzewanie budynku.
Analiza pokazała, że największe korzyści odnieśliby mieszkańcy tych stanów, w których ogrzewanie domów pochłania najwięcej pieniędzy.
Pracownicy Microsoftu twierdzą ponadto, że ich propozycja spowoduje, iż możliwe będzie zwiększenie wydajności chmur obliczeniowych bez jednoczesnego zwiększania zużycia energii w skali kraju. Już przed 5 laty centra bazodanowe zużywały 3% energii produkowanej w USA. Dzięki instalowaniu ich w domach jednorodzinnych będzie można zwiększyć liczbę serwerów, a tym samym zwiększyć ilość zużywanej przez nie energii, co jednak nie spowoduje globalnego wzrostu jej zużycia, gdyż jednocześnie spadnie ilość energii zużywanej przez gospodarstwa domowe do ogrzewania.
W analizie Microsoftu zabrakło jednak odniesienia się do kwestii bezpieczeństwa czy sytuacji awaryjnych, takich jak np. przerwy w dostawie prądu.
Komentarze (15)
wilk, 27 lipca 2011, 15:46
Znając życie, to albo by popsuli, albo majstrowali przy tym. Poza brakiem odniesienia co do kwestii bezpieczeństwa i zapasowych źródeł zasilania brakuje też informacji o zabezpieczeniach przed np. zalaniem, informacji o chłodzeniu i filtrowaniu powietrza. W dużych halach te problemy ulegają znacznemu uproszczeniu, tutaj każda taka piwnica musiałaby być małym bunkrem. Pomysł zdecydowanie poroniony. Już bardziej podoba mi się wcześniejszy pomysł na „eksportowanie” ciepła z takich centrów.
matips, 27 lipca 2011, 18:03
Jestem pewien, że specjaliści z M$ wzięli pod uwagę awaryjność domowego zasilania i internetu.
wilk, 27 lipca 2011, 20:02
Nie no, jasne, że musieli wziąć. Tylko, że w przypadku tak maleńkiego projektu jakim jest piwnica domu wszystkie te zabezpieczenia muszą zostać umieszczone dla każdej piwnicy z osobna, a to radykalnie podnosi koszt przedsięwzięcia. To co jest tylko częścią kosztów w przypadku farmy serwerów tutaj byłoby istotnym czynnikiem. Możliwe, że kwestia awaryjnej linii zasilania jest rozwiązana np. dla całego kwartału, ale w końcu to tylko jeden z wielu podsystemów.
Jajcenty, 28 lipca 2011, 07:26
A to nie jest tak, że chmura z definicji jest odporna na awarie?
Bardziej interesujące jest pytanie o bezpieczeństwo informacji. W takim rozproszonym modelu łatwo uzyskać fizyczny dostęp do serwera.
Gość simian raticus, 28 lipca 2011, 08:31
Budować się trzeba na Florydzie albo w Afryce! gdzie ciepło! lepianki robić albo igla z centralnym!
Tolo, 28 lipca 2011, 09:47
wilk masz racje pomysł do kitu.
Jest jeszcze jedne porblem co zrobić z nadprodukcja ciepła która może powstać lub jego niedoborem? Rozproszenie tego wcale nie pomaga. Jeśli mamy klimat jak u nas musimy zakładać ze temp spadnie nam do -30 a dom musimy ogrzać i musimy mieć taki zapas mocy. Jak go nie będziemy mieć musimy mieć coś innego do dogrzania. Albo moc procesora będzie niewykorzystana.
Jajcenty rozpraszasz moc obliczeniową ale gdzieś indziej dostajesz w czapę bo chmura jest niby odporna ale tworzysz nowe zagrożenia rozbudowaną infrastrukturą telekomunikacyjną. To co zaoszczędzisz w domu na wykorzystaniu ciepła wygenerujesz na transferze danych po kablach. To co w serwerowni jest sprawa błahą przy takim rozproszeniu urasta do rangi problemu.
wilk, 28 lipca 2011, 14:39
Zasadniczo wszystko zależy od projektu… Czy to ma być część czegoś większego, czy też jakaś firma potrzebuje swojego data center. Ale jeśli faktycznie ma to być profesjonalne, to replikacja danych jest standardem. No, ale bez zabezpieczeń spali się, zaleje, szczur przegryzie kabel, a to dodatkowe koszta.
Ha, dokładnie! Takie obiekty mają dostępności rzędu 99,99% (i więcej) w skali roku, więc generują praktycznie stałą ilość ciepła 24/7/365. Jeśli w lecie trzeba przez to dodatkowo chłodzić dom, to nie wiem czy wcale tak ekonomicznie będzie. No ale fakt, koszta przeniosą się z właściciela domu na firmę.
romero, 28 lipca 2011, 14:44
Amerykańskie domy są w większości ogrzewane nadmuchem ciepłego powietrza z pieca umieszczonego w piwnicy. Jak rozumiem tu będzie nadmuch z wydzielającej ciepło elektroniki, też umieszczonej w części podziemnej. Na lato wystarczy wylot ciepłego powietrza po prostu skierować na zewnątrz przez ścianę czy do komina.
wilk, 28 lipca 2011, 15:24
zdechlak, prosiłbym o zachowanie umiaru w pisaniu komentarzy nie mających związku lub nic nie wnoszących do tematu. Zawalasz całe forum swoją radosną twórczością, która ma charakter naprawdę marnego trollowania. Zwracałem Ci ostatnio uwagę na PM (w tym roku niejednokrotnie), ale widzę, że nie dociera to do Ciebie.
thikim, 28 lipca 2011, 20:14
Tak i nie.
Rzeczywiście koszty "ochrony" na 1 serwer byłyby większe niż koszty w dużej serwerowni. Ale...
przecież w chmurze taki serwer może po prostu paść i nic się nie dzieje.
Dlatego nie trzeba dodatkowego zasilania. Brakuje zasilania to brakuje, co to zmienia? Są inne serwery.
Zakłada się np. że dane muszą być przechowywane na minimum 5 serwerach w różnej lokalizacji.
I to jest mocne zabezpieczenie, nie trzeba zasilania awaryjnego.
Jest to także swego rodzaju przyszłość. Nie bez powodu do pewnych zadań używa się właśnie sieci takich domowych komputerów i radzą sobie całkiem dobrze.
Tolo, 28 lipca 2011, 20:47
Rozproszenie chmury powoduje dodatkowe komplikacji i narzuty energii na wymianę informacji miedzy powiedzmy nodami. Co w przyadku serwerowni nie istnieje jako większy porblem. Rozproszenie chmury powoduje też niebezpieczeństwo ze jakaś tam koparka nagle wyłączy z chmury jedno miasto lub wręcz całą chmurę bo na przykład ogrzewanie z miasta x czy y to była jedna wielka chmura. Rozpraszanie chmur po rożnych lokalizacjach geograficznych tylko zwiększa ilości przesyłanych danych przez analogie do roboczo godzin nazwał bym to bitokilometrem. Nad tym nie sposób zapanować.
Kolejny porblem jest taki ze chmura chmurze nie równa no i generalnie dziś chmura to bardziej bełkot marketingowy niż realne rozwiązania. Z grubsza wiadomo co by to miało być i coś takiego jest klientowi powiedzmy sprzedawane ale realizacja tego wcale nie musi wyglądając tak jak klient myśli.
No i chciał bym jeszcze wrócić do problemu mocy. Powiedzmy ze moc cieplną jaka sprzęt oddaje, pobór prądu przez serwer czy też jego obciążenie możemy z grubsza traktować podobnie bo będą to wartości jakoś tam skorelowane.
I teraz co potrzebujemy a no potrzebujemy maksymalną moc zainstalowaną. Jak nam temperatura spadnie na dworze do -30 to nas to musi zagrzać albo jest rozwiązaniem bez sensu. Ale co za tym idzie mamy pewien zapas de facto mocy obliczeniowej który będzie w lecie niewykorzystany. Bo teraz jazda na pełnej mocy spowoduje naddatek ciepła i jego utratę albo wręcz koniecznosc aktywnego chłodzenia.
I do czego.. a no do wniosków ze albo to się nie nadaje do ogrzewania albo ze cała idea chmury wraz z wyznawcami "chmuryzmu" jest do kitu już u jej zarania. Bo komutery w serwerowni pod względem cieplnym są chmurą i agregują ciepło w jednym miejscu które można efektywnie wykorzystać. I nagle okazuje się ze pomysłem na budowanie chmury jest jej rozproszenie i wsadzenie każdemu do domu serwera żeby mógł mieć zamiast kompa stacjonarnego dane w chmurze. Ktoś tu jednak z kogoś robi idiotę...
No i mamy kolejny porblem tak jak transfer danych generuje problem tak i zasilanie. Ogromną serwerownie lepiej wybudować koło elektrowni żeby zmniejszyć straty przesyłowe. Lepiej podciągnąć linie pod serwerownie i postawić transformator bo to są mniejsze straty niż zasilać ta samą serwerownie liniami niskiego napięcia bo ogrzejemy jeszcze przy okazji powietrze.
No i na koniec ogrzewanie prądem wcale nie jest tanie ani ekologiczne a w tym przyadku będziemy mieć przejście z ogrzewania na rożne sposoby na ogrzewanie elektryczne co tez nie pozostanie bez wpływu na sieci przesyłowe.
Jajcenty, 29 lipca 2011, 08:13
Jest dokładnie odwrotnie. Ryzyko utraty centrum obliczeniowego na skutek aktywności koparki czy złomiarzy jest dużo wyższe od ryzyka utraty miasta.
Po to DARPA kazała wynaleźć Internet.
Ma sens jako wspomagające źródło ciepła. W zimie użytkownik modli się o jak największe obciążenie a w lecie przełącza wywiew na zewnątrz.
Większość teraźniejszego sprzętu doskonale pracuje w warunkach domowych. Centra mogą przyoszczędzić na prądzie i klimatyzacji. Jak to nie jest win-win...
Fakt. Pierwszy raz się mogę zgodzić. Niestety to ciepło ma już dużo entropii i nie nadaje się do przerobienia na prąd. A w centrach potrzebujemy prądu, nie ciepła. Chyba, że potraktujemy centra jako elektrociepłownie i będziemy posyłać wodę o temp 60 stopni do pobliskiego miasteczka - potrzeba dodatkowej infrastruktury.
Pomysł może się przyjąć jeśli okaże się, że obie strony zyskują. Koszty ogrzewania, koszty zasilania, koszty klimatyzowania. Jedyne co mnie by powstrzymało od przyjęcia pod swój dach kawałka chmurki to szum wentylatorów.
I tak będzie sieć w każdym domu. Infrastruktura będzie i będzie żarła prąd w nawet trybie idle.
Tanie nie jest. Ale ekologiczność zależy od źródła.
romero, 29 lipca 2011, 11:36
Odnośnie szumu wentylatorów, to on jest ale prawie niesłyszalny. Tak jak pisałem większość domów w ameryce to ogrzewanie centralne powietrzne- dużymi kanałami z powolnym przepływem ciepłego powietrza.
Klima chyba bardziej szumi.
Zresztą u nas też ostatnio moda na ogrzewanie ciepłym powietrzem z kominków.
wilk, 29 lipca 2011, 15:45
Szumu jednego wiatraka może tak, ale nie kilkunastu plus dyski plus wentylacja. Ale to akurat żaden problem, bo da się to wytłumić poza strefą serwerowni.
zinkar, 1 sierpnia 2011, 09:16
A co z bezpieczeństwem danych ?