Co trzeci serwer jest 'martwy'
Najnowsze badania pokazują, że aż 30% serwerów w centrach bazodanowych to maszyny, które tylko pobierają energię, a nie wysyłają żadnych informacji. Odsetek ten nie zmienił się od 2008 roku.
Jonathan Koomey z Uniwersytetu Stanforda i Jon Tylor z firmy konsultingowej Athenesis Group przeprowadzili na zlecenie amerykańskiej Agencji Ochrony Środowiska (EPA) badania nad wykorzystywaniem energii przez centra bazodanowe. Wykorzystali w tym celu dane z 4000 serwerów w centrach bazodanowych, które są klientami firmy TSO Logic, dostarczającej oprogramowanie do oszczędzania energii. Za nieefektywny, wyłącznie zużywający energię serwer uznawano maszynę, która przez co najmniej pół roku nie była wykorzystywana do żadnych operacji.
Badania wykazały, że co trzeci serwer w centrach bazodanowych tylko zużywa energię. Wysoki odsetek takich maszyn to wskazówka, w jaki sposób centra bazodanowe są zarządzane. To nie problem techniczny, a menedżerski, mówi Koomey.
Najnowsze badania potwierdzają to, co wiadomo od pewnego czasu. W 2008 roku firma McKinsey & Co. Dowiodła, że do 30% serwerów jest „funkcjonalnie martwych”. W roku 2012 firma Uptime w swoich badaniach potwierdziła ten wynik. Dwa lata później ponowne badania Uptime wykazały, że „funkcjonalnie martwych” jest 20% serwerów, jednak firma przyznała, że różnica wynika z innej metodologii, a w rzeczywistości takich „martwych” maszyn jest 20-30 procent.
Istnienie tego typu „martwych serwerów” to olbrzymi problem. Zdaniem IDC w ubiegłym roku na całym świecie było zainstalowanych 41,4 miliona serwerów, a do końca bieżącego roku liczba ta ma wzrosnąć do 42,8 miliona sztuk. Maszyny zużywają olbrzymią ilość energii. Z badań Natural Resorces Defence Council (NRDC) wynika, że w 2013 roku w samych tylko Stanach Zjednoczonych centra bazodanowe zużyły 91 TWh energii i szacuje się, że do roku 2020 zapotrzebowanie wzrośnie o 53%. Tymczasem eksperci twierdzą, że samo tylko wyłączenie „martwych serwerów” oraz zwiększenie efektywności pozostałych pozwoliłoby na zaoszczędzenie aż 40% energii w centrach bazodanowych. A to tylko połowa z technicznie możliwych oszczędności. Eksperci z NRDC uważają, że głównym problemem są małe centra bazodanowe, a nie wielkie chmury obliczeniowe.
Komentarze (4)
Flaku, 22 czerwca 2015, 18:45
Ale Ci właściciele serwerów są złośliwi. Specjalnie włączają komputery i płacą pieniądze za energię żeby tylko środowisko zniszczyć
wilk, 22 czerwca 2015, 19:56
Z jednej strony to efekt planowania na zapas (lepiej mieć i nie używać, niż w krytycznym momencie zabraknie i potrzeba dokupić, a czas nagli, fakt można po prostu wyłączyć), z drugiej zaś może to być wynikiem otwierania centrum na fali jakiegoś hype'u (o nowe centrum, chmurka, terabajty, itp.), a z czasem klienci odchodzą, a sprzęt zostaje.
pogo, 22 czerwca 2015, 20:07
Obstawiam, że często klienci trzymają tam archiwalne dane, które praktycznie do niczego nie są potrzebne, ale muszą być na wszelki wypadek.
wilk, 23 czerwca 2015, 16:02
No tak, faktycznie może to i tak wyglądać, aczkolwiek dziwne to firmy, co jeśli potrzeba miejsca dokupują nowy serwer zamiast powiększać przestrzeń dyskową. Od tego są bardziej wszelkiej maści NAS-y niż wydajne serwery obliczeniowe. No i rozumiem, że to są dedyki, niż VPS-y, gdzie taki problem jest zdecydowanie mniejszy.