Gigantyczny SSD
Samsung jest producentem najbardziej pojemnego SSD dostępnego obecnie na rynku. Na urządzeniu PM1633a można zapisać 15,36 terabajta danych. Dwuipółcalowy dysk korzysta z 12-gigabitowego interfejsu SAS, charakteryzuje się prędkością odczytu dochodzącą do 200 000 IOPS, a prędkość zapisu to 32 000 IOPS. Sekwencyjny zapis i odczyt sięga 1200 MB/s. To dwukrotnie szybciej niż w przypadku typowego SATA SSD.
Jako że PM1633a to urządzenie 2,5-calowe administratorzy będą mogli zmieścić dwukrotnie więcej takich dysków w standardowej 19-calowej szafie 2U niż w przypadku dysków 3,5-calowych. Producent zapewnia, że jego SSD wspiera całkowity zapis raz na dobę, co oznacza, że co 24 godziny cały dysk można zapisać nowymi danymi bez obawy o wystąpienie awarii.
Niezwykle wysoką pojemność urządzenia osiągnięto dzięki zastosowaniu 512 kości V-NAND o pojemności 256 gigabitów każda. V-NAND to układy typu 3D, zatem możliwe było umieszczenie kości na sobie.
Komentarze (10)
thikim, 3 marca 2016, 13:35
A właściwie czemu nie wyprodukują dysku SSD 3,5" o pojemności np. 30 TB?
smoczeq, 3 marca 2016, 15:32
Może chodzi o ich awaryjność?
mcezar, 4 marca 2016, 00:07
Czy ktoś mógłby mi wyjaśnić o co chodzi z tym zapisem całości raz na 24h?
thikim, 4 marca 2016, 07:50
No cóż, parametr niezawodnościowy. Szkoda że nie napisali ile dni tak można zapisywać
Dla dysku SSD ważna jest wolna przestrzeń. Zapisując całość pokazują pracę dysku w najgorszych warunkach.
Ale bez info ile dni tak można to jest to trochę bezwartościowe.
BTW. Chyba tu gdzieś była dyskusja o tym co wygra.
Pod względem prędkości SSD wygrywały już wcześniej. Teraz i pod względem pojemności zaczynają wygrywać.
Wciąż pozostaje bariera kasa/GB.
Ten nośnik wymieniony w artykule może kosztować 5000 $.
Przemek Kobel, 4 marca 2016, 08:23
Nie kości, tylko warstw struktury wewnątrz kości.
http://arstechnica.com/gadgets/2013/08/samsungs-3d-vertical-nand-crams-a-terabit-on-a-single-chip/
mcezar, 4 marca 2016, 10:23
Dzięki, właśnie wydawało mi się że czegoś jednak brakuje...
thikim, 4 marca 2016, 10:58
Teoretycznie można by się opierać na informacji o ilościach możliwych zapisów. Czyli zapewne 1000 i w górę.
Czyli wyszłoby >1000 dni w ekstremalnych warunkach - czyli całkiem nieźle.
Producent musiałby wtedy zapewne więcej kości dodać na zapas aby pokryły komórki pamięci które padną wcześniej. Ale tego nie wiemy na pewno.
A jak uczy doświadczenie do danych niezawodnościowych producenta lepiej podchodzić ostrożnie, bo są one raczej robione tak aby uzyskać jak największe wartości, np. dysk będzie sprawny 20 lat pod warunkiem że nie będzie pracował
rahl, 5 marca 2016, 11:04
Przyczyny są zasadniczo dwie:
1.Opłacalność - wraz ze wzrostem ilości kości pamięci w jednej obudowie rośnie koszt na jednostkę pojemności.
2.Wydajność - np.4 dyski 2,5" 16TG SAS będą znacznie wydajniejsze niż jeden 3,5" 64TB.
thikim, 5 marca 2016, 20:40
No więc mnie to nie przekonuje:
2. wydajność - jak tak patrzymy to 100 dysków po 10 GB będzie jeszcze bardziej wydajne
1. opłacalność. Nie da się ukryć że rośnie cena wraz z ilością kości pamięci - rośnie też pamięć
Co do kosztu na jednostkę. A ten dysk 16 TB jaki ma koszt jednostkowy w porównaniu do mniejszych dysków? Strzelam że zapewne większy. Bo tu chodzi o ilość a nie o taniość.
Stosują więcej małych dysków potrzebujesz więcej urządzeń w rodzaju NASów a one tanie nie są.
rahl, 7 marca 2016, 20:20
No właśnie w tym tkwi cała sztuka - balans między ceną a wydajnością. Ogólnie wiadomo, że takie produkty mają niski współczynnik wydajność/cena - ale jeszcze w granicach akceptowalnych dla użytkowników szukających pojemności przy dobrej wydajności. Z tego między innymi powodu odeszły w niepamięć dyski HDD 5,25" pomimo teoretycznie większego potencjału pojemnościowego.
Ad.2 - dlatego właśnie najszybsze dyski SCSI miały relatywnie małe pojemności 146GB w epoce HDD 2-4TB - szybkie macierze miały małą pojemność ale sporą wydajność - w tych właśnie zastosowaniach brylują obecnie SSD. Zamiast 64 dysków SCSI 15kRPM o pojemności 146GB każdy mamy 8 SSD o pojemności 200GB każdy i sumarycznej wydajności macierzy wielokrotnie wyższej.
To co podałem w mojej poprzedniej wypowiedzi to główne powody, ale jeśli wejdziemy w temat głębiej okazuje się, że jest wiele innych ograniczeń:
1.Temperatura - zbyt wiele wielowarstwowych kości pamięci w małej obudowie zaczyna sprawiać problemy z odprowadzaniem ciepła.
2.Możliwości kontrolerów - większość kontrolerów Flash jest zaprojektowana z limitem 2-8TB co wynika to z wielu względów - ograniczenia elektryczne(długość ścieżek itp), ograniczenia termiczne, komplikacja struktury (układ musi być efektywny kosztowo)
3.Po co budować dysk o pojemności dziesiątków TB który i tak będzie zduszony przez ograniczenia interfejsu (SATA/SAS).