NASA testuje standardową elektronikę w przestrzeni kosmicznej
Na Międzynarodowej Stacji Kosmicznej trwają badania, których celem jest stwierdzenie, czy NASA będzie mogła wykorzystywać w przyszłości standardowe układy elektroniczne. Obecnie w przestrzeni kosmicznej używa się chipów specjalnie chronionych przed szkodliwym wpływem promieniowania kosmicznego. Jeśli wszystko pójdzie zgodnie z planem, to pojazd Dragon, wracając na Ziemię, zabierze ze sobą dwa serwery, które przez niemal rok pracowały na ISS. Miało to symulować warunki, z jakimi elektronika zetknie się podczas podróży na Marsa.
Jednocześnie NASA pracuje nad projektem układu ARM, który stanie się podstawą do budowy elektroniki przyszłości. Specjalna wersja ARM Cortex-A53 ma być gotowa w roku 2020. To układ, który zadebiutował w roku 2014, więc w momencie startu w przestrzeń kosmiczną będzie już przestarzały pod względem standardów współczesnej elektroniki. Mimo to i tak będzie stanowił krok naprzód w porównaniu do kości, które NASA obecnie wykorzystuje w misjach pozaziemskich. Agencja testuje też wpływ promieniowania na układy pamięci.
Wspomniane wcześniej serwery zostały dostarczone przez Hewletta Packarda w ramach projektu Spaceborne Computer. Identyczna para maszyn pozostała na Ziemi i posłuży jako para kontrolna. Serwery HPE trafiły na ISS w sierpniu ubiegłego roku i pozwolą stwierdzić, czy NASA może zrezygnować z kosztownych chronionych przed promieniowaniem chipów na rzecz tańszych ogólnie dostępnych komponentów. Mark Fernandez, główny inżynier odpowiedzialny za projekt Spaceborne Computer mówi, że jeden z serwerów pracował z maksymalną prędkością, a drugi pracował wolniej. Jeśli okaże się, że wystąpiły anomalie i były one obecne tylko w szybko pracującej maszynie, to można będzie używać komputerów wolniej pracujących.
Obecnie planuje się sprowadzenie na Ziemię obu serwerów w październiku. NASA rozpoczęła badania nad zachowaniem standardowych komputerów w przestrzeni kosmicznej w roku 2014. Jej partnerem była firma SGI. W międzyczasie SGI została przejęta przez Hewlett Packerd Enterprise. Serwery korzystają z procesorów Xeon Apollo 40. Uruchomiono na nich aplikacje wymagające intensywnych obliczeń i przesyłania dużej ilości danych. W czasie pracy dynamicznie dostosowywano ich pobór mocy, by lepiej symulować warunki panujące podczas podróży na Marsa.
Komentarze (4)
wilk, 3 lipca 2018, 13:19
To sami nie mają do nich dostępu, by na bieżąco monitorować stan? Bez sensu…
pogo, 3 lipca 2018, 13:31
Monitorowanie stanu, a dokładny przegląd w laboratorium wszystkich kawałków komputera, to jednak co innego.
Pewnie będą skanować pod mikroskopem twarde dyski i scalaki, by sprawdzić uszkodzenia, które niekoniecznie wpłynęły w tym czasie na działanie systemu, ale przy intensywniejszym promieniowaniu mogą już nazbierać więcej wad i się posypać.
Osobiście zastanawiam się czemu nie wsadzili standardowego systemu na jakąś sondę kosmiczną i jako backup 2 systemy "pewniaki". Nie licząc programowego dostosowania, to reszta kosztów powinna być rozsądna, w końcu to ani drogie, ani specjalnie ciężkie.
rahl, 3 lipca 2018, 18:05
A najlepiej będzie jak się okaże, że nie było potrzeby wyrzucać pieniędzy w błoto projektując i budując "kosmiczne" komponenty, a wystarczyło użyć znacznie tańszych i dobrze dopracowanych modeli przemysłowych.
P.S. Z tego co wiem - oba systemy sprawdziły się w 100%, teraz tylko chodzi o porównanie "zużycia" komponentów z tymi co pracowały na ziemi.
P.S.2 Do sterowania większością komponentów stacji astronauci używają praktycznie standardowych laptopów Lenovo (kiedyś a31p a obecnie a61p
wilk, 3 lipca 2018, 23:59
Wady fizyczne fizycznymi, one i na Ziemi z czasem się pojawią. Raczej bardziej chodzi o miniaturyzację i soft errory spowodowane promieniowaniem, które mogą doprowadzić do błędnych wyników czy awarii systemu. Sam serwer mógłby sobie przeprowadzać w kółko obliczenia matematyczne, a następnie porównywać rezultat. Łatwo byłoby ocenić częstość błędów.
OK, widzę PS-a, czyli o zużycie jednak chodziło.