Superkomputery zasymulują ludzki mózg
IBM i GENCI podpisały umowę, której celem jest stworzenie znacznie bardziej wydajnych superkomputerów niż obecnie. GENCI (Grand Équipement National de Calcul Intensif) to francuska spółka cywilna, której właścicielem są francuskie ministerstwa, agendy rządowe i uczelnie. Zadaniem GENCI jest koordynacja prac krajowych centrów obliczeniowych.
IBM i GENCI będą wspólnie pracowały nad superkomputerami o wydajności liczonej w eksaskali, czyli trylion operacji zmiennoprzecinkowych na sekundę. Obecne komputery pracują w petaskali, zatem biliarda operacji na sekundę. Najpotężniejszy współczesny superkomputer, chiński Tianhe-2 osiągnął wydajność niemal 34 PFlops. Maszyny, nad którymi pracują IBM i GENCI mają pracować z prędkością co najmniej 1000 PFlops.
Obie firmy uzgodniły, że ich wstępna współpraca potrwa 18 miesięcy. W tym czasie ma powstać komputer działający w eksaskali (EFlops). Rozwijane będą technologie powstające w ramach IBM-owskiej inicjatywy OpenPOWER. Główny cel współpracy to stworzenie wydajnej maszyny do zastosowań naukowych, zatem nie będzie się ona przekładała zbyt szybko na wydajność zwykłych komputerów. IBM chce m.in. łączyć procesory graficzne Nvidii z procesorami POWER za pomocą Nvidia NVLink.
Osiągnięcie eksaskali w obliczeniach komputerowych może być niezwykle ważnym krokiem w kierunku przyszłości. Uważa się bowiem, że ludzki mózg przetwarza informacje właśnie z szybkością eksaflopsa. Powstanie równie potężnych komputerów pozwoli na symulowanie pracy mózgu człowieka.
Komentarze (5)
MrVocabulary (WhizzKid), 3 września 2015, 12:17
Przeskok od potężnej mocy obliczeniowej do symulowania ludzkiego mózgu jest chyba jednak zbyt duży na chwilę obecną. Dopiero co byłem na konferencji poświęconej sztucznej inteligencji i rozmawiałem z ekspertami z czterech kontynentów. Są zgodni w twierdzeniu, że nie mają pojęcia jak przejść od symulowania pojedynczego neuronu do większego systemu neuronów. Nadal nie wiemy w jaki sposób poszczególne elementy mózgu są powiązane ze sobą i jak zmiany pojedynczych neuronów mają się do działania całego systemu. Gościu z MIT powiedział, że nie jest nawet pewien, czy AI da się w ogóle osiągnąć.
Biorąc pod uwagę, że najnowszym osiągnięciem robotyki jest jako-taka zdolność rozpoznawania najbliższej topologii, to ten wspomniany komputer się chyba zestarzeje zanim będziemy mieli jakąkolwiek, nawet przybliżoną, zdolność symulowania mózgu.
Afordancja, 3 września 2015, 13:20
hm..w ogóle czy w najbliższym czasie?
Co stoi na przeszkodzie? Skoro nautra stworzyła to dlaczego my nie potrafimy(nie będziemy mogli) (w ogóle) tego powtórzyć?
MrVocabulary (WhizzKid), 3 września 2015, 13:47
No ten gościu rzekł, że przez 40 lat jego pracy cel wydaje się być nadal tak samo odległy i że nie jest pewien czy możemy to zrobić w ogóle. Wydaje mi się jednak, że to był pesymizm wynikający z pokory – mi też się wydaje, że możemy próbować skopiować mózg i modyfikować go neuron po neuronie. Ale na razie nie ma żadnej metody, która by wyjaśniała, jak to działa, tzn. jak jeden neuron ma się do wielu neuronów.
wilk, 3 września 2015, 16:17
Przeskok jest duży, ale w dalszym ciągu nie musi i na pewno nie będzie to symulacja w czasie rzeczywistym. Nawet jeśli moc obliczeniowa sprzętu jest porównywalna, to software skutecznie obniży ją o przynajmniej rząd wielkości. Poza tym taka symulacja i tak jest okupiona uproszczeniami, założeniami i wyobrażeniem tego jak faktycznie mózg funkcjonuje.
Rok 2013 - 40 minut na sekundę pracy 1%: http://kopalniawiedzy.pl/mozg-symulacja-K-computer,18577
darekp, 3 września 2015, 20:48
Mnie kiedyś naszła taka myśl: być może zrozumienie działania mózgu mającego N neuronów wymaga np. 10 x N neuronów. Oczywiście nie wiem czy tak jest i po drugie, nawet gdyby tak było, to istniałaby możliwość budowania AI trochę "na oślep", bez zrozumienia, jak działa końcowy produkt (w ten sposób wytwarzamy ludzi od tysiącleci i nawet sprawia nam to przyjemność )
A w ogóle to może być tak jak twierdzi Penrose, że w grę wchodzą (aż!) jakieś jeszcze nie odkryte prawa fizyki.