Szybkie i niedokładne
Podczas International Solid State Circuits Conference (ISSCC) naukowcy z Rice University pokazali pierwszy probabilistyczny procesor (PCMOS - Probabilistic CMOS). Urządzenie działa siedmiokrotnie szybciej i zużywa 30-krotnie mniej energii niż najbardziej wydajne współczesne kości.
Nowy procesor został wykonany w technologii CMOS, co oznacza, że jego wyprodukowanie nie wymaga zastosowania nowych narzędzi. Tym, co różni go od "normalnych" procesorów jest fakt, iż nie korzysta on z algebry boolowskiej, a probabilistycznej. Innymi słowy, nie podają jak najbardziej dokładnej odpowiedzi, a tylko przybliżoną.
Projektanci współczesnych procesorów zmagają się z poważnym problemem. W miarę zmniejszania poszczególnych elementów, jest ich na kości coraz więcej, znajdują się coraz bliżej siebie i produkują szum, który zakłóca ich pracę. Podnosi się więc ich napięcie, by przezwyciężyć szum.
Profesor Krishna Palem z Rice University postanowił wykorzystać pojawiające się błędy. Znacznie zmniejszył napięcie i zastosował zasady logiki probabilistycznej.
Po zbudowaniu chipa przetestowano go wspólnie z Nanyang Technological University w Singapurze. Okazało się że wyspecjalizowany układ do szyfrowania danych spisuje się świetnie: jest bardzo wydajny i zużywa niewiele energii.
Profesor Palem mówi, że PCMOS sprawdzi się właśnie w szyfrowaniu danych oraz w przetwarzaniu grafiki. Do jej obróbki, szczególnie gdy jest ona wyświetlana na niewielkim ekranie, nie jest potrzebna olbrzymia precyzja. Wystarczą mniej dokładne obliczenia, by osiągnąć dobre rezultaty.
Kluczem jest rozpoznanie wartości, jaką przetworzona informacja ma dla użytkownika - mówi Palem. Innymi słowy, tam, gdzie potrzebna jest duża precyzja obliczeń zastosujemy tradycyjne procesory, w innych przypadkach dobrze sprawdzą się bardzo wydajne i energooszczędne PCMOS.
Zdaniem Palema pierwsze układy nowego typu mogą trafić na rynek w ciągu 4 najbliższych lat. Zagoszczą przede wszystkim w urządzeniach przenośnych.
Komentarze (10)
waldi888231200, 18 lutego 2009, 20:14
Czyli 1,9*2= około 4
mb002, 18 lutego 2009, 22:08
bez przesady, może aż tak źle nie będzie
waldi888231200, 18 lutego 2009, 22:41
Albo daną operację trzba powtórzyć 500 razy i wybrać statystycznie najwłaściwszy wynik.
nexon, 18 lutego 2009, 23:54
Na żadnym z serwisów gdzie czytałem o tym procesorze w żadnym z artykułów nie poruszono kwestii sztucznej inteligencji. Nawet najmniejszej wzmianki... A przecież od przybliżonych wartości i teorii chaosu jest niedaleko do "myślących" procesorów. To znaczy do takich które potrafią nas zaskoczyć abstrakcyjnym aczkolwiek prawidłowym rozwiązaniem. Natychmiast przypominają mi się sceny z I Robot ;]
wright, 19 lutego 2009, 09:19
@waldi: Kluczowe jest tu rzeczywiscie wybranie tych zagadnien, ktore nie wymagaja duzej precyzji. Przy tworzonej dynamicznie grafice nie zauwazysz roznicy pomiedzy wyswietleniem dokladnym a z pewna aproksymacja.
@nexon: To raczej kwestia algorytmow, vide np. algorytmy genetyczne.
Mariusz Błoński, 19 lutego 2009, 10:34
Skojarzenie prawidłowe, ale to jeszcze nie to. Fakt, że sztuczna inteligencja, jeśli powstanie, będzie opierała się na logice rozmytej, czyli wartościach przybliżonych. Ale tutaj za mało tych wartości jest. Musimy poczekać na komputery kwantowe.
Tolo, 19 lutego 2009, 21:46
No ale obawiam się że na takim procesorze system operacyjny to będzie działał tylko mniej więcej.
Można tworzyć jakieś tam procesory wyspecjalizowane ale te które dziś mamy tez wtedy całkiem niezłe działają.
Co do sztucznej inteligencji to wydaje mi się ze na błędach jej opierać nie można. Człowiek oczywiscie robi błędy ale to nie do końca o to chodzi przynajmniej dla mnie.
Co do samej sztucznej inteligencji to jeśli uda nam się zasymilować działanie ludzkiego mózgu na tyle dobrze żeby uznać taki twór za substytut, to będzie to oznaczało ze nie jesteśmy niczym wielkim a poczucie naszej wielkości wynika tylko i wyłącznie z faktu ze jesteśmy głupi i ograniczeni. Jeśli uda się za symulować komputerowi mózg to jak dla mnie będzie to dowód na to ze ludzki mózg jest deterministyczny w swojej niedeterministyczności. Innymi słowy nasza wspaniała inteligencja to fake, a nasze działanie to po prostu funkcja tylu zmiennych ze nie jesteśmy ich w stanie ogarnąć naszym umysłem ale "wyjście" jest zdeterminowane "wejściem". Czyli tak naprawdę jesteśmy przewidywalni jak mrówki czy pszczoły ale jednocześnie sami nie potrafimy się przewidywać (tzn kogoś innego). Sztuczna siec neuronowa tez jest deterministyczna wiedząc jak była "uczona" wiemy jak zareaguje na określone dane wejściowe.
thibris, 20 lutego 2009, 08:09
Właśnie taka jest różnica pomiędzy tymi a starymi procesorami. W PCMOS jest szansa że dostaniesz wynik którego byś się spodziewał. Dzięki temu symulacje mózgów ludzkich (nawet jeśli będą w większości oparte na przewidywalnych sieciach neuronowych czy zwykłych procesorach) będą miały szansę przez swoją nieobliczalność upodobnić się do działania ludzkich mózgów.
PS. Nikt przy zdrowych zmysłach nie umieści takiego procesora w zwykłym PC, po to aby uruchamiać na nim system operacyjny.
waldi888231200, 20 lutego 2009, 13:29
Już tak było z standardem Mp3 , jedzeniem, produkcją teraz piszesz że i obraz bedzie byle jaki - świat schodzi na koty (czy psy, bo nie pamietam).
Jurgi, 20 lutego 2009, 16:01
Ale PCMOS to nie będą procesory, tylko koprocesory: do grafiki, dźwięku, itd. MP3, JPEG, Divx — opierają się właśnie na rezygnacji z dokładności i olaniu końcówek obliczeń. Przy kodowaniu może PCMOS nie będzie szczególnie dobrym rozwiązaniem (coraz mocniej optymalizuje się takie procesy), ale do odtwarzania jak znalazł. I tak np. JPEGa trzeba sobie powiększyć, żeby dostrzec niedokładność, jeśli dekoder PCMOS doda jej jeszcze trochę, to jest to jak najbardziej do przyjęcia, jeśli w zamian otrzymamy np. 50-krotnie mniejszy pobór mocy na wykonanie takiej operacji.
Akceleratory graficzne dopiero wychodzą ze specjalizacji, ogłosiły się dumnie GPU i zaczynają rewolucję. Kto wie, jakie zastosowania znajdą jeszcze w przyszłości PCMOSy? Może np. właśnie „sztuczna inteligencja” botów w grach — przestaną być stuprocentowo przewidywalne, a zaczną się zachowywać nieco irracjonalnie i bardziej ludzko? Symulacja zjawisk fizycznych w grach: ruchy cząsteczkowe, mgła, itd — wymarzone pole dla takich układów. Przestaniemy symulować losowość algorytmami, a otrzymamy prawdziwą.