Robot sterowany myślą
Instytut Badawczy Hondy we współpracy z Międzynarodowym Instytutem Zaawansowanych Badań nad Telekomunikacją oraz Shimadzu Corporation stworzyły Interfejs Mózg-Maszyna (Brain Machine Interface - BMI), który wykorzystuje elektroencefalografię (EEG) i spektroskopię w bliskiej podczerwieni (NIRS) do sterowania maszyną za pomocą myśli.
Podczas, gdy operator robota myśli o wykonaniu jakiejś czynności, w jego mózgu przekazywane są sygnały elektryczne i zmienia się przepływ krwi. W BMI sygnały elektryczne są mierzone za pomocą EEG, a NIRS mierzy zmiany w przepływie krwi. To z kolei pozwala na określenie, o jakich czynnościach myślał operator robota.
Poruszanie maszyną nie odbywa się obecnie tak swobodnie, jak poruszanie własnym ciałem. Najpierw na głowę operatora zakładane są czujniki EEG i NIRS. Później otrzymuje on spis części ciała, którymi może poruszać. Podczas eksperymentu wykorzystano lewą dłoń, prawą rękę, język i stopy. Operator wyobraża sobie ruch, EEG i NIRS mierzą sygnały, odpowiednie oprogramowanie przekłada je na polecenia i wysyła do robota.
Jak informuje Honda, w ten sposób osiągnięto 90% dokładność odwzorowania myśli operatora przez ruch robota.
Komentarze (6)
mb002, 31 marca 2009, 21:08
Może innym wydaje się, że "odczytywanie myśli" to wspaniała sprawa, no bo te roboty sterowane myślą itd, ale im bardziej zaczynam się nad tym zastanawiać, tym bardziej wydaje się to przerażające. Wyobraźcie sobie że za kilka, no dobra, kilkanaście lat, przypadkowi przechodnie na ulicy mogą przy pomocy np telefonu komórkowego tak po prostu zobaczyć wszystkie nasze myśli, problemy czy prywatne sprawy. Niedługo trzebabędzie walczyć nie tylko o wolność słowa, ale i o wolność myśli....
Revo, 31 marca 2009, 21:18
A 40 lat temu ludzie myśleli że będą dziś latać po galaktyce. Nawet nie polecieliśmy na Marsa.
Być może kiedyś będzie istnieć technologia monitorowania aktywności mózgu na odległość (poza specjalistyczną aparaturą) i komputery zdolne zdekodować te informacje do postaci przynajmniej przybliżonej logicznej spójności (dane fal mózgowych można porównać do zaszyfrowanego kodu o niesamowicie mocnym kluczu, szczególnie w przypadku wspomnień i myśli kreatywnych gdyż każdy człowiek myśli inaczej).
Na 99,999% nie nastąpi to jednak za kilkanaście lat czy nawet kilkadziesiąt lat.
Co innego wykorzystanie tej technologii w kontrolowanych warunkach (np. na więźniach) - ale o prywatność na ulicy bym się póki co nie martwił.
pinokiobmx, 31 marca 2009, 22:32
hehe to nic - w firmie mamy OCZ Actuator http://www.legitreviews.com/images/reviews/633/ocz_impluse.jpg
bomba sprawa - tylko trzeba się nauczyć używać - generalnie za niewygurowaną cenę można myślami sterować postaciami w grach
mrpumpkin, 1 kwietnia 2009, 00:04
Tego typu dywagacje zawsze wywołują u mnie ironiczny uśmiech. To jest tak jak ludzie naoglądają się matriksów i innych złowróżebnych filmów s-f. Dla mnie takie "odczytywanie myśli" to wspaniała sprawa, która daje olbrzymie możliwości nie tylko jeżeli chodzi o sterowanie maszynami.
Był taki film "Motyl i skafander" o sparaliżowanym facecie, co mógł się porozumiewać ze światem tylko za pomocą mrugnięć powieką... ta technologia (oczywiście bardziej rozwinięta) mogłaby w takich przypadkach pomóc.
patrykus, 1 kwietnia 2009, 01:14
O odczytywanie z myśli konkretnych informacji raczej bym się nie obawiał (chociaż przyznam jest to ciekawe). Zauważcie, że obecnie wszelkie pomysły odczytywania myśli realizowane są z wykorzystaniem pewnego rodzaju obejścia problemu. Chodzi o to, że jeśli chcemy przesunąć kursor do góry, zaciskamy zęby i wyobrażamy sobie np że podnosimy rękę, w lewo, przesuwamy ją w lewo itd. Innymi słowy obecnie istnieją metody na odczytanie sygnałów odpowiedzialnych za wykonywanie prostych gestów. Najwyraźniej sygnały te są stosunkowo jednoznaczne i wystarczająco silne. Dopiero te sygnały przyporządkuje się konkretnym akcjom (jak właśnie np to poruszanie kursorem). Tak więc póki co o odczytywanie konkretnej informacji z myśli jak liczby, wyrazy czy chęci nie ma mowy.
lucky_one, 1 kwietnia 2009, 11:15
Miałem napisać dokładnie to co Patrykus. To nie jest tak, że są odczytywane nasze myśli.
Jest robiona kalibracja - mamy sobie wyobrazić wykonywanie jakiejś czynności, czyli dla języka komputera, wysłanie określonego sygnału (zmiana aktywności mózgu itd) - dokładnie jak wciśnięcie przycisku. I dopiero ten sygnał jest przypisany do czynności jaka miała być wykonana. Jeśli np przy takiej kalibracji dla ruchu do przodu wyobraziłbym sobie gołą babę, to robot później poruszałby się do przodu gdybym ja wyobrażał sobie gołą babę a nie jego ruch do przodu. Bo komputer nie umie odczytać myśli - odczytuje jedynie charakterystyczny stan naszego mózgu, przypisany do określonej akcji. To analogicznie jak z psem - on nie wie co do niego mówimy. Po prostu kojarzy że na dany dźwięk ma wykonać określoną czynność (czego najpierw trzeba go nauczyć - kalibracja) - jeśli na 'leżeć' nauczymy go szczekania, to mimo że innym ludziom będzie się to wydawać dziwne, dla niego będzie normalne - bo on nie rozumie, tylko słyszy $#$#$# - co na przykład różni się od innej komendy ######.
Jak zostało słusznie zauważone, każdy myśli inaczej. Więc nawet zmapowanie nie wiadomo jak dużej ilości myśli, nie pozwalało by odczytywać ich uniwersalnie u różnych osób Jeśli chodzi o takie interfejsy myślowe, dla dobrej skuteczności przed rozpoczęciem pracy musiałaby być robiona kalibracja pod konkretną osobę
I popieram, że jest to wspaniałe rozwiązanie. Będzie pozwalało na wykonywanie znacznie większej liczby czynności w tym samym czasie - chociażby właśnie w tych grach komputerowych.. Albo na przykład trójwymiarowych systemach operacyjnych (jak w filmach Johnny Mnemonic albo Raport Mniejszości). Widzę tu tylko jeden potencjalny mankament - będzie to o wiele bardziej męczyło psychicznie (wymagana koncentracja) od obecnie używanych interfejsów (mysz + klawiatura, ew inne sterowniki), które są używane jakby odruchowo. Ale może się mylę i odruchowość używania interfejsu myślowego będzie podobnie jak przy klasycznych - kwestią treningu i praktyki