Windows sterowany ruchami gałki ocznej
Do Windows 10 ma trafić mechanizm Eye Control, który pozwoli osobom niepełnosprawnym na kontrolowanie systemu operacyjnego za pomocą ruchów oczu. Pomysł wprowadzenia Eye Control pojawił się w 2014 roku, a mechanizm pojawił się w najnowszej wersji Windows 10 Insider Preview.
Były gracz NFL, który cierpi na chorobę Lou Gehringa, chciał byśmy mu pomogli w poradzeniu sobie z wynikającym z choroby problemem zaniku ruchów mięśni. Choroba zwykle nie dotyka mięśni kontrolujących ruchy gałek ocznych, co pozwala na wykorzystanie oczu do kontrolowania urządzeń, stwierdzili przedstawiciele Microsoftu. Przed kilku laty byli świadkami kontrolowania wózka inwalidzkiego za pomocą ruchów oczu i postanowili sprawdzić, czy możliwe będzie sprawne kontrolowanie systemu operacyjnego.
Eye Control powstał we współpracy z firmą Tobii, liderem na rynku sprzętu do śledzenia ruchów gałki ocznej.
Komentarze (23)
Gość Astro, 3 sierpnia 2017, 12:06
Pogo. Jakież to wzruszające, nieprawdaż? Oczywiście, jak zwykle, małe przekłamanie.
sugeruje, że MS pierwszy przed innymi o tym pomyślał, a jest to bzdura.
OpenGazer i takie tam…
raweck, 3 sierpnia 2017, 14:24
Niezależnie od tego kto wymyślił, to pomysł wydaję się być bardzo interesujący, nawet dla "normalnego" użytkownika komputera, ponieważ zwalnia rękę z używania myszki. Wyobrażam sobie kursor podążający na ekranie za wzrokiem. Mrugnij raz, aby zaznaczyć. Mrugnij dwa razy, aby otworzyć plik. Mrugnij prawym okiem, aby wyświetlić menu kontekstowe. Zamknij lewe oko, aby rozpocząć zaznaczanie tekstu...
Pozytywnym "skutkiem ubocznym" takiego sterowania byłoby częste mruganie, co pozytywnie wpływałoby na nawilżanie gałki ocznej, a w efekcie mniejsze męczenie się oczu przy pracy przy komputerze. Obecnie wpatrując się w ekran zapominamy mrugać...
Mnie się podoba. Przy uzyskaniu dużej precyzji, chętnie zamieniłbym myszkę na takie sterowanie.
Gość Astro, 3 sierpnia 2017, 14:43
Jako i mnie. Nie prościej od razu parę cienkich gwoździ w łeb? Szybsze będzie przetwarzanie, a i Matrix coraz bliżej.
O RS-232 z tyłu głowy (wygląda chyba lepiej niż na czole ) pisałem sporo lat temu, zapewne jednak nie na KW.
pogo, 3 sierpnia 2017, 14:56
@, chyba chodziło tylko o pomysł by wbudować to konkretnie w Windowsa, reszta tego jest już wybitnie stara.
Oko chyba nie ma takiej precyzji jak mogło by nam się wydawać. Wciąż jednak uważam, że może być ciekawie z tego korzystać w codziennej pracy.
Mnie całkowicie zadowoli przełączanie aktywnego okna poprzez spojrzenie na nie. Ile to razy zdarzyło mi się, że pisałem coś i zapomniałem wcześniej kliknąć by to się działo we właściwym oknie... Albo chcę przewinąć stronę w przeglądarce, ale focus wciąż jest w oknie poczty i tam przewijam listę maili...
Niestety znając MS to tylko kwestia czasu aż ktoś zacznie mówić, że ten wynalazek zbiera za dużo danych o użytkowniku.
raweck, 3 sierpnia 2017, 15:02
To raczej nie chodzi o precyzję oka, tylko oprogramowania i kamery/kamer, które będą w stanie wydedukować na co aktualnie patrzysz. Jak duży to będzie obszar? Nie wiem, ale wyobrażam sobie, że mrużąc oczy mógłbym go zawężać na ekranie. Rzadko co jest doskonałe od razu. Będą klienci na to, system będzie coraz precyzyjniejszy.
Gość Astro, 3 sierpnia 2017, 15:13
Owszem Pogo, ale nazwa własna "Eye Control" to robota nieźle opłacanych ludków od marketingu, a wymyślona po to, by zasugerować "niewtrawnemu odbiorcy" (czyli debilowi – znaczy się, zdecydowana większość użytkowników systemów operacyjnych), że MS rządzi.
(ludkowie od linucha, jak wiesz, nie mają na to kasy )
No a nie zbiera? :D
Pogo, bądźmy dorosłymi ludźmi…
pogo, 3 sierpnia 2017, 15:18
Nie spodziewam się by było możliwe uzyskanie takiej szybkości i jednoczesnej precyzji jaką obecnie mamy używając myszki. Oczywiście chwila koncentracji i stabilizacji i możesz łapać okiem pojedyncze pixele, ale wątpię by było to szybsze i mniej męczące niż tradycyjnymi metodami.
Czas pokaże, ja bardzo chętnie dołożę sobie dodatkowe wspomaganie na sterowanie kursorem.
Jeszcze nie przynajmniej nie tą metodą.
Gość Astro, 3 sierpnia 2017, 15:18
Czytaj ze zrozumieniem.
pogo, 3 sierpnia 2017, 15:21
Insider Preview to nie jest oficjalnie dostępna wersja i służy do tego by zbierać maksymalnie dużo danych, więc uczestnicy tego programu są tego świadomi (przynajmniej powinni być), więc ja bym tego nie liczył.
Gość Astro, 3 sierpnia 2017, 15:26
Tu pojechałeś, ale mi się podoba.
Ja tam bym liczył wszystkich debili. Daje to znaczącą większość.
Flaku, 3 sierpnia 2017, 16:11
Pomysł z mruganiem chyba nie jest najlepszy. W końcu mrugamy też nieświadomie. Nie chciałbym sobie rozpraszać pracy przypadkowym mrugnięciem gdzieś. Przełączanie okien też jest słabym pomysłem. Często przepisujemy coś z jednego okna do drugiego, wtedy dezaktywowalibyśmy sobie okno, w którym piszemy.
pogo, 3 sierpnia 2017, 16:58
Wystarczy odróżniać długie mrugnięcie od krótkiego (krótkie jest tym naturalnym, które będzie ignorowane). Do tego dochodzi podwójne mrugnięcie i cała masa gestów wykonywanych oczami (potrząsanie, przewracanie) oraz śledzenie aktywności w oknie (np. nie przełącza jeśli jesteś w trakcie pisania).
Wystarczy dać ludziom możliwość samodzielnej konfiguracji i pisania własnych skryptów i wymienianie się nimi, a docelowo ujednolicenie tego, co będzie wydawało się najwygodniejsze i wprowadzenie jako domyślnych ustawień.
Gość Astro, 3 sierpnia 2017, 18:35
Pełna zgoda. Czyżbym miał jakieś Déjà vu?
Wierzysz, że w to wierzą w MS?
pogo, 3 sierpnia 2017, 18:40
Chyba po to istnieje program Insider...
Przy czym ten wynalazek może mieć całkowicie inne potrzeby dla osób niepełnosprawnych, dla których to jedyna szansa na w miarę wygodną komunikację ze światem, a inaczej dla takich jak my, co chcieliby taki bajer z lenistwa i wygody. Obstawiam, że MS zwróci uwagę tylko na pierwszą grupę osób.
Gość Astro, 3 sierpnia 2017, 18:57
Jasne. Masz rację Mają dużego (inni, cieniaski, nie powinni nawet mieć prawa się przymierzać; najlepiej zakaz klepania z dozorem policyjnym)…
thikim, 3 sierpnia 2017, 22:07
Nie zrozumiałeś o co chodzi w tamtym zdaniu.
Chodzi konkretnie nie o sterowanie oczami co znane było dużo wcześniej tylko o mechanizm który nazwano Eye Control. Fakt nazwa nie jest jakoś specjalnie wymyślna, nie chodzi jednak o OpenGazer i inne.
Widzę że częściowo niektórzy idą w stronę sterowania oczami. Tu chodzi jednak nie ogólnie o sterowanie oczami tylko o sterowanie oczami przez osoby niepełnosprawne.
To że myszka+klawiatura + ręce + oczy - rządzą, to już tu mam nadzieję wygadaliśmy. Z tym że chodziło o ludzi sprawnych.
Jak wyżej pisałem. To ma być dla niepełnosprawnych osób. Lepsze dla nich kulawe mruganie niż nic.
Gość Astro, 3 sierpnia 2017, 22:07
Dobrze, że Ty rozumiesz. Możesz się już pogmerać.
W czym Ci trzeba pomóc?
thikim, 3 sierpnia 2017, 22:09
Cieszę się że jak zwykle pokazałeś co znaczy merytoryczna dyskusja. Przy Tobie - każdy jest merytoryczny
Gość Astro, 3 sierpnia 2017, 22:10
Błąd. Ty zawsze robisz za wielbłąda.
thikim, 3 sierpnia 2017, 22:13
Co tam wielbłąd. Nawet osioł jest bardziej merytoryczny niż Ty
Gość Astro, 3 sierpnia 2017, 22:23
Osiołek Astro robi dla niedowartościowanego Thikima ihoo.
radar, 4 sierpnia 2017, 00:37
Obawiam się, że to nie kwestia ich chęci tylko tego, że tylko ta pierwsza grupa jest tak na prawdę "doable", bo tylko oni pogodzą się ze wszystkimi niedogodnościami jakie się z tym wiążą (nie mają wyboru). A jest ich na prawdę sporo:
1. mimowolne ruchy gałki ocznej
2. fiksacje
3. czas mrugnięcia też jest różny, w zależności od różnych czynników
4. oko nie porusza się płynnie = kursor skacze (ciężko się do tego przyzwyczaić)
5. wbrew pozorom niezbyt dobra dokładność bez "lupy" (to nie nasze oczy wyłapują detale, tylko mózg)
6. łapanie focusa przez samo patrzenie to zły pomysł (dobry przykład z przepisywaniem tekstu). Dodanie opóźnienia zmniejsza komfort pracy w innych przypadkach.
7. samo podążanie kursora za wzrokiem to niezbyt dobry pomysł, chcesz żeby po tekście, który czytasz (albo gdy oglądasz film) latał kursor = zasłaniał tekst?
8. wyobraź sobie, że czytasz link (ale nie chcesz go otworzyć!)
(radar takie kodził to wie :/)
Wiele programów próbuje to niwelować, ale o ile nie wejdziemy w "mózg" to raczej nic z tego nie będzie. 2 niezależne ręce + oczy są lepsze/szybsze niż sam wzrok, który musi pełnić jednocześnie rolę wykonawczą i obserwacyjną. Mogę czytać czy patrzeć gdzie chcę robiąc jednocześnie alt+tab, ctrl+s/n/... ctrl+pgdn, zaznaczać etc. etc.
Niepełnosprawni, bez wyboru, tak.
darekp, 4 sierpnia 2017, 11:25
Zgadza się, można sobie włączyć w Panelu Sterowania taką opcję "Uaktywnij okno przez umieszczenie na nim wskaźnika myszy" (jest gdzieś w Centrum ułatwień dostępu, opcje dot. myszy). Niezupełnie to samo, ale w praktyce kursor myszy często podąża za tym, na czym się aktualnie koncentrujemy. Jak ktoś coś takiego zrobi (ja niedawno włączyłem omyłkowo), to bardzo szybko wyłączy.
Oczywiście bardzo by się przydało coś, jakiś mechanizm, sprawiający, że okna będą się "inteligentniej" zachowywać, ale wymyślić jak to zrealizować w praktyce nie jest prosto (delikatnie mówiąc). Pewnie bez Astrowskich "gwoździ w mózgu" i odczytywania jakichś pragnień bezpośrednio z mózgu się nie obejdzie.