Szpieg doskonały?
Uczeni z MIT-u (Massachusetts Institute of Technology) opracowali komputerowy model, który potrafi naśladować ludzki układ wzrokowy. Dzięki temu maszyna będzie w stanie np. rozpoznawać poszczególne samochody na zatłoczonej ulicy.
Wkrótce wynalazek amerykańskich akademików może trafić do systemów monitorujących, szpiegowskich, czy też do samochodów, które będą w stanie ostrzec kierowcę przed znajdującym się na drodze pieszym. Zdaniem Thomasa Serre’a z Instytutu Badań Mózgu im. McGoverna, może on się również przydać przy opracowywaniu wizualnych wyszukiwarek internetowych, które byłyby w stanie np. wyszukać w Internecie zdjęcia tego samego przedmiotu.
Uczeni od lat próbowali stworzyć urządzenie, zdolne do naśladowania biologicznych układów wzrokowych. Wciąż okazuje się jednak, że nauczenie komputera rozróżniania i prawidłowego klasyfikowania przedmiotów jest zadaniem wyjątkowo trudnym.
Pozornie wydaje się proste. By odróżnić samochód od innych przedmiotów komputer powinien posiadać wzorzec samochodu. Pamiętać jednak należy, że wzorzec ten powinien być na tyle elastyczny, by urządzenie mogło odróżnić samochód bez względu na kąt patrzenia, warunki oświetleniowe, otoczenie, prędkość poruszania się pojazdu i wiele innych czynników. System musi odróżniać wszelkie interesujące obiekty w polu widzenia, niezależnie od ich położenia czy rozmiarów – mówi Serre.
Najskuteczniejszą metodą rozwiązania problemu z rozpoznawaniem przedmiotów jest, zdaniem Serre’a i jego kolegi Tomaso Poggio, stworzenie algorytmu, który na podstawie szeregu obrazów będzie się uczył, odnajdując wspólne elementy. Na przykład dwa koła dotykające ziemi mogą wskazywać na to, że obiekt jest samochodem. Serre i Poggio uważają, że na podobnej zasadzie działa ludzki wzrok. Z tym, że ma on do dyspozycji wiele warstw kory wzrokowej. W najniższej warstwie rozpoznawane są najprostsze cechy charakterystyczne, takie jak krawędzie, a w warstwach wyższych są one zbierane i tworzony jest całościowy obraz.
Obaj uczeni postanowili sprawdzić swoją teorię i we współpracy ze Stanley’em Bileschim z MIT oraz Liorem Wolfem z Uniwersytetu w Tel Awiwie stworzyli komputerowy model składający się z 10 milionów jednostek. Każda z jednostek miała symulować działanie grupy neuronów kory wzrokowej. I, podobnie jak w mózgu, grupy zostały zorganizowane w warstwy.
W czasie testów okazało się, że grupy z najniższej warstwy potrafiły, na podstawie analizy małego zbioru pikseli tworzących obraz, rozpoznać krawędzie. Na tej podstawie grupy z warstwy niższej zbierały informacje o krawędziach pionowych i poziomych i tworzyły z nich rogi. Każda wyższa warstwa potrafiła zebrać informacje z niższej i stworzyć na jej podstawie coraz bardziej złożony obraz. Rozpoznawały też odległości pomiędzy różnymi elementami i ich orientację względem siebie, więc potrafiły rozpoznać cały obiekt niezależnie od kąta patrzenia.
Sami uczeni przyznają, że byli zaskoczeni tym, jak dobrze radził sobie ich algorytm z zadaniem, przed którym został postawiony. Testy przeprowadzone poza laboratorium wykazały, że system prawidłowo rozpoznaje ponad 95% obiektów. Co więcej, im dłużej działał, tym więcej się uczył i tym więcej obiektów potrafił bezbłędnie rozpoznać.
W chwili obecnej algorytm radzi sobie z nieruchomymi obrazami. Uczeni pracują obecnie nad tym, by był w stanie rozpoznawać również poruszające się obiekty. Uważają bowiem, że w ludzkiej korze wzrokowej inny obszar odpowiada za rozpoznawanie kształtów i tekstur, a inny za rozpoznawanie ruchu.
Komentarze (1)
Gość ubek, 22 lutego 2007, 18:25
proszę was zaprzestańcie dalszych prób, nie chcecie chyba aby technologii tej użył Macierewicz