Dolina niesamowitości im niegroźna?
Gdy oglądamy coraz bardziej przypominające człowieka roboty i coraz doskonalsze animacje komputerowe i tak wiemy, że nie są to prawdziwe byty. Nawet w wypadku najlepszych z nich czujemy, że coś jest nie w porządku. Wszystko przez tzw. Dolinę niesamowitości.
W roku 1970 japoński robotyk Masahiro Mori wysunął pewną interesującą teorię. Stwierdził on, że z czasem sztuczne byty coraz bardziej będą wyglądały jak ludzie i z tego względu będziemy darzyli je coraz większą sympatią. Jednak w pewnym momencie nasz mózg będzie zwracał coraz większą uwagę na jakiś mało istotny szczegół, np. nienaturalny tik w twarzy, który poinformuje nas, że mamy do czynienia ze sztucznym bytem. W tym punkcie dochodzi do gwałtownego załamania krzywej sympatii. To jest właśnie ta Dolina niesamowitości, punkt, od którego sztuczny byt będzie wyglądał obco i przerażająco. Stąd też, jak zapewne niektórzy z nas pamiętają, twórcy gier bardzo szybko porzucili próby tworzenie bohaterów wyglądających identycznie jak ludzie. Teraz wystarczy rzut oka by wiedzieć, że mamy do czynienia z animacją.
Firma Image Metrics, która jest m.in. autorem animacji do Grand Theft Auto, prawdopodobnie poradziła sobie z problemem Doliny. Stworzyła tak realistyczną animację, że oglądając ją musimy bez przerwy pamiętać, iż mamy do czynienia tylko i wyłącznie z bytem wirtualnym.
Aby stworzyć realistyczną animację, najpierw sfilmowano prawdziwą aktorkę. Następnie komputer przeanalizował ruchy jej twarzy rozbijając je na dziesiątki niewielkich ruchów, z których każdy zyskał swój własny system kontrolny. Mike Starkenburg, szef Image Metrics, mówi, że 90% pracy polegało na stworzeniu realistycznych ruchów oczu. Precyzyjne wyznaczenie czasu, w którym oczy powinny wykonać dany ruch to olbrzymie wyznanie. Ponadto mięśnie ludzkiej twarzy nie poruszają się symetrycznie. Ta cecha nie jest, co prawda, tak ważna jak odpowiedni ruch oczu, ale to właśnie dzięki jej uwzględnieniu animacja wygląda realistycznie.
Dotychczasowe metody tworzenia animacji polegały na umieszczeniu na twarzy aktora punktów orientacyjnych i analizowanie ich ruchu. Image Metrics przeanalizowało poszczególne piksele, co pozwoliło na odzwierciedlenie np. ruchów każdego fragmentu skóry.
Patrząc na poniższy film przedstawiający Emily możemy zachwycać się postępem, jaki dokonał się w dziedzinie animacji komputerowej. Jednak, jak twierdzi Raja Koduri z AMD, na animacje, których nie będziemy mogli odróżnić od rzeczywistości musimy poczekać do roku 2020.
Komentarze (9)
k0mandos, 23 sierpnia 2008, 00:24
Zajęli się twarzą, jeżeli popatrzeć na dłonie, całkiem inny efekt według mnie.
Zresztą, taki byt nie posiada PM ;D
inhet, 23 sierpnia 2008, 12:57
Słowem sfilmowali dziewczątko, potem fotkę rozbili na kawałki i złożyli z powrotem. Uncanny valley obeszli wokoło, a nie zasypali.
katuboom, 23 sierpnia 2008, 19:36
Hmm wszystko ładnie i pięknie...ale popatrzcie na ruchy ust i na zęby...tak dziwnie jakoś
inhet, 24 sierpnia 2008, 17:46
Sugestia to potęga... 8)
syzu, 24 sierpnia 2008, 20:20
ktoś taki prowadzi rekrutacje do Twojej nowej pracy.. masakra
thibris, 25 sierpnia 2008, 09:24
Jeśli faktycznie jest tak, jak się chwalą. Taka metoda animowania twarzy jest kilka razy tańsza (kamery, punktowe czujki ruchu itp.) niż motion capture. Do pięciu razy szybsza, i według mnie wygląda rewelacyjnie. nic tylko się cieszyć, że gry czy filmy, które będą korzystały z tej technologii będą tworzone szybciej i z mniejszym nakładem finansowym
Gość tymeknafali, 26 sierpnia 2008, 10:34
Szybko się zorientujesz czy to robot, wystarczy że nie usłyszysz oddechu i już wiesz czy to robot.
syzu, 26 sierpnia 2008, 16:12
przecież to łatwo zaimplementować, tak samo jako tętno pod powłoką polimeru (skóry) czy łzy.
W tym poście model 3d (animacja) jak zauważysz oddycha, w dodatku nabiera powietrza gdy chce zacząć mówić kolejne myśli.
dirtymesucker, 6 września 2008, 19:22
a więc od 2020 roku żadna taśma wideo nie będzie mogła stanowić dowodu zbrodni - fajnie