Komputer rozpoznaje emocje na podstawie mowy ciała

| Psychologia
ronocdh, CC

Zespół Antonia Camurriego z Uniwersytetu w Genui zbudował system z Kinectem Microsoftu, który pozwala komputerowi odczytać emocje użytkownika z mowy ciała.

Komputery wykorzystywano już wcześniej do odczytywania emocji, ale zazwyczaj koncentrowano się na analizie twarzy lub nagrywaniu głosu. W tym przypadku wystarczy, że ktoś przejdzie przez pomieszczenie lub zwyczajnie siądzie przy biurku, nie trzeba mówić czy patrzeć w kamerę.

System tworzy prosty wizerunek postaci, zawierający informacje nt. ruchów głowy, tułowia, dłoni i ramion. Oprogramowanie szuka pozycji reprezentatywnych dla określonych stanów emocjonalnych. Opuszczona głowa i zwieszone ramiona wskazują np. na smutek lub strach. Jeśli, tak jak w tym przypadku, 2 emocje charakteryzują się podobnym ułożeniem ciała, czynnikiem rozstrzygającym jest prędkość ruchu; tutaj niewielka wskazuje na smutek, a większa na strach. Podczas testów Włosi wykazali, że system trafnie rozpoznawał emocje ludzika w 61,3% przypadków, podczas gdy wskaźnik poprawnych wskazań dla 60 ochotników wynosił 61,9%.

Camurri pracuje nad grami, które uczyłyby dzieci z autyzmem rozpoznawać emocje i wyrażać je za pomocą ruchów ciała. W jednej z gier dziecko prosi się o obejrzenie krótkiego filmu z aktorem odgrywającym emocję. Później zachęca się użytkownika, by spróbował odgadnąć, o jakie uczucie chodziło. Specjalista dodaje, że można również prosić dziecko o oddanie tej samej emocji ciałem.

Poza tym Włosi wspominają o zastosowaniu systemu do ustalenia, w jakim stopniu członkowie grupy są dostrojeni do lidera (analizowano by różne sygnały, np. ruchy głowy w czasie słuchania wypowiedzi).

Kinect system emocje mowa ciała pozycja ruch Antonio