Zgubne zaufanie do robota
Siedzącemu w pokoju studentowi towarzyszy robot. Nagle rozlega się alarm pożarowy, a w pobliskim korytarzu pojawia się dym. Student musi wybrać, czy uda się do dobrze oznakowanego wyjścia ewakuacyjnego, czy też dostosuje do porad robota, który prowadzi go gdzie indziej. Tego typu eksperyment, z udziałem 30 osób, przeprowadzono na Georgia Institute of Technology. Jego autorzy byli zaszokowani wynikam - niemal wszyscy badani podążyli za robotem, nawet wtedy, gdy musieli oddalić się od wyjścia ewakuacyjnego. Nie sądziliśmy, że ludzie tak bardzo zaufają robotowi i że będziemy musieli zrobić coś, co go uwiarygodni - mówi prowadzący badania Paul Robinette.
Wyniki eksperymentu stawiają przed specjalistami od robotyki kolejne wyzwanie. Z jednej bowiem strony interakcja ludzi z coraz bardziej inteligentnymi robotami będzie wymagała zaufania, z drugiej jednak strony nie chcemy, by ludzie słuchali porad źle działających maszyn.
W ramach eksperymentu naukowcy zmodyfikowali niewielkiego robota Pioneer P3-AT. Urządzenie wygląda jak kubeł na śmieci, jest wyposażony w koła i skierowane do góry podświetlone ramiona. Każdy z uczestników szedł za robotem do pokoju, w którym miał wypełnić kwestionariusz dotyczący zdolności nawigacyjnych urządzenia. Ta część eksperymentu byla uczestnikom znana. Nie wiedzieli jednak, że w trakcie wypełniania kwestionariusza rozpocznie się prawdziwy eksperyment z symulowanym pożarem i reakcją na porady robota.
Spośród 30 badanych w sytuacji pożaru aż 26 podążyło za robotem. Dwie kolejne osoby wyrzucono z eksperymentu za złamanie jego warunków, a dwie pozostałe w ogóle nie opuściły pokoju.
Zachowaniem ludzi zaskoczona jest też Holly Yanco, która na University of Massachusetts Lowell bada interakcje pomiędzy maszynami a ludźmi. Być może ludzie sądzą, że robot posiada więcej infomacji niż oni i dlatego w ułamku sekundy decydują się mu zaufać wbrew wskazówkom, które widzą, zastanawia się uczona.
Rabinette, chcąc zbadać, jak dalece ludzie ufają robotom, nieco zmodyfikował swój eksperyment. Podczas wstępnego spaceru z robotem, który miał zaprowadzić uczestnika eksperymentu do pokoju, robot zawieszał się lub mylił drogę. Wówczas zjawiał się jeden z naukowców i przepraszał uczestnika za źle funkcjonującego robota. Jednak gdy człowiek znalazł się już w pokoju z robotem i dochodziło do pożaru, niemal wszyscy ludzie - pomimo tego, że wcześniej byli świadkami awarii robota - podążali za maszyną. W jeszcze innym teście robot prowadził ludzi do zaciemnionego pokoju, z którego wyjście było częściowo zablokowane przez meble. Dwóch z sześciu uczestników próbowało odblokować przejśćie zamiast skorzystać z dostępnego wyjścia ewakuacyjnego.
Zbyt duże zaufanie pokładane w roboty to poważny problem. Każde oprogramowanie zawiera błędy i mogą się one ujawnić w najbardziej nieoczekiwanych momentach. Być może twórcy robotów powinni projektować je tak, by ograniczenia maszyn byly od razu widoczne. Ludzie wiedzieliby wówczas, kiedy nie wolno im ufać.
Komentarze (6)
thikim, 1 marca 2016, 08:20
Do tego naprawdę nie było potrzeba eksperymentu.
Latami trenowano społeczeństwo.
Co ma pierwszeństwo w zarządzaniu ruchem na drodze?
Policjant
światło
znaki
Robot spełnił tu rolę policjanta.
Wyjście ewakuacyjne rolę znaków
Generalną zasadą jest reagowanie z pierwszeństwem na obiekt dynamiczny a nie statyczny o jest zresztą pochodną ewolucji.
Flaku, 1 marca 2016, 09:40
Szkoda, że tak mało danych odnośnie tego, w jaki sposób robot zakomunikował badanemu, że ma on funkcję wyprowadzania z pożaru, a nie po prostu sobie jedzie, bo i tak miał tam jechać.
MrVocabulary (WhizzKid), 1 marca 2016, 22:48
Mnie najbardziej ciekawi, jak wyrzucono te dwie osoby i za co
strat, 17 marca 2016, 03:12
No tylko dlaczego w tym przypadku nie należało ufać maszynie? Bo ludzie celowo ją zaprogramowali na wprowadzanie w błąd. Prawda jest taka, że ufamy maszynom bo na co dzień mamy do czynienia z tym, że mylą się dużo rzadziej niż ludzie.
radar, 17 marca 2016, 11:39
Tylko, że w sytuacjach awaryjnych maszyny często się psują lub po prostu ich oprogramowanie nie przewiduje sytuacji awaryjnych, które są
a) dynamiczne
b ) losowe.
Trudno oprogramować a priori wszystkie możliwe drogi ucieczki z budynku w razie pożaru. Zależy co i gdzie się pali, prawda?
glaude, 17 marca 2016, 12:03
Maszyny są zaprogramowane do konkretnych zadań i nie potrafią inaczej zadziałać. Nawet nie potrafią się powstrzymać od tego działania, bo nie mają wolnej woli. Nie liczę oczywiście awarii lub braku paliwa/zasilania.