SI powinna mieć wbudowaną ograniczoną wiarę we własne możliwości

| Technologia
NASA

Wiara we własne możliwości jest cechą zdecydowanie dobrą, o ile wiemy, gdzie są granice i kiedy należy poprosić o pomoc. Eksperci proponują, by mechanizm oceny własnych umiejętności, wiary w siebie, wbudować w maszyny. W obliczu szybkiego rozwoju sztucznej inteligencji pozwoli nam to je lepiej kontrolować.

Zbyt pewna siebie maszyna może sprawić sporo problemów, uważa Dylan Hadfield-Menell z Uniwersytetu Kalifornijskiego w Berkeley. Podaje tutaj przykład serwisów społecznościowych, których algorytmy szybko rozprzestrzeniają nieprawdziwe informacje. Brak im bowiem mechanizmów samokontroli, wystarczy zatem, że algorytm oceni, iż dany tekst będzie interesował użytkowników, by im go wyświetlać. W przypadku sztucznej inteligencji zbytnia wiara we własne siły i możliwości może sprawić nam wiele kłopotów.

Naukowcy z Berkeley stworzyli matematyczny mogel interakcji pomiędzy człowiekiem a maszyną, który nazwali „grą przycisku do wyłączania” (off-switch game). W tej teoretycznej grze robot posiada przycisk, którym można go wyłączyć. Człowiek może nacisnąć go w każdej chwili i zatrzymać maszynę, ale robot ma możliwość unieruchomienia przycisku tak, by człowiek nie był w stanie z niego skorzystać. Roboty ze zbyt dużym zaufaniem do samych siebie nigdy nie pozwolą człowiekowi na skorzystanie z przycisku, gdyż uznają, że wykonują zadanie poprawnie, a ich osąd jest lepszy od osądu człowieka. Z kolei robot ze zbyt małą wiarą w swoje możliwości zawsze pozostawi przycisk aktywnym, nawet, gdy będzie bardzo dobrze wykonywał powierzone zadania.

Hadfield-Menell uważa, że powinniśmy dobrze przemyśleć, ile wiary we własne możliwości wbudujemy w maszyny. Podaje przykład autonomicznego samochodu, który ma zawieźć dziecko do szkoły. Taki samochód, jego zdaniem, nigdy nie powinien pozwolić, by dziecko przejęło nad nim kontrolę. Jednak dorosły powinien mieć taką możliwość.

Wizerunek robota odmawiającego człowiekowi możliwości wyłączenia go może wydawać się bardzo odległą fantazją, jednak – jak zauważa Marta Kwiatkowska z Uniwersytetu w Oksfordzie – już teraz powinniśmy rozważać takie scenariusze. Autonomiczne samochody czy cybernetyczni strażacy będą podejmowali decyzje, od których będzie zależało ludzkie życie. Dlatego, zdaniem Kwiatkowskiej, musimy wbudować w nie zasady etyczne.

Sam Hadfield-Menell chce zbadać, w jaki sposób będą zmieniały się decyzje podejmowane przez roboty, gdy maszyny będą miały dostęp do większej ilości informacji i lepiej będą mogły ocenić swoją użyteczność. Na przykład automat do kawy może uznać wykonywane przez siebie zadania za ważniejsze rano niż wieczorem.

sztuczna inteligencja wiara we własne możliwości