SI powinna mieć wbudowaną ograniczoną wiarę we własne możliwości
Wiara we własne możliwości jest cechą zdecydowanie dobrą, o ile wiemy, gdzie są granice i kiedy należy poprosić o pomoc. Eksperci proponują, by mechanizm oceny własnych umiejętności, wiary w siebie, wbudować w maszyny. W obliczu szybkiego rozwoju sztucznej inteligencji pozwoli nam to je lepiej kontrolować.
Zbyt pewna siebie maszyna może sprawić sporo problemów, uważa Dylan Hadfield-Menell z Uniwersytetu Kalifornijskiego w Berkeley. Podaje tutaj przykład serwisów społecznościowych, których algorytmy szybko rozprzestrzeniają nieprawdziwe informacje. Brak im bowiem mechanizmów samokontroli, wystarczy zatem, że algorytm oceni, iż dany tekst będzie interesował użytkowników, by im go wyświetlać. W przypadku sztucznej inteligencji zbytnia wiara we własne siły i możliwości może sprawić nam wiele kłopotów.
Naukowcy z Berkeley stworzyli matematyczny mogel interakcji pomiędzy człowiekiem a maszyną, który nazwali „grą przycisku do wyłączania” (off-switch game). W tej teoretycznej grze robot posiada przycisk, którym można go wyłączyć. Człowiek może nacisnąć go w każdej chwili i zatrzymać maszynę, ale robot ma możliwość unieruchomienia przycisku tak, by człowiek nie był w stanie z niego skorzystać. Roboty ze zbyt dużym zaufaniem do samych siebie nigdy nie pozwolą człowiekowi na skorzystanie z przycisku, gdyż uznają, że wykonują zadanie poprawnie, a ich osąd jest lepszy od osądu człowieka. Z kolei robot ze zbyt małą wiarą w swoje możliwości zawsze pozostawi przycisk aktywnym, nawet, gdy będzie bardzo dobrze wykonywał powierzone zadania.
Hadfield-Menell uważa, że powinniśmy dobrze przemyśleć, ile wiary we własne możliwości wbudujemy w maszyny. Podaje przykład autonomicznego samochodu, który ma zawieźć dziecko do szkoły. Taki samochód, jego zdaniem, nigdy nie powinien pozwolić, by dziecko przejęło nad nim kontrolę. Jednak dorosły powinien mieć taką możliwość.
Wizerunek robota odmawiającego człowiekowi możliwości wyłączenia go może wydawać się bardzo odległą fantazją, jednak – jak zauważa Marta Kwiatkowska z Uniwersytetu w Oksfordzie – już teraz powinniśmy rozważać takie scenariusze. Autonomiczne samochody czy cybernetyczni strażacy będą podejmowali decyzje, od których będzie zależało ludzkie życie. Dlatego, zdaniem Kwiatkowskiej, musimy wbudować w nie zasady etyczne.
Sam Hadfield-Menell chce zbadać, w jaki sposób będą zmieniały się decyzje podejmowane przez roboty, gdy maszyny będą miały dostęp do większej ilości informacji i lepiej będą mogły ocenić swoją użyteczność. Na przykład automat do kawy może uznać wykonywane przez siebie zadania za ważniejsze rano niż wieczorem.
Komentarze (12)
darekp, 6 czerwca 2017, 13:08
To ta SI nie będzie wystarczająco inteligentna, żeby sama ocenić swoje możliwości i zobaczyć, że są ograniczone?
tempik, 6 czerwca 2017, 14:45
trzeba by zaszczepić świadomość i jaźń takiej maszynie żeby to mogła pojąć. ale dla istnienia SI chyba nie jest to konieczne a dla ludzi byłoby wręcz szkodliwe, więc chyba nikt nad czymś takim nie będzie pracował. no chyba że wyjdzie "niechcący" jak wiele wynalazków w naszych dziejach
Ergo Sum, 6 czerwca 2017, 15:39
Od dawna powtarzam, że AI potrzebuje etyki. Ale dopiero gdy to napisała jakaś "prof" to uznajecie że to słuszne.Nie piszę tego "no bo tak" lecz jest to wynik wielu obserwacji i przemyśleń, nigdy też nie napisałem że nie jestem "prof." ani "z Uniwersytetu z ....". Jeśli ktoś coś powiedział po raz pierwszy (i zrobił to świadomie i celowo) to on jest autorem kwestii a nie pani prof z Oxfordu.
Afordancja, 6 czerwca 2017, 15:45
Rozważania dla samych rozważań. Piszą o automatach na FB, o kierowaniu samochodów itd. a to są własnie "automaty"(bardzo przydatne zresztą) i nie ma tu nic wspólnego z wiarą we własne możliwości.
(mówię o osobach dorosłych itd.)
Jeżeli jest guzik który z założenia ma wyłączyć automat to nie instaluje się żadnego, wyłącznika wyłącznika pod kontrolą AI, bo zwykły błąd na który "automat" nie był przygotowany może wyłączyć możliwość wyłączenia.
przykład FB, przepuszczają takie treści na jakie zostały zaprojektowane do promowania, nie mają analizy czy to jest prawdą czy nie, i znów nie ma to nic wspólnego z wiarą we własne możliwości, te automaty nie mają żadnej wiary, robią to co mają robić, można dorobić kolejne automaty filtrujące które mogą zajmować się weryfikacją. to samo z resztą tyczy się autonomicznych samochodów.
Całe te rozważania mają sens gdy myślimy o ogólnym totalnie niezależnym AI, co nie zmienia faktu, że dalej wyłącznik powinien być po za jej kontrolą. Jednak zanim dojdziemy to mamy bardzo wyspecjalizowane automaty które robią to co mają robić, lepiej lub gorzej, nic więcej.
Gość kremien, 6 czerwca 2017, 17:11
Hmm moralność i etyka dla SI? Zapewne SI powstała/powstanie najpierw dla wojska (oni zawsze wszystko mają pierwsze). I zapewne wojskowi będą pierwszymi ojcami zbioru zasad etyki dla robotów. Moze i będzie to księga wielkości biblii, ale trzy najważniejsze zasady są oczywiste:
Zasada pierwsza: Bezwzględne posłuszenstwo wobec przywódców armii
Zasada druga: Najpierw strzelać potem myśleć
Gość Astro, 6 czerwca 2017, 19:26
Wzorzec, jak sądzę jest już gotowy. Wystarczy "zeskanować" Misiewicza. Trochę się boję (choć uczucia mam ambiwalentne), bo patrzy, że SI tuż, tuż…
Można prosić o jakąś algorytmikę etyki?
Brzmi dobrze. Etaty dla LUDZI, którzy będą trzymać łapę nad guzikiem to zawsze jakaś alternatywa pracy.
Afordancja, 7 czerwca 2017, 06:25
hm..chyba zbyt dosłownie zrozumiałeś ten "guzik", chodziło tylko o ideę, że w ogóle rozważanie sytuacji, że jakieś zaawansowane AI którego działanie może mieć potężne skutki a zarazem może po prostu być wadliwe, nie ma "guzika" za pomocą którego go można wyłączyć, a dodawanie opcji aby to samo AI (które może być wadliwe) miało możliwość aby ten "guzik" wyłączyć jest jak dla mnie po prostu słabe, że w ogóle ktoś to rozważa.
Ja tam w przypadku zastosowań wojskowych, nie widzę, żadnej etyki tylko, cele i założenia, i trzeba je po prostu wykonać i te roboty nic nie wiedzą o $ i władzy.
Sobol_Ka, 7 czerwca 2017, 21:58
Problem raczej nie leży w maszynie z " dużą wiarą we własne możliwości" a w ludzkim upodobaniu do antrpopomofizacji wszystkiego co nas otacza. Automatom wszelkiej maści , z coraz większym upodobnaniem, staramy się nadać cechy imitujące ludzkie zachowanie. Niestety, jeszcze długo, coś co nazywamy SI, będzie tylko namiastką, a traktowanie jej jako istoty posiadającej emocje i uczucia jest błędem. Niezależnie od złożoności algorytmów i zadań do jakich automat został stworzony, nie można doszukiwać się cech typowo ludzkich. Maszyna nie myśli w naszym rozumieniu. Wykonuje tylko algorytmy napisane przez człowieka, lepiej, lub gorzej symulując inteligencję. Nie można więc powierzyć tym algorytmom decyzji o wyłączeniu się. Nawet najlepiej przetestowany program komputerowy nie jest wolny od dziur i błędów. Poza tym może je spowodować choćby nagła zmiana napięcia napięcia, czy inne trudne do przewidzenia czynniki. Naukowcy powinni się więc skupić nie na maszynach wierzących lub niewierzących w cokolwiek, a na zbytniej wierze ich twórców w swoje możliwości. Bo to właśnie jest głównym niebezpieczeństwem zabawy z autonomicznymi systemami.
Gość Astro, 8 czerwca 2017, 18:04
Całkowicie się zgadzam. Parafrazując (tak z ułomnej już pamięci) Mistrza, to naprawdę zadziwiające jest, że mózg, który wyewoluował głównie ku temu, by sprawnie przeskakiwać z gałęzi na gałąź, dopadać słabszych i uciekać przed silniejszymi rozwiązywał coś takiego jak równania różniczkowe (wiem, nie wszyscy ).
Czy to nie radośnie zabawne, że tak uporczywie staramy się budować maszyny, które całkiem już zręcznie naśladują ludzkie kroki, ludzką mimikę twarzy itp.? Nie prościej wziąć psa ze schroniska?
Myślę, że zwyczajnie boimy się tego co nieludzkie, a czysta INTELIGENCJA nieludzka być musi…
thikim, 8 czerwca 2017, 20:11
Wbudowanie wiary w SI?
Jeśli będzie SI to samo z siebie będzie miało wiarę
Ale owszem dostrzegam dalszy kontekst: chodzi o sprawienie aby to była właściwa wiara.
Taka seks lalka mówiąca właścicielowi: "nie".
Obawiam się że to już zapewne ktoś zbudował
Też o tym pomyślałem: i wszczepić mu w mózg elektrody które sprawią że będzie się słuchał
Tak piszą ci co wojsko znają z bajek ... lub czasów dawnego zsw kiedy w kraju nawet mięso było na kartki.
Ale owszem. Pewne wyjątkowe rzeczy w wojsku mają wcześniej. AI do nich nie należy i należeć nie będzie.
Gość Astro, 8 czerwca 2017, 20:22
Słuszna uwaga, ale nie pomyślałeś, że warto byś zaczął od własnych dzieci? 500+ zostaje, a ile spokoju w domu. Proponuję dobrodziejstwo cywilizacji jak pilot. Tyłka z fotela ruszać nie trzeba (w końcu tak bogaty repertuar rzeczywiście "publicznej" TV), pasa z portek odwijać również, a jak zbyt głośno, to guziczek na pilocie. Jak nie zadziała, to plusikiem zwiększasz amperaż i po kłopocie. No i wyrosną "na ludzi".
Bzdura. Jeśli sądzisz inaczej, to zacznijmy od czegoś prościutkiego. DEFINICJĘ inteligencji poproszę.
Calamity J, 11 czerwca 2017, 00:41
Roboty po pracy będą musiały chodzić do kościoła. Ksiądz już na pewno im wmówi, że są nic nie warte, grzeszne i wymagają dożywotnio konsultacji z przedstawicielami Kościoła. To taka outsource'owana etyka.