Moralność Terminatora
Noel Sharkey, jeden z czołowych ekspertów ds. robotyki, mówi, że jest naprawdę przerażony planami USA i innych krajów dotyczącymi prac nad robotami bojowymi. W chwili obecnej w Iraku znajduje się ponad 4000 półautonomicznych robotów wojskowych, wykorzystywanych przez Stany Zjednoczone.
Sharkeya nie przeraża jednak sama ich liczba, a ich przyszłość. Obecnie to człowiek podejmuje decyzje. Jednak Pentagon od dwóch lat prowadzi już badania nad w pełni automatycznymi maszynami, które samodzielnie będą decydowały o naciśnięciu spustu.
Amerykański Departament Obrony (DoD) opublikował swoje plany dotyczące badań nad robotami bojowymi. Do roku 2010 chce wydać na ich rozwój 4 miliardy dolarów, a później dołoży do tego kolejne 20 miliardów. Trzeba przy tym pamiętać, że podobne maszyny powstają też w kilku krajach Europy, w Kanadzie, Korei Południowej, RPA, Singapurze i Izraelu.
Sharkey uważa, że powinno zostać nałożone tymczasowe moratorium na rozwój autonomicznych robotów bojowych. Dałoby to czas na określenie, jak daleko można posunąć się w ich produkcji i jakie mechanizmy bezpieczeństwa należy im zaimplementować.
Sharkeya popiera Ronald Arkin, specjalista robotyki z GaTech. Sądzi on, że rzeczywiście należy problem przedyskutować. Uważa jednak, że w przyszłości roboty będą postępowały bardziej etycznie niż współcześni żołnierze.
Zdaniem Arkina maszyny powinny przestrzegać międzynarodowych porozumień. Jest on jednak optymistą: Jestem pewien, że w robocie nie zrodzi się chęć zrobienia krzywdy cywilowi.
Komentarze (3)
norbixx, 28 lutego 2008, 22:22
a co z trzema prawami robotyki Asimova?
Przemek Kobel, 28 lutego 2008, 23:19
Nawet gdyby ktoś się nimi przejmował, to i tak roboty nie są w stanie "pojąć", na czym miałoby polegać "nieszkodzenie" sobie czy człowiekowi. To tak jakby próbować wytresować bakterię...
patrykus, 29 lutego 2008, 08:14
Dokładnie. Współczesne roboty nie są wyposażone w sztuczną inteligencję, a jedynie szereg algorytmów typu "co i kiedy można zrobić, a czego nie". Nie ma takiej możliwości by "przyszło im do głowy" uszkodzenie swoich ludzkich kolegów. Do tego jest potrzebna mówiąc trochę nie konkretnie "wolna wola", a tym czasem maszyny te w dużym uproszczeniu wgrany będą miały jedynie scenariusz typu :"strzelać do gośći w takich a takich uniformach z brotami i z kałasznikowami". Oczywiście te algorytmy nie są takie proste, dlatego idzie na badania tyle $. Jednak w kwestii wyboru te maszyny defacto go nie mają.
A propo mojego przedmówcy. Przykład z bakterią jest niezły ale mam lepszy. To tak jakbyś napisał program który podaje współżędne zielonej kropki znajdującej się na zdjęciu, a program "zmieniłby zdanie" i wskazał czerwoną. Jedyne błędy jakie mogą się pojawić będą powodowane przez nieskuteczny algorytm rozpoznawania zielonej kropki, ale to już kwiestia nie związana z trzema prawami.