Amerykańskie wojsko ma autonomiczne drony z systemem rozpoznawania twarzy?
Pod koniec 2021 r. amerykańskie siły powietrzne (US Air Force) podpisały z firmą RealNetworks kontrakt na dostarczenie oprogramowania do rozpoznawania twarzy dla dronów. W umowie zapisano, że oprogramowanie ma być wykorzystane do identyfikacji i gromadzenia informacji wywiadowczych. Umowa wygasła z końcem 2022 roku. Nie jest jasne, czy USAF już wyposaża swoje drony w nowe oprogramowanie. Jednak specjaliści zwracają uwagę na pewien – niepokojący ich zdaniem – zapis kontraktu.
Kontrowersyjny punkt mówi o tym, że oprogramowanie da możliwość autonomicznej reakcji drona w czasie rzeczywistym. Zdaniem ekspertów trudno to zrozumieć inaczej, niż możliwość podjęcie przed dron ataku na rozpoznaną osobę.
Już przed 6 laty Stuart Russel z Uniwersytetu Kalifornijskiego w Berkeley, który sprzeciwia się rozwojowi autonomicznego uzbrojenia, zaprezentował podczas konferencji fikcyjny materiał filmowy, w którym drony rozpoznają wybranych ludzi i ich zabijają. Wszystko wskazuje na to, że właśnie zyskały one taką możliwość. Jednak wielu ekspertów rozwiewa obawy Russela.
Gregory Allen z think tanku Center for Strategic and International Studies mówi, że nigdy w Pentagonie nie spotkał osoby, która chociażby w najmniejszym stopniu była zainteresowana robotami, które na podstawie rozpoznawania twarzy samodzielnie podejmowałyby decyzję o zabiciu konkretnej osoby. Przypomina, że istnieją inne metody zidentyfikowania osób interesujących wojsko czy służby specjalne.
Ponadto występuje wysokie ryzyko złego rozpoznania. W teorii systemy rozpoznawania twarzy działają bardzo dobrze, a ryzyko wadliwej identyfikacji wynosi mniej niż 0,5%. Jednak jest to prawdą tylko w przypadku najlepszych algorytmów i tylko wówczas, gdy dysponują one zdjęciami wysokiej jakości. Uzyskanie takich obrazów z dużej odległości, w zmiennych warunkach oświetleniowych za pomocą niewielkich kamer zainstalowanych na dronie byłoby niezwykle trudne. Dlatego też, przynajmniej obecnie, wyszukanie konkretnej osoby i automatyczne wzięcie jej na celownik przez drona jest niemożliwe.
Sami wojskowi nie chcą zaś niczego powiedzieć. Szczegóły dotyczące bezpieczeństwa i innych kwestii operacyjnych związanych z tą technologią nie zostaną ujawnione ze względów na zasady bezpieczeństwa prowadzonych operacji. Personel wojskowy, odpowiedzialny za rozwój, stosowanie i użycie sztucznej inteligencji, stosuje odpowiednie zasady zdrowego rozsądku, osądu i podejmowania decyzji, oświadczył rzecznik Air Force Research Laboratory.
Komentarze (0)