Eksperci od sztucznej inteligencji wzywają do bojkotu KAIST
Ponad 50 ekspertów zajmujących się sztuczną inteligencją wezwało do bojkotu Koreańskiego Zaawansowanego Instytutu Nauki i Technologii (KAIST). Zdaniem naukowców, prowadzone przez KAIST badania mogą prowadzić do trzeciej rewolucji w działaniach wojennych.
KAIST ściśle współpracuje z największym koreańskim producentem uzbrojenia, firmą Hanwha Systems. Ekspertów zaniepokoił fakt, że niedawno obie instytucje powołały do życia Centrum Badań nad Konwergencją Obrony Narodowej i Sztucznej Inteligencji. Zdaniem naukowców z całego świata, centrum takie może doprowadzić do wyścigu zbrojeń, których celem będzie opracowanie autonomicznych systemów bojowych. Sygnatariusze listu oświadczyli, że nie będą współpracowali z KAIST dopóty, dopóki uczelnia nie zapewni, że nowo powołane centrum badawcze nie będzie prowadziło prac nas autonomiczną bronią.
Autonomiczne systemy bojowe, jeśli powstaną, doprowadzą do trzeciej rewolucji w działaniach zbrojnych. Pozwolą one prowadzić wojny szybciej i na większą skalę niż kiedykolwiek wcześniej. Mogą stać się narzędziem do siania terroru. Dyktatorzy i terroryści będą mogli użyć ich przeciwko niewinnym cywilom, uwalniając się ze wszystkich ograniczeń etycznych. Jeśli otworzymy tę puszkę Pandory, trudno będzie ją zamknąć. Możemy jednak zdecydować, że nie będziemy rozwijali takich technologii. Tak, jak w przeszłości zdecydowaliśmy, że nie będziemy np. rozwijali lasera do oślepiania ludzi. Wzywamy KAIST właśnie do takiego postępowania i do prac nad SI, która udoskonala ludzkie życie, a nie mu szkodzi.
Organizator bojkotu, profesor Toby Walsh z Uniwersytetu Nowej Południowej Walii powiedział, że rozwój autonomicznych systemów bojowych tylko pogorszy sytuację na Półwyspie Koreańskim. Jeśli ta broń się pojawi, to w końcu będzie miała ją też Korea Północna, która bez najmniejszych wyrzutów sumienia użyje jej przeciwko Południu, stwierdził Walsh.
Korea Południowa jest światowym liderem w dziedzinie rozwoju autonomicznych systemów bojowych. Wzdłuż Koreańskiej Strefy Zdemilitaryzowanej rozmieszczono m.in. systemy Samsung SGR-A1. To pierwsze roboty bojowe wyposażone w systemy do nadzoru, śledzenia, prowadzenia ognia i rozpoznawania głosu.
Prezydent KAIST, Sung-Chul Shin mówi, że uczelnia nie prowadzi prac nad autonomicznym uzbrojeniem.
Komentarze (35)
riyader, 5 kwietnia 2018, 13:21
Macie tą straszną sztuczną inteligencję:
Przemek Kobel, 5 kwietnia 2018, 14:35
Jest jeszcze gorzej... http://www.labsix.org/physical-objects-that-fool-neural-nets/
thikim, 5 kwietnia 2018, 19:59
Eeee. Znaczy się teoria o tym że jak my się rozbroimy to i nasz przeciwnik też
rahl, 5 kwietnia 2018, 23:33
Żarcik ?
Moim zdaniem porównywanie zwykłych czujek ruchu (do tego źle skonfigurowanych) sprzed 40 lat ze sprzętem takim jak SGR-A1 to lekkie nieporozumienie.
Z ludźmi jeszcze gorzej:
https://list25.com/25-incredible-optical-illusions/
tempik, 6 kwietnia 2018, 09:25
bojkot czegoś tam nic nie da i jest bez sensu. Natury ludzkiej się nie oszuka. Pierwsza maczuga zapewne została wykorzystana do rozwalenia głowy sąsiada, dopiero w następnej kolejności do polowania na zwierzynę. Z rozszczepieniem atomu i wieloma innymi wynalazkami było identycznie. Nie widzę przesłanek że człowiek się zmienił i wykorzysta jakiś nowy wynalazek(posiadający potencjał czynienia zła) do czynienia dobra. Jedyna nadzieja jest w tym, że nowoczesne technologie szybko są kopiowane przez innych i można doprowadzić do patowej sytuacji w której trzeba pamiętać że jak wyślę robota na sąsiada to on zapewne wyśle swojego na mnie
Przemek Kobel, 6 kwietnia 2018, 09:30
Moja ulubiona iluzja wygląda mniej więcej tak:
Ale gdybym nie był w stanie odróżnić kota od miski jakiejś papki, to nie wiem, czy ktoś wpuściłby mnie za kierownicę. Już prędzej na oddział detoksykacji.
rahl, 6 kwietnia 2018, 11:59
Pewnie to samo powiedziałoby AI o tych przykładach, które podałem.
Problem z ludźmi (i innymi istotami żywymi) jest taki, że łatwo odwrócić ich uwagę. Mój przykład służył unaocznieniu, że pomimo milionów lat ewolucji mamy sporo słabych punktów i luk w postrzeganiu, które w szybko rozwijającym się świecie technologicznym trudno załatać a mogą sprawiać poważne problemy. Adaptacja ewolucyjna jest po prostu zbyt wolna.
P.S. Myślę, że to nad czym pracuje Neuralink (i podobne rozwiązania) to jedyna droga dla istot biologicznych aby nadążyć.
Moja ulubiona:
Przemek Kobel, 6 kwietnia 2018, 12:03
Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.
rahl, 6 kwietnia 2018, 12:35
Skąd wiesz, rozmawiałeś z tą AI ?
Poza tym super, ale to ludzie rozjeżdżają dziesiątki tysięcy ludzi rocznie, i najczęściej przechodzących we właściwych miejscach, idących poboczem albo nawet stojących na przystankach autobusowych.
P.S. Nie rozumiem skąd to personifikowanie tych prymitywnych AI, nawet samo sformułowanie AI to nadużycie językowe, jakich wiele dziś, podobnie jak z przedrostkiem "nano". Równie dobrze mógłbyś mieć żal do drzew, bo czasem spadnie jakiś konar i kogoś zabije.
Przemek Kobel, 6 kwietnia 2018, 12:50
Ta AI jest za głupia, żeby mogła rozmawiać (zresztą jak wszystkie inne, wbrew ostatnim ogłoszeniom MS). Ale akurat w tej sytuacji człowiek by tej kobity nie zabił. Ani tu: https://www.techrepublic.com/article/robot-kills-worker-on-assembly-line-raising-concerns-about-human-robot-collaboration/
czy tu: https://www.theguardian.com/world/2015/jul/02/robot-kills-worker-at-volkswagen-plant-in-germany
albo tu: https://www.independent.co.uk/news/world/asia/worker-killed-by-robot-in-welding-accident-at-car-parts-factory-in-india-10453887.html
Afordancja, 6 kwietnia 2018, 13:33
ale czego by to miało dowieść? bo w zasadzie można by znaleźć (i udowodnić), że w danej sytuacji gdzie człowiek zabił automat by nie zabił.
Ostatecznie chodzi o to aby automaty były sumarycznie bezpieczniejsze niż ludzie i z wypadku na wypadek podobnie jak w lotnictwie, prawdopodobieństwo wypadku będzie zmniejszane. A to, że znajdziesz przypadek gdzie człowiekowi by się najprawdopodobniej udało niczego nie dowodzą.
Przemek Kobel, 6 kwietnia 2018, 13:40
Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna. Bo pewnie układ pasów na jezdni skojarzył sie jej z kaszą gryczaną, albo coś w tym rodzaju (czego tak łatwo wcale nie można stwierdzić, bo gdyby się dało, to nie budowano by sieci neuronowej, tylko po prostu napisano cywilizowany algorytm). A tak naprawdę to tylko tego, że eksperci od AI popędzani przez granty, IPO albo kursy akcji, są mniej więcej tak godni zaufania jak oprych w ciemnej bramie.
Afordancja, 6 kwietnia 2018, 13:52
Jak dla mnie to po prostu jakiś błąd projektowych i tyle. Ty opisujesz jak by to sieć kierowała a nie sądzę aby tak było. SSN i kamery to tylko jeden z elementów, wazne są też czujniki które wprost mówią czy jest przeszkoda tuż przed nami i jak szybko się do niej zbliżamy, I niezależnie jak to SNN interpretuje wypadało by się jednak przed tą przeszkodą zatrzymać. Osobne są systemy śledzenia ścieżek obiektów (może któryś zawiódł w tej sytuacji, nie wiem) może powinny być zdublowane(różne technologie) w każdym razie taka samochodowa AI to nie jest jakaś tam SNN tylko sieć złożonych elementów. TAk że radar czy tam lidar to lidar, i nie ma co tam filozofować i interpretować odleglość to odległość a prędkość zbliżania to ta prękość.
No coś poszło ewidentnie nie tak (pomijam, to, że pomijając temat AI, jak by to się człowiekowi przydarzyło to winną uznał bym pieszą).Ale znów tracisz ogólny sens, sprawdzą poprawią i znów będziemy dążyć aby sumarycznie maszyny były lepsze niż ludzie. No bo co by Cię zadowalało? Zerowa zabijalność maszyn? Nie możliwe? Samoloty też spadają.
A czy jeżeli automaty powodowały by 2x mniej wypadków niż ludzie już było by dla Ciebie ok? Gdzieś musi być granica
rahl, 6 kwietnia 2018, 15:28
@Przemek Kobel
A co podane przez ciebie przypadki mają wspólnego z AI ?
Ludzie szkolili, i przygotowali tą "AI", kierowca siedzący w aucie też nie zareagował poprawnie, więc proszę nie pisz bzdur, że człowiek by zareagował, skoro tego nie zrobił.
Zdarzenie to jest tragedią, co nie zmienia faktu, że ofiara przechodziła w kompletnie niedozwolonym miejscu mając w pełnej pogardzie ponad dwie tony rozpędzonego metalu i przypłaciła ten fakt życiem.
Przemek Kobel, 6 kwietnia 2018, 15:32
https://www.techemergence.com/global-competition-rises-ai-industrial-robotics/
https://www.bloomberg.com/news/articles/2018-03-22/video-said-to-show-failure-of-uber-s-tech-in-fatal-arizona-crash
rahl, 6 kwietnia 2018, 16:36
Ponowię pytanie:
Co proste roboty przemysłowe, przystosowane do wykonywania powtarzalnych czynności mają wspólnego z AI. Równie dobrze mógłbyś wtryskarce, albo prasie hydraulicznej nadać przydomek AI.
Teorie teoriami, ale jakoś kierowca rzeczonego auta Ubera nie zareagował i nie zapobiegł wypadkowi.
Polecam obejrzeć jak to ludzie "unikają" wypadków:
https://youtu.be/I6801whkbFI?t=199
Do tego w biały dzień i przy doskonałej widoczności o znacznie mniejszych prędkościach. Ciekawe co na to "eksperci"
Cretino, 7 kwietnia 2018, 00:45
Naiwne dzieci. Roboty i mniej lub bardziej zlozone formy ai wejda do zycia (przemysl, transport, nauka itd.) bez wzgledu na to czy to bedzie bezpieczne i czy beda czy nie beda temu towarzyszyc ofiary w ludzoach. Wystarczy, ze ich zastosowanie bedzie tansze niz uzywanie do tego ludzi. Autonomiczne pojazdy wyjada na ulice czy sie to komus podoba czy nie.
thikim, 8 kwietnia 2018, 10:44
Argument populistyczny.
Nie ma w nim żadnego odniesienia ilu ludzi rozjechali ludzie. Jakie są koszty, jakie zyski.
Jest tylko prymitywne zagranie na emocjach.
Mam nadzieję, że to ironia była z tym zdaniem...
wilk, 9 kwietnia 2018, 16:24
Głupi bojkot i tyle. Pozostawiając to pod dachem instytutu mają wpływ na to, jak ta technologia będzie wyglądała w przyszłości i co będzie mogła. Odcinając jednak uczelnię nie sprawią, że producent uzbrojenia sam się tym nie zajmie. A tym bardziej nie powstrzymają działów R&D innych dostawców, którzy i tak pracują nad takimi dronami. Stracą jedynie kontrolę.
Ergo Sum, 10 kwietnia 2018, 00:52
Jedynym zabezpieczeniem przed deprawacją AI jest wgranie świadomości .. Boga. I nie chodzi mi tutaj o duchowość robotów lub żeby ich wysłać do kościoła w niedzielę. Chodzi o świadomość, że istnieje pojęcie dobra i zła, którego nie jest się w stanie w żaden sposób dosięgnąć materią. Uniwersalne pojęcie nadrzędne, niepodlegające dyskusji z samego faktu że jest poza światem, poza kosmosem. Dzięki temu AI nie wpadnie na pomysł ułożenia własnych praw natury które np. uznały by potrzebę całkowitej likwidacji ludzkości.
Po wgraniu takiej świadomości w większą część AI będzie ona weryfikować tą "ateistyczną" AI i ją kontrolować.
Oprócz tego potrzebujemy jeszcze jednego - odosobnionego zamkniętego kręgu AI, które będzie badało wszelkie możliwości destrukcji i nas informowało o zagrożeniach. Ośrodek całkowicie odcięty od świata zewnętrznego i połączenia ze zwykłą AI.
Rozwijanie autonomicznych systemów bojowych jest konieczne, gdyż na pewno nie powstrzymamy całego świata przed ich stworzeniem. Musimy mieć adekwatną odpowiedź.
Gość, 10 kwietnia 2018, 05:54
Moralny robot bojowy na polu walki? Raczej byłby nieprzydatny. Skoro Bóg powiedział, że to jest dobre, to jak mógłby zabijać?
ww296, 10 kwietnia 2018, 09:33
Człowiek chyba nie wymyślił nic bardziej śmiercionośnego niż religia (generalnie jakakolwiek) więc implementowanie czegoś takiego maszynie nie posiadającej naturalnych instynktów umożliwiających przetrwanie i koegzystencję gwarantuje destrukcję.
wilk, 10 kwietnia 2018, 21:04
O na pewno. W końcu żaden z ludzi nigdy na to jak dotąd nie wpadł. Jesteśmy ocaleni. ;-)
radar, 10 kwietnia 2018, 22:05
Co jeden komentarz to lepszy
Mnie, jako praktyka, interesuje bardziej JAK miałoby wyglądać
Uważam to za dobry pomysł, w sensie, "wgrania świadomości", niekoniecznie Boga.
Przypomina mi się akcja z Terminatora II:
- Obiecaj mi, że nikogo nie zabijesz!
(po strzale w kolana)
- Będzie żył