Chcą uchronić ludzkość przed technologicznym armageddonem
Nie tylko obrońcy praw człowieka, którzy przed kilkoma dniami wezwali do zaprzestania prac nad autonomicznymi robotami wojskowymi, obawiają się, że rozwój technologiczny może pójść w niewłaściwym kierunku. Na jednej z czołowych uczelni wyższych świata, University of Cambridge, powstanie Cambridge Project for Existential Risk. To inicjatywa ogłoszona przez profesora filozofii Huw Price'a, emerytowanego profesora kosmologii i astrofizyki Martina Reesa oraz współzałożyciela Skype'a Jaana Tallinna.
Na stronie projektu czytamy: Wielu naukowców obawia się, że rozwój technologiczny może zagrozić istnieniu człowieka jako gatunku. Takie niebezpieczeństwo może pojawić się wraz z rozwojem sztucznej inteligencji, biotechnologii, sztucznego życia, nanotechnologii czy też wskutek antropogenicznych zmian klimatycznych. Tego typu ryzyko jest trudno oszacować, ale biorąc pod uwagę, jak wielka jest stawka, warto się nad tym problemem pochylić. The Cambridge Project for Existential Risk - inicjatywa filozofa, naukowca i przedsiębiorcy - bierze swój początek z przekonania, że problem ten wymaga znacznie szerzej zakrojonych badań niż dotychczas. Naszym celem jest utworzenie na University of Cambridge multidyscyplinarnego centrum, poświęcionego ocenie ryzyka i opracowaniu sposobów jego uniknięcia.
W prace zespołu zaangażowało się już wiele osób. Są wśród nich pracownicy Cambridge, jak profesorowie filozofii Tim Crane i Jane Heal, wykładowca informatyki Sean Holden czy Hermann Hauser, współzałożyciel funduszu inwestycyjnego Amadeus Capital Parnters. Do grupy dołączyli też profesor filozofii Nick Bostrom z Oxford University, David Chalmers, profesor filozofii z New York University, profesor fizyki z MIT-u Max Tegmark czy profesor genetyki George M. Church z Harvard Medical School i profesor informatyki oraz matematyki Dana Scott z Carnegie Mellon University.
Profesor Price zauważa: Podstawowe założenie jest takie, że powinniśmy poważnie podejść do problemu związanego z faktem, iż zbliżamy się do momentu, w którym wytworzone przez nas technologie będą mogły potencjalnie zagrozić naszemu istnieniu. Nigdy w ludzkiej historii nie mieliśmy z czymś takim do czynienia. Czy jest lepsze miejsce niż Cambridge, jeden z najstarszych i najlepszych światowych uniwersytetów, które bardziej nadawałoby się do prowadzenia badań na ten temat? Ostatnio Cambridge obchodził 800-lecie istnienia. Naszym celem jest zmniejszenie ryzyka, że nie będzie nikogo, kto mógłby obchodzić jego 1000-lecie.
Komentarze (16)
Procik, 26 listopada 2012, 14:08
Nie ma czegoś takiego jak brak ryzyka, taki jest świat. Ta inicjatywa wygląda mi jak przejaw strachu przed nie zrozumiała przyszłością osób starszych, co nie ogarniają nowych technologii. Jakiś dziadek patrząc na gry, programy i internet widzi w tym koniec świata, a dla młodego człowieka internet to coś tak normalnego jak rower i książki.
Zagrożenie jakieś zawsze jest, jak wprowadzono samochody to tez powstało zagrożenie, bo są wypadki. Co weekend ginie kilkadziesiąt osób, tylko w Polsce.
Jeżeli nasze działania oprzemy na wyolbrzymionym strachu przed rozwojem i przyszłością, to zostanie nam się tylko cofać. Po za tym zagrożenie jest takie, ze kilka osób zaniecha rozwoju tej technologii, ale zawsze znajdzie kilku niepokornych i tak będzie to robiło po cichu. Wiec lepiej to robić normalnie, mając nad tym względną kontrole. Takie jest moje zdanie.
To jak z invitro, co z tego ze ze będzie zabronione, skoro i tak znajda się tacy co będą to robili.
Jak nas nie będzie, to widocznie będzie taka wola Boza
Po za tym jest przeludnienie itp. Ci co przetrwają będą silniejsi i mądrzejsi, wiec bym się tak nie przejmował.
Mariusz Błoński, 26 listopada 2012, 14:43
Sądzisz, że profesorowie czołowych światowych uczelni bioją się przeyszłości? A kto inny, jak nie oni, tę przyszłość tworzyli i tworzą?
Jajcenty, 26 listopada 2012, 14:58
Naturalna droga ewolucji: od niezbyt gustownego aminowego szlamu do elegancko błyszczących tytanem autobotów. A programiści będą mogli powiedzieć non omnis moriar
radar, 26 listopada 2012, 15:39
Aleś porównał, tak samo samochody...
Już teraz latają, jeżdżą i pływają autonomiczne uzbrojone drony, same wybierają cel i tylko czekają na zgodę człowieka na "naciśnięcie spustu". Kto wie czy już w tajemnicy nie testują takich strzelających autonomicznie. Autonomiczny ruch drogowy, zautomatyzowane linie produkcyjne, lodówka sama zamawiająca Ci jedzenie... nie ma co ryzykować, że w akcie zemsty lub zazdrości zamówi Ci jogurcik z cyjankiem
Cywilizacja oparta na elektronice, wyłącz prąd na 6h w mieście, a raz dwa ujrzysz wandali, szabrowników, gwałcicieli i inne "menelstwo".
radar
sig, 26 listopada 2012, 16:59
"Zagrożenie dla ludzkości" to nie SI, biotechnologia, czy inne nanoboty tylko sami ludzie. Nasze twory będą robić to co im właśnie ludzie karzą (w bardziej lub mniej bezpośredni sposób, np rzez odpowiedni program), nic więcej i nic mniej. Weźmy np taki skynet. Po kiego grzyba SI miało by niszczyć ludzkość skoro miało jej bronić? To nielogiczne, a akurat takowej komputerom w przeciwieństwie do ich operatorów nie brakuje. Celem obrony przed człowieka przed nim samym trzeba by raczej niszczyć broń a nie ją tworzyć (i tego mogły by się "kiedyś tam" podjąć). Terminator etc to przeniesienie w przyszłość zimnowojennych fobii (my to my a cała reszta to wróg), dużo bardziej prawdopodobna wydaje mi się ta z Ghost in the shell, gdzie SI (androidy) współżyją z ludźmi współpracując z nimi.
ps no chyba że wspomniani naukowcy boją się integracji ludzi z maszynami (cyborgów) ale takowych też już mamy (np wszystkich z protezami) i jakoś "biologicznych" nie leją, tylko zajmują się swoimi sprawami.
pps załużmy że w pełni autonomiczny dron kogoś zabije. I teraz kto będzie winny: dron który zrobił co mu wyraźnie nakazano, czy też ten który go tam wysłał? Bo moim zdaniem to drugie. Bo jak to pierwsze (SI drona) to dzisiaj winny morderstwa jest pistolet a nie pociągający za spust.
romero, 26 listopada 2012, 17:33
No właśnie takie jest zadanie tego stowarzyszenia. Nikt tam się przecież nie boi nowych technologii, to nie banda sklerociałych staruszków, którzy będą się bali nowości, bo w ich młodości "tego nie było i żyło się dobrze". Boją się głupoty ludzkiej, że coś sie wymknie spod kontroli. Tak jak w artykule o nano gotowaniu wody http://kopalniawiedz...noczastki,17013 pojawiła się uwaga, że przy masowym przedostaniu się takich nano cząstek do oceanów będziemy "żyli" w bardzo gorącym i wilgotnym środowisku. Oczywiścię żyli należy wtedy już wziąć w cudzysłów. Ale przecież nikt przy zdrowych zmysłach nie chce zamknąć prac nad nanotechnologiami. Tak samo jest ze wszystkim, nikt nie buduje reaktorów typu czernobyl, nikt nie będzie "wypuszczał na wolność" nowych stworzonych form życia, modyfikowanych genetycznie roślin i zwierząt bez uprzedniego choćby podstawowego sprawdzenia ich funkcjonowania. Nikt nie wypuści autonomicznych dronów bez możliwości ich kontroli. Był taki przypadek, że dron "zabił" Bin Ladena z 10 lat temu, ale ktoś zapewne przekazał instrukcję o odpaleniu rakiety, albo był zaprogramowany: widzę 2-metrowego faceta więc niszczę. Myślę że niepotrzebnie znalazło się zdanie na początku "zaprzestancie prac nad autonomicznymi robocopami, czy robowojami". Postępu takiego nikt nie może zatrzymać zwłaszcza w dziedzinie obronności. Jak zaprzestanie GB czy USA, czy CRLD, to robić to będą KRLD czy inny Izrael.
Ale zwracać uwagę na idące zagrożenia to pomysł chwalebny. Nie wiem czemu wielu odczytało to jako bycie przeciwnikiem postępu jako takiego.
pogo, 26 listopada 2012, 17:41
Moim zdaniem to zupełnie źle zrozumieliśmy sens powstania tego tworu.
Znaczy zrozumieliśmy tak jak o tym powiedziano, a co jest prawdziwym celem to zupełnie inna bajka.
Według mnie chodzi o to, aby ogół społeczeństwa czuł, że jest ktoś, kto czuwa nad tym aby sprawy nie wymknęły się spod kontroli. Czyli oni nie chcą nic blokować, chcą tylko by ludzie czuli mniejsze ryzyko, że wydarzy się historia z "Terminatora" czy innego dzieła s-f o negatywnej wizji przyszłości
sig, 26 listopada 2012, 17:57
Co do zbudowania "robowojaka" to w zasadzie przy dzisiejszym rozwoju technologii może to zrobić każdy (patrz np http://gry.gadzetomania.pl/2012/05/12/wiezyczka-z-portala-przeniesiona-do-naszej-rzeczywistosci-wideo) . Trudniejszą sprawą jest jego samodzielne przedostanie się do miejsca akcji, ale to już niezależnie od tego kto będzie decydował o strzelaniu: człowiek czy automatyka. Zaś wojskowym SI dałbym jasne zadanie : bronić własnych cywili przed wrogimi wojskami, cywili z innych krajów nie ruszaj ew broń o ile nie będzie to w konflikcie z poprzednim zadaniem. Wtedy w najgorszym przypadku kilka SI będzie sobie roz...lać bazy, okręty, i inny sprzęt, ale (bio)wojakom płacą za to ryzyko.
Swoją drogą w przyszłości wrogami nie będą państwa czy też komputery jak w filmach, tylko pojedynczy psychopaci którzy wykorzystają mroczną stronę opracowanej dla szczytnych celów technologii do realizacji swoich chorych wizji. Jeden i ten sam system może zarówno transportować chorych, szukać ocalałych w gruzach, jak i zabijać kogo popadnie podróżując np przez miasto. Tak samo jak system do "wyławiania" poszukiwanych przestępców z tłumu można wykorzystać do permanentnej inwigilacji. I żadne kontrole tego nie zmienią, bo to te same algorytmy w takich samych komputerach, tylko dostały różne wytyczne. A te operatorzy wprowadzają na bieżąco, czyli bez kontroli panów z artykułu i ich pomagierów.
mnichv10, 26 listopada 2012, 21:30
Nie koniecznie. Istnieje chociażby coś takiego, co hakerzy (w pojęciu pierwotnym) nazywają duchami. Są to sekwencje kodu, które tworzą się z ewolucji, samoczynnie. Jest to zjawisko nieprzewidywalne, a co najważniejsze wpływa w sposób znaczący na kod. Kiedyś widziałem film na ten temat, poprzez kombinowanie sekwencji kodu utworzono, po iluś "generacjach", taki, który potrafi obsługiwać kroczącą maszynę (eksperyment odbywał się jednak wirtualnie). Tego typu zabieg zastosowano również w jakiejś grze. Najlepsze jest to, że nikt nie wie, jak zachodzi ta ewolucja. Wydaje mi się, że to trochę stawia pod znakiem zapytania pełną kontrolę nad sztucznymi inteligencjami.
Jest również druga sprawa. Tworząc coraz bardziej skomplikowane i autonomiczne maszyny, trzeba z góry przewidywać sytuacje, na które mogą się natknąć i jak mają na nie zareagować. Wszystkich się raczej nie da przewidzieć, więc prędzej czy później taki dron może np. wykosić pół miasteczka, bo akurat jest w nim festiwal zielonych, moherowych beretów, czego twórcy oprogramowania nijak przewidzieć nie mogli i automat rozpozna mieszkańców jako żołnierzy wroga. W kontekście tej dyskusji polecam opowiadanie Dicka - Autofab.
sig, 26 listopada 2012, 21:45
Ale ten co go wysłał nad to miasteczko powinien przewiedzieć że tam będą "żołnierzopodobni". Swoją drogą gdyby przewiedzieć wszystkie możliwe przeszkody to już nie było by SI. Takowe ma w końcu działać samodzielnie w określonych ramach (np niszcz tych co do ciebie strzelają, albo zakwalifikowanych przez pokładowy system rozpoznawania twarzy jako wrogowie. System rozpoznawania twarzy już istnieje). Nie można przewidzieć kierunku rozwoju SI? Zgoda, ale odpowiednie ograniczenia "ważniejsze" od SI powinny zapobiec rozwojowi w niewłaściwą stronę. Swoją drogą po co wysyłać takie drony na zwykłych żołnierzy? celem powinni być tylko decydenci, a żołnierze tylko jak nas atakują. A wtedy będą uzbrojeni co odróżni ich od cywili. Nawet jak w ramach jakiegoś lokalnego święta poubierają się w moro.
edit: po kiego grzyba ma ich szukać w miasteczkach? Przecież wiadomo gdzie są bazy, a skoro mają zastąpić żołnierzy to nie będą włóczyć się bez celu tylko dostaną pistę celów do eliminacji (baz wojskowych) z dokładnymi współrzędnymi i zdjęciami satelitarnymi/lotniczymi coby na pewno trafić właściwy cel
mnichv10, 26 listopada 2012, 23:18
Sytuacja, którą przytoczyłem to tylko przykład, już się tak nie czepiaj szczegółów. Chodzi mi o to, że rzeczywistość jest raczej skomplikowanym konstruktem dla osoby, która ma zaprogramować automat. Fakt, że to nie SI, ale do takich nam jeszcze daleko, więc na razie pozostaje programowanie nie całkiem autonomicznych maszyn, których programy muszą polegać na zdolności do przewidywania sytuacji przez twórców tych programów.
whiteresource, 26 listopada 2012, 23:37
Może dla wiekszej jasności problemu należałoby najpierw przeczytać na temat tzw. Technologicznej Osobliwości: http://pl.wikipedia....iwo%C5%9B%C4%87
Szczególnie polecam wersję angielską, bo jest zdecydowanie obszerniej zdefiniowana i opisana:)
sig, 27 listopada 2012, 07:34
I właśnie dlatego to nie będzie "leć sobie gdziekolwiek i zabijaj wrogów" tylko lot czy też inna podróż między dokładnie wytyczonymi (np przez współrzędne GPS w połączeniu z pokładowym systemem nawigacji inercyjnej) celami ustalonymi przez ludzi. Nie zaatakuje cywili bo jego program nie będzie przewidywał atakowania celów spoza listy, z wyjątkiem samoobrony. Natomiast tym co zrobić żeby prawdziwe SI tego nie robiły, będą się pewnie martwić nasze praprawnuki.
radar, 28 listopada 2012, 10:31
Czy ktoś z Was kiedykolwiek programował?
Jestem przekonany, że Ci co piszą "...z wyjątkiem samoobrony..." na pewno nie:) A już na pewno nie sieci neuronowe
Bez obrazy, ale to nie jest takie proste "leć tu, rób to"
radar
Randoɱ Tåsk, 28 listopada 2012, 10:56
Od dawna jestem praktycznie z niewielkimi wątpliwościami przekonany, że jedynym zagrożeniem dla człowieka jest on sam. O samą planetę ( biosferę ) nie obawiałbym się zbytnio - ta przetrwała nie takie "kataklizmy" jak amerykanizm czy konsumeryzm. Oczywiście te wątpliwości, które mam wywodzą się z faktu istnienia broni ABC, które pod wieloma względami stanowią novum w świecie przyrody. Sam tzw. "postęp" technologiczny, który raczej nazywałbym narastającym lękiem osobowości kolektywnej względem świata, z którego wyszło ( natury ) to po prostu ślepa uliczka i wielce naiwne jest wierzenie, że na takich fundamentach naukowo-społecznych pojawi się nagle nurt "oczyszczający" tą masową schizofrenię człowieka technologicznego. Sprawa jak zawsze rozbija się o nieszczęsne Ego - czy to jednostkowe ( indywidualizm* ) czy zbiorowe ( cywilizacja ). Ono po prostu czuje, że jest przypadkiem, anomalią i dlatego walczy ze światem o utrzymanie statusu inteligentnego bytu ( parafraza znanego myśliciela ). Jedynym konstruktywnym wnioskiem do jakiego Ego musi dojść jest po prostu śmierć pozostałych bądź zwykłe samobójstwo. Właśnie to obserwujemy jako przygotowania cywilizacyjne i właśnie to wzbudza obawy rzeczonych naukowców jak wyżej. Całkowicie rozumiem te obawy aczkolwiek nie traktuję takich inicjatyw zbyt poważnie gdyż jak zwykle nie poruszają one istoty i źródeł tego problemu w dostatecznie głęboki i szeroki zarazem sposób. Zapewne pojawią się analogiczne stwierdzenia do tych medycznych, mówiące, że sytuację trzeba uzdrowić, wyleczyć, że to czy tamto będzie lekiem na całe zło... Jakaż to ironia gdy medycyna dziś zajmuje się leczeniem objawów a mało zwraca uwagę na przyczyny...
* taka dygresja nt. indywidualizmu:
Pewien antropolog zaproponowal grupie afrykanskich dzieci zabawe. Postawil pod drzewiem koszyk z owocami i zaznaczyl, ze ten, ktory dobiegnie pierwszy, dostanie wszystkie owoce. Na sygnal wszystkie dzieci zaczely biec, trzymajac sie za rece. Nastepnie usiadly razem, by podzielic sie owocami. Na pytanie antropologa, dlaczego tak postapily, gdy przeciez jeden z nich mogl otrzymac wszystkie owoce, dzieci odpowiedzialy: "Ubuntu. Jak jeden z nas moglby czuc sie szczesliwy, kiedy wszyscy inni byliby smutni." Ubuntu w kulturze Xhosa oznacza: Jestem, bo istniejemy.
mnichv10, 28 listopada 2012, 11:36
A ja myślę, że przyczyna jest bardziej prozaiczna- po prostu jesteśmy egocentryczni i zbyt rzadko zwracamy uwagę na potrzeby innych.