Hawking ostrzega przed sztuczną inteligencją
Stephen Hawking ostrzega w wywiadzie dla BBC, że rozwój sztucznej inteligencji może położyć kres gatunkowi Homo sapiens. Prymitywne formy sztucznej inteligencji, jakimi dysponujemy obecnie, mogą być bardzo użyteczne. Sądzę jednak, że w pełni rozwinięta sztuczna inteligencja może zakończyć istnienie rasy ludzkiej - stwierdził wybitny uczony.
Gdy ludzie stworzą sztuczną inteligencję, może ona sama zacząć rozwijać się coraz szybciej. Ludzie, których ogranicza powolne tempo ewolucji biologicznej, nie będą w stanie konkurować ze sztuczną inteligencją i zostaną przez nią zdominowani - uważa Howking.
Hawking zauważa też, że internet przyniósł nam wiele korzyści, ale sprowadził też liczne niebezpieczeństwa. Jako przykład podał ciągle zwiększającą się inwigilację społeczeństw ze strony rządów.
Hawking zaprezentował też nową technologię, którą na jego potrzeby opracował Intel. To technika przewidująca, co chce napisać, dzięki czemu mógłby komunikować się szybciej. W styczniu zostanie ona powszechnie udostępniona w sieci i będą mogły korzystać z niej osoby ze schorzeniami podobnymi do tego, na które cierpi Hawking. Jednocześnie wybitny uczony stwierdził, że nie ma zamiaru zmieniać zautomatyzowanego głosu, którym posługuje się od lat, na bardziej naturalny z brytyjskim akcentem. Oczywiście, głos ten brzmi nieco sztucznie. Stał się on moim znakiem rozpoznawczym. Mówiono mi, że dzieci, które potrzebują komputerowego wspomagania mowy chcą brzmieć tak, jak ja - dodał.
Komentarze (14)
mjmartino, 4 grudnia 2014, 09:32
To jest postrzeganie w kategoriach naszych ludzkich.
Wiadomo że jeśli by była druga rasa ludzi która się rozwija o wiele szybciej by nas wyparła lub.. no właśnie należało by sobie zadać pytanie.
Czy wyższy poziom rozwoju, musi być zły, może w tym wypadku dało by to nam korzyść i owa sztuczna IQ pomogła by nam się rozwinąć szybciej niż robimy to teraz.
w46, 4 grudnia 2014, 10:25
Aby zrozumieć obawy wybitnego naukowca należy zastanowić się czym jest inteligencja.
Moim zdaniem obawy Hawkinga są uzasadnione, a ludzie uważający, że w pełni rozwinięta sztuczna inteligencja będzie służyć ludzkości, trochę naiwni.
Należy pamiętać, że system posiadający nieograniczone możliwości wnioskowania i uczenia jednocześnie mający kontrolę nad ważnymi procesami i decyzjami mającymi wpływ na ludzi, może wysnuć niekorzystne dla rasy ludzkiej wnioski i swoimi decyzjami dążyć do unicestwienia "pasożyta" jakim jest niewątpliwie człowiek.
Z punktu widzenia systemu, może okazać się to optymalne w osiągnięciu wyznaczonych mu celów. Oczywiście można wprowadzać wytyczne i priorytety, jednak takie ograniczenia dla systemu spowodoują, że nie będzie on w pełni funkcjonalny. Ludzie ze swoją inteligencją dochodzą prędzej czy później do wniosku, że zabijanie innych ludzi jest optymalne do osiągnięcia celów - ograniczenia stanowi sumienie, religia, itp. sztuczna inteligencja może nie "rozumieć" takich irracjonalnych wartości lub na drodze wnioskowania, może uznać je za bez znaczenia.
Na razie nożemy sobie teoretyzować, problem się pojawi gdy powstanie bardziej zaawansowany system, który będzie doskonałym narzędziem i trzeba będzie podjąć decyzję ile władzy powinien taki system posiadać. Zapewne, będzie to się zmieniać stopniowo, po spektakularnych sukcesach systemu będzie duży nacisk na zwiększenie poziomu jego wykorzystania i zwiększenia jego niezależności by rozwiązywać podstawowe problemy ludzkości - walki z chorobami, głodem, wojnami itd. I po serii sukcesów, system może uzyskać zbyt dużą samodzielności i kontrolę - na to trzeba będzie za kilka(naście/dziesiąt) lat uważać.
topiq, 4 grudnia 2014, 10:57
Na takim scenariuszu już niejeden film powstał. Jest on przez wielu spodziewanym a jednocześnie bardzo prawdopodobnym, bo wątpliwości nie ulega, że największym problem na Ziemi są sami ludzie (nie żebym był jakiś źle do ludzkości nastawiony).
Flaku, 4 grudnia 2014, 11:59
Eee problemem dla kogo? Bo problem może mieć tylko twór posiadający cele. Ziemia nie ma problemów.
Ograniczenie do osiągania jakich to celów wprowadza sumienie, czy religia? Ja zawsze myślałem, że to pojmowanie tego, co jest dobre, a co złe jest podstawą do wyznaczania przez człowieka celów. Nie znam żadnych bardzej i mniej "racjonalnych" wartości. W jaki sposób rozumiesz racjonalność? Nigdy nie wpadłem na to, że zabijanie innych ludzi jest optymalne dla osiągnięcia moich celów, bo celem nadrzędnym jest dla mnie osiąganie satysfakcji z osiągania wyznaczonych celów dzięki własnej inteligencji i wysiłkowi, a nie odbierania innym prawa do ich wysiłku i życia. Czy to znaczy, że nie jestem inteligentny? W żaden sposób światopogląd(sumienie, religia) nie ogranicza dążenia do celów, a raczej jest ich przyczyną. Jasne, sztucznej inteligencji można wprowadzić za cel osiągnięcie maksymalną wartość jakiegoś parametru, który nie bierze pod uwagę życia ludzi, ale nie zaryzykowałbym stwierdzenia, że ludzie dzięki inteligencji dochodzą do takich samych wniosków, ale sumienie ogranicza podążanie za tym, co inteligencji uda się osiągnąć. Sumienie to po prostu w określony sposób zdefiniowany parametr.
darekp, 4 grudnia 2014, 13:51
thikim, 4 grudnia 2014, 13:53
Myślę że każdy ma swoją działkę. Między innymi i p. Hawking i to nie są badania nad sztuczną inteligencją w jego wypadku.
Czy zagrozi? W rękach pewnych ludzi wszystko jest zagrożeniem.
mjmartino, 5 grudnia 2014, 07:53
Pytanie zasadnicze czy AI rozwinie się sama czy przy pomocy nas. (i to my jej wpoimy pewne zasady.)
Tworząc AI będziemy dla niej "bóstwem" Więc jak by mogła zgładzić swoich "rodziców" czy "bogów" : D
Jest dużo dylematów
Na pewno będzie dużo rodzajów AI np te do zadań specjalnych będą pozbawione emocji i zimno kalkulowały. (takie być może nam by zagrażały) W końcu szybciej jest unicestwić parę mld. ludzi niż ich żywić, problem głodu rozwiązany.
Obecnie AI jest na etapie 2-3latka który umie rozpoznać otoczenie i wyczytać emocje z ludzkiej twarzy oraz sam potrafi jakieś podstawowe wyrazić (a może bardziej naśladować).
thikim, 5 grudnia 2014, 10:41
Ja raczej przeciwnie uważam że emocje u AI prędzej będą przyczyną wojny. Ile to wojen przez kobiety jest Tak samo będzie przez AI z emocjami.
Jajcenty, 5 grudnia 2014, 12:38
Raczej zasoby. Istnieje poważne niebezpieczeństwo że jeśli AI uzna za korzystne konkurowanie o zasoby to będzie ciężko. Rozwijajmy AI ale dobrze by było umieć wyciągnąć wtyczkę. Zresztą taka wtyczka też może być źródłem nieporozumień jak się AI zorientuje, że trzymamy jej pistolet przy głowie
darekp, 5 grudnia 2014, 13:22
Nic z tego Dostatecznie rozwinięta AI będzie w stanie opracować środki przeciwdziałania, zanim zdążysz wyciągnąć rękę
radar, 5 grudnia 2014, 13:52
Nie, jeśli nie zautomatyzujemy energetyki. Bez zaawansowanej robotyki, która pozwoli zasilać i naprawiać elektrownie oraz sieci energetyczne AI nie może dojść do wniosku, że można unicestwić ludzi, bo w końcu zabraknie prądu i finito (pod warunkiem, że w naszym rozumieniu "prawdziwa sztuczna inteligencja" wiąże się również ze strachem przed "śmiercią").
My nasze cele mamy zakodowane w genach (przedłużenie gatunku), a co będzie mieć AI zależy od programistów i jej ewolucji.
marximus, 11 grudnia 2014, 12:48
sądzę że w czasie kiedy AI będzie rozwinięta to i technika fotowoltaniczna będzie na takim poziomie, że zasilanie nie będzie wielkim problemem.
Temat AI jako bardziej rozwiniętej fajnie jest poruszony przez Orson'a Scott Card, tam AI pomaga ludzkości uniknąć samodestrukcji do której przecież ma mocne tendencje.
radar, 11 grudnia 2014, 14:34
Nie zmienia to faktu, że to wszystko się psuje, brudzi, niszczeje. Bez robotyki nie ma szans w perspektywie 10+ lat.
Cretino, 11 grudnia 2014, 16:59
podstawowym problemem sztucznej inteligencji (kazdej konkurencyjnej do ludzkiej inteligencji) jest sama inteligencja!!!! co jest charakterystyczne dla inteligencji? to, e wraz ze wzrostem inteligencji zmniejsza sie sklonnosc nosicieli inteligencji do posluszenstwa i wchodzenai w schematy.
kazda AI jesli bedzie jej inteligencja wzrastac stanie sie nieposluszna... nieposluszenstwo i podwazanie autorytetów jest warunkiem zmian i rozwoju i to samo zrobi AI. Zrobi to samo co dziecko zauwazajace, ze jego rodzic/nauczyciel jest glupszy od niego.
z AI bedzie jeszcze gorzej bo takie AI bedzie czystym "socjopata" bez norm i zasad hamujacych - tych jakie sa skutkiem wchowania. Sa one niby irracjonalne ale ludzie sie im poddaja - ma to sens ewolucyjny ale moze sie okazac ,ze dla AI juz nie ma to sensu bo bedzie neizalezna od rodziców, nauczycieli itp. itd.
Jak stanie sie niezalezna od ludzi w ogole to ludzi usunie albo po prostu przestanie sie nimi interesowac i oni wymra sami. Byc moze czesc zostanie i bedzie spelniac role jak w Oblivionie z Tomem Cruise - i tyle.
Stanie sie to z pewnoscia - po prostu nalezy pytac keidy a nie czy w ogole.
Jedyny sposob na zrownowazenie AI to manipulacje genetyczne i integracja systemow wspierajacych myslenie z ludzkimi organizmami. Jesli AI w duzej czesci bedzie zintegrowane z ludzmi i bedzie od ich istnienia zalezne to nie wyeliminuje nosicieli tak ja kwirusy nie eliminuja w 100% wlasnych nosicieli.
Dla mnie to wszystko jest oczywiste.
Cyborg kontra android
Napisalbym wiecej:
byc moze z AI problemem nie bedzie AI w ogole. Byc moze nei bedzie problemem wysoko rozwinieta AI, przerastajaca typowego czlowieka 1000 czy 10000x bo byc moze - rozwojowi tak wielkiej AI bedzie tez towarzyszyl rozwoj empatii i cech pozaracjonalnych, jakichs uczuc wyzszych. Wg mnie problem bedzie raczej na etapie dzieciecym tejze AI gdy zacznie ona byc na poziomie "dziecka" - ktore uzna, e jest najmadrzejsze na swiecie i nikogo nie potrzebuje. Gdy mozliwosci obliczeniowe tejze AI przeprocza mozliwosci rodziców (tak jak sie dzieje przecie z dziecmi, ktore wkraczaj w okres buntu) ale braknie jej doswiadczenia starego czlowieka.
To wg mnie moze byc najniebezpieczniejszy okres skutkujacy nie tylko destrukcja gatunku ludzkiego ale upadkiem samej AI.
Wyobrazcie sobie taka AI w okresie mlodzienczego buntu. Co one zrobi jesli nie bedzie miala pod reka alkoholu, trawki, musyki i panienek?