Sztuczna inteligencja Wielkim Filtrem? To z jej powodu nie możemy wykryć obcych cywilizacji?
W Acta Astronautica ukazał się interesujący artykuł, którego autor – Michael A. Garrett, dyrektor Jodrell Bank Centre for Astrophysics na University of Manchester – zastanawia się czy to nie sztuczna inteligencja jest przyczyną, dla której nie odkryliśmy dotychczas sygnałów wysłanych przez obcą cywilizację. Uczony rozważa możliwość, że SI jest wąskim gardłem rozwoju, które w rzeczywistości zagraża długoterminowemu przetrwaniu cywilizacji technicznej.
Garrett bada hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI – artificial superintelligence), działa jak „Wielki Filtr”, który jest odpowiedzialny za niewielką liczbę zaawansowanych cywilizacji technologicznych we wszechświecie. Taki filtr mógłby pojawiać się, zanim cywilizacje rozwiną stabilną obecność na kolejnych planetach, co sugeruje, że typowy czas życia cywilizacji technicznej wynosi mniej niż 200 lat.
Koncepcja „Wielkiego Filtra” jest próbą rozwiązania Paradoksu Fermiego. Został on sformułowany przez Enrico Fermiego, a dotyczy rzucającej się w oczy sprzeczności pomiędzy wiekiem wszechświata i liczbą gwiazd, a faktem, że dotychczas nie wykryliśmy żadnych dowodów na istnienie innej cywilizacji. Dotychczas zaproponowano kilka „Wielkich Filtrów”, uniwersalnych barier mających uniemożliwiać rozprzestrzenianie się inteligentnego życia we wszechświecie, a od niedawna pojawiają się koncepcje mówiące, że filtrem takim może być SI.
Uczony z Manchesteru przychyla się do opinii, że „Wielkim Filtrem” może być rozwój sztucznej inteligencji. Przypomina, że najnowsze dokonania w dziedzinie SI pozwalają maszynom na uczenie się, dostosowywanie i wykonywanie zadań, które do niedawna uważano za wyłączną ludzką domenę. Sztuczna inteligencja jest w coraz większym stopniu włączana w nasze codzienne życie, wpływa na kształt interakcji międzyludzkich, sposobów współpracy, interakcji z technologią oraz na postrzeganie świata. Zmienia sposoby komunikacji i doświadczenia osobiste. Ma wpływ na handel, opiekę zdrowotną, pojazdy autonomiczne, prognozy gospodarcze, badania naukowe, prace badawczo-rozwojowe, edukację, przemysł, politykę, bezpieczeństwo i obronę. Trudno jest znaleźć dziedzinę życia, która nie byłaby już naznaczona obecnością sztucznej inteligencji, stwierdza Garrett.
W związku z rozwojem SI pojawiają się kolejne obawy wiązane z miejscami pracy, prywatnością danych, etycznym podejmowaniem decyzji czy odpowiedzialnością za nie. Sztuczna inteligencja ma też wpływ na środowisko naturalne, chociażby poprzez olbrzymie moce obliczeniowe, jakich potrzebuje i związane z tym zużycie energii.
W 2014 roku Stephen Hawking ostrzegał, że AI może doprowadzić do zagłady ludzkości. Uważał, że w pewnym momencie może ona zacząć rozwijać się samodzielni, w coraz szybszym tempie. Obecnie coraz częściej pojawiają się głosy o konieczności opracowania metod lepszej kontroli nad AI czy też propozycje wprowadzenia moratorium na jej używanie, dopóki takie metody kontroli nie powstaną.
Z jednej strony rządy wielu państw próbują znaleźć równowagę pomiędzy korzyściami, jakie daje rozwój sztucznej inteligencji, a potencjalnymi zagrożeniami. Z drugiej zaś zdają sobie sprawę, że szybkie wdrażanie i rozwój AI daje przewagę nad innymi państwami, a ponadto może zabezpieczać przed ryzykiem stwarzanym przez państwa z rozwiniętą sztuczną inteligencją. Szczególnie dotyczy to kwestii bezpieczeństwa narodowego i obrony.
Sztuczna inteligencja rozwija się błyskawicznie w porównaniu z naturalnym tempem ewolucji, tymczasem nic w naszej historii nie przygotowało nas na pojawienie się innej wysoko rozwiniętej inteligencji. I można przypuszczać, że uwagi te dotyczą każdej cywilizacji, która mogła powstać we wszechświecie. Zanim jeszcze AI stanie się superinteligentna i potencjalnie autonomiczna, prawdopodobnie zostanie uzbrojona przez konkurujące ze sobą grupy w ramach jednej cywilizacji biologicznej. Szybkość podejmowania decyzji przez sztuczną inteligencję może prowadzić do niezamierzonej eskalacji konfliktów [...], które przyniosą zagładę zarówno technologicznej, jak i biologicznej cywilizacji, stwierdza Garrett.
Uczony dodaje, że o ile AI może wymagać do istnienia wsparcia ze strony cywilizacji biologicznej, to ASI nie będzie tego potrzebowała. Punktem zwrotnym będzie osiągnięcie osobliwości technologicznej, punktu, w którym rozwój SI stanie się tak szybki, że przewyższy naszą inteligencję i będzie ewoluował w takim tempie, iż wszelkie nasze prognozy na ten temat staną się nieaktualne. To może doprowadzić do nieprzewidzianych konsekwencji, które prawdopodobnie nie będą miały nic wspólnego z naszymi biologicznymi interesami czy ludzką etyką. Z punktu widzenia ASI, skupionej na osiągnięciu jak największej wydajności obliczeniowej, zniknie potrzeba istnienia istot biologicznych, których obecność związana jest ze zużyciem przestrzeni i energii. Nasze istnienie będzie czymś kłopotliwym, czytamy w Acta Astronautica.
Ryzyko zaistnienia takiej sytuacji można by zmniejszyć, kolonizując inne planety. Jeśli bowiem ASI doprowadziłaby do zagłady na jednej planecie, mieszkańcy innych ciał niebieskich mieliby szansę nie powtórzyć tych samych błędów. Co więcej, kolonizacja innych planet stwarzałaby możliwość prowadzenia eksperymentów z różnymi drogami rozwoju sztucznej inteligencji, bez ryzyka, że cała ludzkość wyginie.
Jednak, mimo takiego możliwego scenariusza, nie wykrywamy obcych cywilizacji, co może sugerować, że ich nie ma lub nie osiągają poziomu rozwoju pozwalającego na ich wykrycie. Przyczyną – i to właśnie z tego powodu rozwój AI może być „Wielkim Filtrem” – jest tempo rozwoju sztucznej inteligencji w porównaniu z tempem rozwoju technologicznego, pozwalającego na dotarcie i trwałe zasiedlenie innych planet. Zdaniem niektórych badaczy, sztuczna inteligencja może osiągnąć punkt osobliwości technologicznej w ciągu kilku najbliższych dekad. Tymczasem zasiedlenie innych planet to zadanie na setki lat. Przyczyną takiego stanu rzeczy jest różna natura rozwoju sztucznej inteligencji i możliwości podróży w przestrzeni kosmicznej. O ile rozwój SI to głównie wyzwanie obliczeniowe i informatyczne, które jest napędzane przez wykładniczy wzrost ilości danych oraz możliwości obliczeniowych, to eksploracja kosmosu wiąże się z licznymi ograniczeniami fizycznymi, takimi jak znalezienie odpowiednich źródeł energii, stworzenie napędów, nowych materiałów, poradzenie sobie z warunkami panującymi w przestrzeni kosmicznej itp. itd. Do tego dochodzą kwestie medyczne, biologiczne, logistyczne czy polityczne. A więc wszystkie te ograniczenia, które nie istnieją w przypadku rozwoju sztucznej inteligencji.
Swoje hipotezy Garrett przetestował korzystając z równania Drake'a, które jest próbą zrozumienia mechanizmów wpływających na szanse powstania cywilizacji w Drodze Mlecznej. Okazało się, że jeśli rzeczywiście negatywne strony rozwoju sztucznej inteligencji ujawniają się zanim cywilizacja osiągnie zdolność do kolonizacji innych planet, to czas istnienia cywilizacji zdolnej do komunikowania się z innymi wynosi 100–200 lat.
To wyjaśniałoby, dlaczego dotychczas nie mamy żadnych dowodów na istnienie innych cywilizacji. Warto tutaj przypomnieć, że cywilizacją zdolną do komunikowania się z innymi, staliśmy się w latach 60. ubiegłego wieku. Okienko czasowe, w którym cywilizacja techniczna jest w stanie angażować się w możliwą do wykrycia komunikację radiową, jest więc niezwykle ograniczone. Dodatkowo, jeśli weźmiemy pod uwagę sygnaturę radiową ludzkiej cywilizacji – czyli wszelką transmisję odbywającą się na Ziemi, która może zostać potencjalnie zauważona i rozpoznana przez obce cywilizacje – to do jej wykrycia potrzebny jest znacznie wyższy poziom zaawansowania technologicznego niż nasze. Możliwe jest, oczywiście, zarejestrowanie silnych sygnałów celowo wysyłanych w przestrzeń kosmiczną. Jeśli jednak w danym momencie w Drodze Mlecznej istnieje zaledwie kilka cywilizacji prowadzących takie działania, to szansa na znalezienie tego typu sygnału jest minimalna.
Zauważmy, że post-biologiczna cywilizacja techniczna byłaby bardzo dobrze dostosowana do eksploracji kosmosu i mogłaby rozprzestrzenić się po naszej Galaktyce, nie zwracając uwagi na długi czas podróży czy niekorzystne warunki panujące w kosmosie. Wielu przewiduje, że jeśli w ogóle natkniemy się na pozaziemską inteligencję, będzie miała ona formę maszyn. [...] Brak wykrywalnych sygnałów istnienia cywilizacji typu II czy III w skali Kardaszowa wskazuje, że cywilizacje takie są niezwykle rzadkie lub nie istnieją, a to wzmacnia hipotezę o istnieniu „Wielkiego Filtra” zatrzymującego postęp cywilizacji technicznej w ciągu kilku wieków od jej pojawienia się, podsumowuje Garrett.
Komentarze (19)
Ergo Sum, 13 maja 2024, 14:52
O "Wielkim Filtrze" - czy raczej "Wielkim Kolapsie" - pisaliśmy już (ja i znajomi) ładnych kilka lat temu. Wybieranie jednej z przyczyn kolapsu jest jednak dyletanckie. Takich przyczyn może być bardzo wiele i ich ilość rośnie wykładniczo wraz z postępem cywilizacji. Mogą to być wirusy, procesy ekonomiczne, wojny oczywiście, działania różnych szaleńców u władzy lub niekoniecznie. AI oczywiście też może być takim filtrem. Jeszcze bardziej naiwne jest myślenie, że skolonizowanie innych plane w czymś AI przeszkodzi w planie unicestwienia ludzkości. Świadomość cyfrowa rozprzestrzenia się znacznie szybciej i łatwiej niż świadomość biologiczna. Jedynym ratunkiem jest ... stworzenie Matrixa. Chodzi o stworzenie całkowicie odciętej symulacji świata i wstawienie tam sztucznej inteligencji aby obserwować jej działania i odpowiednio wcześnie znaleźć antidotum. Symulacja taka musiała by być całkowicie odcięta, wręcz ukryta - co przy wyższej inteligencji byłoby niezwykle trudne do wykonania, a "ludzie" w symulacji musieli by też być przekonani w 100% że są żywi i nie są symulacją.
GROSZ-ek, 13 maja 2024, 16:10
Choć życie na Ziemi pojawiło się bardzo szybko, to jednak było potrzeba prawie 4 mld lat, żeby życie zaczęło zostawiać ślady na lądzie, a kolejne 400 mln lat - żeby zostawiać ślady na innych planetach. Jak dla mnie największym "Wielkim Filtrem" jest poziom inteligencji niezbędnie konieczny dla rozwoju cywilizacji technicznej w stopniu wystarczającym do wyrwania się z dołu grawitacyjnego planetarnej kolebki i przeżycia w jałowych przestrzeniach pustki kosmicznej. Przy całym naszym nader potężnym rozwoju technologicznym ludzkość nadal kurczowo trzyma się powierzchni Ziemi. Choć faktycznie na Marsie sukcesywnie budujemy cywilizację robotów...
darekp, 13 maja 2024, 22:00
Dodajmy jeszcze, że do tej ASI to jeszcze raczej daleko. Co prawda nie wiemy, jak daleko, ale...
(Kiedyś chciałem pobawić się Copilotem - zadawanie zagadek - i okazało się, że każdą moją odpowiedź uznaje za prawidłową).
radar, 13 maja 2024, 22:35
Nie wiem, może tylko ja tak mam, ale drażni mnie ciągłe powoływanie się na Hawkinga jakby to był jakiś spec od AI albo chociaż był pierwszy w tym ostrzeganiu. Jak mądrzy ludzie rozważali takie kwestie to Hawkinga nawet w planach nie było. A jak Lem pisał swoje książki to Stephen biegał w krótkich spodenkach A jak ktoś uważa, że w 2014 to już byliśmy bliżej ASI to odpowiadam, że co roku jesteśmy bliżej
O tempora! O mores! Pamiętajmy, że komputer dalej jest tak mądry jak człowiek, który go obsługuje. To nie znaczy, że do AGI/ASI mamy jeszcze daleko, ale że skoro do wbijania gwoździ zamiast młotka wybrałeś śrubokręt to nie spodziewaj się, że będzie dobrze działał
Może być wiele, ale ta z tym AI podoba mi się coraz bardziej, chociażby dlatego, że
Dokładnie, chociaż nie mam tu na myśli "świadomości cyfrowej", co nadzwyczajniej w świecie zaawansowane technologie, w tym AI, będą używane i w kosmosie i na innych planetach.
Skoro
to i ludzie coraz bardziej się od niej uzależniają i będzie ona obecna również na innych planetach.
Ciekawa jest ta teoria, bo może nawet powodować, że ludzkość nie tyle wyginie co nawet nie będzie zdawać sobie sprawy z problemu. Można by sobie nawet wyobrazić, że różne AI z różnych światów będą się w stanie wykryć i komunikować, ale nie przekazywać tego swoim "ludziom" na macierzystych planetach, taki fizyczny matrix
krzysztof B7QkDkW, 14 maja 2024, 16:51
Bardziej, według mej skromnej osoby, prawdopodobnym czynnikiem który ...
... jest ORGANICZNA GŁUPOTA, a nie sztuczna inteligencja.
Zwyczajnie debili jest proporcjonalnie więcej.
l_smolinski, 16 maja 2024, 16:22
Według mnie materia jest zdana na pełzanie we wszechświecie.
Prędkość światła c z powodu obowiązującej fizyki jest nie osiągalna dla materii. Wszystkie znaki na niebie mówią, że tak czy inaczej zdefiniowane efekty relatywistyczne prowadzić będą do złamania symetrii odpowiedzialnej za rozkład, budowę i parametry materii lub prawa fizyki się zmienią. Jednym słowem materia zbliżając się do c po prostu się rozleci lub przybierze inną postać. Po zwolnieniu do początkowej wartości to już będzie zupełnie inna materia. No a przecież w skali wszechświata c to malutka wartość.
Dla mnie żadnych paradoksów nie ma i nigdy nie było. Nic nie dzieje się natychmiast. C nie jest osiągalne dla materii bez zmiany jej właściwości. Biologicznemu życiu pozostaje tylko ewolucja do ascendencji. Żaden to filtr tylko zwykłe ograniczenie wynikające z praw natury. Tunele czasoprzestrzenne teleportacje itd. są po prostu fizycznie nie możliwe.
Pewne równania nie mają rozwiązania i jest to naturalny stan rzeczy.
Abstrahując od tego co napisałem, to pokładanie nadziei w SI jest głupotą, podobnie jak twierdzenie, że SI wstrzymuje rozwój technologiczny cywilizacji. To mniej więcej jak twierdzenie, że kościół katolicki czy islam wstrzymywał rozwój cywilizacji. No przecież ile ci mnisi różni potworzyli ciekawych rzeczy. Ilu wynalazców było biskupami lub świętymi itd. Ile to szkół powstało pod patronatem takie czy innej religii. Kalia wierzyć w twojego boga, ale Kali też umieć czytać. Pokachontas to niby jak się nauczyła z karabinu strzelać? Przecież to chrześcijaństwo ją nauczyło w ramach ekspansji kulturowej.
Wszystko jest narzędziem kwestia jak się je wykorzysta. Np. katolicyzm sterowanie tłumem i pasożytowanie opanował do perfekcji jest to niewątpliwy sukces cywilizacyjny.
Przecież to wszystko leci sobie swoim niezachwianym rytmem i jest poza wysiłkami ludzkości czy SI. Ludzkość obecnie nie umie przewidzieć ,w którą stronę popłynie ławica sardynek, a marzy im się znalezienie przyczyny braku ekspansji życia w kosmosie.
Koncepcja, że biologiczne życie, którego nadrzędnym celem wydaje się ekspansja sama sobie tę ekspansje blokuję po przez wynalezienie SI jest jakąś aberracją. Globalny atraktor postępu cywilizacyjnego to SI udające, że coś robi, a potem nie ma już nic. No proszę was nie żartujemy w ten sposób.
radar, 17 maja 2024, 13:44
Świadomie może i tak, ale nieświadomie?
Ileż to gatunków wymarło z różnych powodów? Stworzenie AI, które w jakimś momencie "zapragnie" zniszczyć lub ograniczyć ekspansję nie jest czymś niewyobrażalnym. A wtedy ewolucja biologiczna (przynajmniej na poziomie wyższym niż jednokomórkowe) niewiele będzie miała do powiedzenia. Tak samo jak to nie od dinozaurów zależało czy w Ziemię uderzy meteoryt i jakiej wielkości. Od nas nie będzie zależeć (w przypadku samoświadomej i "wrogiej" AI) co możemy z tym zrobić. "Wrogiej" może być też jak w "I, Robot", czyli dbającej o ludzkość, ale nadopiekuńczej. Albo weźmy "Powrót z gwiazd" Lema (+ miks z X-menów ), co jeśli AI zamiast nas jawnie zabijać doprowadzi po prostu do modyfikacji żywności w taki sposób, że ludzie stracą ochotę na ryzykowanie, podróże kosmiczne, agresję, itp. Nie będziemy "widzieli sensu" w odkrywaniu i rozprzestrzenianiu naszego życia gdzie indziej. Tutaj będzie dobrze.
Także nie jest to jakaś aberracja
l_smolinski, 17 maja 2024, 16:06
To tak nie działa, wtedy po zniszczeniu biologicznej , doszło by do ekspansji AI, bo przecież jedyny sensowny powód zniszczenia biologicznej przez AI to brak miejsca dla AI lub zagrożeni dla AI. Tak czy siak nadal byśmy znajdowali cywilizację AI (no i to jeszcze częściej). Natomiast nie znajdujemy nic.
Oczywiście to naturalny stan rzeczy inteligentniejszy homo sapiens wygrał z neandertalczykiem. Wyginięcie jednej inteligentnej formy życia nie oznacza, że następna już nie czeka w kolejce tylko lepiej przystosowana do nowych warunków, np. rewolty maszyn. Cała istota przetrawiania życia biologicznego zawiera się w różnorodności. Poza tym skoro AI miało by się zbuntować to znaczy, że kieruje się podobnymi przesłankami co życie biologiczne i trzeba je w takim kontekście analizować: ekspansja, poszukiwanie, rozwój, przetrwanie.
Ogólnie stan gry
AI : inteligentne fromy biologiczne
0 : 1.
Nie bardzo widzę sens tej fantastyki, blokujące AI, którego na oczy nikt nie widział i nie zobaczy.
radar, 17 maja 2024, 16:17
Nie wiem czy mogę się zgodzić z wnioskiem. Jak wspomniałeś,
Po pierwsze nawet teraz to nie "jedyny" nam znany powód. Po drugie, niekoniecznie zniszczenia jak wspomniałem wyżej, celem AI może być "ochrona" ludzkości (jak w I, Robot). Jeśli tylko ochrona to cywilizacja może tkwić w miejscu, Brak chorób, wydłużenie życia, ale i kontrola prokreacji i liczby ludności. Po trzecie nie znamy celu AI, więc wcale nie jest powiedziane, że jej celem będzie ekspansja.
l_smolinski, 17 maja 2024, 16:21
Jaki "nam" nas interesują powody AI, którego nie ma. Jak my sobie to wyobrażamy, że przesłanki będą takie jak u nas - czyli takie jak sobie to wyobrażamy, to przesłanka do ekspansji przez AI też się pojawi tak samo jak pojawiła się do wybicia życia biologicznego.
Dokładnie z tego samego powodu nie możemy powiedzieć, że będzie nim ograniczenie życia biologicznego. To cały czas jest spoglądanie prze pryzmat nas samych co nie ma większego sensu.
Jakiekolwiek przesłanki wymyślimy przelecą one przez pryzmat nas samych, a więc ekspansja ma dokładnie takie samo prawdopodobieństwo jak w naszym przypadku czyli 100%.
peceed, 17 maja 2024, 18:53
A ja bym wciąż obstawiał tzw. "barierę uranową". Nie jako wyjaśnienie braku obserwowanych cywilizacji ale jako nasze największe wyzwanie.
Natomiast zupełnym błędem jest "antroporfizowanie" cywilizacji. Cywilizacje to byty abstrakcyjne i jedynie efekt uboczny funkcjonowania ludzi którzy mają swoje przypadkowe cele, ostatecznie zaś realizują "interesy" ich kodu genetycznego. Może celem cywilizacji wcale nie jest pokonywanie kolejnych stopni Kardaszewa, bo co niby miałoby im z tego przyjść?
Rozwój naukowy w końcu się zatrzyma, będziemy wiedzieć "praktyczne wszystko" z jasno wytyczonymi teoretycznymi granicami poznania i możliwościami technicznymi, i może ktoś tam w przyszłości uzna że nie warto się rozprzestrzeniać po galaktyce. W sumie ma to sens - bo nie ma z tego żadnej korzyści poza "mentalną", a jest ryzykiem, bo taki cywilizacyjny odszczep może się bardzo szybko uzłośliwić i wymyślić własne, niebezpieczne dla nas idee.
Jeszcze większym filtrem może być sama tzw. "nieśmiertelność", która jest niczym innym jak tylko zastojem cywilizacyjnym: 10 miliardów osobników którzy chcą aby było jak dawniej, w kółko odtwarzając cywilizację jaką znają.
Astro, 17 maja 2024, 21:08
Lem wiecznie żywy. Czy wyzwanie? Za Lemem raczej nasze fatum...
Owszem, ale co nam zostaje? Przecież "najwredniejsza" nawet AI to tylko projekcja NAS samych. Ponad KOMPLETNIE niezrozumiałe nie wyskoczymy - antropomorfizacja to jedyne co nam zostaje; wszak nie potrafimy się dogadać z delfinami nawet, a przecież wiemy, że doskonale ze sobą gadają...
Najbardziej mi znaną jest NASZA.
Skala Kardaszewa od zawsze dla mnie to skala wypitych flaszek... Nie przez "obcych", ale tych "liczących". Zadam proste pytanie: jaki jest cel naszej cywilizacji, ludzkiej?
Owszem. Granica poznania jest tylko "techniczną przeszkodą". Ale czy na pewno? Nie, nie kibicuję filozofom...
Widzisz. Obstawiam, że i Twoje wnuki nie dożyją przyziemienia ludzia (nieistotne że ona i czarna ) na Marsie. Nie chodzi o idee. a zwyczajnie o to, że ludź kiepsko znosi 0 g, promieniowanie kosmiczne i tysiące podobnych problemów. Obstawiam, że ludź dowolnej cywilizacji będzie miał pierdyliard więcej problemów niż kuchenka mikrofalowa przyziemiona na Marsie. Każda cywilizacja ma OGRANICZONE zasoby - na co je zużywamy? Ano Trump, Orban, ruskie, płot, Fico i pierdyliard podobnych idiotyzmów... Na "podbój" nie zostaje już prawie NIC.
No i znowu Lem... OWSZEM.
P.S. Często na sen ponownie oglądam Star Trek. To tak debilne wyobrażenie (i powszechne w naszych "ekstrapolacjach"), że aż bolą kości. Fajnie się jednak ogląda.
Mariusz Błoński, 17 maja 2024, 21:26
Nawet jeśli odrzucimy koncepcję, że AI może zniszczyć ludzkość dla własnego interesu - a istnienie ludzkości zagrażać może egzystencjalnym interesom AI, jako że ludzkość to jedyny konkurent AI i jedne dla AI zagrożenie - to może nas też zniszczyć "bo tak". Tak jak my wytępiliśmy tysiące gatunków, które w żaden sposób nam nie zagrażały, a ich istnienie w żaden sposób nie kolidowało z naszym interesem.
ex nihilo, 18 maja 2024, 02:09
Kiedyś, w czasach mocno prehistorycznych, byłem na wykładzie Kardaszewa. Obce cywilizacje, jego skala, UFO itd., coś o AI też tam było. Chociaż mówił ciekawie, niewiele szczegółów zapamiętałem, bo właściwie nie powiedział nic, czego bym nie wiedział wcześniej. Jedyny szczegół, który do teraz pamiętam, to jego odpowiedź na pytanie z sali: "Jaki ustrój mają ewentualne kosmiczne supercywilizacje?". "Oczywiście komunizm" - odpowiedział. Wtedy mnie to rozbawiło na zasadzie "a co innego mógłby publicznie powiedzieć w tym miejscu i czasie?". Teraz uważam, że to całkiem prawdopodobne, chociaż to by nie był taki "komunizm", jaki poznaliśmy, a bliższy tego idealnego: potrzeby zaspokojone, praca jako hobby raczej i zabawa niż "praca" itd. - większość ludziów i tak by siedziała w cyfrowym "raju". Jednak uważam, że pdp, że jakaś cywilizacja do tego stanu przetrwa jest minimalne, a i później niekoniecznie długo to by trwało.
radar, 18 maja 2024, 14:11
Zakładając, że celem (AI jeśli o niej ciągle mówimy) jest zabezpieczenie trwania ludzkości lub samej AI to ten cel to bezpieczeństwo. Już teraz wiemy, że jest pewne małe, ale jednak niezerowe prawdopodobieństwo zniszczenia Ziemi, czy to supernowa czy coś innego. Dodatkowo za x lat Słońce nam przygaśnie i się rozszerzy. Z naszej perspektywy jest to czas odległy, ale z perspektywy "wiecznej" AI już nie. Więc celem może być rozwój technologiczny pozwalający przetrwać, przenieść się gdzieś albo obronić, etc.
Jeśli nie będzie wroga, wydaje się to mało prawdopodobne. My robiliśmy to głównie z lenistwa, zaniedbania, braku wiedzy. AI taka nie będzie (nie będzie, prawda? Prawda!?! )
Wow, ciekawie pesymistyczne stwierdzenie. Wiem, że Elon nie dotrzyma obietnic z terminami, ale jednak ja sam mam zamiar dożyć! Niech i w 2050.
100% prawdy. Mam wręcz przekonanie, że ponieważ do tej pory nie mamy mechanizmów wymuszających wypełnianie praw Asimova przez AI (właściwie żadnych), to z trenowaniem AI będzie jak z wychowywaniem dziecka, jak rodzic wychowa taki człowiek urośnie. Oczywiście w bardzo dużym uproszczeniu, rodzice trudnych dzieci coś o tym wiedzą. No i mam nadzieję, że przetrwamy bunt AI-owego nastolatka To może być ten moment, o którym pisze @Mariusz Błoński, "bo tak".
Astro, 19 maja 2024, 15:35
To chyba żart. Prawa Asimova to bajka, i jak do tej pory nie słyszałem o tym, by ktokolwiek próbował trenować jakąkolwiek sieć pod tę bajkę. Złamanie zasad Asimova możemy już jednak liczyć realnie. Niezmiennie AI traktujemy jak głupi zestaw "trybików" w maszynie, choć odpuściliśmy sobie rozumienie jak to działa.
Obawiam się, że trenowanie AI to zdecydowanie coś innego niż wychowanie. Owszem, wejście i wyjście ma być jak najbardziej "ludzkie". Nie spodziewałbym się jednak niczego ludzkiego pośrodku, nie doszukiwałbym się tam "humanizmu" i jakichś "praw Asimowa". Masz jednak rację - niewychowane dziecko będzie tylko gryźć, pluć i takie tam... Tacy jesteśmy z NATURY. Proste pytanie: czy efekt którego oczekujemy po wejściu nie jest już skażony ZŁEM? Nie chciałem podejmować kwestii moralności, ale ona tam ciągle mruga złym okiem.
P.S. Mówi się, że nie ma złych pytań, ale jakoś wewnętrznie przekonany jestem, że wciąż zadajemy głupie pytania. Za @peceed i Lemem niezmiennie tylko antropomorfizujemy (na co według mnie jesteśmy skazani), ale to nie prowadzi nas w żaden sposób do POPRAWNYCH odpowiedzi. Taki nasz los. Czy gdybyśmy przenieśli nasze byty w stal, tytan i "elektronowe" mózgi cokolwiek by się zmieniło? Jesteśmy tylko LUDŹMI i takimi pozostaniemy. Powtórzę: nie możemy dogadać się z delfinami...
radar, 21 maja 2024, 23:08
Czy nazwiesz to prawami Asimova czy "responsible AI" czy jakkolwiek inaczej chodzi o to samo, o to, żeby AI nie "wymknęła się" spod kontroli. Oczywiście nie mówię o "prostych" sieciach neuronowych jakie znamy teraz, ale o "najwredniejszej" AGI. Do tego był mój komentarz. A to, że Ty nie słyszałeś, to nie znaczy, że nikt tego nie robi albo przynajmniej o tym nie dyskutuje
https://www.theverge.com/2024/1/4/24025535/google-ai-robot-constitution-autort-deepmind-three-laws
albo bardziej formalnie: https://go.microsoft.com/fwlink/?linkid=2257674&clcid=0x409&culture=en-us&country=us
To już zostało ustalone wcześniej, albo w wątku Jarka. Ale znowu, mój komentarz odnosił się do worst case scenario.
Oczywiście, że jest, ale również dobrem Dlatego "zarzut", że antropomorfizujemy jest dla mnie niepoważny, bo po pierwsze, co innego niby możemy robić jak niczego innego nie znamy, ale po drugie i najważniejsze, taki przecież jest cel, stworzyć "sztuczny mózg", sztuczną inteligencję, a jedyną jaką znamy na poważnie to my sami.
Spodobał mi się ten argument z początku, każe się zastanowić nad naszymi wątpliwymi umiejętnościami. Ale ja się właśnie zastanowiłem i uważam argument za nietrafiony
Żeby się "z kimś" dogadać to obie strony muszą być na to gotowe. My już potrafimy, ale to delfiny najwidoczniej nie. Oprócz widocznych objawów inteligencji delfiny nie dysponują "aparatem matematycznym" ani inżynierią. Nasz rozwój pozwolił nam porozumiewać się w sposób złożony, również abstrakcyjny, odmienny kulturowo, geograficznie, itp, ale to nie znaczy, że jest z kim gadać po drugiej stronie. Szczególnie w zakresie abstrakcji. Z AI to będzie co innego, bo i my już potrafimy się porozumiewać w sposób złożony, ale i ona już się z nami porozumiewa (tak wiem, na razie imituje), a ta na wyższym poziomie też będzie to potrafić, właśnie m.in. dzięki matematyce.
Astro, 24 maja 2024, 18:40
Ale jak mamy ogarniać "wymknięcie się" spod kontroli czegoś, czego kompletnie nie ogarniamy? Powrócę do moralności. Wytrenowaliśmy sieć, która steruje myśliwcem. Pobiła najlepszych pilotów, co jest rzeczą trywialną, choć to były "symulacje". Ta sama sieć nie będzie miała najmniejszego pojęcia o tym, czy steruje symulacją, czy prawdziwym myśliwcem. Przy okazji mówiąc o "najwredniejszej AGI" mówisz to samo co Hawking.
Wybacz, ale akurat google to dla mnie najgorszy przykład moralności, odpowiedzialności i takich tam
Eee. Może mam zbyt wybujałą wyobraźnię, ale na dzień dobry znajdzie się gorszy scenariusz.
Nie. Dobro stoi w kompletnej sprzeczności ze stawianymi celami.
Golem, choć z gliny, przypominał NAS. Zarzut nie jest zarzutem, ale stwierdzeniem faktu. Wyżej przecież napisałem o projekcji nas samych. Pomyśl o "przestrzeni możliwości". Skazujemy się zwyczajnie na malutkie miniumum LOKALNE. Jeśli Ci wystarczy, to ok, ale w oceanie to może być kompletna bździna. Taki miś na naszą miarę, któremu oczko odpadło...
Ale to nie delfiny chcą tworzyć AI i nie one szukają "obcych" cywilizacji. Chcę powiedzieć tylko tyle, że "głupsze" według nas ssaki jak delfiny są dla nas niezrozumiałe; Ty chcesz gadać z KOSMITAMI? Jeśli jesteś gotowy i potrafisz, to dlaczego nie rozumiesz delfina? Zakładasz, że inteligentna istota powinna nadawać liczby pierwsze, a piski delfinów jakoś się tak nie układają. Delfiny są głupie, czy może Ty zrobiłeś debilne założenie?
Inżynierią nie, ale w "aparat matematyczny" bym jednak nie wątpił. Widziałeś ostatnią maturę z matematyki? Jeśli potrafiłbyś przełożyć to na "delfini", to gwarantuję, że zdaje 95% delfinów.
Wybacz, ale ja naprawdę nie potrafię porozumieć się ze zwolennikami pis. Próbowałem wiele razy, ale to świat odleglejszy niż delfiny...
Czyli się NIE POROZUMIEWA
Mam zacząć bardziej pieścić mój dobry kalkulator?
czernm20, 25 maja 2024, 20:49
Michał Wiśniewski nagrał taki utwór "od ojca dla syna", a jest tam ciekawy motyw I.A.
Hm, może to brzmi dziwnie, ale problematyki filozoficzne maszyn które w depatach etycznych pokonują człowieka, są już przestarzałe.
Pierwszy raz spotykami się z tym wątkiem w przypowieści o "Golemie" w Żydowskiej kabale, a następnie w pracach Edmunda Husserla też pojawia się zagadnienie logiki używanej przez maszyny (1900 rok, Badania logiczne).
Już Heidegger pisał, że używanie radia nie jest tożsame z zagadnieniem technologicznym i rozumieniem istoty niem. Stellung. Są to dla niego twory myśli, które mogą mieć jakieś własności jako byt.