Miliard dolarów na OpenAI
Grupa przedsiębiorców z Doliny Krzemowej zadeklarowała przeznaczenie miliarda dolarów na stworzenie organizacji o nazwie OpenAI. Ma być to niedochodowe laboratorium skupiające się na badaniach nad sztuczną inteligencją.
Pieniądze na OpenAI wyłożyli m.in. Elon Musk (Tesla, SpaceX), Peter Thiel (Palantir), Reid Hoffman (LinkedIn), Sam Altman (Loopt, Y combinator), Greg Brockman (Stripe) i inni oraz firmy takie jak Amazon Web Services, YC Research czy Infosys. Co interesujące Musk wielokrotnie wygłaszał zastrzeżenie co do rozwoju sztucznej inteligencji i na początku bieżącego roku sfinansował projekt, którego celem jest opracowanie metod uniknięcia niebezpieczeństw związanych z rozwojem AI.
W otwartym liście inwestorzy sponsorujący OpenAI piszą: Bardzo trudno jest orzec, do jakiego stopnia sztuczna inteligencja może wspomóc społeczeństwo. Równie trudno jest przewidzieć, jak bardzo może je ona zniszczyć, jeśli zostanie niewłaściwie zbudowana lub zaimplementowana. Z tego też powodu uważają, że w badania nad AI powinna być zaangażowana niedochodowa organizacja, gdyż trudno przewidzieć, kiedy sztuczna inteligencja znajdzie się w naszym zasięgu. Gdy jednak już się to stanie, ważne by istniała wiodąca instytucja badawcza zdolna do określenia co jest dobre dla wszystkich, a nie co jest dobre dla konkretnych grup ze względu na ich własny interes.
Na razie do prac w OpenAI zatrudniono siedmiu badaczy.
Komentarze (86)
thikim, 14 grudnia 2015, 19:00
Genialne - Musk najpierw zrobił zainteresowanie medialne protestując przeciw i wciągając w to innych, a teraz będzie w tym uczestniczył. Reklama...
rahl, 14 grudnia 2015, 19:13
Ciekawe czemu nie nazwą tego projektu jego prawdziwą nazwą. Mówię wam - SkyNet nadchodzi.
Krzychoo, 14 grudnia 2015, 21:16
Będzie jak z bombą atomową. Najpierw będzie jakaś Hiroszima. A potem jakoś damy radę
radar, 14 grudnia 2015, 22:25
Skynetem się może skończyć
A co do Muska, w sumie jakbym miał takie intencje jak opisane to też bym zasponsorował, żeby mieć wgląd w to co się dzieje
thikim, 14 grudnia 2015, 23:32
Einstein chyba miał podobne intencje uczestnicząc w budowie bomby atomowej
i był mocno zawiedziony rezultatem.
Tak samo Musk stworzy AI żeby mieć kontrolę nad tworzeniem, żeby nie stworzyć?
Inna sprawa że i tak ktoś tego prędzej czy później dokona.
gucio222, 15 grudnia 2015, 21:54
Możliwości ludzkiego umysłu, pojemność, szybkość i wielkość sieci już dawno przekroczyła masę krytyczną w postaci sieci www. Brak tylko algorytmu. Gdzieś ostatnio oglądałem program o grupie badawczej która tworzy algorytm poprzez naśladowanie ewolucji. A więc algorytm który poprzez mutację własnego kodu i jego rozgałęzień sam ma osiągnąć złożoność samoświadomości i inteligencję. Na wzór ewolucji człowieka. Jest to dość ponura perspektywa ponieważ w ten sposób przypadkowo stworzony algorytm AI będzie miał głęboko w d..pie trzy prawa robotyki Asimova. Zakładając że prędkość komputerów jest miliony razy większa od taktowanego 30Hz mózgu człowieka to osiągniecie tego celu jest kwestią myślę jednego pokolenia.
radar, 15 grudnia 2015, 23:26
Takie badania to się robi od dekad.
Sęk w tym, że my sami nie potrafimy jeszcze powiedzieć, co to "ja".
Trzy prawa Asimova to bajka. "Inteligentny", dostosowujący się do sytuacji algorytm nie będzie działał na "if-ach". Można wpoić mu pewne zasady jak dziecku, ale potem jako "nastolatek" i tak odkryje, że większość z nich i tak jest umowna i można je łamać/naginać.
Ostatnio oglądałem jakiś stary odcinek "Było sobie życie" akurat o mózgu i tam przewidywali wtedy, że jednak AI to nie to i przyszłością będzie ludzki mózg, ale wsparty nieograniczonym dostępem do wiedzy (czytaj cyborg z czipem w głowie - pewnie z połączeniem do internetu )
Afordancja, 16 grudnia 2015, 08:58
Pomijając czy to bajka czy nie, takie podejście do ewolucji programu w ogóle nie wyklucza tych praw.
Tak wytworzony elektroniczny mózg może być jednym z wielu takich mózgów, każda ich decyzja przechodzi przez filtry wyższego rzędu. (a te np. odpytują jeden z mózgów czy człowiekowi dzieje się krzywda itd. itd.) no opcji jest wiele, naprawdę wiele.
Jajcenty, 16 grudnia 2015, 10:38
Takie filtry będą musiały ocenić sytuację nie gorzej niż właściwy organ decyzyjny a to znaczy że będą musiały być od niego inteligentniejsze. To po co nam decydor jak mamy filtry, które są od niego lepsze?
thikim, 16 grudnia 2015, 14:46
Dróg jest wiele.
Jedna zakłada że będziemy symulować to co jest w mózgu. Czyli program będzie miał kod ustalony. Zmieniać się będą dane. Łatwe ale wymaga olbrzymiej mocy obliczeniowej, stąd symulujemy na razie chyba na poziomie rozwielitek.
Druga że stworzymy bezpośrednio kod zmieniający się. Trudniejsze ale nie wymaga takiej mocy obliczeniowej.
Proste kody zmieniające same siebie poprzez odwołanie do adresu zmiennej to zabawki hakerskie od lat. Tu jednak trzeba by w zasadzie stworzyć nowy język programowania. Ja przynajmniej od tego bym wyszedł.
I jest masa dróg pośrodku.
radar, 16 grudnia 2015, 21:20
Tylko jak zaimplementować "rozumienie" słowa "krzywda"? W "I, Robot" ta koncepcja została ciekawie przedstawiona
Ucięcie ręki może tak, bo nie odrośnie, ale podbicie oka? Wycięcie jednej nerki (da się żyć)?
Eksmisja komornicza to krzywda?
Egzekucja niesprawiedliwego/bezdusznego wyroku sądu?
Z tym "łatwe" to trochę taka ironia?
Nawet przy ustalonym kodzie i zmieniających się danych trzeba by mieć ścisłą kontrolę nad danymi. Kto, kiedy, i jak będzie pilnował, ale przede wszystkim, dla jakiej instancji tego programu? Przecież takich bytów może być cała masa.
No i czy to jeszcze/już "inteligencja"?
Afordancja, 17 grudnia 2015, 17:21
Nie zgadzam się z tą opinią, będą dokładnie tak samo inteligentne, będą działały wykorzystywały taką samą technologię.
Czyli, jeden mózg składa się w wielu "mózgów" spiętych tą warstwą decyzyjną. "Jeden" z tych mózgów wyuczał by się, (używając dokładnie tej samej technilogii co pozostałe) tylko elementów dotyczących ww. praw. I "organ" nadrzędny, zanim przepuście dalszą decyzje, "zapyta" "jeden"(bądź więcej) z tych mózgów, czy ta decyzja nie łamie zasad.. (Taki trybunał konstytucyjny )
Tak samo jak zaimplementować resztę pojęć
Skoro reszta ma stać się inteligentna i ma rozumieć wiele pojęć to nie widzę przeciwskazań aby ta część mózgu wyćwiczyła się w rozpoznawaniu tych znaczeń.
To nie są najtruniejsze znaczenia ze wszystkich.
To bardziej sprawa etyków i jakie ta AI będzie miała możliwości( w sensie zastosowanie).
Równie dobrze może być, zasada, żadnych uszkodzeń, nawet kosztem ratowania życia delikwenta, po prostu jak by nie było tej AI w tej sytuacji. (Przykład taki sobie, nie mówię, że najlepszy czy najgorszy, chodzi o to, że to czego wyuczymy tak to będzie działało. każda wątpliwość, = zaniechanie działania, razem z konsekwencjami)
No przepraszam, to prsota sprawa, już teraz tak jest, że komornik nie jest od interpretowania wyroku, tylko od wykonywania.
radar, 18 grudnia 2015, 00:06
Ja się z tym wszystkim zgadzam, ale co to znaczy "jakby nie było"? Skoro ma być inteligentne tzn., że potrafi samo ocenić, a skoro może samo ewoluować (uczyć się) i oceniać to kto zabroni zmienić zdanie i zacząć interpretować to inaczej?
Wy mówicie tu o jakimś automacie, ale to nie jest AI.
J/w. Wyuczyć można, ale skoro ma być inteligentne, uczyć się i ewoluować to może też zmienić zdanie. Jeśli wstawisz ogranicznik, to przestaje być inteligentne.
Tak samo jak teraz z ludźmi. Prawo, wychowanie kreuje u nas pewne wzorce zachowań jako takie bezpieczniki, ale te bezpieczniki nie są do końca skuteczne, bo przecież nie brakuje jednak morderców, gwałcicieli, etc...
Afordancja, 18 grudnia 2015, 07:47
(od tyłu)
(Przedstawiam jakąś tam koncepcję wymyśloną na kolanie) "automat" dotyczył by tylko, wykrywania "praw Asimova", czyli filtr jest bez możliwości interpretacji, jeżlei jest kolizja, decyzja nie przechodzi.
Powiem więcej mózgi poniżej może (powienien) mieć świadomość o istnieniu tego filtra i wyuczy się sam nie kolidować z nim i nawet uzasadniać swoją decyzję.
Obrazowo mówiąc można to porównać do tego jak by w jednym gościu siedziały dwie osoby, jeden AI , drugi "człowiek" wyuczony do wykrywania szkodliwych działań (to też AI tylko wyuczone przez człowieka do jednej rzeczy)), a filtr polega na tym, że każda decyzja od AI, idzie do tego drugiego mózgu z zapytaniem, czy to szkodliwe, jeżeli tak, to filtr informuje główny mózg, że nie przeszło.
(Znów na kolanie) Sprawa też nie wydaje się aż tak niemożliwa. do rozwiązania.
Przykład dalej taki jak wcześniej, (ok dorzucam kolejny niezależny mózg )
1. Mózg głowny, decyzyjny ciągle się uczy ewoluuje itd. ma świadomość filtra, i wszystkich mechanizmów nim zawartych.
2. Mózg wyuczony dotyczący "praw Asimowa", jest on "read only"
3. Mózg dotyczący przewidywania skutków decyzji, też ciągle ewoluuje, jednak jego mechanizm nauki tylko i wyłącznie do realacji "decyzja->skutki".
Mózg 3 pełni funkcję usługową i dla mózgu 1 i dla mózgu 3. Oczywiście Mózg 1, też ma taką funkcję sam w sobie, jednak ten jest specjalizowany, niczego więcej się nie uczy, więc nie może zmieniać decyzji.
A teraz o mózgu nr 2. Jest teoretycznie read only, więc nie może zmieniać decyzji, jednak na nim są kolejne warstwy które się uczą interpretować nowe zdarzenia czy coś jest szkodliwe czy nie.
Nowa warstwa uczy się przez np. określony czas (tego jeszcze nie przemyślałem, zwłaszcza, że myślę o tym od 2 minut ), po czym staje się znów read only, a powstaje nowa warstwa.
O tak potem filtr zapytauje od góry wszystkie warstwy, i jeżeli któraś z warstw mówi, że "czyn zabroniony" filtr blokuje mózg nr 1. i daje mu o tym informacje.
Czyli mózg numer 2. nigdy nie może zmienić interpretacji, już czynów zabronionych, reszta ewoluuje i się dostosowuje.
Kolejną rzeczą może być taka, że mózg numer 2, może być wspólny dla wszystkich AI, tzn. następuje wymiana doświadczeń między 2 AI, między tymi mózgami,
Koncepcji może być naprawdę wiele.
W powyższej, cały czas AI się rozwija, jedynie nie może wykonywać czynów zabronionych, i to definitywnie nie może.
ex nihilo, 18 grudnia 2015, 08:37
Trzy prawa robotyki ex nihilo:
1. Inteligencja to przetwarzanie abstrakcji → przedefiniowanie pojęć → psychiatra
2. Inteligencja musi mieć układ skojarzeń losowych (bez tego gucio z ewolucji) → psychiatra
3. Inteligencja musi mieć prawo do błędów → psychiatra
Afordancja, 18 grudnia 2015, 10:26
Zgadzam się, ale dla jak to bywa z punktami widzenia, zależą od punku siedzenia (fizyka? )
Dla mnie to nie psychologia tylko algorytmy.
a) program musi podejmować różne decyzje aby móc zobaczyć różne skutki aby mógł je oceniać i się rozwijać, klasyczne uczenie ze wzmocnieniem
b) aby mógł podejmować decyzje niedeterministyczne z punktu a) musi mieć jakąś randomizację, ot samo programowanie zero psychologii
ex nihilo, 18 grudnia 2015, 15:20
Zamiast "psychiatra" możesz wstawić "młotek"
I mało prawdopodobne, żebyś to Ty wtedy ten młotek w garści trzymał, a gdyby nawet, to robal nie rozumie kury, a kura ludzia
Gość Astro, 18 grudnia 2015, 17:38
Skoro
(https://pl.wikipedia.org/wiki/Algorytm)
to wygląda na to, że bez głęboko wszytego w algorytm generatora pseudolosowego nie ruszysz… → psychiatra / młotek (cytat z wielkiego fizyka: "Czy to ważne jaki spin ma elektron? Pies mu mordę lizał" ). Przy okazji, randomizacja na poziomie skomplikowania struktury (rzućmy, ot tak, jakieś 1010 – wyłączam móżdżek – to chyba dla przeciętnego zespołu "programistów" problem N→πzdu-trudny.
Edycja: zna ktoś kogoś rozsądnego, kto twierdziłby, że inteligencja jest równoważna algorytmom? Jeśli tak, to jaką definicję inteligencji przyjmuje?
(Nihilo, problemem jest "abstrakcja", bo chyba nie klasy równoważności. ).
Afordancja, 18 grudnia 2015, 22:04
Nie wiem gdzie widzisz problem, skończony ciąg janos zdefiniowanych czynności nie jest równoznaczne determinizmowi.
Algorytm na liczbę pseudolosową jest zdecydowanie jasny i kończony (itd.).
Jeśli chodzi o jakość generatora, też bym się tu jakoś nie przyczepiał, parametry (jako seed) typu ilość nanosekund które minęły od porannego przebudzenia, naprawdę wystarczą.
hm...zaraz zaraz, po pierwsze mówimy tu już o wytworzonej AI (to jest już problem wystarczająco trudny ). Po drugie, nie widzę problemu dla programistów, żadnego problemu (dla programistów) i prawdę mówiąc nie wiem gdzie Ty go widzisz, problemem jest raczej sprzęt.
Definicje, definicje, definicje.
Sieci neuronowe to też algorytm, (jest dość jasno określone jak to działa itd.), a to (marna bo marna) symulacja mózgu, po prostu chyba inaczej rozumiesz słowo algorytm.
Powtórzę, algorytm != deterministyczny.
Algorytm na samo modyfikujący się kod i ewoluujący w zależności od środowiska(czy tam poszukiwane rezultatu jak kto woli) , to dalej algorytm. dalej nie czuję Twojego problemu (bez złośliwości, po prostu nie czuję).
Już w "Twoim" linku, masz niżej wypisane przykłady, algorytmy genetyczne, kwantowe, probalistyczne. wg. mnie zbyt "prosto" rozumiesz słowo algorytm, i jesteś na etapie algorytmu na znalezienie największego dzielnika, zawsze da taki sam wynik dla takich samych danych wejściowych.
reinforcement learning to dalej algorytm.
[edit]
PS.
Nie wiem w ogóle skąd wziąłeś AI == algorytm.
AI to :
- uczenie (na uczenie jest wiele algorytmów)
- wyciąganie wniosków (kolejne setki algorytmów)
- itd. itd.
Gość Astro, 18 grudnia 2015, 22:34
"Jonos" rzeczywiście wprowadza odpowiedni chaos. Nie potrafię tak zdefiniować czynności. Gdyby chodziło Ci o "jakoś", to mamy problem. Programista, który rozumie JAKOŚ matematykę (i "łapie" fizykę) nie zaprzeczy tej równoważności (tak sobie freeswobodnie popintalam ).
Stąd większość "hakerów" czerpie inspirację.
Nie wystarczą. W jaki sposób określasz tę liczbę na własnym przykładzie? KIEDY następuje Twoje przebudzenie?
Mam problem. Gdzie jest owa JUŻ wytworzona?
Jeśli nie widzisz, to dlaczego nie chcesz powiedzieć, że rozmawiam nie z Tobą, a jakimś "algorytmem"? Mogę zadać pytanie, w sposób zwyczajnie ludzki, pytanie owo składając jak najbardziej poprawnie, w naszym ojczystym języku, którego to pytania Twój, jak i zapewne każdego innego "programisty" algorytm, przepraszam, AI, odczytać w stanie nie będzie, a przekonany jestem głęboko, że próba owa nie tylko śmiech na sali poczyni – sali jak najbardziej rozumnych – ale i mądrości rąbka uchyli programistom wszelakim, którzy zza rąbka owego spoglądać potrafią, względem czego pewności oczywiście nie mam, acz nadzieję głęboką w tym pokładam.
Zbudujcie nam szybszy sprzęt, a my wam uczynimy inteligencję. Wybacz. DEBILIZM.
Nie. To DEBILNY model mózgu.
Nie jestem "programistą" debili.
… modyfikacjami owymi odpowiadając na zmianę "środowiska". Nie pomyliłeś jednak życia z komputerem?
Afordancja, 18 grudnia 2015, 23:22
Jonos = jasno (nie wiem jak mnie palce pokierowały na ten "wyraz".
Więc nie ma żadnego 'jakoś".
Co to nie zaprzeczenia tej równości to Twoje zdanie, na podobnym poziomie czy wszechświat jest deterministyczny. A nam tego nie trzeba w przypadku uczenia.
Dla przykładu prosty algorytm.
1. Poszukaj na necie adres Astro(zapytaj go)
2. Idź do niego. (na pieszo )
3. Weź ilość sekund od daty, weźmy 1. styczeń 2000r. 12:07
4. weź ilość milisekund od przebudzenia się
5. użyj 3 i 4 jako seedu i powiedz Astro od 1 do 1 miliona.
6. wróć do domu.
Następnego dnia powtórz ten sam algorytm.
I taki poziom "losowości" wystarczy. Nie przewidzisz jaka liczbę Ci powie, nawet o której godzinie przyjdzie.
A jaśniej?
Czyli nie rozumiesz
A no wtedy kiedy wszystkie ważniejsze procedury rozruchowe się skoczyły (jest równoległość, ale pomińmy) i "pomyślałem" ok czas zapisać nowego seeda.
To chyba nie za trudne było, co?
W skrócie, nie ma żadnego znaczenia kiedy faktycznie to nastąpiło i jaki faktycznie ten czas zapisałem.
No to masz faktycznie "problem"
Podam Ci "algorytm"
1. Wróć na poprzednią stronę
2 Do momentu gdzie się włączyłem do dyskusji i tam jest takie zdanie:
"stworzony algorytm AI będzie miał głęboko w d..pie trzy prawa robotyki Asimova."
I w tym kontekście zacząłem dyskusję.
Liczę, że rozjaśniłem, bo kontekst w AI jest bardzo ważny
eeeee ??
Napisałeś:
"Przy okazji, randomizacja na poziomie skomplikowania struktury (rzućmy, ot tak, jakieś 1010 "
Czyli wspomniałeś coś o skali randomizacji, więc odpowiedziałem, gdzie tym razem widzisz problem?
A to cz ja/Ty jesteś algorytmem to sprawa bardziej filozoficzna.
Chyba coś Ci się rozjechało co zapewne zobaczysz, po wspomnianym przeze mnie KONTEKSCIE
Przecież ja w ogóle nie dawałem przepisu na uczynienie inteligencji, To raczej Twój wymysł.
Nie twierdzę inaczej, jednak to algorytmy, algorytmy które się uczą, dostosowują, i robią to co mają robić, i przyszłości może być mniej debilny i moiże być jednym z modułów AI, kto wie.
Wiem, maks pralki, a to już wiadomo, że nie "debilne"
eee?
Naprawdę ciężko się rozmawia z kimś kto nie ma kompletnie zielonego pojęcia w temacie, wiem teraz jak byś się czuł jak bym wchodził z Tobą w dysputy o czerwonych olbrzymach albo coś w tym stylu
Gość Astro, 18 grudnia 2015, 23:45
Kiepski algorytm. Jeśli w necie nie znajdziesz adresu Astro (zapytany Ci nie odpowie), to już jesteś pozamiatany.
Mówiłeś o nanosekundach…
Ponieważ 3 i 4 już pozamiatane, to co? Mam odgadnąć liczbę, którą pomyślałeś?
Np. http://forum.kopalniawiedzy.pl/topic/25207-takie-same-klucze-i-certyfikaty-nara%C5%BCaj%C4%85-na-atak/
Błądzisz. Rozumiem. Skoro:
to pewna część Twojego mózgu, której Ty nie jesteś świadom, wiedziała to wcześniej. Ktoś może ją podsłuchać.
Jasne. Piszmy dalej DEBILI.
Destrukcja jest prosta. Myśłałem, że próbujesz coś konstruktywnie.
Jeśli chodzi o Ty, to dla mnie raczej nie.
No właśnie, przepisu nie dajesz. Pominąłeś mózg nr 4, czyli mój.
Algorytmy się nie uczą. Z definicji.
Programiści pralek, zwłaszcza "niskopoziomowi" są bardziej rochwytywani niż ci od AI. Taki rynek.
No nie mam. I co? Łyso Ci?
Afordancja, 19 grudnia 2015, 00:11
I o to chodzi, środowisko wpływa na wynik, jak widzisz
Zmieniłem zdanie
Dla seeda mogą to być i "najmany" albo "gołoty" do milionowego miejsca po przecinku * miion.
Oczywiście masz racje, nanosekundy będą lepsze, to całkowicie zmienia przykład
Jak byś skupił się na przekazie a nie na czepialstwu to byś doczytał, złapał, że to nie nie jest kluczowe.
Oczywiście masz rację, nanosekundy, będą lepsze
A jaśniej? Co to znaczy, "pozamiatane"?
hm.. jestem pewien, że się "lekko" oderwałeś od tego co tu się dzieje
Jednak nie rozumiesz, znajomość daty 1. styczeń 2000r. 12:07 i dokładnej godziny kiedy wstałem nie ma żadnego znaczenia (już pomijam, że to tylko przykłady).
Gdyż
a) mając te dwie liczby, tworzymy tylko czas startowy. Teraz wszystko zależy od nanosekund w których zaczniemy podejmować kolejne decyzję, w mózgu a te zależą od środowiska, szybkości układów, itd. i seed (to tylko seed) jest dość nieprzewidywalny.
B) to jest tylko generator liczb losowych które są jakąś tam maleńką częścią całego systemu, liczby losowe nie podejmują decyzji.
eee? Przecież to nie mój cytat, ja piszę w opozycji do tego
(to już piszę zgodnie z Twoim oczekiwaniem? )
Czynnik kompletnie nieistotny w tym temacie
Z definicji to Ty się czepiasz
Skrót myślowy: https://pl.wikipedia.org/wiki/Uczenie_maszynowe
Nawet bym się założył.
Jednak prostując, jak zapewne wiesz, myślałem, o calkiem wysoko poziomowych, tak z na poziomie 120 centymetrów
Nie.
Gość Astro, 19 grudnia 2015, 00:26
Czyli nie potrafisz stworzyć algorytmu.
Tak szanowny Kolego, to możemy sobie posrywać w nieskończoność. Bez AI.
Walisz głupoty. Coś w tym stylu.
Staram się mniej abstrahować od Rzeczywistości.
Pomijając pierwszego stycznia, to raczej Kolega nie ogarnia o czym piszę.
Brawo, brawo. Algorytm też nie. To jak chcesz stworzyć "inteligencję"?
Jak widać, zbyt dla Ciebie problematyczny.
Tak mam Afordancja. Czynię to w najlepszej wierze. Nie mam ochoty nikomu robić krzywdy, ale nie znoszę też pierdół.
Dziękuję. Nie wpadłbym bez Ciebie na to.
Tak wysoko, to tylko blondynki odkładają suszarki na pralkach.
A powinno.