Naukowcy obiecują przejście Testu Turinga
Zajmujący się sztuczną inteligencją eksperci z Rensselaer Polytechnic Institute są przekonani, że najpotężniejszy superkomputer świata - BlueGene/L - może przejść częściowy Test Turinga.
Wymyślony przez Alana Turinga test ma być kamieniem milowym, po przekroczeniu którego będziemy mogli mówić o istnieniu sztucznej inteligencji.
W Teście bierze udział kilka osób i maszyna. Każdy z uczestników znajduje się w innym pomieszczeniu i prowadzi rozmowę w języku naturalnym z sędzią-człowiekiem. Jeśli sędzia nie rozpozna maszyny, uznaje się, że ta zdała test.
Selmer Bringsjord, szef Wydziału Nauk Poznawczych w Rensselaer Institute informuje, że powtał już jest wirtualny byt, który jest właśnie wyposażany w podstawy wiedzy o sobie - gdzie chodził do szkoły, jacy są członkowie jego rodziny, itd. "Chcemy stworzyć inteligentny twór i rozmawiać z nim w interaktywnym środowisku podobnym do holodeka z serialu Star Trek" - mów Bringsjord.
Wirtualna postać zostanie wyposażona we wszelkie osobiste informacje, które naukowcom dostarcza jeden ze studentów. Avatar będzie mógł dystukować na ten temat z innymi wirtualnymi bytami: podzieli się z nimi informacjami o swojej rodzinie, wspomnieniami z wakacji, opowie o swoich przekonaniach i wierzeniach.
Test odbędzie się najbliższej jesieni, najprawdopodobniej w środowisku Second Life. Wezmą w nim udział same avatary. Jednak większość z nich będzie bezpośrednio sterowanych przez ludzi. Wirtualną postacią będzie sterowało oprogramowanie Rascals (Renssalaer Advanced Synthetic Architecture for Living Systems).
Rascals opiera się na silniku badającym prawdziwość twierdzeń, który wnioskuje na podstawie zachowań pasujących do wzorców zawartych w jego wiedzy (bazie danych). Każde twierdzenie uznane za prawdziwe wywołuje odpowiednią reakcję avatara. Dotychczas podobne techniki stosowano do rozwiązywania bardzo prostych problemów. Rascals posiada tak olbrzymią bazę danych wiedzy i doświadczeń, że może spróbować udawać człowieka. Jednak przetworzenie olbrzymiej ilości danych wymaga dużych mocy obliczeniowych - stąd pomysł, by wykorzystać superkomputery.
Zespołowi Bringsjorda udało się osiągnąć kamień milowy, gdyż nauczyli swój program rozumienia "fałszywego przekonania". Pojęcie fałszywego przekonania wykształca się u człowieka dopiero pomiędzy 4. a 5. rokiem życia. Polega ono na tym, że jeśli w jednym z dwóch pudełek schowamy np. jabłko i chowaniu będzie przypatrywało się dziecko i człowiek dorosły, następnie dorosły wyjdzie, a my przełożymy jabłko do drugiego pudełka, to dziecko rozumie, iż dorosły ma teraz fałszywe przekonanie o tym, gdzie jabłko się znajduje.
Innymi słowy, dziecko, podobnie jak teraz program Rascals, posiada własne sądy na temat sądów innych osób.
Zadaniem sędziów będzie odróżnienie samodzielnego avatara stworzonego przez RI. Zostanie on poddany Testowi w październiku bieżącego roku.
Komentarze (9)
wilk, 13 marca 2008, 18:27
Użycie wirtualnego "holodeku" i awatarów będzie niewątpliwym plusem na korzyść "sztucznej inteligencji", bowiem o ile klasyczny Test Turinga opiera się na konwersacji w języku naturalnym to tutaj komputer będzie oszukiwał dodatkowo zmysł wzroku, a z przełamaniem tej sprzeczności sędziowie zapewne będą mieli spory wysiłek. Poza tym sądzę, że sztuczna inteligencja, o ile jest w stanie osiągnąć matematyczno-wnioskujący umysł pozwalający na jakiekolwiek wyciąganie wniosków na podstawie zestawienia przedstawionego mu problemu/zadania z bazą wiedzy lub zdobytymi informacjami (tutaj musiałby także umieć filtrować te informacje pod kątem istotności oraz co najważniejsze prawdziwości), to ciężko sobie to wyobrażam by osiągnęła ludzki poziom abstrakcyjny i co ważniejsze rozumienie tego co przetwarza. Skoro już było nawiązanie do Star Treka, to osobiście SI wydaje mi się bytem bliższym pokrojowi Wolkana, który to jest zorientowany na logikę decyzyjną. Intryguje mnie jakby taka SI zareagowała na abstrakcyjno-nonsensowne pytanie np. "Czy lubisz oglądać zielone baranki biegające po Manhattanie?". Które to pytanie jest składniowo poprawne (syntaksa), wyrazy są rozpoznawalne (leksyka) i w zestawieniu także tworzą poprawny kontekst (semantyka), a jednak trudno sobie wyobrazić takową sytuację.
waldi888231200, 13 marca 2008, 19:27
wilk, 13 marca 2008, 19:45
Kłamstwo nie tak trudno "zaimplementować". Trudniejsze jest podjęcie (i pojęcie) ryzyka jego konsekwencji kiedy wyjdzie ono na jaw. Zresztą istnieje też różnica między ewidentnym kłamstwem, a naciągnięciem prawdy (przykładowo syndrom wędkarza).
inhet, 13 marca 2008, 20:46
A kiedy już będzie sporo komputerów, które test przejdą, okaże się, jak wielu ludzi nie jest w stanie go zdać...
waldi888231200, 14 marca 2008, 01:12
Ale ich baza doświadczeń, zawsze będzie mniej lub bardziej ludzką bazą tylko obracaną i kompilowaną na wiele sposobów bez szans na poszerzenie. Jednym słowem rozwój nie możliwy. 8)
inhet, 14 marca 2008, 05:53
Dopóki nie zaczną tej wiedzy gromadzić na własną rękę.
Mirethil, 14 marca 2008, 11:53
Pytanie teraz, czy jest to aż tak dobre, jak się wydaje.
este perfil es muy tonto, 14 marca 2008, 20:23
że powtał już jest wirtualny byt-dórzuhny BYKUŚ 8) co to syndrom wędkarza?
wilk, 15 marca 2008, 01:58
Zwyczajnie chodzi o skłonność do naciągania prawdy. Czyli w tym przypadku to wędkarz chwalący się swoim kolegom ilu to centymetrowy złowił okaz, a naprawdę była to znacznie mniejsza sztuka. Oczywiście to tylko jeden z wielu przykładów. O ile dla swoich potrzeb SI mogłaby mieć zaimplementowane kłamstwo (przy założeniu, że algorytm będzie potrafił ocenić ryzyko, bo na przykład drugi obiekt nie będzie potrafił sprawdzić/stwierdzić (nie)prawdziwości informacji lub nie wynikną z tego żadne konsekwencje), z którego by mogło skorzystać gdy nie posiada wystarczających danych lub by celowo wprowadzić fałszywe dane (przykładowo dawny news o genetycznych algorytmach robotów, które oszukiwały inne co do występowania pożywienia-światła), to nie pojmie sensu oszustwa (nagięcia prawdy). Pod tą kategorię możnaby także podciągnąć zwyczajny żart. Wątpię by SI mogła się kiedykolwiek naprawdę śmiać, a nie tylko przyjmować za śmieszne, bo taką uzyskało informację z obserwacji innych bytów (mam na myśli ludzi, bo nie widzę jakoś dwóch SI opowiadających sobie dowcipy... w końcu to nielogiczne... ).