Komputer-naukowiec
Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn.
Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych.
Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson.
Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki.
Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki.
Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich.
Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace.
W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.
Komentarze (6)
thibris, 3 kwietnia 2009, 19:24
Do czasu prawdziwych odkryć poczynionych przez powyższe(powyższych?) pozostanę sceptyczny w ocenie ich przydatności/funkcjonalności...
Krystus, 3 kwietnia 2009, 21:06
W końcu prawdziwa sztuczna inteligencja.
Kosooki, 4 kwietnia 2009, 08:52
Czyli program robi to, co obecnie magistranci - próbuje na podstawie mnóstwa danych znaleźć jakąś zależność statystyczną i na jej podstawie formułuje hipotezę
Od czasu zaimplementowania prostych funkcji statystycznych w Excelu stało się to banalnie proste (chyba od 12 lat), ale nazywać zautomatyzowanie tego sztuczną inteligencją to przesada - samo napisanie programu, który zestawiał by zmienne ze sobą i szukał korelacji jest banalnie prosty, cała rzecz w mocach obliczeniowych. 10 lat temu, jak pracowałem na uczelni, uzyskanie wstępnej korelacji dla ok. 13 500 000 danych (przy 4 zmiennych) zajęło uczelnianemu serwerowi 7 godzin i poproszono mnie, by więcej go tak nie obciążać dla, jak to nazwano, eksperymentu programistycznego :
wilk, 4 kwietnia 2009, 21:34
Wydaje mi się, że nie jest to tak powierzchowne jak zakładasz i system ten nie tyle co wyszukuje korelację, by móc później transformować wejście->wyjście, ale potrafi ją także zidentyfikować i opisać. Sądzę, że do wybierania najtrafniejszych wzorów korelacji używa algorytmów ewolucyjnych. Bardzo ciekawy news.
mikroos, 4 kwietnia 2009, 21:39
Poza tym sformułowanie prawa fizycznego wymaga wprowadzenia wielu dodatkowych korekt, m.in. zaokrągleń, odrzucenia wyników ekstremalnych itp. Mnie też wydaje się, że sprawa jest mocno skomplikowana.
Kosooki, 6 kwietnia 2009, 08:14
Ocena błędu grubego i metodyka jego usuwania (wraz z adnotacją w analizie wyników) jest ściśle matematycznie określone w Metrologii (dla danych ilościowych), i żadnych skomplikowanych programów do tego nie potrzeba. Inna rzecz to badania bazujące na danych jakościowych (ale Metodologia też jest nauką o ściśle określonych zasadach)- ale tu z kolei największym problemem jest przedstawienie danych za pomocą wartości liczbowych, bo tylko na takich jak na razie może operować jakikolwiek program.
Także znalezienie jakiegoś związku między zmiennymi na zasadzie olśnienia (słynne eureka Archimedesa) jest raczej w przypadku programu wykluczone.
Jak zwykł mawiać mój profesor, z komputera dostajesz to, co do niego włożysz, tyle że, gdy jesteś dobry w programowaniu, to w formie o wiele łatwiejszej do zrozumienia niż surowe dane.
PS. Opisać wyniki?? To znaczy zamienić dane ilościowe w jakościowe! Tylko po co? Ten kto to zaprogramował takiej zamiany do dalszej analizy nie potrzebuje, ten który nie zna algorytmu opisującego nie ma żadnych możliwości weryfikacji wyników - więc merytorycznie wypowiadać się nie powinien.