Pursuit - pomysł na szybszy, niezawodny internet
Naukowcy z University of Cambridge opracowali zarys architektury internetu przyszłości. Internetu, w którym nie będziemy łączyli się z serwerami, cała zawartość będzie rozpowszechniana znacznie szybciej i efektywniej, a sieć będzie bardziej odporna na zakłócenia pracy.
Prototyp jest tworzony w ramach finansowanego przez Unię Europejską projektu Pursuit. Zakłada on, że uzyskamy dostęp do informacji bez konieczności bezpośredniego łączenia się z serwerem, gdzie jest ona pierwotnie przechowywana. Zamiast tego udostępnianiem zawartości będą zajmowały się wszystkie komputery podłączone do sieci. Internet przyszłości miałby działać podobnie, jak obecne sieci P2P, w których fragmenty danych są jednocześnie pobierane z wielu maszyn.
Takie rozwiązanie zapewniałoby, teoretycznie, szybszy dostęp do danych, a sieć byłaby odporna na awarie serwerów. Działanie obecnej architektury internetu polega na tym, że jeden komputer łączy się z drugim, a pomiędzy nimi przepływają pakiety. Jednak nas, jako użytkowników nie interesują miejsca przechowywania danych czy łączenie się z nimi. Interesuje nas dostęp do danych, które są tam przechowywane - mówi doktor Dirk Trossen, menedżer ds. technicznych projektu Pursuit. Nasz system skupia się na sposobie, w jaki używamy internetu, by uzyskać dostęp do informacji. Stawia informację na pierwszym miejscu. Kolega zapytał mnie, jak, za pomocą nowej architektury, będziemy łączyli się z serwerami. Odpowiedziałem mu, że nie będziemy się z nimi łączyli. Jedyny powód, dla którego obecnie przejmujemy się adresami i serwerami jest taki, że ludzie, którzy zaprojektowali sieć powiedzieli, że musimy łączyć się w ten sposób. My skupiamy się na zawertości i informacji - dodaje uczony.
Z technicznego punktu widzenia poszukując w internecie przyszłości informacji będziemy szukali nie URL, czyli adresu urządzenia, na którym jest ona przechowywana, ale URI, czyli, w uproszczeniu, identyfikatora treści. W naszym systemie, gdy ktoś w okolicy obejrzał jakiś materiał wideo może rozpowszechnić tę zawartość, inna osoba będzie mogła zobaczyć ten sam materiał pobierają go, lub jego fragmenty, zarówno z komputera innego użytkownika jak i z oryginalnego serwera. Treści, które obejrzały miliony osób będą rozproszone po całej sieci, każdy udostępni ci jakiś fragment. W ten sposób z większości połączeń można wyeliminować dedykowane serwery - dodaje Trossen. Dodatkową zaletą takiego rozwiązania jest możliwość uniknięcia przeciążenia serwerów. W miarę, jak wymieniamy coraz więcej informacji w internecie, coraz poważniejszym problemem staje się stworzenie infrastruktury zdolnej do obsłużenia szybko zwiększającego się ruchu. Pursuit w dużej mierze rozwiązuje ten problem.
Komentarze (9)
sig, 31 października 2013, 12:43
Nie wiem jak oceniającym projekt, ale mi to przypomina gorszy (brak szyfrowania) freenet albo torrenta (w "wersji" magnet). W każdym razie nic nowego, ani też odkrywczego. Ale w końcu chodzi o biurokratów, czyli wynajdywanie koła na nowo w zasadzie obowiązkowe.
informaty, 31 października 2013, 12:59
A co z użytkownikami, którzy płacą od ilości przesłanych danych? Takie obligatoryjny nakaz udostępniania swojego łącza musiałby iść w parze ze zniesieniem płatności za dane - obecnie w większości tak mamy w "Mobilnym Internecie".
wilk, 31 października 2013, 13:39
W zasadzie tak odbywa się już trochę teraz - proxy i CDN. Do tego Opera Unite (niestety zlikwidowane) i torrentowe DHT. Gorzej, że daje to pole do popisu dla osób chcących nam podrzucić inną treść niż żądaliśmy i to łatwiejsze niż obecne MitM (teraz trzeba przejąć aktywne połączenie, by zmodyfikować treść, zaś w tej sieci wystarczy tylko podrzucić treść gdziekolwiek). Poza tym ogólne ściąganie bloków danych byłoby faktycznie szybsze, ale czas odpowiedzi zdecydowanie większy (zamiast po prostu zapytać serwer o zasób, to musiałby być szukany po hashu/ETagu). Plusem jest odporność na awarie, ale kosztem redundancji całego już teraz zaśmieconego Internetu. Anyway serwery i tak oczywiście będą, zawsze jest jakiś klient-serwer.
Operatorzy, o ile ten projekt w ogóle kiedykolwiek posłuży rozwojowi sieci, będą musieli się dostosować? Albo oleją i usługa pozostanie poza zasięgiem takich osób. W końcu nie różni się to niczym od obecnego używania torrentów na takim łączu.
Astroboy, 31 października 2013, 15:35
Myślę, że bez szarży. Podejrzewam, że końcowy użytkownik zapłaci za bity otrzymanej informacji. To dość logiczne, wystarczy jedna dyrektywa UE.
Swoją drogą, jeśli to technologia 'przyszłości', to dlaczego niby odpytanie URI miałoby być dla odbiorcy bardziej 'kłopotliwe' niż URL? Artykuł jakoś mnie nie przekonuje, że to oczywista pieśń przyszłości.
Najważniejszy jest jednak jeden wniosek - naukowcy odkryli P2P.
Edit: Myślę, że z punktu widzenia pewnych służb łatwiej jest kontrolować obecny system. System rozproszony z definicji jest trudniejszy. Jak sądzicie - będzie miało to wpływ na finansowanie opisanych badań?
wilk, 1 listopada 2013, 00:56
Ciekawe jak rozwiążą problem szpiegowania/namierzania. Otóż (o ile nie znam specyfikacji działania tej sieci i w jaki sposób będzie wybierana pula seedów, ale podejrzewam, że będzie opierała się na rozwiązaniu podobnym do DHT) wystarczy, że jakiś podstawiony komp rozgłosi, że posiada pliki o wybranych hashach, a pół netu będzie do niego pukać. ;-) A jakie pliki? Np. favicony wybranych stron i już wiadomo jaki ID gdzie zagląda. ;-) Raj dla NSA. Gwoli przypomnienia - była kiedyś stronka, która śledziła w ten sposób i prezentowała torrenty jakie rzekomo ściągamy. No i pozostaje jeszcze pytanie o SSL. Czyżby dla takich połączeń jednak dedykowane serwery musiały stać? ;-)
Tolo, 1 listopada 2013, 09:22
Bez sensu
Wilk to jest rozwieszanie problemu szpiegowania
Ogólnie pomysł jest kichowaty.
Po pierwsze problem jest nieco wydumany. Bo awarie sieci nie zdażają sie aż tak często. Usługodawcy muszą utrzymywać redundantną infrastrukturę na różnych poziomach. Człowieczek nie. Taka siec zniesie małe fuckupy ale duży ja położy. A do działania i tak potrzebne jest wsparcie operatorów którzy na opłatach za ruch zarabiają a kasują za nie dostawców kontentu nie odbiorców.
Po drugie to nie tylko problem łacza ale również pojemności nośników. Dla czego użytkownik miał by płacić za hostowanie czyiś danych swoim miejscem na hdd?
Po trzecie taki internet nie będzi bardziej odporny na awarie niz jest teraz jak będzie jakiś większy fuckup to sie okaże ze cześć zasobu jest niedostępna.
Po czwarte jak sobie wyobraacie aktualizacje tego ? to sie nadaje do prostych rzeczy tak działają systemy DNS jednak rozgłoszenie trwa do 24 godzin. Taki system musi mieć opcje aktualizacji rozproszonych danych a to daje opcje na atak który nazwie sobie distributet ontime actualisation.
Innymi słowy jakaś grupa ludzi buduje jakiś zasób i o ustalonym czasie go aktualizuje żeby zapchać sieć wymiana informacji o aktualizacji.
A żeby lepiej to zadziałało to jeszcze by trzeba rozkręcić jakiś aktualizacyjny oscylator.
Po piąte tak można wymieniać pliki ale jak na tej zasadzie tworzyć treści dynamiczne? To jest powrót do początku internetu gdy serwery były dostarczycielami statycznych treści
sig, 1 listopada 2013, 09:49
W sumie to z zalet tego można by podać odporność na DDOS-y, a nada się pewnie co najwyżej do "yutuba" i podobnych serwisów, gdzie ilosć danych ogromna a transfer musi być spory. Jak coś oglądasz to i tak siedzi w buforze, więc można to udostępnić innym oglądaczom tego samego filmiku.
ps rozproszyć to by trzeba nie serwery, tylko sieci szkieletowe, bo obecnie to one są najbardziej podatnym na awarie/opóźnienia elementem internetu. Można by np wykorzystać nieużywaną część "prędkości" wi-fi do transferu danych od jednego routera do następnego (i tak od nadawcy do odbiorcy/wystarczająco szybkiego węzła sieci z dostępnym transferem). W ten sposób powstanie sieć "ad-hoc" w pełni niezależna od ISP i ich infrastruktury.
Tolo, 2 listopada 2013, 11:38
Sig
tam gdzie się to nada to już jest
Po pierwsze istnieją różne X-y czyli punkty wymiany ruchu
TPIX (tpsa), KIX (KIKE), EPIX (E-Południe), Think IX (ATMAN), PLIX, CIX I tak dalej, O mniejszych lub większych zasobach i obszarze.
To są akurat polskie ale są tez zagraniczne np Frankfurt.
I teraz idea jest tego taka ze tam się ludzie ruchem wymieniają. Co to daje a no to ze ktoś kto jest wpięty pośrednio do takiego ixa (zależnie od operatora ostatniej mili) Ma dostęp do tego co w takim punkcie jest.
Innymi słowy wygląda to na przykład tak ze user jakiejś osiedlowej kablówki ma łącze powiedzmy 2 megabity "internetu" ale to jest 2 megabity w praktyce wychodzące płatnym kanałem (oczywiście jest to w praktyce overseling ale mniejsza o to) czyli do zasobów których nie ma w tych punktach wymiany. A do zasobów w punkcie wymiany w tym do klientów innej osiedlówki jest grubo wyższy BW taki jak pozwala infrastruktura.
Wiec sieć p2p może działać bez wychodzenia na zewnątrz.
I teraz różnym innym zależy by być dostępnym w takich punktach wymiany. Bo firma X czy Y kupując dostęp do internetu dla swoich usług tez płaci za pasmo. Jak będzie w takim Xie to zmniejsza swój płatny BW bo klienci w ramach punktu wymiany dostępni są w cenie wpięcia do węzła. Poza tym często w takim węźle dostępne są również inne zasoby (węzły).
Przykładem czegoś takiego może być google. Google dywersyfikuje swoją infrastrukturę i ma coś takiego jak google global cache chodzi o to ze swoje nody pakują w różne miejsca i one cacheuja zapytania. I teraz google stara się żeby te nody były dostępne w praktyce oznacza to ze im bliżej klienta tym lepiej. I teraz taki GWC jest wpinany do takiego punktu wymiany i w ramach lokalnych zasobów jest dostępny w tej sieci właśnie cachowany YT. Operatorzy tez dążą do tego żeby mieć w ramach dostępnej infrastruktury taki GWC lub wymieniać ze z takim węzłem gdzie jest dostępny. A korzyć dla operatorów jest taka ze nawet jak nie jest dostępny to google łączy się swoim kanałem z reszta swojej infrastruktury wiec nawet zasoby niecacheowane nie połykają pasma na zewnątrz bo zostają lokalnie.
Wiec mój wniosek jest taki ze znowu naukowcy z urzędasami który byli w d...e i g..o widzieli na siłe za moje porubuja wynajdywac koło.
Jest jeszcze jedne porblem kto i w jaki sposób bedzie wtedy płacił za infrastrukture szkieletową teraz dokładaja sie do tego firmy hostingowe i DC i to dość grubo.
sig, 2 listopada 2013, 14:01
Wiem że jest, ale na poziomie operatorów. A ja pisałem o tym żeby takim "węzłem" był każdy router wi-fi. Swoją drogą o tym że odkrywają koło na nowo piszemy tu od 1-go komentarza.