Informacyjna katastrofa: kiedy masa informacji zrówna się z masą Ziemi?
Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi.
Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki.
Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna.
IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021.
Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej.
Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat.
Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.
Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka.
Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu.
Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii.
Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii.
W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji.
Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat.
Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety.
Komentarze (30)
raweck, 14 sierpnia 2020, 13:14
Naciągane te szacunki. Przyrost informacji jest uzależniony od populacji ludzi, która jest ograniczona. Informatyzacja społeczeństwa rośnie dynamicznie, ale później zwolni i będzie bardziej związana z przyrostem naturalnym (prawie całe społeczeństwo będzie zinformatyzowane). Zapewne nie potrwa to 1000 lat. Inna sprawa, że omawianie sposobów przechowywania informacji za 1200 lat można porównać do rozważań, które ktoś mógł prowadzić przy okazji Chrztu Polski. Na przykład, że za 1 200 lat będzie tyle ksiąg, że zabraknie zwierząt, z których będzie można wytworzyć pergamin.
gooostaw, 14 sierpnia 2020, 14:28
Dobra myśl z tymi książkami, bo wygląda na to że już kiedyś informacje zebrane przez ludzkość ważyły o wiele więcej niż kilogram. Można się zastanowić ile ważył jeden bit 1000 lat temu. Może się okazać że mimo tego że informacji mamy coraz więcej to ważą one coraz mniej. W artykule założono że będziemy zapisywali jeden bit w jednym atomie, ale być może za 300 lat będziemy dysponowali zepto technologią i będziemy zapisywali informacje na poziomie subsubsubatomowym. Wtedy ilość informacji o której mowa zmieści się w masie jednego atomu. Problem pojawiłby się dopiero wtedy, kiedy dojdziemy do absolutnie fizycznych granic. Z drugiej strony wtedy cały postęp powinien zacząć zwalniać i wszystkie wykładnicze przewidywania zaczną wyhamowywać.
Nie sądzę jednak żeby ilość ludzi na ziemi korelowała z ilością informacji. Jeśli za te kilkaset lat będzie istniała wola przetworzenia całej powierzchni ziemi na serwerownię o grubości 100km to myślę że jest to wykonalne i być może nie będzie na tej planecie mieszkał ani jeden człowiek
sil3nt215, 14 sierpnia 2020, 14:42
Przypomina to analizę kryzysu związanego z pokryciem ulic londynu końskim łajnem do poziomu 3m w ciągu 50 lat
https://en.wikipedia.org/wiki/Great_horse_manure_crisis_of_1894
Jajcenty, 14 sierpnia 2020, 15:22
Dlatego tak chętnie powitano samochody np. Warszawie (czytałem entuzjastyczny artykuł w jakimś przedwojennym Kuryjerze Warszawy). Ale sama analiza jest co do zasady słuszna - będzie coraz gorzej. Jedynie zamiast swojskich zapachów mamy rakotwórcze pyły z opon, hamulców i rur wydechowych, a i podstawowa funkcja samochodu - przemieszczanie - też jakoś słabo w miastach działa.
Jakoś nie widzę zagrożenia w ilości informacji, prędzej czy później będziemy grawerować powierzchnie kwarków, ale przesyłanie to rzeczywiście problem*. Wszyscy chcą wszystko wszędzie i najlepiej po gigabicie - kupa watogodzin na to jest potrzebna.
* albo i nie. Kwantowa teleportacja spinów będzie termodynamicznie za darmo, natychmiast i wszędzie, jak elektron z dokładnie znanym pędem
raweck, 14 sierpnia 2020, 16:55
Dopóki AI nie generuje nam wiedzy (przynajmniej znacznej wiedzy), to zawartość Internetu wynika z ludzkiej aktywności. Za paręset lat zapewne to się zmieni, ale zakładam, że AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek , czyli sumarycznie (zgaduję) znacząco mniej
gooostaw, 14 sierpnia 2020, 17:04
Być może masz rację. Trudno mi skategoryzować obecnie tworzone i przechowywane dane. Nie mam takiej wiedzy. Podejrzewam jednak że w większości są do dane zbierane automatycznie i trzymane żeby wykorzystywać je w systemach Big Data i analizować przez długi czas, albo nawet trzymane na wszelki wypadek. Ciekawe ile z tego to filmy na YouTube i "gołe baby".
cyjanobakteria, 14 sierpnia 2020, 20:14
Do tego koniecznie 60FPS
A tak na poważnie, myślę, że streamy z gier też sporo zajmują miejsca na dyskach. Z tego, co widziałem, to często ludzie nagrywają po kilka godzin i to wszystko jest zapisywane w chmurze w kilku wersjach rozdzielczości pomnożone razy kilka backupów. Przy czym takie video mogą generować praktycznie codziennie.
Felipesku, 15 sierpnia 2020, 10:57
Niezła bajka... sam na własne oczy 2idziałem upakowanego Quake III w 64kb... demo scene. Nowe typy kompresji pozwolą przechować nieskończenie wiele danych w pojedyńczym małym pliku wielkości kilku kilobajtów... algorytmy ewolucyjne... jeśli jeszcze idealne nie istnieją... to powstaną.
cyjanobakteria, 15 sierpnia 2020, 12:06
Czuję się wywołany do tablicy, bo akurat interesuję się demoscene Te demówki, które oglądasz to są często upakowane do granic możliwości majstersztyki, nad którym ekipy ślęczą długimi tygodniami. Generalnie, w dużym skrócie, to jest w większości matematyka, algorytmy, np. proceduralne generowanie terenu albo tekstur i instrukcje dla procesora, które się często dekompresują w locie. Programiści stosują różne triki na przykład do zmniejszenia rozmiaru tablic (array).
To demo wygrało 10 lat temu w kategorii 4k (skompilowana binarka <4k), która w czasie rzeczywistym generuje 120MB tekstur i może śmigać w jakości HD.
Co do Q3, sam nie skompilowałem nigdy źródeł, ale kod widziałem, bo jest otwarty. To jest pewnie tylko skompilowany silnik, który potrzebuje plików PAK z assetami, żeby w ogóle się uruchomić. Ewentualnie jest pozbawiony standardowej grafiki i ma ograniczony kontent (mapy, modele, etc).
BZIPem możesz spakować kilkadziesiąt GB zer (0x00) do rozmiaru <1kb, bo entropia danych wejściowych jest zerowa.
Felipesku, 15 sierpnia 2020, 12:54
Tak trochę wkradł się błąd, gdyż chodziło nie o Quake lecz .kkrieger który zajmuje 96kb a nie 200-300MB i oczywiście tekstury są generowane proceduralnie co nie zmienia faktu, że dane można przetrzymywać w różnej formie.
Stanisław Remuszko, 15 sierpnia 2020, 16:25
>>>W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie<<<
Jak ten cytat zweryfikować? Gdzie znaleźć elementarne informacje? Gdzie jest opisana ta rzekoma zasada? Czy została eksperymentalnie potwierdzona? Stanisław Remuszko, remuszko@gmail.com, +22 641-7190
Jajcenty, 15 sierpnia 2020, 17:37
Linie opóźniające są innego zdania. Zresztą DDRx też nie wymaga energii by rozproszyć informację. Nie wiem co właściwie chciał Autor powiedzieć, ale jak na razie, ze względu na sprawność mniejszą do 1.0, informacja po rozproszeniu oddaje nieco mniej energii niż zużyto na jej wytworzenie. Raczej bym się skupiał na entropii, bo z energią to polegniemy.
thikim, 15 sierpnia 2020, 20:46
1. Informacja ma energię. O masie nie piszę bo to tylko efekt istnienia energii.
2. Żeby coś zapisywać trzeba dysponować czymś stabilnym. Najmniejszą stabilną formą materii są protony ale nie da się ich upchać zbyt blisko siebie ze względu na ładunek. Pozostaje atom elektrycznie obojętny. Konkretnie najmniejszy jest atom helu, ale masę ma czterokrotnie większą niż atom wodoru. Więc energetycznie taniej wyjdzie użyć wodoru - jest też go całkiem sporo ilościowo na Ziemi.
3. Założeniem głównym jest 5,10, 20 % roczny wzrost ilości informacji.
Tylko jak to w życiu bywa - nic za darmo.
Po przekroczeniu pewnej granicy zużycia surowców - staną się one zwyczajnie zbyt drogie.
Im więcej zużyjemy materii Ziemi na przechowywanie informacji tym nośniki informacji staną się droższe. Im staną się droższe tym mniej informacji będziemy mogli przechowywać.
Jednocześnie stwierdzimy że nie ma powodu aby przechowywać w tak drogi sposób większej części informacji.
Ilość obrabianych i przechowywanych danych rośnie głównie z powodu spadku ceny przechowywania informacji. Gdyby ceny dysków były takie jak 20 lat temu to nie byłoby tak wielkiego wzrostu ilości przechowywanych danych. Wtedy były popularne dyski po 2,5 GB.
Ludzkimi zachowaniami rządzi w pierwszym rzędzie ekonomia. Coś jest tanie to jest masowe. Coś jest drogie to jest rzadkie.
gooostaw, 15 sierpnia 2020, 21:05
Całkiem słusznie, ale można też na to spojrzeć odwrotnie. Technologia magazynowania danych rozwinęła się tak bardzo w ciągu tych 20 lat, bo było jasne że warto w nią inwestować. Nikt by sobie nie zawracał tym głowy gdyby nie było zapotrzebowania. Myślę że w tym przypadku to potrzeba przechowywania informacji była przyczyną rozwoju w tym kierunku. I jest to bardziej prawdziwe niż stwierdzenie że tworzymy sobie dużo danych, bo mamy sporo wolnego miejsca na tanich nośnikach Jednak prawdą jest też że wielki apetyt na dane nie pozwoli nam pokonać praw fizyki i nawet najsprytniejsza ekonomia sobie z tym nie poradzi. Myślę że zawsze będziemy mieli powody i chęć żeby zwiększać nasze możliwości i zawsze będziemy chcieli więcej danych. Co nie znaczy że będziemy mieli taką możliwość.
Stanisław Remuszko, 15 sierpnia 2020, 21:10
No, ale raczej niewiele z tego wynika w sensie weryfikowalnej prawdy. Hipoteza jak hipoteza. Każdy ma prawo do własnej opinii. Metoda naukowa wymaga przynajmniej potwierdzenia ze strony miarodajnych i wiarygodnych nieanonimowych autorytetów-recenzentów. Tak jak - na przykład - publikacja w "Nature".
Jajcenty, 15 sierpnia 2020, 22:24
Nie mam nic przeciwko tej równoważności, choć wydaje mi się, że elektron ma mniej więcej taką samą energię, niezależnie od znaku spinu, ale niech tam... Chodzi mi o to, że potrafię podać klika sposobów, od tłuczenia glinianej tabliczki po polaryzację fotonu, gdzie zniszczenie bitu nie kosztuje tyle co jego wytworzenie. W przypadku fotonu nic nie musimy robić, wystarczy mu dać odlecieć i gdzieś, kiedyś, tam sobie ugrzęźnie. Najwyraźniej jest tam jakieś założenie co do sposobu tworzenia tych bitów. Na moje oko, jeśli faktycznie Ziemia stanie się masywniejsza to zacznie mocniej kołysać Słońcem albo i implodujemy do BH, a w Galaktyce będą się z nas śmiać, jak z wioskowego głupka, co to się na śmierć zaciupciał. Przecież większość tych bitów to porno.
ex nihilo, 16 sierpnia 2020, 05:26
No i pewnie dobrze Ci się wydaje. Tyle że kiedy chcesz zmienić losowy rozkład spinów na taki, jaki Tobie się podoba (zapis informacji), musisz zużyć na to jakąś energię. Tak samo zresztą, jak kiedy chcesz tą swoją informację skasować, nie czekając na to, aż zrobi to za Ciebie entropia.
Jak zwykle ostatnio nie czytałem artykułu (może w zimie uda ni się to wszystko nadrobić), ale intuicyjnie pasuje mi do układanki... Ok, wystarczy
ex nihilo, 16 sierpnia 2020, 11:56
Jeśli upychanie jednego i drugiego będzie wymagało tyle samo przestawień spinów (lub innych zmian stanu nośnika), to tak.
No nie będzie, bo energetyczny koszt zapisu każdego bitu będzie inny. Ale istnieje (?) minimum, darmochy nie ma.
A z tą informacją w ogóle jest ciekawie... albo i jeszcze ciekawiej
Jajcenty, 16 sierpnia 2020, 12:57
Oczywiście tak, generalnie wszyscy patrzymy na ten problem, próbując abstrahować od fizycznej realizacji, a to błąd psujący całe to misterne rozumowanie.
W teorii mamy układ z dwoma energetycznymi minimami lokalnymi (0,1) i płacimy jedynie za różnicę między nimi - to mityczne fizyczne minimum wydatku - nie ma darmo Praktyka jest nieco inna, w pamięciach DDR mamy koszmarnie wielkie nakłady energetyczne żeby informację utrzymać! W dyskach twardych zapisujemy całe sektory, w SDD też całe strony, w koralikach nie muszę niszczyć, wystarczy odczytać, ale jednocześnie waga bitu jest znacznie większa od tych 3e-7 masy elektronu
Imho @raweck ma całkowitą rację. Próbujemy przewidzieć ile pergaminu będziemy potrzebowali. Tymczasem za sto lat opanujemy ujemną energię próżni. Będziemy tworzyć wszechświaty, zamykać je w paluszkach AAA i napędzać nasze tesle zdolne osiągać Warp 10. Zaniesiemy naszą wiedzę w najdalsze zakątki Wszechświata. Ale bardziej prawdopodobne wydaje mi się duszenie stertą własnego łajna i generalnie dystopia, beznadzieja, pustynia zalewana ultrafioletem po której snują się mutanci poubierani w perwersyjnie fantazyjne skórzane ciuszki.
Formalnie: tak. Bit jest bit. Kosztuje 3e-7 me
Jajcenty, 16 sierpnia 2020, 13:28
Byle się rachunki zgadzały. Użyj sumy Ramanujana (1+2+3+...+n = -1/12) i będzie papier jak marzenie
ex nihilo, 17 sierpnia 2020, 00:22
To mniej więcej tak, jakbyś chciał pornola zapisać wsadzając dysk do wyrka, na którym notegowieszco odchodzi Pornol to obraz, czyli trzeba zrobić też obraz szumu i utrwalić ten obraz na dysku.
Mniejszą od każdego z możliwych bitów. Minimalną przy rozkładzie pdp 50/50 dla 0 i 1
Nie odnoszę się do treści oryginalnej publikacji (i robactwa, które się w niej zalęgło), bo jej nie czytałem i na razie nie zamierzam (tak jest ciekawiej ).
A co do prognoz - już jakieś 20 lat w ogóle nie oglądam filmów fabularnych, a będzie ze 30, kiedy ostatni udało mi się zlukać w całości... Ale z czasów, kiedy jeszcze oglądać mi się zdarzało, jednym z niewielu, które jakoś tam zapamiętałem jest Mad Max Nie o fabułę mi chodzi, bo słabo ją pamiętam, ale o świat.
Jajcenty, 17 sierpnia 2020, 10:19
Ja jako były chemik przywiązany jestem do kombinacji liniowych. Czyli coś jakby: M = (Mo+M1)/2 Zakładając, że masa bitu jest różna w zależności od jego wartości. I zagadka: skąd się bierze, albo gdzie znika masa po ustaleniu wartości bitu? Czyżby jakiś nowy sposób na podkradanie masy?
tempik, 17 sierpnia 2020, 14:29
Chyba autorzy tej teorii przesadzili, na tej samej zasadzie jak naukowcy którzy w latach 90tych wieszczyli totalne przeludnienie po 2000r. Przy iluś tam xHD oko już naprawdę nie dostrzeże różnicy. Inne zmysły też mają swoja rozdzielczość maksymalną, więc dalsze zwiększanie jakości nie będzie miało sensu, a zdolności człowieka do oglądania pornoli nie zwiększą się(max 24h/dobę). Więc przyrost danych będzie rósł liniowo i znacznie wolniej. Pozostałe i mniej efektowne formy informacji od pornoli to tylko eksabajty buforów które mogą i powinny być nadpisane przez kolejne dane. Przecież np. w CERNe ważne informacje i ostateczne wyniki można zmieścić na dyskietce. Po otrzymaniu jakiegoś wyniku te absurdalne ilości danych z eksperymentu już są zbędne i nikt ich więcej nie będzie analizował. A owoc pracy superkomputerów i ich operatorów można przesłać telegrafem "mamy nową cząsteczkę stop żądamy nobla stop"
gooostaw, 17 sierpnia 2020, 14:44
Myślę że w tej dziedzinie ludzkość nie powiedziała jeszcze ostatniego słowa. Zwiększenie rozdzielczości ponad możliwości wzroku żeby pozwolić na dowolne zbliżenia. Zapis trójwymiarowych danych. Możliwością zmiany widoku 360 stopni. Interaktywność. Dodanie kolejnych zmysłów poza obrazem i dźwiękiem. No i oczywiście coraz bardziej wyspecjalizowane i niszowe kategorie. Będziemy potrzebowali gigantycznej pojemności żeby to pomieścić