Ludzie od wieków się zastanawiali, z czego tak naprawdę zbudowany jest wszechświat. Według niektórych współczesnych naukowców u podstaw wszystkiego, co istnieje, leży informacja.
Jest wiele teorii na temat tego, co konkretnie stanowi budulec wszechświata. Niektórzy fizycy mówią o cząstkach subatomowych. Inni opowiadają się po stronie energii albo czasoprzestrzeni. Ale istnieje też kontrowersyjna koncepcja, według której na miano fundamentu wszechświata zasługuje informacja. Idea ta narodziła się w połowie XX w. i za sprawą niewielkiego grona wybitnych uczonych przeżywa obecnie swój renesans.
Za twórcę klasycznej teorii informacji uważany jest matematyk i inżynier Claude Elwood Shannon (1916–2001). Choć mało kto poza światem nauki zna jego nazwisko, przez specjalistów nazywany jest ojcem ery cyfrowej. W 1940 r. Shannon, pracujący wówczas w MIT, miał przebłysk geniuszu: dostrzegł powiązanie między algebrą Boole’a a centralami telefonicznymi. Niedługo potem został zatrudniony przez Bell Labs. Firma powierzyła mu zadanie wynalezienia najbardziej efektywnego sposobu przekazywania informacji za pośrednictwem kabla. W 1948 r. Shannon napisał Matematyczną teorię komunikacji będącą fundamentem epoki cyfrowej. Pierwszy wykazał, że prawa matematyczne można stosować do projektowania układów scalonych. Dziś jego koncepcje wykorzystuje się powszechnie, m.in. przy tworzeniu systemów komunikacyjnych i komputerowych, hardware’u i software’u. Wszystko, co służy do generowania, gromadzenia lub przekazywania informacji drogą elektroniczną, bazuje na książce Shannona.
Amerykański matematyk przedstawił również definicję jednostki informacji, czyli bitu. Bit może przyjąć wartość zero lub jeden. Serie takich zer i jedynek pozwalają przechowywać i odtwarzać informacje elektronicznie. Shannon pierwszy przekształcił też dane w towar. Wartość danych – pisał – jest proporcjonalna do tego, jak bardzo zaskakują one konsumenta.
Powiązał nawet komunikację elektroniczną z termodynamiką: to, co dziś określa się mianem entropii Shannona, służy mierzeniu nieuporządkowania lub losowości będących nieusuwalnymi cechami każdego systemu komunikacji. Im większa entropia, tym mniej zrozumiały przekaz. Trzeba także pamiętać, że Shannon pracował nad swoją teorią informacji podczas drugiej wojny światowej, próbując rozwiązać problem przesyłania szyfrowanych wiadomości za pomocą linii telegraficznych i telefonicznych nieuchronnie podatnych na różnego rodzaju zakłócenia.
Teoria informacji znalazła zastosowanie w muzyce, genetyce, finansach i mnóstwie innych dziedzin. Wpisuje się też w mechanikę kwantową. Cząstki dostarczają nam sporo informacji o sobie i na temat działających na nie sił. Położenie, ruch, zachowanie oraz rozmaite inne cechy da się wyrazić w postaci informacji i zapisać za pomocą zer i jedynek. Cząstki subatomowe są zatem niczym bity przetwarzane przez wszechświat jak przez gigantyczny superkomputer.
Tymczasem James Gleick, autor książki Informacja. Bit, wszechświat, rewolucja, przekonuje, że to nie Shannon, lecz matematyk Charles Babbage na początku XIX stulecia pierwszy uznał informację za zasadniczy budulec wszystkiego, co istnieje. Babbage’a nazywa się dziś twórcą koncepcji komputera, która miała powstać długo przed tym, zanim ktokolwiek uzyskał możliwość zbudowania takiej maszyny.
Orędownikiem teorii informacji był także John Archibald Wheeler, kolejny naukowiec wybitny, choć szerzej nieznany; autor terminów „czarna dziura” i „tunel czasoprzestrzenny”, współpracownik Nielsa Bohra i Alberta Einsteina.
W latach 80. XX w. Wheeler analizował powiązania teorii informacji z mechaniką kwantową. Właśnie w tamtym okresie ukuł powiedzenie „byt z bitu” (ang. it from bit). Stanowi ono wyraz koncepcji, wedle której wszechświat to emanacja zawartej w nim informacji. Każdy byt – każda cząstka – to w istocie bit. Byt z bitu. W 1989 r. Wheeler wygłosił referat w Santa Fe, w którym powiedział: „Każdy byt – cząstka, pole, nawet czasoprzestrzeń – zawdzięcza swą funkcję, znaczenie i istnienie mechanizmom uzyskującym odpowiedzi typu »tak« lub »nie«, binarnym opozycjom, bitom”.
Trzeba odnotować, że zdaniem większości fizyków podstawą wszechświata jest materia. Możliwości weryfikowania teorii informacji są natomiast ograniczone. Trudno wyobrazić sobie badania, które by ją potwierdziły lub obaliły.
Jeżeli rzeczywistość faktycznie daje się sprowadzić do informacji, to czy niezbędne jest istnienie świadomego umysłu, który wszystko interpretuje i rozumie? Wheeler uważał, że żadne zjawisko nie jest rzeczywiste, dopóki nie zostanie zaobserwowane. Opracował koncepcję, którą nazywał participatory anthropic principle – co można przetłumaczyć jako zasadę ludzkiego uczestnictwa. Był zdania, że jako obserwatorzy uczestniczymy w powoływaniu do rzeczywistości zjawisk zarówno bezpośrednio nas otaczających, jak i tych odległych w czasie i przestrzeni. Nie tylko wszechświat jest konieczny, by istnieli obserwatorzy, lecz także my (lub inni obserwatorzy) jesteśmy nieodzowni dla istnienia wszechświata.
Współczesna fizyka często dochodzi do ściany. Niektórzy naukowcy mają nadzieję, że teoria informacji pozwoli pogodzić ogólną teorię względności z mechaniką kwantową. Albo że przyczyni się do wykrywania i lepszego zrozumienia ciemnej materii oraz ciemnej energii, które łącznie stanowią 95% znanego wszechświata, ale na razie nie mamy pojęcia, czym konkretnie są. Aby jednak teoria informacji zyskała większą rangę, musi znaleźć potwierdzenie w twardych danych. Dopóki się to nie stanie, będzie tylko hipotezą.
Pierwotnie tekst ukazał się na stronie Big Think.