Wydział Fizyki Uniwersytetu Warszawskiego
Redaktor Delty w latach 2009–2016; w latach 2010–2016 pełnił funkcję zastępcy redaktora naczelnego.
Okrągłe jubileusze są zawsze dobrą okazją do różnych podsumowań i refleksji. Zwłaszcza gdy, jak dokumentujemy to w tym numerze, dostojna jubilatka ma się świetnie i pełna młodzieńczej werwy nie daje po sobie poznać, że jest nestorką rynku czasopism popularyzujących naukę w Polsce. Pozwólmy sobie zatem na mały skok w przeszłość i zastanówmy się, jak w ciągu ostatnich pięciu dekad zmieniło się nasze wyobrażenie o tym, skąd wziął się Wszechświat, taki jakim go obecnie widzimy.
Mikrofalowe promieniowanie tła pozwala nam zajrzeć głęboko w przeszłość Wszechświata. Jest to możliwe dlatego, że gdy Wszechświat był dostatecznie gęsty i gorący, przemierzające go fotony miały dostatecznie duże energie, by jonizować atomy wodoru. Występowała wówczas równowaga między procesami łączenia się elektronów i protonów w neutralne atomy wodoru – czemu towarzyszyło wydzielanie energii w postaci fotonów – i jonizacją tych atomów, co wymagało dostarczenia energii właśnie w postaci fotonów. Jednak w pewnym momencie, gdy temperatura Wszechświata spadła poniżej pewnej krytycznej wartości i tym samym energia fotonów się obniżyła, jonizacja w praktyce ustała. Nastąpiła rekombinacja protonów i elektronów. Wszechświat stał się przezroczysty dla promieniowania elektromagnetycznego, które, nie niepokojone oddziaływaniami, mogło już bez przeszkód przemierzać przestrzeń. Miliardy lat rozszerzania się Wszechświata przesunęły zakres tego promieniowania z dalekiego ultrafioletu do podczerwieni, ale poza tym zachowało ono pełną informację o tym, co działo się we Wszechświecie w chwili, gdy zostało wyemitowane. Badając je, sporządzamy w istocie fotografię plasterka Wszechświata w kształcie ogromnej sfery, odpowiadającej sferze niebieskiej.
Wszyscy wiedzą, że mikrofalowe promieniowanie tła zostało odkryte niejako przypadkiem i opisane w 1964 roku przez Arno Penziasa i Roberta Wilsona podczas prac badawczo-rozwojowych, które – jak się okazało po wielu latach – ostatecznie doprowadziły do powstania telefonii komórkowej. Mniej znany jest fakt, że już trzy lata później Ronald Bracewell i E.K. Conklin zmierzyli udział poszczególnych częstości fal w tym promieniowaniu – czyli, mówiąc bardziej uczenie, jego widmo – i stwierdzili, że odpowiada ono widmu ciała doskonale czarnego o temperaturze około 2,73 K.
Temperatura ta nie jest jednak zupełnie stała na całej powierzchni sfery niebieskiej. Już George Gamow w latach czterdziestych XX wieku zauważył, że fluktuacje kwantowe powinny prowadzić do małych niejednorodności tej temperatury i – przez równania Einsteina – do małych niejednorodności gęstości materii we Wszechświecie. Podobnie jak dźwięk w powietrzu – będący przecież w istocie również niejednorodnościami gęstości materii i ciśnienia poruszającymi się w określonym kierunku – możemy te pierwotne niejednorodności rozłożyć na składowe o określonych częstościach i rozważać ewolucję każdego z tych ,,tonów” z osobna.
Jeden taki ton ma pewną szczególną własność. W czasie, jaki upłynął od najwcześniejszych chwil Wszechświata do momentu emisji mikrofalowego promieniowania tła, tworząca ten ton materia zdążyła wykonać pół oscylacji, tzn. miejsca gęstsze stały się maksymalnie gęste, a miejsca rzadsze – maksymalnie rozrzedzone. Gęstsze znaczy cieplejsze, a rzadsze – chłodniejsze. Oznacza to, że w mikrofalowym promieniowaniu tła powinniśmy obserwować przestrzenne korelacje miejsc gęstszych i rzadszych na określonych skalach kątowych, około jednego stopnia.
Zmierzenie tego nie było jednak takie łatwe. Dopiero w 1989 roku w przestrzeń kosmiczną został wysłany satelita Cosmic Background Explorer (COBE), który w latach 1992–1996 zebrał dane potwierdzające względne niejedności temperatury mikrofalowego promieniowania tła na poziomie 1 do 100 000. Za to odkrycie przyznano Nagrodę Nobla z fizyki – otrzymali ją George Smoot i John Mather.
Dlaczego jednak skupiać się tylko na tym jednym tonie. Przecież wyższe składowe harmoniczne, tzn. zaburzenia gęstości, które wykonały jedną, półtorej, dwie itd. oscylacji, także zostawiają charakterystyczne korelacje w przestrzennym rozkładzie temperatury na sferze niebieskiej. Te korelacje występują na mniejszych skalach kątowych, więc trudniej je zmierzyć. Dlatego trzeba było czekać do 2002 roku, kiedy to swoją misję rozpoczął amerykański satelita Wilkinson Microwave Anisotropy Probe, który od 2003 roku ujawniał corocznie coraz dokładniejsze pomiary rozkładów temperatury mikrofalowego promieniowania tła. Od 2013 roku palmę pierwszeństwa w dokładności przejął europejski satelita Planck, który wyznaczył korelacje na skalach do kilku minut kątowych.
Od ćwierć wieku wiemy zatem, że we wczesnym Wszechświecie występowały małe niejednorodności gęstości, co potwierdza liczące sobie 75 lat przewidywania. Teoria grawitacji przewiduje jednak, że powinna wystąpić w tym przypadku specyficzna wersja efektu świętego Mateusza – miejsca, gdzie jest więcej materii, wykazują silniejsze przyciąganie grawitacyjne, i w ten sposób ściągają na siebie jeszcze więcej materii, co powoduje, że jeszcze silniej przyciągają itd. Czy w ten sposób mogły powstać obserwowane w dzisiejszym Wszechświecie skupiska materii, takie jak galaktyki i gromady galaktyk?
Taką tezę postawili w 1970 roku P.J.E. Peebles i J.T. Yu, którzy stwierdzili, że dostępna wówczas wiedza jest zgodna z hipotezą, że gromady galaktyk i duże galaktyki powstały właśnie na skalach kątowych zgodnych ze skalami niejednorodności temperatury mikrofalowego promieniowania tła – ponad 20 lat przed ich obserwacyjnym wykryciem! Innymi słowy, zasugerowali, że ten sam mechanizm spowodował różnice energii fotonów docierających do nas z rekombinacji i małe niejednorodności gęstości, z których wyłoniły się obserwowane dziś we Wszechświecie struktury materii.
W fizyce teza teoretyczna jest jednak zazwyczaj niewiele warta, jeśli nie da się jej zweryfikować empirycznie? Czy można jednak stwierdzić, co działo się we Wszechświecie miliardy lat temu, skoro tych procesów nie można dziś powtórzyć w kontrolowanych warunkach? Każdy miłośnik seriali kryminalnych wie, że wykrycie sprawców przestępstwa nie zawsze wymaga schwytania złoczyńców na gorącym uczynku. Dobry detektyw gromadzi i analizuje dane, dążąc do uzyskania niezależnych potwierdzeń swoich hipotez, i w ten sposób jest w stanie odtworzyć przebieg wydarzeń. Dobry fizyk też.
Pięćdziesiąt lat temu rozkład materii we Wszechświecie można było odtworzyć na podstawie katalogów obserwacji astronomicznych. Miały one postać opasłych tomów, w które wpisane były dane dotyczące położeń i własności świecących na niebie obiektów. Nie lada wysiłkiem było przetworzenie ich do postaci zrozumiałej przez ówczesne komputery, które ulegały znaczącej miniaturyzacji – zmniejszały swoje rozmiary z całych pokojów do pojedynczych szaf. Groth i Peebles skorzystali z jednego takiego katalogu, zestawionego przez Shane’a, przeanalizowali statystycznie komputerowo zapisany w nim rozkład gwiazd i galaktyk na niebie, przedstawili swoje wyniki w formie schematu, na który naniesione były pozycje tych obiektów na niebie, i w 1977 roku byli gotowi do podtrzymania stwierdzenia o wspólnym pochodzeniu niejednorodności w mikrofalowym promieniowaniu tła i kosmicznych struktur materii. Kolejne dekady przyniosły nowe obserwacje – niektóre z nich zostały wspomniane powyżej – i nowe obliczenia. Gwałtowny rozwój komputerów pozwolił na coraz większe wyrafinowanie rachunków i śledzenie możliwych losów miliardów galaktyk dla dowolnie generowanych przez badaczy parametrów opisujących Wszechświat. Wszystkie te badania z coraz większą dokładnością potwierdzały zasadniczą tezę o prostej fizyce u podłoża złożonych struktur. Nic zatem zaskakującego, że James Peebles otrzymał w 2019 roku Nagrodę Nobla z fizyki za badania teoretyczne pozwalające na zrozumienie procesów kształtujących Wszechświat.
W ciągu ostatniego półwiecza w fizyce teoretycznej, zwłaszcza tej opisującej wczesny Wszechświat, zmieniło się wiele. Niemalże skończył się czas „samotnych wilków” nauki; badania prowadzone są zazwyczaj w większych grupach. Śmiało korzysta się z coraz potężniejszych komputerów. I tylko rola dobrych pomysłów czy też, mówiąc bardziej precyzyjnie, dobrych hipotez badawczych się nie zmieniła. Rewolucyjne idee są najczęściej bardzo proste i mocno zakorzenione w doświadczeniach i obserwacjach.
Korzystałem m.in. z wykładu noblowskiego Jamesa Peeblesa.