Wielki Wybuch: najdziwniejsze odkrycie XX wieku

Gdybym miał zagłosować, jakie odkrycie naukowe XX wieku było największym zaskoczeniem, oddałbym głos na Wielki Wybuch (w wieku XIX wygrałaby teoria ewolucji Darwina, w wieku XVII – oczywiście teoria grawitacji Newtona).
Czemu było to zaskoczenie? Okazało się, iż żyjemy gorzej niż na ruchomych piaskach, bo na uciekających galaktykach. Przestrzeń nie ma granic, ale czas zaczął się w pewnej konkretnej chwili. A przynajmniej czas dla naszego wszechświata. Różne pomysły wieloświatów są ciekawe, ale to chyba wszystko, co można o nich dobrego powiedzieć. Nasz wszechświat zaczął się w konkretnej chwili.
Idea ta przyjmowana była przez wiele lat, z oporami i niechętnie. Już sam ten fakt świadczy o tym, że została ona niejako wymuszona na uczonych przez presję obserwacji i teorii, nie pozostawiających innej możliwości. Długo nie wiedziano, jak można opisać nieskończony wszechświat. W kosmicznych odległościach liczy się tylko siła grawitacji, lecz jest to siła przyciągająca, więc nie bardzo wiadomo, jak zbiór nieruchomych (tak sobie wyobrażano) punktów materialnych, które się przyciągają nawzajem, mógłby pozostawać w równowadze.
Kiedy Albert Einstein stworzył swoją teorię grawitacji – ogólną teorię względności, niemal natychmiast zastosował ją do wszechświata jako całości. Nadal jednak kosmos nieruchomy nie był możliwy. Einstein wprowadził zatem tzw. człon kosmologiczny – coś, co dziś nazywa się ciemną energią. Dzięki temu dodatkowemu wyrazowi kosmos mógł być nieruchomy, co bardzo się Einsteinowi podobało. Przestrzeń byłaby sferą trójwymiarową (powierzchnia kuli jest sferą dwuwymiarową), byłaby więc skończona. Podróżnik, który poruszałby się dostatecznie długo po linii prostej, wróciłby w końcu do domu (całkiem tak samo jak na powierzchni Ziemi).
Szybko okazało się, że wszechświat statyczny Einsteina byłby niestabilny. Każde najmniejsze nawet zaburzenie musiałoby spowodować albo kurczenie się, albo rozszerzanie kosmosu. Niebawem Edwin Hubble stwierdził, że galaktyki oddalają się od nas tym szybciej, im dalej się znajdują. Prędkość oddalania jest proporcjonalna do odległości. Naiwne podzielenie odległości przez prędkość daje więc zawsze ten sam czas Hubble’a, niezależnie od galaktyki. Byłby to więc czas, gdy wszystko było we wszechświecie bardzo blisko nas.
Nikt jednak nie chciał przyjąć wniosku tak prostego. Oczywiście, taka naiwna ekstrapolacja dzisiejszych obserwacji mogła nie być prawdziwa. Należało się spodziewać, że rozszerzanie jest hamowane przez grawitację, podobnie jak kamień rzucony do góry spowalnia (zanim zawróci). Większym problemem był chyba opór przed wybuchowym końcem wszechświata.
Odkryto niedawno pracę Alberta Einsteina z samego początku lat trzydziestych XX wieku. Nie została ona opublikowana, ponieważ oparta była na błędzie rachunkowym i autor szczęśliwie zauważył go w porę. Ideą tej pracy był wszechświat, który się rozszerza, ale gęstość materii w nim nie spada. Einstein miał chyba nadzieję, że stała kosmologiczna może dać taki efekt. Jednak nie błąd jest tu ważny, ale myśl: jak uniknąć wybuchowego początku wszechświata. Także Arthur Eddington, najbardziej wpływowy astrofizyk przed II wojną światową, myślał o tym, jak uniknąć przyjęcia tego, co miał przed oczami. No bo jeśli dziś wszechświat jest rzadki i się rozszerza, to znaczy że w przeszłości był gęsty i miał kiedyś początek. Jeden może Georges Lemaître dopuszczał coś w tym rodzaju, choć u niego był to jakiś pierwotny atom, a nie wybuch całej przestrzeni jednocześnie.
Pierwszy chyba George Gamow potraktował poważnie ideę Wielkiego Wybuchu. Wciąż jednak nikt nie próbował tego testować obserwacyjnie. W latach powojennych najpopularniejsza była teoria stanu stacjonarnego Hoyle’a, Bondiego i Golda. Tym razem rachunki były prawidłowe, należało tylko poprawić nieco fizykę tak, żeby możliwe było stwarzanie materii z niczego. Proces ten byłby niezwykle powolny, w zasadzie nie do wykrycia wprost. Poprawianie fizyki bez powodu nie jest jednak dobrym pomysłem: fizyka to konstrukcja, a nie suma faktów.
Wszystko zmieniło się dopiero w latach 1960′, gdy niechcący wykryto kosmiczne promieniowanie tła. Odkryto je jako szum w antenie i odkrywcy przez rok starali się zrozumieć, skąd się ten szum bierze (obaj nie mieli pojęcia o kosmologii, zajmowali się łącznością). Jeśli rzeczywiście wszechświat był kiedyś bardzo gorący, to atomy musiały być zjonizowane. Swobodne elektrony i protony silnie rozpraszają promieniowanie elektromagnetyczne, inaczej mówiąc gaz takich cząstek – plazma jest nieprzezroczysta. Ale rozszerzanie oznacza spadek temperatury i w pewnej chwili elektrony połączyły się z protonami w atomy wodoru. Gazowy wodór jest przezroczysty – tak samo jak powietrze. A to oznacza, że fotony od tej pory prowadziły oddzielny żywot. W miarę rozszerzania ich energia spadała, a długości fali rosły, aż ze światła widzialnego zrobiły się mikrofale obserwowane dziś. Ze wszystkich stron dobiega nas mikrofalowy szum, którego nie udało się wyjaśnić inaczej niż Wielkim Wybuchem.
Trzeba było pogodzić się z faktem: nasz wszechświat miał początek (co nie ma najmniejszego związku z Księgą Rodzaju).

Reklamy

Richard Phillips Feynman, sumy po historiach (1942)

Feynman, legenda fizyki XX wieku, jest w Polsce znany prawie wyłącznie wśród fizyków, choć może dzięki wydaniu różnych jego popularnych tekstów sytuacja nieco się poprawiła. Marek Kac, sam świetny matematyk, pisał o zwykłych i niezwykłych geniuszach:

Istnieją dwa rodzaje geniuszów, „zwykli” i „magicy”. Każdy z nas mógłby być równie dobry jak zwykły geniusz, gdyby tylko był wiele razy lepszy niż jest. W jego sposobie myślenia nie kryje się żadna tajemnica. Gdy już zrozumiemy, co zrobił, czujemy pewność, że sami moglibyśmy zrobić to samo. Co innego z magikami. Oni istnieją, jeśli wolno mi użyć matematycznego żargonu, w ortogonalnym dopełnieniu naszego świata. Ich sposób myślenia jest właściwie całkowicie niezrozumiały. Nawet gdy już rozumiemy ich wyniki, sposób, w jaki do nich doszli, wciąż pozostaje niepojęty. Rzadko, a raczej nigdy nie miewają uczniów, ponieważ nie można ich naśladować i z pewnością każdy bystry młody człowiek byłby głęboko sfrustrowany, usiłując poradzić sobie z tajemniczymi drogami myśli magika. Richard Feynman jest magikiem największego kalibru [Enigmas of Chance, 1985; przeł. P. Amsterdamski].

Syn żydowskiego emigranta z Białorusi, wychowany w Nowym Jorku, był ucieleśnieniem mitu Ameryki, kraju, w którym można osiągnąć wszystko to, co gdzie indziej niedostępne. Ojciec nie był bogaty ani wykształcony, ale bardzo cenił wykształcenie, zwłaszcza wiedzę praktyczną, która może się do czegoś przydać. Podobne nieco podejście miał Richard Feynman, jako chłopiec interesował się wszelkimi urządzeniami technicznymi, stał się ekspertem od naprawy radioodbiorników, łączył w tym zdrowy rozsądek z umiejętnością obserwacji i kojarzenia faktów. Tych samych talentów używał potem w Los Alamos, aby dla zabawy otwierać cudze szafy pancerne na szyfr. W okresie szkolnym jego zeszyty matematyczne zawierały przydatne wzory i formuły, jakby ich właściciel miał pewnego dnia znaleźć się na wyspie bezludnej i musiał odtworzyć całą wiedzę. Dzięki takiemu podejściu po latach Feynman zakładał się, że w ciągu minuty obliczy w pamięci wartość dowolnego niedługiego wyrażenia, wartość funkcji albo całkę oznaczoną z dokładnością 10% i rzadko komu udawało się go zagiąć. W Programie Manhattan zajmował się właśnie obliczeniami: organizował pracę zespołu ludzi z elektrycznymi arytmometrami, aby jak najefektywniej wykonać potrzebne symulacje numeryczne. Był też świetnym rozmówcą na tematy fizyczne, Niels Bohr, już wtedy legendarny i niemłody, wzywał specjalnie Feynmana, aby mieć przed kim wyłożyć to, co ma do powiedzenia. Można było mieć pewność, że jeśli Feynman zauważy jakąś lukę, natychmiast głośno o tym powie, nie krępując się bynajmniej wielkością swego rozmówcy.

Zanim trafił do Projektu Manhattan, studiował w MIT, a potem skończył studia drugiego stopnia i doktorat w Princeton. Niezbyt go zresztą chcieli w Princeton, ponieważ był Żydem, uważano, że w nauce jest już zbyt wielu Żydów i trudno dla nich potem znaleźć posadę. Były to lata trzydzieste, Amerykanie zmienili potem swoje nastawienie, zresztą antysemityzm nie był tam nigdy większym problemem. W Rosji okazał się trwalszy niż wszystkie systemy polityczne: przetrwał carat, komunizm i jeszcze w latach osiemdziesiątych ubiegłego wieku nie dopuszczano Żydów na studia matematyczne na Uniwersytecie Moskiewskim – obowiązywał ich szczególnie trudny egzamin, na którym udawało się oblać np. kogoś takiego, jak Edward Frenkel. Te zadania dla Żydów zostały zresztą opublikowane, z pewnością łatwiej było zdać do Cambridge.

Opiekunem doktoratu Feynmana był John Archibald Wheeler, wtedy młody profesor, który dojrzewał długo, ale z czasem wyrósł na wielką postać fizyki światowej. Zastanawiali się obaj nad różnymi dość zwariowanymi teoriami, jeden z takich pomysłów stał się doktoratem Feynmana. Było to nowe podejście do mechaniki kwantowej. Wtedy praca ta ukazała się w przeglądowym piśmie „Reviews of Modern Physics”, bo była długa i wydawało się, że do niczego nowego nie prowadzi. Dziś formalizm Feynmana stał się jedną z powszechnie stosowanych metod fizyki kwantowej.

Wyobraźmy sobie, że z punktu A do punktu B w określonym czasie ma dotrzeć jakaś cząstka. Z klasycznego punktu widzenia może się to przy zadanych siłach odbyć na tylko jeden sposób, jest określony tor i cząstka musi się po nim poruszać z określoną prędkością w każdej chwili. Inaczej jest w mechanice kwantowej. Jest ona teorią posługującą się prawdopodobieństwami, więc niemal wszystko jest w niej możliwe, choć dla wielu zdarzeń prawdopodobieństwo jest tak małe, że praktycznie są one niemożliwe. Aby znaleźć prawdopodobieństwo przebycia naszej cząstki z punktu A do punktu B w określonym czasie, musimy w mechanice kwantowej rozpatrzyć wiele możliwych torów i różnych rozkładów prędkości. Np. takie jak na rysunku.

paths1

Oczywiście, jeśli te narysowane, to i nieskończenie wiele innych. Każda z możliwych dróg dotarcia cząstki od A do B jest jej historią. Każdej z tych historii przypisać można pewną wielkość, tzw. amplitudę prawdopodobieństwa: jest to liczba zespolona albo, co na jedno wychodzi, wektor na płaszczyźnie. Chcąc otrzymać amplitudę prawdopodobieństwa dla naszej cząstki biegnącej od A do B, musimy dodać do siebie wszystkie amplitudy odpowiadające różnym historiom. To jest suma po historiach. Amplitudy dodajemy tak, jak się dodaje wektory na płaszczyźnie (tak się właśnie dodaje liczby zespolone). Powstaje problem dodawania nieskończenie wielu wektorów, ale to kwestia techniczna, którą nie będziemy się martwić. Kiedy już mamy wektor wypadkowy, mierzymy jego długość: kwadrat długości jest prawdopodobieństwem, że nasza cząstka przebiegnie od A do B w zadanym czasie.

Na pierwszy rzut oka wydaje się to dość szalone: rozpatrujemy bowiem mnóstwo historii, które nie mają nic wspólnego z klasycznym torem i jedną historią, tą „prawdziwą” w świecie klasycznym. Jak z takiego galimatiasu może wyłonić się zachowanie cząstek, jakie znamy z życia codziennego? Piłka futbolowa nie leci przecież do bramki po wszystkich drogach jednocześnie.

Okazuje się, że dość łatwo zauważyć, na czym polega zachowanie „klasyczne” i czym różni się do „kwantowego”. Rozpatrzmy fotony biegnące od źródła S do punktu z detektorem P. Po drodze nasze fotony odbijają się od zwierciadła. Klasycznie powinny biec po drodze SGP, która jest tak dobrana, że kąt padania i kąt odbicia są równe. A co z pozostałymi drogami? Dla uproszczenia bierzemy tylko drogi złożone z dwóch prostych odcinków, ale teraz dopuszczamy, żeby odbicie nastąpiło w którymkolwiek z punktów od A do M.

path2

Rysunek z książki Feynmana QED osobliwa teoria światła i materii, Warszawa 1985. Gorąco ją polecam każdemu, kto chce się dowiedzieć, jak fizyka objaśnia świat.

Okazuje się, że dla każdej z tych historii naszego fotonu amplitudy prawdopodobieństwa mają mniej więcej równe długości, lecz różne kierunki. Kąt każdego z tych wektorów (z jakimś jednym określonym kierunkiem np. osi Ox) jest proporcjonalny do czasu potrzebnego na przebycie danej drogi z prędkością światła. Gdy wykreślimy czas przelotu w funkcji położenia punktu odbicia fotonu, dostaniemy wykres jak na rysunku. Najkrótszy czas odpowiada punktowi G, czyli klasycznej drodze. Już starożytni zauważyli, że światło wybiera najkrótszą drogę, skoro nie może przebiec wprost od A do B, to spośród wszystkich punktów odbicia wybierze punkt G – dla niego droga jest najkrótsza i spełnione jest zarazem prawo odbicia, co łatwo wykazać. Widzimy więc, co wyróżnia drogę klasyczną fotonu: najkrótszy czas. Wracając do sumowania po historiach: musimy dodać strzałki odpowiadające różnym drogom. Dodawanie wielu wektorów najwygodniej wykonuje się w ten sposób, że na końcu pierwszego umieszczamy początek drugiego, na końcu drugiego początek trzeciego itd. – ustawiamy je w „pociąg”. Kierunki naszych strzałek odpowiadające różnym drogom narysowane są pod wykresem czasów. Gdy dodamy strzałki do siebie, zauważalny wkład otrzymamy tylko od obszaru w okolicy punktu G, ponieważ blisko minimum wszystkie czasy są zbliżone – jesteśmy na dnie doliny. Skoro czasy są zbliżone, to znaczy że kierunki strzałek są także zbliżone. W ten sposób powstaje fragment naszego „pociągu” odpowiadający punktom E, F, G, H, I na środku wykresu. Punkty daleko od minimum leżą wysoko na zboczu doliny, więc kierunki wektorów będą się szybko zmieniać. Odpowiada temu kręcenie się w kółko, którego wynik jest bliski zeru. Tak jest w lewym i w prawym końcu naszego wykresu. A więc do wypadkowej amplitudy prawdopodobieństwa wnoszą swój wkład także różne „dziwne” historie, ale najważniejsze będą te bliskie klasycznej. Można w ten sposób nie tylko zrozumieć, jak z obrazu sumy po historiach wynika fizyka klasyczna, ale także można obliczać stosowne poprawki do klasycznych zachowań, uwzględniając te historie, które wnoszą największy wkład do wyniku.

Wszystko to można przenieść na sytuację dowolnej cząstki, niekoniecznie fotonu, jedyna różnica polega na tym, że mniej osób wie, że piłka futbolowa biegnąc po swoim torze także realizuje pewną zasadę minimum, mówimy wówczas o pewnej specjalnej wielkości, zwanej działaniem. Tor klasyczny odpowiada najmniejszemu działaniu.

Więcej o kwantowym dodawaniu strzałek