William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.

 

 

 

Adolphe Quetelet, krzywa dzwonowa i statystyczny człowiek (1835)

Był z wykształcenia matematykiem, z temperamentu organizatorem, lecz do historii przeszedł głównie dzięki swej niepohamowanej namiętności do stosowania metod statystycznych. Pragnął stworzyć statystyczną naukę o człowieku, opartą na rozmaitych szczegółowych spisach dotyczących narodzin, rozwoju, zdolności, karalności, chorób i zgonów ludnosci różnych obszarów czy grup. Jego dwutomowe dzieło z roku 1835 zatytułowane Sur l’homme et le développement de ses facultés, ou Essai de physique sociale („O człowieku i rozwoju jego zdolności, czyli zarys fizyki społecznej”) stało się szybko klasyczne. Quetelet wprowadził pojęcie statystycznego czy też przeciętnego człowieka (l’homme moyen), wyobrażając sobie, iż istnieje pewien idealny wzór, od którego poszczególni ludzie odchylają się za sprawą wielu różnych przyczyn. Pojęcie rozkładu statystycznego, który mieści całe spektrum badanej cechy, dopiero się kształtowało. Wcześniej  uczeni stosowali rozkłady statystyczne takie, jak rozkład Gaussa, do analizy błędów pomiarowych, gdy wiadomo, że mierzona wielkość przyjmuje pewną określoną wartość, a problemem jest jej ustalenie na podstawie obarczonych błędami pomiarów. Równolegle przebiegał społeczny proces uznania różnic między ludźmi za coś naturalnego, a nawet potrzebnego, nie za błąd w rozwoju czy niedostatek.

Jak to zwykle bywa w przypadku badań pionierskich, wiele wyników zostało potem zrewidowanych, niektóre stwierdzenia rażą dziś naiwnością. W swojej epoce był jednak Quetelet powszechnie uznawany za postać ważną, jego prace czytali uczeni tak różni, jak James Clerk Maxwell (który idee statystyczne zastosował do gazów) i Charles Darwin. Kontynuatorem prac Queteleta stał się kuzyn Darwina Francis Galton (to on ochrzcił rozkład Gaussa mianem rozkładu normalnego).

Znany powszechnie indeks masy ciała BMI (iloraz masy i kwadratu wzrostu) jest wynikiem obserwacji Queteleta, iż objętość ciała człowieka dorosłego nie jest proporcjonalna do sześcianu, lecz raczej do kwadratu wzrostu:

Gdyby człowiek rósł jednakowo we wszystkich wymiarach, ciężar w różnym wieku byłby proporcjonalny do sześcianu wzrostu. Obserwuje się jednak co innego. Wzrost masy jest mniej gwałtowny, z wyjątkiem pierwszego roku po urodzeniu, kiedy rzeczywiście na ogół obserwuje się powyższą proporcję. Potem jednak aż do okresu pokwitania ciężar ciała rośnie mniej więcej jak kwadrat wzrostu. (Sur l’homme, t. 2, s. 52)

Quetelet nie interesował się wszakże różnicami między ludźmi, starał się raczej odnaleźć typ idealny. Wskaźnik BMI zaczął być stosowany dopiero w drugiej połowie wieku XX, gdy problemem medycznym i ubezpieczeniowym w społeczeństwach zachodnich stały się nadwaga i otyłość.

W swym traktacie podał też Quetelet zaskakujący wzór na skłonność do przestępstwa y (mierzoną statystycznie) jako funcję wieku w latach x:

y=(1-\sin x)\,\dfrac{1}{1+2^{18-x}},

gdzie argument funkcji sinus podany jest w gradach: 100 gradów odpowiada kątowi prostemu. Wykres obserwowanej skłonności do przestępstwa wygląda u Qeteleta następująco:

źródło ilustracji: gallica.bnf.fr

Drugi wykres z płaskim obszarem szczytowym między trzydziestym a czterdziestym piątym rokiem życia dotyczy zdolności literackich. Wróćmy jeszcze do owej skłonności do przestępstwa.

Zależność Queteleta jest iloczynem dwóch funkcji: malejącej funkcji 1-\sin x w pierwszej ćwiartce (czyli czegoś zbliżonego do paraboli) oraz funkcji logistycznej, która opisuje szybki wzrost w okolicy x=18. Nb. krzywa logistyczna zastosowana została kilka lat później przez Pierre’a François Verhulsta, ucznia Quteleta, do modelowania ograniczonego wzrostu populacji, który zaczyna się wykładniczo (nieograniczone rozmnażanie), lecz osiąga naturalną barierę (np. brak pożywienia). Tutaj, w pracy Queteleta, krzywa logistyczna zdaje sprawę z osiągania dojrzałości przez człowieka, na dobre i złe. Oczywiście, nie powinniśmy zbyt serio traktować tego wzoru. Sam Quetelet w późniejszych latach ograniczał się do opisu danych statystycznych, nie upierając się przy żadnym wyrażeniu.

Wykres skłonności do przestępstw wg płci. Widzimy, że kobiety wkraczają później na ścieżkę kryminalną, lecz dłużej są aktywne.

Trwałym dorobkiem Queteleta okazało się stosowanie krzwej dzwonowej do opisu rozkładu statystycznego. Sam po raz pierwszy zastosował ją do statystyki obwodu w piersiach szkockich rekrutów. Jego dane wyglądały następująco:

Obwód w klatce piersiowej wyrażony jest w calach. Quetelet starał się dopasować do tych danych krzywą Gaussa, lecz w praktyce użył rozkładu dwumianowego z prawdopodobieństwami sukcesu/porażki 1/2 oraz liczbą prób równą 999 (tak, żeby mieć 1000 różnych wyników). Inaczej mówiąc, są to prawdopodobieństwa uzyskania k orłów w 999 rzutach monetą.

Jako uczeń Fouriera i Laplace’a wiedział dobrze, że rozkład dwumianowy dąży przy dużych wartościach liczby prób do rozkładu Gaussa. W ten sposób zaczęła się oszałamiająca kariera krzywej Gaussa w zastosowaniach statystycznych. W latach późniejszych przesadne stosowanie rozkładu Gaussa do wszelkich możliwych danych zaczęto nawet nazywać „quetelizmem” – bo, oczywiście, istnieją też inne rozkłady, choć w wielu sytuacjach właśnie rozkład Gaussa prawidłowo opisuje stan faktyczny.

Einstein w Aarau: czyli co mówią równania Maxwella? (1896)

Aarau

Do szkoły w Aarau trafił Einstein po oblanych egzaminach na Politechnikę w Zurychu. Szesnastolatek zdawał tam jako młodzieniec nad wiek rozwinięty, lecz bez matury. Politechnika dopuszczała takich kandydatów, ponieważ sito stanowiły egzaminy wstępne z wielu przedmiotów. Einstein okazał się zbyt słaby z przedmiotów innych niż fizyka i matematyka, toteż poradzono mu, aby zdał jednak maturę.
Szkoła w Aarau, dobrze wyposażona i liberalna, wolna od wojskowego drylu, który tak obrzydł Albertowi w Monachium, zostawiła mu miłe wspomnienia na resztę życia. Uczył się tam niemieckiego, francuskiego, włoskiego, historii, geografii, matematyki, chemii, rysunku technicznego i artystycznego, śpiewu i gry na skrzypcach. Otrzymywał dobre albo bardzo dobre oceny niemal ze wszystkich przedmiotów, słabo wypadał tylko z francuskiego. Zasłużył nawet na pochwałę inspektora na egzaminie z muzyki: „Jeden z uczniów, o nazwisku Einstein, wyróżnił się wykonaniem z głębokim zrozumieniem adagia z jednej z sonat Beethovena”.

Szkolny kolega, Hans Byland, opisywał Alberta z owego okresu jako „zuchwałego Szwaba”: „Pewny siebie, z kapeluszem zsuniętym zawadiacko na tył głowy okrytej grubymi czarnymi włosami. Przechadzał się w tę i z powrotem szybkimi krokami. W ogóle poruszał się w jakimś szalonym tempie, właściwym niespokojnym duchom, które noszą w sobie cały świat. Nic nie mogło umknąć przenikliwemu spojrzeniu jego dużych brązowych oczu. Każdy, kto go poznał, był pod wrażeniem jego dominującej osobowości. Kpiący uśmieszek jego pełnych warg, z których dolna była wyraźnie wysunięta, nie zachęcał filistrów do prób fraternizacji z tym młodzieńcem”.

Górny rząd od lewej: Adolf Lüthy (1878), Hans Frösch (1877), Karl Walter (1876),  Ernst  Hunziker (1876), Eduard Haury (1877), Emil Ott (1877). Dolny rząd od lewej: , Albert Einstein (1879), Cäsar Hofer (1878), Oskar Schmidt (1876), Guido Müller (1877)

Atmosfera Aarau służyła Einsteinowi. Mógł swobodnie myśleć, a to było dla niego zawsze najważniejsze. Toteż nic dziwnego, że właśnie tam zaczął się zastanawiać nad problemami, które miały go z czasem doprowadzić do teorii względności. „Podczas tego roku w Aarau przyszło mi do głowy następujące pytanie: gdyby poruszać się razem z falą świetlną z prędkością światła, to widziałoby się pofalowane pole niezależne od czasu. Wydaje się jednak, że coś takiego nie istnieje! To był pierwszy, młodzieńczy eksperyment myślowy mający związek z teorią względności. Pomysł nie jest wytworem logicznego myślenia, nawet jeśli produkt końcowy związany jest z jakąś strukturą logiczną”.
Idea poruszania się razem z falą świetlną, a nawet szybciej od niej, pojawiała się wcześniej u różnych pisarzy popularnonaukowych, takich jak Camille Flammarion albo Felix Eberty. W powieści Flammariona jej bohater, Lumen, potrafił po śmierci, jako dusza, wyprzedzić światło i obserwować rozmaite wydarzenia z przeszłości: siebie na pierwszej randce albo w wieku sześciu lat, a nawet „władcze i zamyślone czoło” Napoleona podczas rewii wojsk na Placu Marsowym. Gdy uważamy światło za falę w pewnym ośrodku – tak jak dźwięk – nic nie stoi na przeszkodzie wyobrażaniu sobie, że podróżujemy razem z falą. Wiadomo jednak z fizyki, że nie ma takich fal elektromagnetycznych, które zmieniałyby się w przestrzeni, a były niezmienne w czasie, i Albert Einstein czuł to wówczas intuicyjnie. Później, już w trakcie studiów, musiał zdać sobie sprawę, że takie „zamrożone” fale nie mogą być rozwiązaniami równań Maxwella, to znaczy sprzeczne są z naszą wiedzą o przyrodzie.

Co mówią równania Maxwella?

W każdym punkcie przestrzeni możemy określić dwa wektory: jeden opisujący pole elektryczne \vec{E}, drugi – pole magnetyczne \vec{B}. Aby je zmierzyć, należałoby zaobserwować, jakie siły działają w tym punkcie przestrzeni na umieszczony tu ładunek elektryczny: pierwsze z pól działa niezależnie od tego, czy ładunek się porusza, drugie – tylko na ładunki w ruchu.
Zajmiemy się przypadkiem przestrzeni wolnej od ładunków, czyli polem elektromagnetycznym w próżni. Zmienne pole magnetyczne generuje pole elektryczne – jest to zjawisko indukcji elektromagnetycznej odkryte przez Michaela Faradaya i będące fizyczną zasadą działania generatorów prądu. Z kolei zmienne pole elektryczne generuje pole magnetyczne, co odkrył James Clerk Maxwell. W ten sposób powstaje fala elektromagnetyczna, w której oba pola podtrzymują się nawzajem.
Sformułujmy matematycznie prawo indukcji Faradaya. Wyobraźmy sobie krzywą zamkniętą i rozpiętą na niej powierzchnię. Przez powierzchnię tę przechodzi pewien strumień pola magnetycznego, równy iloczynowi składowej pola normalnej do powierzchni B_n i pola powierzchni \Delta S:

\Phi_B=B_n\Delta S.

Gdyby wektor \vec{B} był prędkością cieczy, strumień byłby objętością owej cieczy przecinającą w jednostce czasu powierzchnię. Mówi się czasem, że strumień to liczba linii sił przecinających powierzchnię (linie sił biegną blisko siebie tam, gdzie pole jest duże i rozrzedzają się tam, gdzie pole maleje).


Potrzebujemy jeszcze drugiego obok strumienia pojęcia związanego z polami wektorowymi, a mianowicie krążenia. W przypadku pola elektrycznego jest to suma iloczynów składowej stycznej wektora pola E_t pomnożonych przez długości boków prostokąta na naszym obrazku

{\displaystyle \oint E_t dl=\sum E_t \Delta l.}

Prawo indukcji Faradaya mówi, że krążenie pola elektrycznego wzdłuż krzywej jest równe szybkości zmian strumienia pola magnetycznego w czasie ze znakiem minus:

{\displaystyle \oint E_t dl=\sum E_t \Delta l=-\dfrac{\Delta \Phi_B}{ dt}.}

Dodatni kierunek obiegania krzywej i dodatni strumień związane są regułą śruby prawoskrętnej: gdyby śruba taka obracała się, jak na obrazku, dodatni byłby strumień z dołu do góry. Znak minus w tym prawie fizycznie oznacza tzw. regułę Lenza: gdyby zamiast krzywej ułożyć pętlę z drutu, to pole elektryczne wywołałoby przepływ prądu. Prąd ten wytworzyłby własne pole magnetyczne i byłoby ono takie, żeby zmniejszać zmiany strumienia: gdy strumień rośnie z czasem, pole to powinno go zmniejszać. Sens tej zasady tkwi w tym, że prąd indukcyjny nie może nasilać zjawiska indukcji, które generuje jeszcze większy prąd: mielibyśmy elektrownię dostarczającą prądu za darmo, co jest niemożliwe.
Drugie potrzebne nam równanie Maxwella jest bardzo podobne, zamienione są jedynie rolami oba pola:

{\displaystyle \oint B_t dl=\sum B_t \Delta l=\mu_0\varepsilon_0 \dfrac{\Delta \Phi_E}{d t}.}

Stałe \mu_0,\,\varepsilon_0 są to przenikalności magnetyczna i elektryczna próżni, wielkości znane z pomiarów pola wytwarzanego przez ładunki i prądy. Nie ma znaku minus. Zamienione są miejscami pola elektryczne i magnetyczne.
Dla porządku dodajmy, że istnieją jeszcze dwa równania Maxwella. W przypadku próżniowym mówią one, że strumienie pola elektrycznego i magnetycznego wypływające z każdej zamkniętej powierzchni równe są zeru. W takiej postaci zapisał te równania dopiero Oliver Heaviside.

Najprostsza fala elektromagnetyczna

Obliczmy prędkość rozchodzenia się najprostszej konfiguracji pól. Jest to fala w kształcie tsunami: wartości pola równe zeru skaczą w półprzestrzeni do pewnej stałej wartości. Ponieważ równania Maxwella zawierają pola w pierwszej potędze, są liniowe, więc można z takich rozwiązań zbudować fale prostokątne, a z fal prostokątnych każde inne, wnioski będą zatem słuszne także w przypadku ogólnym.

Nasze tsunami pól elektrycznych i magnetycznych powinno rozchodzić się wzdłuż osi z, żeby strumienie przez zamknięte krzywe się zmieniały.
Gdy fala wchodzi na obszar prostokątnej pętli o szerokości w, prędkość zmiany pola powierzchni zajętego przez falę równa jest wv. Czyli szybkość zmian strumienia równa się B_y wv. Krążenie pola elektrycznego jest wyjątkowo proste, ponieważ tylko jeden bok prostokąta ma niezerowe pole. Mamy więc

-E_x w=- B_y wv\,\Rightarrow E_x=B_y v.

Podobnie, stosując równanie Maxwella do pętli prostokątnej w płaszczyźnie yz, otrzymamy

B_y w=\mu_0\varepsilon_0 E_x w v\,\Rightarrow B_y=\mu_0\varepsilon_0 E_x v.

Wstawiając pierwsze z otrzymanych równań do drugiego dostajemy

B_y=\mu_0\varepsilon_0 v^2 B_y.

Niezerowe rozwiązanie oznacza więc, że prędkość jest równa

v=\pm \dfrac{1}{\sqrt{\mu_0\varepsilon_0}}=\pm c.

Nasze „tsunami” musi rozchodzić się wzdłuż osi z z prędkością światła w próżni (możliwe są oba zwroty prędkości). Ponieważ z takich konfiguracji można zbudować dowolną falę, więc każda fala elektromagnetyczna musi rozchodzić się z prędkością c. (Przy okazji pokazaliśmy, że pola są prostopadłe do kierunku rozchodzenia się fali oraz E=cB).


W roku 1896 Albert Einstein prawdopodobnie nie potrafił tego jasno pokazać. Nawet podczas studiów na Politechnice równania Maxwella nie należały do programu, choć oczywiście Albert się tego dowiedział z własnych lektur.
Jak wówczas rozumiano ten wynik? Wydawało się naturalne, że równania Maxwella opisują zachowanie eteru – ośrodka, w którym rozchodzą się fale elektromagnetyczne tak, jak fale dźwiękowe w powietrzu. Prędkość c oznaczałaby więc prędkość względem eteru. Okazało się jednak z różnych doświadczeń, jak też i prac teoretycznych Lorentza, że jeśli poruszamy się względem eteru, to i tak prędkość się nie zmienia. Wymagało to jednak dodatkowych założeń na temat materii (skrócenie Lorentza-Fitzgeralda). W roku 1905 Einstein uznał, że najprościej jest uznać, że równania Maxwella nie opisują eteru, lecz zmiany pól w przestrzeni i czasie. Wtedy wartość c otrzymamy bez względu na to, jak szybko się poruszamy. Lumen nie mógłby więc prześcignąć fal świetlnych: bez względu na to, jak szybko by pędził, światło uciekałoby mu z prędkością c. Oczywiście, możliwe teoretycznie jest wysłanie ku nam z powrotem sygnałów z przeszłości. Tak się dzieje w powieści SF Carla Sagana Kontakt. Odebrane sygnały z kosmosu okazują się tam transmisją telewizyjną z otwarcia Igrzysk Olimpijskich w Berlinie z udziałem Adolfa Hitlera (była to jedna z najwcześniejszych prób tego rodzaju, pokaz technicznej potęgi III Rzeszy).

Josef Loschmidt i wielkość cząsteczek powietrza (1865)

Richard Feynman pisał, że gdyby cała obecna nauka miała ulec zniszczeniu w jakimś kataklizmie i można było ocalić tylko jedno zdanie, to powinno ono brzmieć: „Wszystko składa się z atomów – małych cząstek, poruszających się bezładnie, przyciągających się, gdy są od siebie nieco oddalone, odpychających się zaś, gdy je zbytnio ścieśnić”.

Pomysł istnienia takich cząstek, jak i ich nazwę: atomy, czyli „niepodzielne” (a to zaprzeczenie, tomos – cięty, tnący, dzielący się na części, stąd np. określenia anatomia i tomografia) zawdzięczamy starożytnym Grekom Leucypowi i Demokrytowi. Rzeczy zbudowane są z atomów jak słowa z liter. Pisma atomistów były już w starożytności atakowane za wizję świata bez bogów, poddanego tylko konieczności. Istniała w nim tylko materia, nawet dusze, czyli zasady ruchu, miały być bowiem materialne.

Żyjący w I w. p.n.e. Rzymianin Lukrecjusz opisał tę wizję w długim i dydaktycznym, i o dziwo poetycko wybitnym, poemacie heksametrem. Lukrecjusz był epikurejczykiem, a więc nie tylko atomistą, lecz także wyznawcą etyki opartej na wartościach doczesnych – bogowie nie zajmują się bowiem ludźmi, a ci powinni sami zadbać o swe szczęście, żyć tak, by o ile to możliwe szukać przyjemności i unikać cierpienia. Etyka epikurejska była rozsądna i wyważona, obce im było wszelkie zatracanie się w pogoni za szczęściem, jak i nadużycia zmysłowe. Ceniono natomiast proste przyjemności i czystą radość życia. Atomizm, objaśniając funkcjonowanie świata, miał dopomóc ludziom w uwolnieniu się od lęku przed śmiercią, zemstą bogów i wizją wiecznego cierpienia po śmierci. Z tego względu już w starożytności epikureizm uznawano za filozofię bezbożną.

Kanoniczny obraz atomizmu to drobinki pyłu wirujące w smudze światła słonecznego. W mikroskali tak miały wyglądać wszystkie zjawiska: wiecznie poruszające się i zderzające atomy. Niezmienność ukryta pod zmieniającą się powierzchnią zjawisk.

Bo spojrzyj jeno, gdy promienie słonecznego światła wedrą się i rozleją po mrocznym domostwie! Zobaczysz w tym promiennym snopie wiele maleńkich ciałek, mieszających się w próżni na wiele sposobów. Jakoby w wiekuistej wojnie staczają potyczki i bitwy, walczą całymi hufcami bez chwili spoczynku, w utrapieniu ustawicznych skupień i rozłączeń. Z tego więc możesz zmiarkować, jak wygląda wieczne miotanie się zarodków rzeczy w ogromie próżni, o ile mała rzecz może dać przykład i tropy poznania wielkich. A jeszcze z tego powodu winieneś zwrócić baczniejszą uwagę na owe ciałka, co wichrzą dostrzegalnie w promieniach słonecznych, że takie wichrzenia zdradzają nadto istnienie tajnych i niewidocznych ruchów materii. Zobaczysz tam bowiem, że wiele ciałek, podrażnionych niewidzialnymi ciosami, zmienia drogę i w tył zawraca po odepchnięciu, to tu to tam, na wszystkie zewsząd strony. (Lukrecjusz, ks. II, przeł. A. Krokiewicz) (*)

Po Rzymianach rzeczywiście wydarzył się kataklizm: starożytna cywilizacja upadła, o atomistach wiedziano niewiele więcej niż to, że Arystoteles ich zwalczał. Ich pisma przepadły. Półtora tysiąca lat później, w 1417 r., osobliwy poemat Lukrecjusza odnalazł humanista i „łowca rękopisów”, papieski sekretarz, Poggio Bracciolini, prawdopodobnie w alzackim klasztorze w Murbach, gdzie dobrzy mnisi nie bardzo rozumieli, co za tekst przechowują na półkach. Przez następne wieki poemat był wielokrotnie wydawany i tłumaczony na języki narodowe, w tym na język angielski po raz pierwszy w XVII wieku. Atomizm nadal wzbudzał lęk: zderzające się atomy trudno było pogodzić z Opatrznością, choć niektórzy uczeni, jak Isaac Newton, potrafili zbudować jakąś chwiejną syntezę obu koncepcji. Jego Bóg był jednak surowym Pantokratorem, Wszechwładnym Ojcem, nie znoszącym sprzeciwu.

Benjamin Franklin, bystry i zaradny drukarz z Filadelfii, jeden z ojców założycieli Stanów Zjednoczonych, nie był zawodowym uczonym, nigdy nie miał takich ambicji. Ze swoim sposobem uprawiania nauki mieścił się zresztą znakomicie w tradycji Towarzystwa Królewskiego, które od samego początku zrzeszało przede wszystkim hobbystów i amatorów: lekarzy, pastorów, wiejskich dżentelmenów, podróżników (co zresztą nie przeszkadzało niektórym z nich dokonać ważnych odkryć).

Interesował się on legendarnym zjawiskiem uśmierzania fal przez rozlewanie oleju i poczynił w związku z tym pewne obserwacje. Wyniki doświadczeń Franklina przedstawione zostały w listach wymienianych między nim a medykiem Williamem Brownriggiem oraz wielebnym Farishem, opublikowanych w „Philosophical Transactions”. Po opisaniu swych wcześniejszych obserwacji podczas podróży morskich Franklin relacjonuje:

Będąc w Clapham, gdzie na wspólnych gruntach znajduje się duży staw, i widząc pewnego dnia, iż jego powierzchnia jest bardzo wzburzona wiatrem, przyniosłem ampułkę oleju i wylałem go trochę na wodę. Widziałem, jak rozprzestrzenia się on ze zdumiewającą szybkością po powierzchni; lecz efekt uspokojenia fal nie powstał, gdyż zastosowałem go początkowo po nawietrznej stronie stawu, gdzie fale były największe i wiatr zwiewał mój olej z powrotem na brzeg. Następnie przeszedłem na stronę zawietrzną, gdzie [fale] się tworzyły, i tam olej, w ilości nie większej niż łyżeczka do herbaty, spowodował natychmiastowe uspokojenie na obszarze wielu jardów kwadratowych; poszerzało się ono stopniowo w zadziwiający sposób, aż dotarło do przeciwnego brzegu, czyniąc jedną czwartą stawu, jakieś pół akra, gładką jak zwierciadło.

Franklin zwrócił uwagę na zdumiewająco wielką powierzchnię plamy oleju na wodzie.

Jeśli upuścić kroplę oleju na gładki marmurowy stół czy na zwierciadło, kropla pozostanie na swoim miejscu, tylko nieznacznie się rozszerzając. Lecz gdy upuścić ją na wodę, rozprzestrzenia się na wiele stóp dookoła i staje się tak cienka, że na znacznym obszarze wytwarza barwy pryzmatyczne, a jeszcze dalej staje się tak cienka, że aż niewidoczna, prócz efektu wygładzania fal na znacznie większych odległościach. Wydaje się, że wzajemne odpychanie cząsteczek pojawia się, kiedy tylko dotkną one wody, i że jest ono tak silne, iż działa także na inne ciała znajdujące się na powierzchni, takie jak słomki, liście, wióry itp., zmuszając je do ustąpienia ze wszystkich stron wokół kropli niczym centrum i pozostawiając duży pusty obszar.

Te obserwacje z roku 1773 zostały podjęte po przeszło stu latach przez wybitnego fizyka brytyjskiego lorda Rayleigha, w celu oszacowania rozmiarów cząsteczek oleju. Jeśli przyjąć, że zgodnie z tym, co spostrzegł Franklin, 2 cm3 oleju rozprzestrzeniają się na powierzchni pół akra, czyli 2000 m2, otrzymujemy grubość warstwy równą 1 nm. Wiemy obecnie, że olej tworzy na wodzie warstwę o grubości jednej cząsteczki, więc dane te pozwalają oszacować jej rozmiary. Amerykanin nie wykonał jednak tego rachunku, zadowolił się samą obserwacją.

Atomy zaczęły odgrywać bardziej konkretną rolę dzięki chemii Johna Daltona. W drugiej połowie XIX wieku fizycy tacy, jak James Clerk Maxwell i Rudolf Clausius, zauważyli, że obraz zderzających się molekuł można rozwinąć w teorię kinetyczną gazów. Ciśnienie gazu było objaśniane bombardowaniem ścianek naczynia przez jego cząsteczki poruszające się z ogromnymi prędkościami (rzędu prędkości dźwięku w danym gazie). Teoria ta dawała też zaskakujący wynik: otóż lepkość gazu miała być niezależna od jego gęstości. Maxwell z pomocą żony przeprowadził odpowiednie pomiary, które potwierdziły teorię. Znając lepkość, można było obliczyć średnią drogę swobodną cząsteczek. W powietrzu w warunkach normalnych wynosiła ona wg Maxwella \lambda=620 \mbox{ nm} .

Pierwszym fizykiem, który wyznaczył wielkość cząsteczek powietrza, był Josef Loschmidt. Urodzony w 1821 r. niedaleko Karlsbadu (dziś Karlovy Vary) w rodzinie chłopskiej, przeszedł długą i nieoczywistą drogę do działalności naukowej, pracował nad zagadnieniami z pogranicza matematyki i psychologii, skończył studia politechniczne w Wiedniu, założył własną firmę, zbankrutował, potem był nauczycielem i dopiero w 1866 r., a więc dobrze po czterdziestce, zaczął uczyć na Uniwersytecie Wiedeńskim, zrobił doktorat i został profesorem. Z młodym Ludwigiem Boltzmannem chodzili na koncerty i spierali się o Eroikę Beethovena.

Praca dotycząca wielkości cząsteczek była pionierska, do dziś mówi się czasem o liczbie Loschmidta (liczba cząsteczek gazu w 1 cm3 w warunkach normalnych), choć sam uczony nie podał jej wartości w swej pracy. Znany był związek między koncentracją n, drogą swobodną \lambda oraz przekrojem czynnym cząsteczek \sigma:

n\sigma \lambda=\dfrac{1}{\sqrt{2}}. \mbox{ (**)}

Zakładając, że cząsteczki są kuliste o średnicy s, przekrój czynny zapisać można jako pole powierzchni koła o  średnicy 2s (cząsteczki zderzają się, gdy ich środki są w odległości s od siebie). Nie znamy koncentracji ani promienia, potrzebne jest więc jeszcze jedno równanie. Loschmidt przyjął, że w stanie ciekłym cząsteczki upakowane są ciasno, a więc porównując objętość grama cieczy do objętości gazu, możemy określić, jaką część \varepsilon objętości gazu zajmują cząsteczki. Mamy więc

\varepsilon=n \dfrac{\pi s^3}{6}.

Wyznaczając z obu równań s, otrzymujemy

s=6\sqrt{2}\varepsilon \lambda.

W przypadku powietrza, które nie było jeszcze wtedy skroplone (Wróblewski, Olszewski 1883 r.), Loschmidt wyznaczył wartość \varepsilon pośrednio, uzyskując 0,000866 zamiast 0,0014. Wyznaczona przez niego średnica cząsteczki równa była około 1 nm, a więc nieco za dużo. Drugą nieznaną wielkością w tym układzie równań jest koncentracja powietrza w warunkach normalnych, czyli właśnie liczba Loschmidta.

Ludwig Boltzmann po śmierci przyjaciela wygłosił wspomnienie o nim. Znalazły się w nim słowa:

Ciało Loschmidta rozpadło się już na atomy: na ile konkretnie atomów – możemy obliczyć, korzystając z ustanowionych przez niego zasad. I aby w przemówieniu dotyczącym fizyka eksperymentatora, nie obyło się bez pokazu, poprosiłem, by napisano tę liczbę na tablicy: 10^{25}. (***)

Sprawa istnienia atomów nie była wszakże wtedy przesądzona. Boltzmann wierzył w ich istnienie, ale Ernst Mach, fizyk i filozof z tego samego uniwersytetu w nie nie wierzył. Dopiero doświadczenia Jeana Perrina przypieczętowały tę kwestię już w XX wieku.

(*) W przekładzie wierszowanym fragment ten brzmi następująco:

Przypatrz się bowiem promieniom słonecznym, kiedy wtargnęły

Do domu i rozlewają światło po ciemnych zakątkach:

Zobaczysz w strumieniu światła bez liku drobniutkich pyłków,

Które mieszają się z sobą w próżni na wiele sposobów;

I jakby ścierał się zastęp z zastępem w wieczystej wojnie,

Wiodąc potyczki i bitwy bez jednej chwili wytchnienia,

Tak one na przemian ciągle to schodzą się, to rozchodzą;

Gdyś widział to, możesz sobie przedstawić, jak w wielkiej próżni

Miotają się bez żadnego przestanku zarodki rzeczy –

O ile rzecz drobna może wystarczyć za podobiznę

Rzeczy ogromnych i wskazać drogę do ich zrozumienia.

Z jednego jeszcze powodu winieneś zwrócić uwagę

Na pyłki, które widomie się kłębią w promieniach słońca:

Ich pomieszanie oznacza, że również wewnątrz materii

Istnieją ruchy, tajemne dla oczu, niedostrzegalne.

Zobaczysz, że wiele pyłków, niedostrzegalnie rażonych,

Odmienia drogę, że wiele pchniętych do tyłu zawraca,

Pędzą to w jedną, to w drugą stronę, we wszystkich kierunkach.

(przeł. G. Żurek, T. Lucretius Carus, O naturze rzeczy, ks. II, w. 113-141)

(**) Sens tego równania jest bardzo prosty: cząsteczka poruszając się, zakreśla w ruchu miedzy zderzeniami walec o objętości \sigma\lambda , średnia liczba cząsteczke w takim walcu równa jest n\sigma\lambda i powinna być rzędu jedności, dokładny współczynnik dają ściślejsze rozważania, nb. Loschmidt użył w tym miejscu współczynnika \frac{3}{4} wynikającego z pracy Clausiusa.

(***) Ciało ludzkie liczy jakieś 7\cdot 10^{27} atomów. Boltzmann nie był tu zbyt precyzyjny.

 

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)

Skąd się bierze Maxwellowski rozkład prędkości cząsteczek w gazie doskonałym?

James Clerk Maxwell podał w roku 1859 postać rozkładu prawdopodobieństwa prędkości cząsteczek w gazie doskonałym. Okazuje się, że prawdopodobieństwo, iż np. x-owa składowa prędkości losowo wybranej cząsteczki należy do przedziału (x, x+dx) równe jest

p(x)dx=C\exp(-\alpha x^2)dx,

gdzie C jest stałą normalizacyjną (wybraną tak, aby prawdopodobieństwo zdarzenia pewnego było równe 1). Jest to słynny rozkład Gaussa, zwany też rozkladem normalnym, gdyż pojawia się on w najróżniejszych kontekstach.

Składowa x-owa prędkości danej cząsteczki zmienia się wskutek zderzeń z innymi cząsteczkami w sposób przypadkowy i w rezultacie opisywana jest takim rozkładem o kształcie dzwonu. Jeśli całkowita energia gazu jest stała, to stała jest także suma kwadratów wszystkich prędkości:

E=\dfrac{m{\vec{v}_1}\,^2}{2}+\ldots+\dfrac{m\vec{v}_N\,^2}{2}=const.

(m jest masą cząseczki gazu). Kwadrat każdego wektora jest sumą trzech kwadratów jego współrzędnych. Oznaczając więc wszystkie składowe wszystkich prędkości cząsteczek gazu jako x_1,x_2, \ldots, x_{3N}, mamy 3N-wymiarową przestrzeń prędkości. Warunek stałości energii przyjmuje postać:

x_1^2+x_2^2+\ldots+x_{3N}^2=R^2,

co geometrycznie oznacza, że koniec wektora prędkości Y=[x_1, x_2,\ldots, x_{3N}] leży na powierzchni sfery S^{3N-1} o promieniu R (sfera ma o jeden wymiar mniej niż przestrzeń).

Aby wyprowadzić rozkład Maxwella, przyjmijmy najprostsze założenie: każde położenie końca wektora Y na sferze jest jednakowo prawdopodobne.

Szukamy teraz rozkładu prawdopodobieństwa którejkolwiek pojedynczej składowej np. x\equiv x_1 (jest ona jednocześnie x-ową składową prędkości cząsteczki nr 1). W przypadku sfery S^2 możemy to narysować.

Prawdopodobieństwo, że x bedzie leżeć w cienkim pasie sfery zaznaczonym na rysunku jest proporcjonalne do pola powierzchni pasa sferycznego równej iloczynowi długości razy szerokość:

\Delta S=2\pi R\sin\vartheta \times R\Delta \vartheta.

Sumując pola powierzchni takich pasów, czyli całkując, otrzymamy wzór na pole powierzchni sfery S^2:

S_2(R)={\displaystyle \int_{0}^{\pi} 2\pi R^2 \sin\vartheta d\vartheta}=4\pi R^2.

Prawdopodobieństwo znalezienia końca wektora Y w pasie sferycznym byłoby w takim razie równe ilorazowi obu tych wielkości

p(\vartheta)\Delta\vartheta=\dfrac{2\pi R \sin\vartheta}{4\pi R^2}\times R\Delta\vartheta= \dfrac{S_1(R\sin\vartheta)}{S_2(R)} R\Delta \vartheta.

Szerokość naszego pasa jest zarazem „polem” sfery S^1, tzn. długością okręgu o promieniu R\sin\vartheta (co widać z rysunku). Dla trójwymiarowego wektora Y rozkład ten nie jest szczególnie interesujący. Fizycznie odpowiadałby jednocząstkowemu gazowi doskonałemu. Prędkość tej jednej jedynej cząsteczki przyjmuje z równym prawdopodbieństwem dowolny kierunek w przestrzeni. Długość wektora jest określona przez energię tej cząstki.

Ostatnie wyrażenie dla prawdopodobieństwa można zastosować równie dobrze w przestrzeni 3N-wymiarowej. Możemy zawsze ustalić wartość jednej ze współrzędnych x_1\equiv x. Pozostałe współrzędne spełniają wtedy warunek

x_2^2+x_3^2+\ldots+x_{3N}^2=R^2-x^2

i jest to jedyne ograniczenie. Znaczy to, że pozostałe składowe leżą na sferze wymiarze o jeden mniejszym i mniejszym promieniu. Pole powierzchni sfery S^n jest równe pewnej stałej zależnej od wymiaru razy promień sfery do potęgi n-tej:

S_n(r)=C_n r^n.

Korzystając z tego faktu możemy szukane prawdopodobieństwo zapisać w postaci

p(x)dx=\dfrac{S_{3N-2}(\sqrt{R^2-x^2})}{S_{3N-1}(R)} R\Delta\vartheta \sim \left(1-\dfrac{x^2}{R^2}\right)^{\frac{3N}{2}}dx.

Ostatnie wyrażenie możemy dla dużych wartości N zapisać jako potęgę liczby e:

\left(1-\dfrac{x^2}{R^2}\right)^{R^2\cdot\frac{3N}{2R^2}}dx=\exp(-\alpha x^2) dx.

Parametr \alpha jest równy

\alpha=\dfrac{3N}{2R^2}=\dfrac{3Nm}{4E}=\dfrac{3m}{4\epsilon},

gdzie \epsilon jest energią przypadającą na jedną cząsteczkę gazu. Możemy wyrazić tę ostatnią energię za pomocą temperatury T:

\epsilon=\dfrac{3}{2}kT \Rightarrow \alpha=\dfrac{m}{2kT}.

Otrzymaliśmy rozkład Maxwella. Stałą C można znaleźć z warunku unormowania (można ją też obliczyć bezpośrednio, potrzeba jednak wówczas wiedzieć więcej nt. stałych C_n, czyli postaci wzoru na pole sfery S^n).

Rozkład Maxwella wynika więc z założenia o równomiernym rozkładzie prawdopodobieństwa na sferze w przestrzeni 3N-wymiarowej. Założenie to nazywane jest rozkładem mikrokanonicznym i jest jednym z postulatów fizyki statystycznej. Wyobrażamy sobie, że stan naszego układu, czyli wektor Y wędruje po dozwolonej powierzchni w taki sposób, że jego koniec może znaleźć się z jednakowym prawdopodobieństwem w otoczeniu każdego punktu sfery. Jest to założenie ergodyczności.

Oczywiście, nie znaczy to, że układ zderzających się cząstek gazu musi być ergodyczny. Jak to często bywa w fizyce: z jednej strony pośrednio sprawdzamy to założenie, badając rozmaite jego konsekwencje i porównując z doświadczeniem. Z drugiej strony, można badać pewne proste przypadki, aby sprawdzić, czy założenie ergodyczności jest prawdziwe w tych sytuacjach. W 1963 r. Yakov Sinai, wybitny matematyk rosyjski, udowodnił, że gaz doskonały sztywnych zderzających się kul jest ergodyczny.

W pewnej chwili zamieniliśmy R \Delta\vartheta wartoscią dx. Nie są one ściśle biorąc równe, mamy bowiem

dx=-R\sin\vartheta d \vartheta \Rightarrow Rd\vartheta=\dfrac{dx}{\sqrt{1-\frac{x^2}{R^2}}}.

Dodatkowy czynnik pod pierwiastkiem nie ma znaczenia, gdy wartości R są duże. Widać to też z rysunku: gdy |x|\ll R, to R d\vartheta \approx dx.

Istota teorii względności (1923) – Albert Einstein

Ślepy żuk pełznący po powierzchni globusa nie wie, że tor, po którym się porusza, jest zakrzywiony. Ja miałem szczęście to zauważyć [A. Einstein]

Ta niewielka książeczka jest jedynym kompletnym przedstawieniem teorii przez jej twórcę, adresowanym do zawodowych uczonych, stanowiąc coś pośredniego między monografią a podręcznikiem. Ukazała się najpierw w 1923 roku w wersji angielskiej nakładem Princeton University Press oraz w wersji niemieckiej w wydawnictwie Vieweg & Sohn (z datą roczną 1922). Od tamtej pory doczekała się niezliczonych wydań w wielu językach. Uczony nie zmieniał głównego tekstu, choć z czasem dołączył kilka dodatków traktujących o późniejszych osiągnięciach.

Podstawą książki były wykłady wygłoszone w maju 1921 roku na uniwersytecie w Princeton. Czterdziestodwuletni Einstein wybrał się w swą pierwszą podróż za ocean, towarzysząc Chaimowi Weizmannowi i delegacji syjonistów. Ich celem było zebranie funduszy na założenie uniwersytetu w Jerozolimie. Uczony, który w kilku poprzednich latach z odrazą obserwował antysemityzm narastający w społeczeństwie niemieckim i który sam stał się ofiarą niewybrednych ataków z rasistowskimi podtekstami, zgodził się na ten wyjazd, rezygnując z udziału w pierwszym po wojnie Kongresie Solvaya, konferencji gromadzącej szczupłe grono najwybitniejszych fizyków świata. Po raz pierwszy wystąpił więc Einstein w roli działacza społecznego, wykorzystując autorytet naukowy do propagowania bliskich mu poglądów. Uczony witany był w Ameryce owacyjnie, zwłaszcza przez społeczność żydowską w Nowym Jorku, Bostonie, Cleveland. Niektórzy koledzy Einsteina, jak Fritz Haber, wybitny chemik, Żyd i niemiecki szowinista, mieli mu za złe podróż do Stanów Zjednoczonych, kraju niedawnego wroga. Rany wojenne nie zdążyły się jeszcze zabliźnić, zwłaszcza w Niemczech dźwigających ciężar przegranej wojny. Wielu niemieckich Żydów sądziło też, iż nie należy prowokować antysemityzmu i lepiej siedzieć cicho. Einstein, czy to dlatego, że spędził wiele lat w Szwajcarii, czy też z racji swego charakteru, nie podzielał takiego nastawienia, przeciwnie, to właśnie antysemityzm przyspieszył dojrzewanie jego żydowskiej tożsamości.

Podróż po Stanach Zjednoczonych miała też ważną część naukową. Einstein miał wykłady na Columbia University i w City College w Nowym Jorku, na uniwersytecie w Chicago oraz uniwersytecie Harvarda. W Princeton otrzymał stopień honorowy i wygłosił sławne zdanie, które później wyryto nad kominkiem w sali Wydziału Matematyki: „Pan Bóg jest wyrafinowany, lecz nie jest złośliwy” (odnosiło się ono do pewnych wyników eksperymentalnych zaprzeczających jego teorii). Bezpośrednio po uroczystościach rozpoczął się cykl pięciu wykładów odbywających się w kolejne dni tygodnia. Dwa pierwsze były popularne, następne bardziej techniczne. Wykładu inauguracyjnego słuchało około czterystu osób, podczas drugiego audytorium znacznie się przerzedziło, a kolejne odbywały się już w mniejszej sali dla niewielkiego grona słuchaczy. Na początku pobytu w Princeton uczony podpisał umowę z wydawnictwem uniwersytetu na publikację tekstu jego wystąpień. Ponieważ odbywały się one po niemiecku, wydawnictwo wynajęło niemiecką stenografkę, która notowała na żywo. Każdy z wykładów był na koniec podsumowywany po angielsku przez profesora fizyki Edwina Plimptona Adamsa, który został też tłumaczem wersji książkowej. Dopiero w styczniu 1922 roku uczony przesłał niemiecki tekst książki do wydawnictwa Vieweg & Sohn, wydrukowane przez nie korekty stały się podstawą angielskiego przekładu. Prace te wraz z poprawkami autorskimi zajęły cały rok 1922. Pod jego koniec wydrukowano wydanie niemieckie, a w styczniu ukończono druk wydania angielskiego. W trakcie tych prac ogłoszono wiadomość, że Albert Einstein został laureatem Nagrody Nobla za rok 1921. Laureat przebywał w tym czasie w Azji w drodze do Japonii.

Uczony spodziewał się otrzymać Nagrodę Nobla, w istocie przyszła ona dość późno i z istotnym zastrzeżeniem. Jak pisał Christopher Aurivillius, sekretarz Królewskiej Szwedzkiej Akademii Nauk, w liście do laureata: „Akademia (…) postanowiła przyznać panu Nagrodę Nobla w dziedzinie fizyki za ubiegły rok w uznaniu Pana dokonań w fizyce teoretycznej, w szczególności odkrycia teoretycznych podstaw zjawiska fotoelektrycznego, lecz z pominięciem zasług, które staną się Pana udziałem, gdy potwierdzą się sformułowane przez Pana teorie względności i grawitacji”. Teoria względności była więc w oczach szwedzkich akademików osiągnięciem kontrowersyjnym, podobnie myślało wielu uczonych.

Niewykluczone, że Einstein pragnął swoją książką przekonać część kolegów po fachu. Na początku lat dwudziestych obie teorie względności: szczególną z roku 1905 oraz ogólną z roku 1915 można było uznać za zakończony etap. Dzięki pracy Einsteina, ale także szeregu innych fizyków i matematyków, jak Max Planck, Max von Laue, David Hilbert, Felix Klein, Emmy Noether, Max Born, Hermann Weyl, Tullio Levi-Civita, Karl Schwarzschild, Hans Thirring, Josef Lense, Willem de Sitter, Hendrik Lorentz, Gunnar Nordström, Erich Kretschmann, Arthur Eddington, Paul Ehrenfest, Johannes Droste, Paul Langevin udało się wyjaśnić wiele aspektów nowej teorii – już sama lista nazwisk wskazuje, że praca Einsteina nie przebiegała w próżni, a ranga tych uczonych świadczy o poważnym traktowaniu osiągnięć Einsteina. Miał on jednak także sporo przeciwników, którzy z rozmaitych powodów odmawiali jego teorii naukowej wartości, a często także kwestionowali intelektualną uczciwość jej twórcy. Berliński profesor optyki Ernst Gehrcke uznawał teorię Einsteina za skutek zbiorowej sugestii, wybitni eksperymentatorzy (i laureaci Nagrody Nobla) Philipp Lenard i Johannes Stark nie potrafili się pogodzić ze światem nowych pojęć i widzieli w teorii względności produkt reklamy oraz sprytne pomieszanie elementów filozofii, matematyki i fizyki tak, by trudno było znaleźć uczonego zdolnego ją krytykować bez wykraczania poza ramy swej specjalności. Obaj ostatni nie ukrywali też swego antysemityzmu i stali się zwolennikami Adolfa Hitlera jeszcze we wczesnych latach dwudziestych, na długo przed rządami nazistów. Niektórzy, jak szwedzki oftalmolog i laureat Nagrody Nobla Allvar Gullstrand, sądzili, że teoria względności jest pusta wewnętrznie i może prowadzić do różnych wyników w tej samej sytuacji. Dochodziły do tego ostre podziały wśród filozofów, niektórzy jak Hans Reichenbach i Moritz Schlick mocno ją popierali, wielu jednak, jak Oskar Kraus czy Henri Bergson, wyrażało sceptycyzm, jeśli nie wrogość, wobec nowej teorii.
Większość uczonych była na ogół wciąż zdezorientowana, nie wiedząc, co sądzić. Toteż książka Einsteina skupiła się na podkreślaniu ciągłości w rozwoju fizyki, uwydatnieniu pewnej linii rozwoju, w której teoria względności stawała się naturalnym ogniwem. Nie sposób jednak ukryć, że teorie Einsteina zrywały z pojęciami absolutnej przestrzeni i absolutnego czasu, stanowiącymi fundament mechaniki, a z nią całej fizyki od czasów Isaaca Newtona. Kwestionowanie uświęconych tradycją zdobyczy nauki w oczach wielu było gestem obrazoburczym i świętokradczym. To, co starszych przejmowało zgrozą i oburzeniem, w oczach ówczesnych ludzi młodych stawało się fascynującą rewolucją. Karl Popper wspominał, jak wielką rolę w jego myśleniu o nauce odegrała teoria Einsteina, już sam fakt, że można było stworzyć realną alternatywę wobec królującej mechaniki Newtona miał dla niego rangę intelektualnego objawienia.

Zacząć wypada od samej nazwy: teoria względności. Z początku mówiło się o zasadzie względności, potem określać tak zaczęto teorię Einsteina z roku 1905 (szczególną teorię względności), a później Einstein zaczął mówić o uogólnionej bądź ogólnej teorii względności. W dyskursie potocznym zaczęto nazwy tę wiązać z zanegowaniem absolutnego czasu, a nawet szerzej z zanegowaniem dotychczasowej fizyki czy wręcz obowiązującej logiki albo etyki. Oczywiście, teoria względności, tak jak żadna udana teoria fizyczna, nie zmienia świata doświadczenia, ponieważ musi być zgodna z dotychczasowymi danymi eksperymentalnymi. Zmienia jedynie nasz sposób widzenia świata, przewidując nowe zjawiska i rozszerzając tym samym granice wiedzy. Mechanika newtonowska nadal obowiązuje, znamy tylko dokładniej jej ograniczenia. Max Planck, jeden z najwcześniejszych zwolenników teorii Einsteina, przekonuje w swej autobiografii naukowej, że jego zainteresowanie teorią względności wynikło właśnie z szukania w fizyce absolutu, ponieważ w świecie teorii względności są także wielkości oraz pojęcia niezmienne i absolutne. Dlatego nazwa ta bywa myląca.

W czerwcu 1905 roku redakcja „Annalen der Physik” otrzymała pracę nikomu nieznanego urzędnika Biura Patentowego w Bernie zatytułowaną O elektrodynamice ciał w ruchu. Rzecz dotyczyła jednego z najważniejszych zagadnień fizyki teoretycznej, którym w poprzednim dziesięcioleciu zajmowali się dwaj uznani luminarze Henri Poincaré i Hendrik Lorentz. Chodziło o eter – hipotetyczny ośrodek wypełniający świat. Na początku XIX stulecia Thomas Young i Augustin Fresnel wykazali, że światło jest falą. Wyobrażano sobie, że musi ono być falą sprężystą w eterze, czyli drganiem, które propaguje się na wszystkie strony podobnie jak fale akustyczne w powietrzu bądź innych ośrodkach sprężystych. Eter ów charakteryzować się musiał dość osobliwymi własnościami, gdyż z jednej strony był na tyle rzadki, by nie hamować ruchów planet, z drugiej zaś musiał być niezmiernie sprężysty, gdyż prędkość światła jest niewyobrażalnie duża w porównaniu np. z prędkością dźwięku. W przypadku dźwięku wiemy, że jego prędkość dodaje się wektorowo do prędkości powietrza: zmierzona prędkość będzie więc zależeć od prędkości ruchu powietrza. Podobne zjawisko zachodzić powinno także w przypadku światła. Ruch roczny Ziemi po orbicie wokół Słońca zachodzi z prędkością około 30 km/s, co stanowi 1/10 000 prędkości światła. Precyzyjne pomiary powinny wykryć zmiany obserwowanej prędkości światła. Przez cały wiek XIX szereg eksperymentatorów od François Arago w roku 1810 aż do Alberta Michelsona i Edwarda Morleya w roku 1887 starało się za pomocą różnych metod optycznych wykryć ruch Ziemi w eterze. Wyniki wszystkich tych doświadczeń były negatywne. Wyglądało to tak, jakby eter poruszał się razem z Ziemią, ale taka hipoteza rodziła sprzeczności z innymi obserwacjami.

Obok optyki innym wielkim tematem dziewiętnastowiecznej fizyki były elektryczność i magnetyzm. W latach sześćdziesiątych XIX wieku James Clerk Maxwell podsumował te wszystkie badania, podając jednolitą matematyczną teorię zjawisk elektrycznych, magnetycznych oraz optycznych – okazało się bowiem, że powinny istnieć fale elektromagnetyczne. Ich prędkość wynikająca z teorii Maxwella była bliska prędkości światła w próżni. Maxwell wysnuł więc wniosek, że światło jest rodzajem fal elektromagnetycznych. W latach 1887-1888 Heinrich Hertz wykazał, że można w laboratorium wytworzyć fale elektromagnetyczne o długości kilku metrów, które także rozchodzą się z prędkością światła. Teoria Maxwella została potwierdzona, stając się praktycznym narzędziem pracy inżynierów. Niemal równocześnie rozwijały się bowiem techniczne zastosowania elektromagnetyzmu: oświetlenie elektryczne, telefon i pierwsze elektrownie. Ojciec i stryj Einsteina, bracia Rudolf i Jakob, prowadzili najpierw w Monachium, później w północnych Włoszech firmę elektryczną i Albert niemal od dziecka miał do czynienia z techniką elektryczną. Elektrodynamika była także ważnym tematem zajęć laboratoryjnych i wykładów na Politechnice w Zurychu. Einstein jednak od początku nie chciał zostać inżynierem i narzekał, że program studiów nie obejmuje teorii Maxwella.

Teoria Maxwella pozwalała w jednolity sposób opisać ogromny obszar zjawisk. Czyniła to za pomocą pojęć pola elektrycznego oraz magnetycznego. W każdym punkcie przestrzeni i w każdej chwili można było za pomocą dwóch wektorów scharakteryzować stan pola. Wydawało się, że eter z początku wieku zyskał teraz nową funkcję, nośnika pola. Ważną cechą nowego podejścia była lokalność: to, co dzieje się z polem elektrycznym i magnetycznym w danym punkcie zależy od ładunków i prądów w tym samym punkcie. Zaburzenia pola rozchodzą się jako fale elektromagnetyczne. Była to więc fizyka pojęciowo odmienna od Newtonowskiej grawitacji, w której dwie masy oddziałują na siebie na odległość w sposób natychmiastowy. W teorii Maxwella ładunek jest źródłem pola w otaczającej go przestrzeni i pole to z kolei oddziałuje na inne ładunki. Prędkość rozchodzenia się zmian pola jest wielka, ale nie nieskończona. Choć Maxwell dokonał najważniejszej pracy, formułując teorię w sposób logicznie zamknięty, to dopiero jego następcy, m.in. Oliver Heaviside i Hendrik Lorentz, znaleźli prostsze i bardziej eleganckie jej wersje. Okazało się np., że każdy prąd elektryczny jest jedynie ruchem ładunków. Mamy więc dwa rodzaje ładunków, których położenia i prędkości określają stan pola w różnych miejscach – są to równania pola, czyli równania Maxwella. Znając zaś wartość pola elektrycznego i magnetycznego, możemy obliczyć siłę działającą na ładunek – są to równania ruchu (siła Lorentza).

Teoria Maxwella wyrastała z modelu pewnego ośrodka sprężystego i uczony, podobnie jak większość współczesnych, uważał, że jego rolą jest sprowadzenie zjawisk elektrycznych i magnetycznych do zjawisk mechanicznych. W odróżnieniu od teorii Newtona, w której mamy pojedyncze punkty materialne, tutaj substratem jest eter, który wyobrażano sobie jako pewien sprężysty materiał. Paradoksalny status eteru opisał na zjeździe Brytyjskiego Towarzystwa Krzewienia Nauk w Oksfordzie w roku 1894 markiz Salisbury, stwierdzając, że „główną, jeśli nie wyłączną, własnością słowa eter było dostarczanie rzeczownika do czasownika falować”.

Problem wykrycia ruchu Ziemi w eterze stał się tym bardziej palący. Wiadomo było wprawdzie, że inżynier stosować może równania Maxwella, nie przejmując się takimi subtelnościami, ale należało wyjaśnić negatywne wyniki doświadczeń. Hendrik Lorentz spróbował podejść do tego problemu w sposób systematyczny i wykazał, że każdemu stanowi pól w nieruchomym eterze odpowiada pewien stan pól w eterze ruchomym. Chciał w ten sposób podać ogólny dowód, że wszelkie zjawiska elektromagnetyczne przebiegają w taki sposób, aby nie można było ruchu Ziemi wykryć. Wprowadził przy tym dość szczególną konstrukcję matematyczną: w poruszającym się układzie należało zdefiniować czas w taki sposób, że zależał on od współrzędnej przestrzennej. Był to zdaniem Lorentza czas fikcyjny, potrzebny do dowodu niemożliwości wykrycia ruchu przez eter. Okazało się też, że należy założyć coś osobliwego na temat długości obiektów poruszających się: powinny one ulec nieznacznemu skróceniu o czynnik \sqrt{1-v^2/c^2}, gdzie v jest prędkością ruchu obiektu, a c – prędkością światła.

Praca Alberta Einsteina, eksperta technicznego III klasy z Berna, proponowała już we wstępie krok decydujący: pojęcie eteru świetlnego jest w fizyce „zbyteczne”. W ten sposób cała dziedzina badań nad zjawiskami w poruszającym się eterze przechodziła do historii, rozpoczynała się natomiast era szczególnej teorii względności.

Fizycy znali wcześniej zasadę względności. Dotyczyła ona mechaniki. I zasada dynamiki, czyli zasada bezwładności, mówi, że gdy żadne siły nie działają na ciało, to porusza się ono ruchem jednostajnym i prostoliniowym bądź spoczywa. Zasada ta nie dotyczy każdego układu współrzędnych (in. układu odniesienia). Obserwator w hamującym pociągu widzi, jak przewracają się przedmioty, które dotąd spokojnie sobie tkwiły w bezruchu. Hamujący pociąg nie jest więc układem odniesienia, w którym zasada bezwładności ma zastosowanie. Fizycy mówią: nie jest układem inercjalnym (tzn. takim, w którym obowiązuje zasada bezwładności). Pociąg jadący ruchem jednostajnym jest dobrym przybliżeniem układu inercjalnego, podobnie jak powierzchnia Ziemi. Wiemy jednak, że także powierzchnia Ziemi nie jest idealnym układem inercjalnym, ponieważ Ziemia wiruje wokół osi, a także porusza się ruchem rocznym wokół Słońca. Układ inercjalny jest więc pewnym ideałem teoretycznym. Zasady dynamiki mają w takim układzie szczególnie prostą postać i zazwyczaj tak są domyślnie sformułowane.

Ważną cechą układów inercjalnych jest to, że każdy układ odniesienia poruszający się ruchem jednostajnym i prostoliniowym względem jednego z nich jest także układem inercjalnym. mamy więc do czynienia z klasą równoważnych fizycznie układów odniesienia. W każdym z nich obowiązują zasady dynamiki w zwykłej postaci. Nie znaczy to, że nie możemy opisywać ruchu np. w odniesieniu do hamującego pociągu, musimy jednak wtedy uwzględnić dodatkowe siły, które nie wynikają z żadnych oddziaływań, lecz są skutkiem ruchu układu: w hamującym pociągu pasażerowie odczuwają siłę zwróconą ku jego przodowi, która znika, gdy pociąg się zatrzyma.

Isaac Newton sformułował w Matematycznych zasadach filozofii przyrody pojęcia absolutnej przestrzeni – czegoś w rodzaju nieskończonego pojemnika na wszystkie obiekty w świecie oraz absolutnego czasu. Prawa dynamiki obowiązywać miały, gdy ruch odnosimy do owej przestrzeni absolutnej, ale także w każdym układzie odniesienia poruszającym się ruchem jednostajnym i prostoliniowym. W rezultacie w fizyce Newtona nie ma sposobu na ustalenie, który z nieskończonego zbioru układów inercjalnych jest absolutną przestrzenią albo w języku dziewiętnastego wieku: eterem. Nie możemy więc ustalić absolutnego położenia żadnego przedmiotu w sposób empiryczny: dwa zdarzenia zachodzące w odstępie jednej minuty w tym samym punkcie (inercjalnego) pociągu zachodzą w różnych miejscach przestrzeni zdaniem obserwatora na peronie. Fizycznie oba punkty widzenia są równoprawne, a także punkty widzenia wszelkich innych obserwatorów inercjalnych. Absolutna przestrzeń należy więc do założeń metafizycznych Newtona, żadne eksperymenty nie pozwalają jej zlokalizować. Inaczej można powiedzieć, że w fizyce Newtona obowiązuje zasada względności: prawa fizyki są takie same w każdym układzie inercjalnym.

Czas w fizyce Newtona jest rzeczywiście absolutny, to znaczy, można zawsze ustalić, czy zdarzenia są równoczesne, nawet gdy zachodzą one daleko od siebie (zresztą dla pewnego obserwatora inercjalnego będą one równoczesne i zarazem w tym samym punkcie przestrzeni).

Einstein uważał, iż zasadę względności należy rozciągnąć także na zjawiska elektromagnetyczne i zaproponował, aby obowiązywała ona jako nowe prawo fizyki: wszelkie prawa fizyki mają taką samą postać w każdym układzie inercjalnym. Drugim postulatem jego teorii było przyjecie, że prędkość światła w próżni jest dla każdego obserwatora inercjalnego równa tej samej wartości c (wynikającej z teorii Maxwella). Zamiast analizować szczegóły zaproponował więc dwie zasady ogólne, które jego współczesnym wydawały się przeczyć sobie wzajemnie. Rozszerzenie zasady względności na całą fizykę byłoby wprawdzie eleganckim wyjaśnieniem, dlaczego nie obserwujemy ruchu Ziemi w eterze (bo eteru nie ma), ale pojawia się trudność z drugim postulatem. Znaczy on bowiem, że nie tylko prędkość światła zawsze jest równa c, bez względu na ruch źródła światła, ale także równa jest c bez względu na to, czy obserwator goni falę świetlną, czy też porusza się jej naprzeciw. Przeczy to prawu składania prędkości, a przecież eksperymenty potwierdzają je na co dzień: gdy pasażer porusza się z prędkością u (względem pociągu) w kierunku do przodu pociągu jadącego z prędkością v (względem peronu), to jego prędkość względem peronu jest sumą u+v. Dlaczego prawo to nie działa, gdy jednym z obiektów jest światło?

Czyniono często zarzut Einsteinowi, że prędkość światła w próżni jest w jego teorii jakoś szczególnie wyróżniona. Rzeczywiście, istnieje w tej teorii graniczna prędkość poruszania się obiektów materialnych, np. przekazywania energii albo informacji, i to jest właśnie c. Można powiedzieć, że światło ma tę szczególną własność, iż porusza się z ową maksymalną prędkością. Nie ma jednak żadnych przeszkód, aby istniały inne obiekty poruszające się z prędkością c. Wiemy, że światło składa się z fotonów (było to treścią innej pracy Einsteina z tego samego roku, nie bez powodu nazywanego jego „cudownym rokiem”), cząstek poruszających się z prędkością c. Podobnie poruszają się inne cząstki, odkryte później, jak gluony, albo wciąż czekające na odkrycie, jak grawitony. Cząstki takie nie istnieją w stanie spoczynku, lecz zawsze poruszają się z prędkością c.

Istnienie maksymalnej prędkości, i to w dodatku zawsze jednakowej, pozwala na eksperymentalne badanie równoczesności dwóch zjawisk. Obserwator inercjalny może rozmieścić w swoim układzie odniesienia zegary w różnych punktach. Znając odległość tych puntów oraz prędkość światła, może te zegary zsynchronizować. Gdy jego zegar wskazuje czas t, wysyła sygnał do punktu odległego o r i umawia się z kolegą, który tam przebywa, że moment odebrania sygnału będzie czasem t+r/c. Dzięki temu przepisowi wszystkie zegary zostaną zsynchronizowane i można będzie ustalić zawsze czas danego zdarzenia, obserwując go na pobliskim zegarze. Metoda ta zastosowana w innym układzie inercjalnym może dać inne wyniki w odniesieniu do tej samej pary zdarzeń.

Przykład podany przez Einsteina pomaga to zrozumieć. Wyobraźmy sobie jadący pociąg i obserwatora na peronie. W chwili, gdy mija go środek pociągu, w jego początek i koniec uderzają równocześnie dwa pioruny. Ich uderzenia są równoczesne, ponieważ światło obu błyskawic dociera do naszego obserwatora w jednej chwili, a wiadomo, że odległość obu końców pociągu od obserwatora była w tym momencie taka sama. Inaczej opisze te zdarzenia obserwator siedzący w środku pociągu. Jego zdaniem piorun najpierw uderzył w przód pociągu, a dopiero później w jego tył (linia świata pasażera jest na rysunku zakreskowana, jest to zarazem jego oś czasu). Skoro równoczesność dwóch zdarzeń zależy od układu odniesienia, to znaczy, że czas absolutny nie istnieje. Wbrew pozorom nie burzy to jednak naszych koncepcji przyczyny i skutku. Musimy tylko precyzyjnie opisywać zdarzenia, podając ich położenie oraz czas. Zdarzenia takie, jak jednoczesne uderzenia dwóch piorunów w dwóch różnych punktach nie są z pewnością połączone związkiem przyczynowo-skutkowym, ponieważ wymagałoby to oddziaływania przenoszącego się natychmiastowo, z nieskończoną prędkością. Wszystkie zaś oddziaływania fizyczne mogą przenosić się co najwyżej z prędkością światła w próżni. Dlatego zmiana kolejności czasowej obu uderzeń pioruna nie burzy fizyki. Jeśli natomiast jakieś zdarzenie A może potencjalnie być przyczyną innego zdarzenia B, to dla każdego obserwatora ich kolejność czasowa będzie taka sama: t_A<t_B. Obalenie koncepcji absolutnego czasu nie oznacza zatem wprowadzenia anarchii w relacjach czasoprzestrzennych, lecz zaprowadzenie innego ładu niż dotąd.

Był to najważniejszy wniosek Einsteina. Oznaczał konieczność przebudowy samych podstaw fizyki: pojęć czasu i przestrzeni. Okazywało się, że teoria Maxwella zgodna jest z teorią względności, nie wymaga więc żadnej przebudowy. Przeciwnie, fikcyjny czas lokalny Lorentza należy interpretować jako czas rzeczywisty mierzony przez innego obserwatora. Póki znajdujemy się w jednym ustalonym układzie inercjalnym czas wydaje nam się absolutny. Rewolucja dotyczyła porównywania wyników pomiarów dokonywanych przez różnych obserwatorów. W przypadku elektrodynamiki oznaczało to względność pól elektrycznych i magnetycznych. Jeśli np. w jednym układzie odniesienia mamy spoczywający ładunek wytwarzający pole elektryczne, to w innym układzie ładunek ten będzie się poruszać – będziemy więc mieli do czynienia z prądem, i obserwować będziemy zarówno pole elektryczne, jak i magnetyczne. Oba wektory pola elektromagnetycznego stanowią więc z punktu widzenia teorii względności jedną całość, jeden obiekt matematyczny, którego składowe w różnych układach są różne, podobnie jak składowe zwykłego wektora w różnych układach współrzędnych.

Równania Maxwella są takie same w każdym układzie inercjalnym, więc i prędkość fali świetlnej będzie w każdym układzie taka sama. Większej przebudowy wymagała mechanika. Jej newtonowska wersja nadal pozostaje słuszna, gdy ciała poruszają się wolno w porównaniu do prędkości światła. Najważniejszą konsekwencją nowej mechaniki stało się słynne równanie E=mc^2, które pozwala zrozumieć m.in. reakcje, w których powstają albo giną cząstki, oraz skąd gwiazdy czerpią energię na świecenie przez miliardy lat.

Szczególna teoria względności rozwiązywała problemy, które od lat uciążliwie towarzyszyły fizykom, choć były one głównie natury pojęciowej. Można było na co dzień nie zaprzątać sobie głowy ruchem Ziemi w eterze i uprawiać fizykę tak, jakby Ziemia była nieruchoma. Także narzędzia do rozwiązania owych problemów zostały już wypracowane, głównie przez Lorentza i Poincarégo, Einstein je tylko radykalnie zreinterpretował. Pierwszy z fizyków pogodził się z sytuacją i zaprzyjaźnił z Einsteinem, drugi starał się ignorować prace młodszego kolegi (być może zresztą jego stosunek do Einsteina uległby z czasem zmianie, Poincaré zmarł w roku 1912, a więc przed stworzeniem ogólnej teorii względności). Ostatecznie elektrodynamika ciał w ruchu przeszła do historii, a podstawą fizyki stała się szczególna teoria względności.
Natomiast jej uogólnienie, czyli Einsteinowska teoria grawitacji, było praktycznie dziełem jednego tylko autora, stworzonym w latach 1907-1915.

Pojęciowym punktem wyjścia była prosty eksperyment myślowy: obserwator swobodnie spadający w polu grawitacyjnym nie będzie odczuwał grawitacji – będzie w stanie nieważkości, dziś dobrze znanym z lotów kosmicznych. Einstein uznał tę obserwację za „najszczęśliwsza myśl swego życia”. Z punktu widzenia fizyki Newtonowskiej istnieją dwa rodzaje masy: grawitacyjna i bezwładna. Pierwsza określa siłę, z jaką na ciało będzie oddziaływać grawitacja. Druga określa przyspieszenie ciała. Ponieważ obie te masy są jednakowe, więc przyspieszenie dowolnego ciała w danym polu grawitacyjnym jest takie same. Ilustruje to się czasem, demonstrując spadanie różnych ciał w rurze próżniowej. Obie masy skracają się zawsze, kiedy obliczamy przyspieszenie. Zdaniem Einsteina należało tę tożsamość wbudować w strukturę fizyki, zamiast ją tylko postulować jako dodatkowy warunek. Uczony sformułował zasadę równoważności pola grawitacyjnego i przyspieszenia. Znajdując się w zamkniętej kapsule, nie potrafilibyśmy odróżnić, czy nasza kapsuła porusza się ruchem przyspieszonym, czy spoczywa w polu grawitacyjnym (możliwe byłyby także kombinacje obu stanów). Grawitacja jest więc w fundamentalny sposób związana z bezwładnością. Einstein dążył do stworzenia teorii, która objaśniałaby jednocześnie grawitację oraz bezwładność. Argumentował przy tym, że układy inercjalne są sztucznym ograniczeniem dla fizyki, powinniśmy więc dopuścić także układy przyspieszone, nieinercjalne. Podobnie jak w szczególnej teorii względności każda prędkość ma zawsze charakter względny, w teorii uogólnionej także przyspieszenie miało stać się pojęciem względnym. Nawiązywał tu do rozważań Ernsta Macha, który sądził, że przyspieszenie jest względne. W swoim czasie Isaac Newton posłużył się przykładem wiadra z wodą wirującego na skręconym sznurze. Gdy wiadro przekaże ruch wirowy wodzie, jej powierzchnia staje się wklęsła, co jest skutkiem sił odśrodkowych. Możemy w ten sposób stwierdzić, czy woda wiruje względem absolutnej przestrzeni. Zdaniem Macha eksperyment ten dowodzi tylko tego, że woda obraca się względem dalekich gwiazd. Gdyby to owe gwiazdy zaczęły się obracać, skutek byłby ten sam, a przestrzeń absolutna nie istnieje.

Droga Einsteina do ogólnej teorii względności była zawikłana, lecz z perspektywy roku 1921 jej struktura matematyczna została już wyjaśniona. Rolę układów inercjalnych odgrywały teraz swobodnie spadające układy odniesienia. Obserwator znajdujący się w jednym z nich może stosować szczególną teorię względności. Różnica fizyczna między obiema teoriami polega jednak na tym, że szczególną teorię względności stosować można jedynie lokalnie. Nawet bowiem w spadającym swobodnie laboratorium można wykryć niewielkie zmiany przyspieszenia między różnymi jego punktami – są to siły przypływowe (poznane historycznie na przykładzie zjawiska przypływów i odpływów w oceanach, które są z różnymi siłami przyciągane grawitacyjnie przez Księżyc oraz Słońce). Oznacza to, że nie można wprowadzić jednego układu inercjalnego dla całego wszechświata, można tylko wprowadzać je lokalnie. Matematycznie rzecz biorąc, różnica między teorią ogólną i szczególną polega na geometrii: zakrzywionej w pierwszym przypadku, płaskiej w drugim. Einstein posłużył się czterowymiarowym sformułowaniem swej teorii szczególnej podanym przez Hermanna Minkowskiego. Czas i przestrzeń stanowią tu pewną całość, czasoprzestrzeń. W przypadku dwuwymiarowym w każdym punkcie powierzchni możemy zbudować płaszczyznę styczną. Jest ona zarazem dobrym przybliżeniem geometrii w otoczeniu danego punktu: w taki sposób posługujemy się planami miast, mimo że Ziemia nie jest płaska.

Teorię dwuwymiarowych powierzchni zawartych w trójwymiarowej przestrzeni zbudował Karl Friedrich Gauss. Zauważył przy tym, że wystarczy posługiwać się wielkościami dostępnymi bez wychodzenia poza powierzchnię. Można np. w ten sposób ustalić, czy jest ona zakrzywiona. Podejście Gaussa uogólnił później Bernhard Riemann, a inni matematycy rozwinęli je w systematyczne procedury dla powierzchni o dowolnej liczbie wymiarów.

W geometrii Riemanna współrzędne można wybrać w sposób dowolny, w przypadku zakrzywionych przestrzeni nie istnieje na ogół żaden szczególnie prosty układ współrzędnych, który mógłby odegrać taką rolę jak współrzędne kartezjańskie w przestrzeni euklidesowej. Nadal decydującą rolę odgrywa tu pojęcie odległości. Dla pary bliskich punktów możemy ją zawsze obliczyć w sposób euklidesowy, a długość dowolnej krzywej uzyskać przez sumowanie takich elementarnych odległości. Zamiast równania ds^2=dx^2+dy^2 na płaszczyźnie, mamy teraz równanie nieco bardziej skomplikowane

ds^2=g_{11}dx_1^2+2g_{12}dx_1dx_2+g_{22}dx_2^2.

Geometrię przestrzeni określa więc zbiór funkcji g_{\mu\nu} pozwalających obliczyć odległość punktów. Funkcje g_{\mu\nu} noszą nazwę tensora metrycznego (albo metryki). Można za ich pomocą wyrazić wszelkie własności geometryczne danej przestrzeni. W przypadku dwuwymiarowym wystarczą trzy takie funkcje, w przypadku czterowymiarowym należy znać ich dziesięć.

W zakrzywionej przestrzeni nie ma linii prostych, można jednak znaleźć ich odpowiedniki. Są to linie geodezyjne (albo geodetyki). Mają one niektóre własności linii prostych w geometrii euklidesowej: są np. najkrótszą drogą łączącą dwa punkty. Krzywe geodezyjne w teorii Einsteina są liniami świata cząstek poruszających się pod wpływem grawitacji. Metryka określa więc, jak poruszają się cząstki – grawitacja nie jest z punktu widzenia Einsteina siłą, lecz własnością czasoprzestrzeni. Należy dodać, że inne rodzaje sił działających na dane ciało sprawią, że przestanie się ono poruszać po geodezyjnej. Jedynie grawitacja wiąże się tak ściśle z geometrią. Jest to zgodne z faktem, że grawitacja jest powszechna, tzn. dotyczy wszystkich cząstek, a także działa na wszystkie w taki sam sposób – dzięki czemu można ją opisać jako własność czasoprzestrzeni. W teorii Einsteina nie potrzeba osobnej masy grawitacyjnej i bezwładnej.

Znając metrykę czasoprzestrzeni, możemy wyznaczyć geodezyjne, czyli obliczyć, jak poruszają się ciała pod wpływem grawitacji. Są to równania ruchu, zastępujące zasady dynamiki Newtona. Aby jednak wyznaczyć metrykę, potrzebne są równania, które musi ona spełniać. Są to równania pola, największe osiągnięcie Einsteina jako fizyka. Przystępując do pracy nad ogólną teorią względności uczony wiedział jedynie, że powinna ona zawierać teorię szczególną a także Newtonowską teorię grawitacji. Równania pola powinny mieć postać znaną z teorii Maxwella: (pewne kombinacje pochodnych pól)=(źródła pola). W przypadku grawitacyjnym źródłem powinna być masa, ale to także znaczy: energia. W teorii szczególnej opisuje się energię i pęd zbioru cząstek jako tensor energii pędu T_{\mu\nu}, zbiór dziesięciu wielkości danych w każdym punkcie czasoprzestrzeni. Masy powinny decydować o krzywiźnie czasoprzestrzeni. Zatem po lewej stronie równań pola powinna znaleźć się wielkość informująca o krzywiźnie. Okazuje się, że praktycznie jedyną możliwością jest tu tzw. tensor Einsteina, G_{\mu\nu} zbiór dziesięciu pochodnych metryki. Równania muszą więc przybrać postać

G_{\mu\nu}=\kappa T_{\mu\nu}.

gdzie \kappa jest odpowiednio dobraną stałą związaną ze stałą grawitacyjną. Sama postać zapisu tych równań zapewnia, że możemy w dowolny sposób wybrać współrzędne, a równania nadal pozostaną słuszne. Znalezienie prawidłowych równań pola pod koniec listopada 1915 roku zakończyło odyseję Einsteina: ogólna teoria względności została zbudowana.

Jeszcze w listopadzie 1915 roku uzyskał Einstein dla swej teorii pierwsze potwierdzenie obserwacyjne. Obliczył bowiem wielkość obrotu orbity Merkurego wokół Słońca – niewielkiej rozbieżności między obserwacjami a teorią Newtona nie udawało się wyjaśnić od półwiecza. Teraz okazało się, że przyczyną rozbieżności było niedokładne prawo grawitacji. Przewidział też Einstein, że promienie gwiazd biegnące blisko powierzchni Słońca powinny uginać się o kąt 1,74’’. Efekt ten został w roku 1919 potwierdzony podczas całkowitego zaćmienia Słońca przez dwie ekspedycje brytyjskie. Teoria grawitacji Einsteina okazała się ogromnym sukcesem, jest powszechnie uważana za najpiękniejszą teorię w fizyce. Nie wszystko jednak poszło po myśli jej twórcy. Okazało się np., że choć wprawdzie grawitacja i bezwładność zostały ze sobą zespolone, to nie udało się jednak zrealizować idei Macha. W teorii Einsteina wirowanie całego wszechświata jest czym innym niż wirowanie wiadra Newtona. Einstein z pewnym uporem trzymał się zasady Macha nawet wówczas, gdy wykazano, że nie obowiązuje ona w jego teorii. Wbrew przewidywaniom twórcy grawitacja może prowadzić do zapadania się materii i tworzenia czarnych dziur, w których zamknięta jest osobliwość czasoprzestrzeni. Einstein zmieniał w ciągu swej późniejszej kariery zdanie na temat tego, czy istnieją fale grawitacyjne: początkowo je przewidywał, później nabrał wątpliwości. Jego początkowe przybliżone podejście okazało się słuszne i fale grawitacyjne zostały odkryte w roku 2015.

Oliver Heaviside i głuchy telefon (1886-1891)

Heaviside był człowiekiem trudnym w kontaktach, nie bardzo też interesowała go kariera zawodowa. Rodzina była zbyt biedna, aby mógł zdobyć solidne wykształcenie, toteż zakończył swą szkolną edukację w wieku szesnastu lat. Przebyta w dzieciństwie szkarlatyna upośledziła jego słuch, izolując go od rówieśników. Choć z czasem odzyskał w znacznej mierze słuch, to pozostał autsajderem na resztę życia. Krótko pracował jako telegrafista i pracownik techniczny u boku starszego brata Arthura w firmie zarządzającej kablem pomiędzy Danią i Anglią, lecz zwolnił się w wieku dwudziestu czterech lat i już nigdy później nie pracował zawodowo. Mieszkając w pokoju u rodziców, zajmował się eksperymentalnie i teoretycznie elektrycznością, jedyne pieniądze zarabiał z publikacji artykułów w fachowym piśmie „The Electrician”. Był jednym z pierwszych kontynuatorów Jamesa Clerka Maxwella, udało mu się uprościć i przejrzyściej zapisać równania elektromagnetyzmu. Odkrył rachunek operatorowy ułatwiający rozwiązywanie równań różniczkowych (posługiwał się funkcją δ na długo przed Dirakiem). Zastosował też zapis wektorowy, bez którego trudno dziś sobie wyobrazić teorię Maxwella. Dzięki bratu, pracującemu jako inżynier, znał praktyczne problemy telefonii i podał metodę zbudowania linii przesyłowej w taki sposób, aby nie zniekształcała sygnałów. Problem był palący, ponieważ telefonia rozwijała się burzliwie i wraz ze wzrostem odległości sygnał nie tylko był słabszy, ale też ulegał zniekształceniu. Dalsza historia tego odkrycia Heaviside’a była zapewne do przewidzenia: z początku nie chciano mu wierzyć, a później to inni zarobili miliony na wcieleniu jego idei w życie.

Biografia Heaviside’a skłania do zastanowienia nad rolą autorytetów w różnych dziedzinach. Będąc jednym z najwybitniejszych uczonych swoich czasów, postrzegany był jako jakiś niedouczony telegrafista, a przy tym dziwak. Jego artykuły w „The Electrician” były trudne do zrozumienia, a może po prostu nikt nie przykładał się do ich zrozumienia, ponieważ były autorstwa jakiegoś urzędnika, nie wiadomo właściwie kogo. Tymczasem stanowiły one oryginalny wykład do teorii elektromagnetyzmu. Gdy Heinrich Hertz odkrył fale elektromagnetyczne, w pracach Heaviside’a znaleźć można było nowocześniejsze i prostsze ujęcie teorii, która tak wspaniale się potwierdziła. Nasz „telegrafista” wyprzedził tu znacznie większość uczonych brytyjskich i kontynentalnych. W szczególności jego podejście górowało nad konserwatywnym i sceptycznym nastawieniem Williama Thomsona, późniejszego lorda Kelvina. Ten ostatni nie potrafił się przekonać do teorii Maxwella, co miało znaczenie, ponieważ był najsławniejszym uczonym Wielkiej Brytanii, zasiadał we wszystkich możliwych radach i towarzystwach, a każde jego słowo prasa traktowała jak wyrocznię. Tak było, gdy w 1888 roku, po odkryciu Hertza, Thomson orzekł, iż jego zastrzeżenia wobec teorii Maxwella nieco się zmniejszyły (uznał bowiem, że prąd przesunięcia – najważniejszy element pojęciowy zaproponowany przez Maxwella – z „zupełnie nie do utrzymania” awansował w jego oczach do kategorii „niezupełnie do utrzymania”). Thomson miał swoją wizję idealnej teorii elektromagnetyzmu, prawdopodobnie zresztą dlatego nie osiągnął końcowego sukcesu. W każdym razie to młodszy od niego James Clerk Maxwell rozwiązał problem, choć sir William nie chciał się z tym pogodzić.

 

Baron Kelvin of Largs

William Thomson umiał jednak zachowywać się fair i dzięki temu Oliver Heaviside doczekał się nieco uznania za życia. Wcześniej, w roku 1887, przeszedł swe najgorsze chwile, gdy stracił możliwość publikowania, a zarazem też skromne dochody, jakie ta działalność zapewniała. Za 40 funtów rocznie redakcja otrzymywała ciągły strumień oryginalnych publikacji z dziedziny elektromagnetyzmu. Kryzys nastąpił wtedy, gdy Oliver Heaviside wszedł w konflikt z Williamem Henry’m Preece’em, ważnym ekspertem brytyjskiej poczty. Preece starał się przeforsować kosztowną decyzję budowy linii telefonicznych z kablem miedzianym w miejsce żelaznego. Argumentował, że dzięki temu wzrośnie zasięg rozmów, ponieważ kable żelazne wytwarzają pole magnetyczne, a to prowadzi do strat energii (zmienne pole magnetyczne indukuje dodatkowe napięcie, mówi się o indukcyjności kabla: miedziane zmniejszały wg Preece’a indukcyjność i na tym polegała ich wyższość). Mało tego, Preece twierdził, że wykazał fałszywość teorii Maxwella. W tym samym czasie Arthur i  Oliver próbowali opublikować pracę, która podważała poglądy Preece’a, a nawet im przeczyła: otóż pole magnetyczne wcale nie musi przeszkadzać w przesyłaniu rozmów telefonicznych, a nawet może pomagać. Pewny siebie Preece zakazał publikacji. Obaj bracia zareagowali na to rozmaicie: Arthur jako podwładny Preece’a przestał się zajmować tym tematem, Oliver natomiast zaczął z upodobaniem dowodzić niekompetencji Preece’a, którego określał m.in. jako „the eminent scienticulist” – czyli coś w rodzaju „wybitnego mędrka”. Racja naukowa była całkowicie po stronie Heaviside’a, znalazł on warunek, jaki spełniać powinna linia przesyłowa, aby nie zniekształcała rozmów (chodzi o to, by składowe o różnych częstościach tłumione były w jednakowym stopniu, w ten sposób daleki odbiorca otrzymuje sygnał słabszy, lecz podobny do wysłanego). Ów warunek Heaviside’a był kontrintuicyjny, lecz prawdziwy i oznaczał, że należy w praktyce zwiększać indukcyjność linii, czyli wytwarzane przez nie pole magnetyczne. Nacisk Preece’a sprawił, że zmienił się redaktor naczelny „The Electrician” i nowy już nie chciał publikować artykułów Heaviside’a.

Karykatura z 1888 r.: Preece pod sztandarem wieloletnich doświadczeń pokonuje Olivera Lodge’a (który podawał w wątpliwość skuteczność używanych piorunochronów i krytykował jego teoretyczne rozważania, stając po stronie Heaviside’a)

Atmosfera wokół niego poprawiła się dopiero wówczas, gdy publicznie docenił jego teorię William Thomson. Otworzyło to drogę do przyjęcia Heaviside’a w roku 1891 na członka Towarzystwa Królewskiego, ułatwiło też publikację kolejnych prac. Zadziwiająco mało zmieniło się w życiu uczonego, który przywiązywał chyba większą wagę do możliwości publikacji niż do zarobku. Nadal pozostał prywatnym uczonym, po śmierci rodziców jego środki do życia mocno się skurczyły. Dzięki dyskretnym staraniom paru wybitnych uczonych zaczął Heaviside otrzymywać skromną emeryturę (dyskretnych, ponieważ drażliwy Heaviside nie chciał jałmużny). Żył dość długo, by widzieć, jak jego idea zwiększenia indukcyjności kabli telefonicznych została wcielona w życie jako pupinizacja albo krarupizacja. Zarówno Amerykanin serbskiego pochodzenia Mihajlo Pupin, jak i Duńczyk Karl Emil Krarup, wyciągnęli praktyczne wnioski z teorii Heaviside’a. Pupin po długiej batalii prawnej z firmą AT&T zarobił na swoim patencie 450 000 $ (blisko 30 mln $ obecnie). Jego rozwiązanie polegało na umieszczaniu w stałych odległościach cewek zwiększających indukcyjność. Krarup zastosował żelazne druty (zwiększające pole magnetyczne) oplatające miedziany rdzeń. Dzięki temu w pierwszych latach XX wieku wzrósł zasięg linii telefonicznych, a ich układanie stało się tańsze. Także kariera Preece’a, który nigdy nie przyznał się do błędu, nie doznała żadnego uszczerbku i rozwijała się pomyślnie, z czasem doczekał się on tytułu szlacheckiego. Tylko Heaviside dziwaczał coraz bardziej, mieszkał sam, pod koniec życia zastąpił meble blokami granitu, zaniedbał się i cierpiał na rodzaj manii prześladowczej. Nie dowiemy się już, czy dziwaczał, ponieważ nie osiągnął pozycji w społeczeństwie odpowiadającej jego talentowi, czy też odwrotnie: nie udało mu się zdobyć pozycji w bardzo konkurencyjnym wiktoriańskim społeczeństwie, ponieważ zbytnio odbiegał od przyjętych standardów zachowania i nawet talent nie mógł tu pomóc.

Die Vermittlungszentrale im Berliner Fernspreschamt II
Original: Frankfurt am Main, Deutsches Postmuseum
Foto: Berlin, 1894

Centrala telefoniczna w Berlinie, 1894 r.

Technika telefoniczna rozwijała się szybko. Kolejnym krokiem było skonstruowanie wzmacniacza na triodach (regeneratora sygnałów), który zaczął być stosowany komercyjnie tuż przed pierwszą wojną światową. Heaviside zdążył jeszcze przewidzieć istnienie jonosfery, dzięki której fale radiowe rozchodzą się wzdłuż powierzchni Ziemi, umożliwiając np. międzykontynentalne przekazywanie sygnału radiowego.

Pokażemy na przykładzie, jak Heaviside potraktował kwestię przesyłania sygnałów bez zniekształceń. Linia przesyłowa to rozciągnięty bardzo obwód. Można uważać, że każdy jego fragment o długości \Delta x składa się z podstawowych elementów obwodu: oporu R\Delta x, indukcyjności L\Delta x oraz połączonych równolegle pojemności C\Delta x oraz przewodnictwa G\Delta x. Dla pierwszego i ostatniego elementu obowiązuje prawo Ohma (przewodnictwo jest odwrotnością oporu):

\dfrac{U}{I}=R.

Napięcie na końcach indukcyjności równe jest

U=L\dfrac{dI}{dt},

co Heaviside w swoim języku symbolicznym zapisywał jako U=LpI (p oznaczało branie pochodnej po czasie). Dla pojemności mamy natomiast

I=\dfrac{dQ}{dt}=C\dfrac{dU}{dt}=CpU.

gdzie Q jest ładunkiem.

Stosunki napięcia do natężenia są zastępczymi oporami, mamy więc dla indukcyjności Lp, a dla pojemności 1/pC. Ponieważ możemy podzielić naszą linię transmisyjną na dowolnie dużą liczbę powtarzających się segmentów o długości \Delta x, więc dodanie kolejnego segmentu nie powinno zmieniać zastępczego oporu. Opór zastępczy całej linii Z (wejściowy) musi w takim razie być tym samym, co połączenie równoległe elementów G\Delta x, C\Delta x oraz (R+Lp)\Delta x + Z na końcu. W połączeniu równoległym dodają się odwrotności oporów, mamy więc

\dfrac{1}{Z}=(G+pC)\Delta x+\dfrac{1}{(R+pL)\Delta x+Z}.

Po przekształceniach dostajemy równanie kwadratowe na opór zastępczy:

Z^2+(R+pL)\Delta x Z=\dfrac{R+pL}{G+pC}.

Jeśli teraz przyjmiemy, że \Delta x\rightarrow 0, to otrzymamy

Z^2=\dfrac{R+pL}{G+pC}.

Otrzymany wynik wygląda odrobinę dziwnie, jeśli przypomnimy sobie, że p to różniczkowanie. Nie jest jasne, jak powinniśmy dzielić przez p i jak wyciągać pierwiastek. Heaviside szedł za swoim formalizmem tak daleko, jak tylko się dało i rozpatrywał wyrażenia takie, jak np. p^{\frac{1}{2}}. Uważał on matematykę za naukę empiryczną i jak mówił: „Czy mam odmówić zjedzenia obiadu, ponieważ nie znam wszystkich szczegółów trawienia?” My nie musimy iść aż tak daleko. Widać z ostatniego wyrażenia, że gdy spełniony będzie warunek

\dfrac{R}{G}=\dfrac{L}{C},

nasz ułamek się skróci (cokolwiek to znaczy) i nie będzie zawierał p, w takiej sytuacji sygnał o dowolnym kształcie nie ulegnie zmianie. Jest to warunek Heaviside’a. W praktyce znaczył tyle, że indukcyjność L należy powiększyć, czego nie rozumiał Preece. Dodać należy, że Heaviside formułował tę swoją matematykę także w konwencjonalny sposób – był może dziwakiem, ale w kwestii technik matematycznych zachowywał się całkiem racjonalnie. Obecnie stosuje się transformaty Laplace’a albo można sobie wyobrażać, że zależność od czasu ma postać \exp(i\omega t) (gdzie \omega to częstość kołowa), wówczas różniczkowanie sprowadza się do mnożenia i mamy po prostu p=i\omega.