Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.

Einstein w Aarau: czyli co mówią równania Maxwella? (1896)

Aarau

Do szkoły w Aarau trafił Einstein po oblanych egzaminach na Politechnikę w Zurychu. Szesnastolatek zdawał tam jako młodzieniec nad wiek rozwinięty, lecz bez matury. Politechnika dopuszczała takich kandydatów, ponieważ sito stanowiły egzaminy wstępne z wielu przedmiotów. Einstein okazał się zbyt słaby z przedmiotów innych niż fizyka i matematyka, toteż poradzono mu, aby zdał jednak maturę.
Szkoła w Aarau, dobrze wyposażona i liberalna, wolna od wojskowego drylu, który tak obrzydł Albertowi w Monachium, zostawiła mu miłe wspomnienia na resztę życia. Uczył się tam niemieckiego, francuskiego, włoskiego, historii, geografii, matematyki, chemii, rysunku technicznego i artystycznego, śpiewu i gry na skrzypcach. Otrzymywał dobre albo bardzo dobre oceny niemal ze wszystkich przedmiotów, słabo wypadał tylko z francuskiego. Zasłużył nawet na pochwałę inspektora na egzaminie z muzyki: „Jeden z uczniów, o nazwisku Einstein, wyróżnił się wykonaniem z głębokim zrozumieniem adagia z jednej z sonat Beethovena”.

Szkolny kolega, Hans Byland, opisywał Alberta z owego okresu jako „zuchwałego Szwaba”: „Pewny siebie, z kapeluszem zsuniętym zawadiacko na tył głowy okrytej grubymi czarnymi włosami. Przechadzał się w tę i z powrotem szybkimi krokami. W ogóle poruszał się w jakimś szalonym tempie, właściwym niespokojnym duchom, które noszą w sobie cały świat. Nic nie mogło umknąć przenikliwemu spojrzeniu jego dużych brązowych oczu. Każdy, kto go poznał, był pod wrażeniem jego dominującej osobowości. Kpiący uśmieszek jego pełnych warg, z których dolna była wyraźnie wysunięta, nie zachęcał filistrów do prób fraternizacji z tym młodzieńcem”.

Górny rząd od lewej: Adolf Lüthy (1878), Hans Frösch (1877), Karl Walter (1876),  Ernst  Hunziker (1876), Eduard Haury (1877), Emil Ott (1877). Dolny rząd od lewej: , Albert Einstein (1879), Cäsar Hofer (1878), Oskar Schmidt (1876), Guido Müller (1877)

Atmosfera Aarau służyła Einsteinowi. Mógł swobodnie myśleć, a to było dla niego zawsze najważniejsze. Toteż nic dziwnego, że właśnie tam zaczął się zastanawiać nad problemami, które miały go z czasem doprowadzić do teorii względności. „Podczas tego roku w Aarau przyszło mi do głowy następujące pytanie: gdyby poruszać się razem z falą świetlną z prędkością światła, to widziałoby się pofalowane pole niezależne od czasu. Wydaje się jednak, że coś takiego nie istnieje! To był pierwszy, młodzieńczy eksperyment myślowy mający związek z teorią względności. Pomysł nie jest wytworem logicznego myślenia, nawet jeśli produkt końcowy związany jest z jakąś strukturą logiczną”.
Idea poruszania się razem z falą świetlną, a nawet szybciej od niej, pojawiała się wcześniej u różnych pisarzy popularnonaukowych, takich jak Camille Flammarion albo Felix Eberty. W powieści Flammariona jej bohater, Lumen, potrafił po śmierci, jako dusza, wyprzedzić światło i obserwować rozmaite wydarzenia z przeszłości: siebie na pierwszej randce albo w wieku sześciu lat, a nawet „władcze i zamyślone czoło” Napoleona podczas rewii wojsk na Placu Marsowym. Gdy uważamy światło za falę w pewnym ośrodku – tak jak dźwięk – nic nie stoi na przeszkodzie wyobrażaniu sobie, że podróżujemy razem z falą. Wiadomo jednak z fizyki, że nie ma takich fal elektromagnetycznych, które zmieniałyby się w przestrzeni, a były niezmienne w czasie, i Albert Einstein czuł to wówczas intuicyjnie. Później, już w trakcie studiów, musiał zdać sobie sprawę, że takie „zamrożone” fale nie mogą być rozwiązaniami równań Maxwella, to znaczy sprzeczne są z naszą wiedzą o przyrodzie.

Co mówią równania Maxwella?

W każdym punkcie przestrzeni możemy określić dwa wektory: jeden opisujący pole elektryczne \vec{E}, drugi – pole magnetyczne \vec{B}. Aby je zmierzyć, należałoby zaobserwować, jakie siły działają w tym punkcie przestrzeni na umieszczony tu ładunek elektryczny: pierwsze z pól działa niezależnie od tego, czy ładunek się porusza, drugie – tylko na ładunki w ruchu.
Zajmiemy się przypadkiem przestrzeni wolnej od ładunków, czyli polem elektromagnetycznym w próżni. Zmienne pole magnetyczne generuje pole elektryczne – jest to zjawisko indukcji elektromagnetycznej odkryte przez Michaela Faradaya i będące fizyczną zasadą działania generatorów prądu. Z kolei zmienne pole elektryczne generuje pole magnetyczne, co odkrył James Clerk Maxwell. W ten sposób powstaje fala elektromagnetyczna, w której oba pola podtrzymują się nawzajem.
Sformułujmy matematycznie prawo indukcji Faradaya. Wyobraźmy sobie krzywą zamkniętą i rozpiętą na niej powierzchnię. Przez powierzchnię tę przechodzi pewien strumień pola magnetycznego, równy iloczynowi składowej pola normalnej do powierzchni B_n i pola powierzchni \Delta S:

\Phi_B=B_n\Delta S.

Gdyby wektor \vec{B} był prędkością cieczy, strumień byłby objętością owej cieczy przecinającą w jednostce czasu powierzchnię. Mówi się czasem, że strumień to liczba linii sił przecinających powierzchnię (linie sił biegną blisko siebie tam, gdzie pole jest duże i rozrzedzają się tam, gdzie pole maleje).


Potrzebujemy jeszcze drugiego obok strumienia pojęcia związanego z polami wektorowymi, a mianowicie krążenia. W przypadku pola elektrycznego jest to suma iloczynów składowej stycznej wektora pola E_t pomnożonych przez długości boków prostokąta na naszym obrazku

{\displaystyle \oint E_t dl=\sum E_t \Delta l.}

Prawo indukcji Faradaya mówi, że krążenie pola elektrycznego wzdłuż krzywej jest równe szybkości zmian strumienia pola magnetycznego w czasie ze znakiem minus:

{\displaystyle \oint E_t dl=\sum E_t \Delta l=-\dfrac{\Delta \Phi_B}{ dt}.}

Dodatni kierunek obiegania krzywej i dodatni strumień związane są regułą śruby prawoskrętnej: gdyby śruba taka obracała się, jak na obrazku, dodatni byłby strumień z dołu do góry. Znak minus w tym prawie fizycznie oznacza tzw. regułę Lenza: gdyby zamiast krzywej ułożyć pętlę z drutu, to pole elektryczne wywołałoby przepływ prądu. Prąd ten wytworzyłby własne pole magnetyczne i byłoby ono takie, żeby zmniejszać zmiany strumienia: gdy strumień rośnie z czasem, pole to powinno go zmniejszać. Sens tej zasady tkwi w tym, że prąd indukcyjny nie może nasilać zjawiska indukcji, które generuje jeszcze większy prąd: mielibyśmy elektrownię dostarczającą prądu za darmo, co jest niemożliwe.
Drugie potrzebne nam równanie Maxwella jest bardzo podobne, zamienione są jedynie rolami oba pola:

{\displaystyle \oint B_t dl=\sum B_t \Delta l=\mu_0\varepsilon_0 \dfrac{\Delta \Phi_E}{d t}.}

Stałe \mu_0,\,\varepsilon_0 są to przenikalności magnetyczna i elektryczna próżni, wielkości znane z pomiarów pola wytwarzanego przez ładunki i prądy. Nie ma znaku minus. Zamienione są miejscami pola elektryczne i magnetyczne.
Dla porządku dodajmy, że istnieją jeszcze dwa równania Maxwella. W przypadku próżniowym mówią one, że strumienie pola elektrycznego i magnetycznego wypływające z każdej zamkniętej powierzchni równe są zeru. W takiej postaci zapisał te równania dopiero Oliver Heaviside.

Najprostsza fala elektromagnetyczna

Obliczmy prędkość rozchodzenia się najprostszej konfiguracji pól. Jest to fala w kształcie tsunami: wartości pola równe zeru skaczą w półprzestrzeni do pewnej stałej wartości. Ponieważ równania Maxwella zawierają pola w pierwszej potędze, są liniowe, więc można z takich rozwiązań zbudować fale prostokątne, a z fal prostokątnych każde inne, wnioski będą zatem słuszne także w przypadku ogólnym.

Nasze tsunami pól elektrycznych i magnetycznych powinno rozchodzić się wzdłuż osi z, żeby strumienie przez zamknięte krzywe się zmieniały.
Gdy fala wchodzi na obszar prostokątnej pętli o szerokości w, prędkość zmiany pola powierzchni zajętego przez falę równa jest wv. Czyli szybkość zmian strumienia równa się B_y wv. Krążenie pola elektrycznego jest wyjątkowo proste, ponieważ tylko jeden bok prostokąta ma niezerowe pole. Mamy więc

-E_x w=- B_y wv\,\Rightarrow E_x=B_y v.

Podobnie, stosując równanie Maxwella do pętli prostokątnej w płaszczyźnie yz, otrzymamy

B_y w=\mu_0\varepsilon_0 E_x w v\,\Rightarrow B_y=\mu_0\varepsilon_0 E_x v.

Wstawiając pierwsze z otrzymanych równań do drugiego dostajemy

B_y=\mu_0\varepsilon_0 v^2 B_y.

Niezerowe rozwiązanie oznacza więc, że prędkość jest równa

v=\pm \dfrac{1}{\sqrt{\mu_0\varepsilon_0}}=\pm c.

Nasze „tsunami” musi rozchodzić się wzdłuż osi z z prędkością światła w próżni (możliwe są oba zwroty prędkości). Ponieważ z takich konfiguracji można zbudować dowolną falę, więc każda fala elektromagnetyczna musi rozchodzić się z prędkością c. (Przy okazji pokazaliśmy, że pola są prostopadłe do kierunku rozchodzenia się fali oraz E=cB).


W roku 1896 Albert Einstein prawdopodobnie nie potrafił tego jasno pokazać. Nawet podczas studiów na Politechnice równania Maxwella nie należały do programu, choć oczywiście Albert się tego dowiedział z własnych lektur.
Jak wówczas rozumiano ten wynik? Wydawało się naturalne, że równania Maxwella opisują zachowanie eteru – ośrodka, w którym rozchodzą się fale elektromagnetyczne tak, jak fale dźwiękowe w powietrzu. Prędkość c oznaczałaby więc prędkość względem eteru. Okazało się jednak z różnych doświadczeń, jak też i prac teoretycznych Lorentza, że jeśli poruszamy się względem eteru, to i tak prędkość się nie zmienia. Wymagało to jednak dodatkowych założeń na temat materii (skrócenie Lorentza-Fitzgeralda). W roku 1905 Einstein uznał, że najprościej jest uznać, że równania Maxwella nie opisują eteru, lecz zmiany pól w przestrzeni i czasie. Wtedy wartość c otrzymamy bez względu na to, jak szybko się poruszamy. Lumen nie mógłby więc prześcignąć fal świetlnych: bez względu na to, jak szybko by pędził, światło uciekałoby mu z prędkością c. Oczywiście, możliwe teoretycznie jest wysłanie ku nam z powrotem sygnałów z przeszłości. Tak się dzieje w powieści SF Carla Sagana Kontakt. Odebrane sygnały z kosmosu okazują się tam transmisją telewizyjną z otwarcia Igrzysk Olimpijskich w Berlinie z udziałem Adolfa Hitlera (była to jedna z najwcześniejszych prób tego rodzaju, pokaz technicznej potęgi III Rzeszy).

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

Fizyka dla mieszkańców Syriusza: stałe fizyczne (Max Planck, 1899-Matvei Bronstein, 1935)

Max Planck, profesor fizyki w Berlinie, najwybitniejszy niemiecki fizyk teoretyczny przełomu wieku XIX i XX, przez lata badał własności promieniowania termicznego. Idealnym obiektem badań jest tu tzw. ciało doskonale czarne, czyli takie, które pochłania całe padające nań promieniowanie. Można wykazać, że każde ciało doskonale czarne emituje promieniowanie o rozkładzie widmowym zależnym wyłącznie od temperatury. Np. Słońce jest w dobrym przybliżeniu ciałem doskonale czarnym.

Widzimy tu (szary) teoretyczny rozkład widmowy promieniowania ciała doskonale czarnego o temperaturze T=5777 K zestawiony z rzeczywistym promieniowaniem docierającym ze Słońca. Ciało doskonale czarne nie jest czarne, jego barwa zależy od temperatury. (obrazek: Wikimedia)

Znalezienie postaci krzywej widmowej tego promieniowania stało się największym osiągnięciem Maksa Plancka. Otrzymana przez niego zależność ma następującą postać

I(\lambda)=\dfrac{2hc^2}{\lambda^5}\,\dfrac{1}{\exp{(\frac{hc}{\lambda kT})}-1},

gdzie stałe k,c, h oznaczają odpowiednio stałą Boltzmanna (nazwa wprowadzona przez Plancka), prędkość światła w próżni i stałą Plancka. Mamy tu trzy stałe fizyczne, które ze względu na uniwersalność promieniowania powinny mieć fundamentalne znaczenie.

Max Planck zauważył (w roku 1899, zanim jeszcze wyprowadził swój słynny wzór), że stałe k, c,h w połączeniu ze stałą grawitacyjną G pozwalają wprowadzić jednostki niezależne od zaszłości ludzkiej historii czy w ogóle niezależne od naszych ludzkich parametrów: „pojawia się możliwość ustanowienia jednostek długości, masy, czasu i temperatury niezależnych od szczególnych ciał czy substancji, których znaczenie dla wszystkich czasów i wszystkich kultur, także pozaziemskich i pozaludzkich, pozostanie w konieczny sposób takie same”.

Stała Plancka to h=6,7\cdot 10^{-34} kg\cdot m^2/s , stała grawitacyjna to G=6,7\cdot 10^{-11} m^3/(kg\cdot s^2). Mamy więc dla ich iloczynu i ilorazu jednostki:

[hG]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{m}^3}{\mbox{kg}\cdot \mbox{s}^2}=\dfrac{\mbox{m}^3}{\mbox{s}^3}\mbox{m}^2=[c^3]\mbox{m}^2,

[h/G]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{kg}\cdot \mbox{s}^2}{\mbox{m}^3}=\mbox{kg}^2\cdot \dfrac{\mbox{s}}{\mbox{m}}=\mbox{kg}^2 [c^{-1}].

Zatem wielkości l_P, m_P będą nowymi „pozaziemskimi” jednostkami długości oraz masy:

l_P=\sqrt{\dfrac{hG}{c^3}}=4\cdot 10^{-35}\mbox{ m} ,

m_P=\sqrt{\dfrac{hc}{G}}=5,5\cdot 10^{-8}\mbox{ kg}.

Jednostkę czasu otrzymamy, dzieląc odległość przez prędkość światła:

t_P=\sqrt{\dfrac{hG}{c^5}}=1,3\cdot 10^{-43}\mbox { s}.

Te „pozaziemskie” jednostki Planck nazwał naturalnymi, a my dziś nazywamy układem jednostek Plancka. Podstawowe stałe fizyki mają w nim wartości równe 1: h=c=G=1. W roku 1899 interesująca wydawała się sama możliwość wprowadzenia jednostek, umożliwiających porozumiewanie się z fizykiem z Syriusza, który ma – jak to dobrze wiemy – postać  świecącego zielono dodekahedronu zanurzonego w inteligentnym oceanie (oni tam szybciej weszli w fazę AI).

Jednostki długości i czasu w układzie Plancka są skrajnie małe: nie tylko w porównaniu z nami, ale nawet z protonem i czasem potrzebnym światłu na przebycie jego wnętrza. Sens fizyczny tych jednostek stał się jasny znacznie później.

Najpierw powiedzmy, jak interpretuje się dziś stałe użyte przez Plancka.

Stała Boltzmanna jest w zasadzie przelicznikiem temperatury w kelwinach T na wartości energii kT – byłoby logiczniej z punktu widzenia fizyki mierzyć temperatury w jednostkach energii, a skoro tego nie robimy, potrzebujemy stałej Boltzmanna. Według najnowszych ustaleń od roku 2019 stała Boltzmanna równa jest dokładnie k=1,380649\cdot 10^{-13} J/K. Jest to tym samym nowa definicja kelwina (bo dżul zdefiniowany jest na podstawie kilograma, metra i sekundy).

Prędkość światła, czy ogólniej: każdego promieniowania elektromagnetycznego, w próżni wydawała się już około roku 1900 wielkością bardzo ważną. Dzięki teorii względności z roku 1905 wiemy, że jest to coś więcej niż pewna charakterystyczna prędkość w przyrodzie. Jest to bowiem naturalna granica prędkości ciał. Z punktu widzenia teorii względności prędkość światła jest właściwie przelicznikiem między odległościami a czasem. W fizyce poeinsteinowskiej odległości i czas należałoby mierzyć tymi samymi jednostkami. Inaczej mówiąc, stała c wyraża stosunek jednostek odległości do jednostek czasu. Jej wartość w dzisiejszej fizyce jest na mocy konwencji równa dokładnie c=299\,792\, 458 m/s$. Ta dziwna wartość wynika z potrzeby ciągłości dawnych i nowych jednostek.

Trzecia stałą, pojawiającą się we wzorze Plancka, jest oznaczana przez niego literą h wielkość, dziś zwana stałą Plancka. Pojawia się ona wszędzie tam, gdzie występują zjawiska kwantowe. Podstawowe równanie fizyki kwantowej, równanie Schrödingera, można zawsze zapisać w postaci

i\hbar \dfrac{\partial\psi}{\partial t}=H\psi,

gdzie i to jednostka urojona, a \hbar\equiv \dfrac{h}{2\pi}, \psi jest funkcją falową, a H – hamiltonianem, czyli matematycznym zapisem energii układu. Planck z początku nie wiedział, jak ogromne znaczenie ma jego stała wprowadzona dla promieniowania. Obecnie (od roku 2019) wartość stałej Plancka jest określona raz na zawsze jako h=6,67607015\cdot 10^{-34} J·s. W istocie, jest to nowa definicja kilograma, słynny wzorzec z Sèvres jest już niepotrzebny (kilogram pojawia się w jednostce energii: 1\mbox{J}=1 \mbox{kg}\cdot \dfrac{\mbox{m}^2}{\mbox{s}^2}.).

Stałe h,c,G określają możliwe teorie fundamentalne fizyki. Sytuację tę można przedstawić za pomocą sześcianu Bronsteina (sam obrazek jest późniejszy):

 

W początku układu mamy mechanikę klasyczną bez grawitacji. Odpowiada to wartościom \hbar=G=1/c=0. Szczególna teoria względności odpowiada przyjęciu 1/c<\infty, mechanika kwantowa przyjęciu niezerowej stałej Plancka \hbar\neq 0. Kwantowa teoria pola, czyli Model Standardowy cząstek odpowiada \hbar\neq 0 oraz c<\infty. Ogólna teoria względności zawiera stałą grawitacji G oraz prędkość światła c. Kwantowa teoria grawitacji byłaby „teorią wszystkiego” w tym sensie, że zawierałaby zarówno efekty kwantowe, jak i grawitacyjne. Wszystkie trzy stałe byłyby w niej niezerowe.

Matvei Bronstein, dwudziestoparolatek, już w roku 1933 zaczął się zastanawiać nad kwantowaniem grawitacji. Pięć lat później już nie żył, aresztowany i skazany na śmierć podczas wielkiego terroru w Związku Sowieckim. Także Lew Landau, największy rosyjski teoretyk, był wówczas aresztowany. W jego przypadku pomogła interwencja Piotra Kapicy.

Sześcian Bronsteina jest tylko prostą ilustracją jednego z aspektów poszukiwanej kwantowej teorii grawitacji: wszystkie trzy fundamentalne stałe miałyby w niej skończoną wartość. Wszystkie te stałe (wraz ze stałą Boltzmanna) pojawiają się w we wzorze Hawkinga na temperaturę czarnej dziury. Układ Plancka byłby w kwantowej grawitacji naturalnym układem jednostek. Znaczy to, że zjawisk kwantowych związanych z grawitacją należy oczekiwać w skali długości Plancka, czyli znacznie poniżej dostępnych dziś w badaniach. Masa Plancka jest niemal porównywalna z naszymi jednostkami. Znaczy to jednak, że odpowiadająca jej energia równa będzie E_P=m_P c^2=4,9\cdot 10^{9} J. W teorii fundamentalnej jest to energia olbrzymia, widać to, gdy wyrazimy ją w elektronowoltach:  E_P=3,07\cdot 10^{28} eV. Dla porównania najdroższy akcelerator w dziejach fizyki, LHC w CERN-ie, może maksymalnie osiągnąć energię 14 TeV, czyli 14\cdot 10^{12} eV – jest to piętnaście rzędów wielkości poniżej energii Plancka.

Wartości stałych fundamentalnych stanowią rodzaj przelicznika pomiędzy naszymi zwykłymi jednostkami, jak metry, sekundy, kilogramy, a jednostkami, jakich używa przyroda, zrozumiałymi dla kolegi z Syriusza. Nb. matematyka jest zapewne jedynym językiem, w którym moglibyśmy się z owym dodekaedrem porozumieć. Może należy zwrócić na to uwagę w dyskusji dotyczącej matury z matematyki: matematyka to jedyny język, w którym możemy się porozumiewać z mieszkańcami Syriusza czy szerzej: ze wszechświatem. Zastosowania są chyba oczywiste.

Niezależne od jednostek są stałe bezwymiarowe. Np. kwadrat ładunku elektronu można wyrazić następująco:

\alpha=\dfrac{q_e^2}{4\pi\varepsilon_0 \hbar c}=\dfrac{1}{137,036}.

Mając jeszcze do dyspozycji masę elektronu m_e, można wyrazić wszystkie wielkości atomowe. Energia wiązania elektronu w atomie wodoru to

E_j=\alpha^2 m_e c^2=13,6 \mbox{ eV},

a promień atomu (tzw. promień Bohra):

r=\dfrac{\hbar}{\alpha m_e c}=0,5\cdot 10^{-10}\mbox{ m}.

Wielkości te określają skalę zjawisk atomowych i cząsteczkowych. W  fundamentalnej teorii wszystkiego powinniśmy masę elektronu wyrazić w masach Plancka, a promień Bohra w długościach Plancka.

Ilu różnych bezwymiarowych stałych potrzebujemy do opisu świata? Używamy jednostek Plancka. Zatem grawitacja kwantowa nie zawiera żadnych dowolnych stałych. Model Standardowy potrzebuje trzech stałych określających siłę oddziaływań: oprócz \alpha dla oddziaływań elektromagnetycznych, potrzeba jeszcze stałych dla oddziaływań słabych i silnych. W sumie mamy 3 stałe. Dalej, potrzebujemy mas: sześciu kwarków, trzech leptonów i trzech neutrin oraz bozonu Higgsa (wszystko wyrażamy w masach Plancka, więc są to wielkości bezwymiarowe). Dotąd mamy 16 stałych. Potrzebna jest jeszcze wartość oczekiwana pola Higgsa: stała nr 17. Kolejnych 8 stałych bierze się z różnych macierzy mieszania. Daje to 25 parametrów, przy czym większość wynika z Modelu Standardowego. Wielkość ciemnej energii jest parametrem nr 26 (jeśli ciemna energia to stała kosmologiczna). Z jednej strony jest tych stałych za wiele jak na fundamentalną teorię, z drugiej strony jednak od czterdziestu lat nikt nie potrafi wskazać teorii bardziej ekonomicznej, a te stałe nie są jakimiś kaprysami teoretyków, lecz potwierdzane są w eksperymentach (tutaj LHC ma jak najbardziej zastosowanie).

Więcej szczegółów nt. stałych w artykule Johna Baeza.

 

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Oliver Heaviside i głuchy telefon (1886-1891)

Heaviside był człowiekiem trudnym w kontaktach, nie bardzo też interesowała go kariera zawodowa. Rodzina była zbyt biedna, aby mógł zdobyć solidne wykształcenie, toteż zakończył swą szkolną edukację w wieku szesnastu lat. Przebyta w dzieciństwie szkarlatyna upośledziła jego słuch, izolując go od rówieśników. Choć z czasem odzyskał w znacznej mierze słuch, to pozostał autsajderem na resztę życia. Krótko pracował jako telegrafista i pracownik techniczny u boku starszego brata Arthura w firmie zarządzającej kablem pomiędzy Danią i Anglią, lecz zwolnił się w wieku dwudziestu czterech lat i już nigdy później nie pracował zawodowo. Mieszkając w pokoju u rodziców, zajmował się eksperymentalnie i teoretycznie elektrycznością, jedyne pieniądze zarabiał z publikacji artykułów w fachowym piśmie „The Electrician”. Był jednym z pierwszych kontynuatorów Jamesa Clerka Maxwella, udało mu się uprościć i przejrzyściej zapisać równania elektromagnetyzmu. Odkrył rachunek operatorowy ułatwiający rozwiązywanie równań różniczkowych (posługiwał się funkcją δ na długo przed Dirakiem). Zastosował też zapis wektorowy, bez którego trudno dziś sobie wyobrazić teorię Maxwella. Dzięki bratu, pracującemu jako inżynier, znał praktyczne problemy telefonii i podał metodę zbudowania linii przesyłowej w taki sposób, aby nie zniekształcała sygnałów. Problem był palący, ponieważ telefonia rozwijała się burzliwie i wraz ze wzrostem odległości sygnał nie tylko był słabszy, ale też ulegał zniekształceniu. Dalsza historia tego odkrycia Heaviside’a była zapewne do przewidzenia: z początku nie chciano mu wierzyć, a później to inni zarobili miliony na wcieleniu jego idei w życie.

Biografia Heaviside’a skłania do zastanowienia nad rolą autorytetów w różnych dziedzinach. Będąc jednym z najwybitniejszych uczonych swoich czasów, postrzegany był jako jakiś niedouczony telegrafista, a przy tym dziwak. Jego artykuły w „The Electrician” były trudne do zrozumienia, a może po prostu nikt nie przykładał się do ich zrozumienia, ponieważ były autorstwa jakiegoś urzędnika, nie wiadomo właściwie kogo. Tymczasem stanowiły one oryginalny wykład do teorii elektromagnetyzmu. Gdy Heinrich Hertz odkrył fale elektromagnetyczne, w pracach Heaviside’a znaleźć można było nowocześniejsze i prostsze ujęcie teorii, która tak wspaniale się potwierdziła. Nasz „telegrafista” wyprzedził tu znacznie większość uczonych brytyjskich i kontynentalnych. W szczególności jego podejście górowało nad konserwatywnym i sceptycznym nastawieniem Williama Thomsona, późniejszego lorda Kelvina. Ten ostatni nie potrafił się przekonać do teorii Maxwella, co miało znaczenie, ponieważ był najsławniejszym uczonym Wielkiej Brytanii, zasiadał we wszystkich możliwych radach i towarzystwach, a każde jego słowo prasa traktowała jak wyrocznię. Tak było, gdy w 1888 roku, po odkryciu Hertza, Thomson orzekł, iż jego zastrzeżenia wobec teorii Maxwella nieco się zmniejszyły (uznał bowiem, że prąd przesunięcia – najważniejszy element pojęciowy zaproponowany przez Maxwella – z „zupełnie nie do utrzymania” awansował w jego oczach do kategorii „niezupełnie do utrzymania”). Thomson miał swoją wizję idealnej teorii elektromagnetyzmu, prawdopodobnie zresztą dlatego nie osiągnął końcowego sukcesu. W każdym razie to młodszy od niego James Clerk Maxwell rozwiązał problem, choć sir William nie chciał się z tym pogodzić.

 

Baron Kelvin of Largs

William Thomson umiał jednak zachowywać się fair i dzięki temu Oliver Heaviside doczekał się nieco uznania za życia. Wcześniej, w roku 1887, przeszedł swe najgorsze chwile, gdy stracił możliwość publikowania, a zarazem też skromne dochody, jakie ta działalność zapewniała. Za 40 funtów rocznie redakcja otrzymywała ciągły strumień oryginalnych publikacji z dziedziny elektromagnetyzmu. Kryzys nastąpił wtedy, gdy Oliver Heaviside wszedł w konflikt z Williamem Henry’m Preece’em, ważnym ekspertem brytyjskiej poczty. Preece starał się przeforsować kosztowną decyzję budowy linii telefonicznych z kablem miedzianym w miejsce żelaznego. Argumentował, że dzięki temu wzrośnie zasięg rozmów, ponieważ kable żelazne wytwarzają pole magnetyczne, a to prowadzi do strat energii (zmienne pole magnetyczne indukuje dodatkowe napięcie, mówi się o indukcyjności kabla: miedziane zmniejszały wg Preece’a indukcyjność i na tym polegała ich wyższość). Mało tego, Preece twierdził, że wykazał fałszywość teorii Maxwella. W tym samym czasie Arthur i  Oliver próbowali opublikować pracę, która podważała poglądy Preece’a, a nawet im przeczyła: otóż pole magnetyczne wcale nie musi przeszkadzać w przesyłaniu rozmów telefonicznych, a nawet może pomagać. Pewny siebie Preece zakazał publikacji. Obaj bracia zareagowali na to rozmaicie: Arthur jako podwładny Preece’a przestał się zajmować tym tematem, Oliver natomiast zaczął z upodobaniem dowodzić niekompetencji Preece’a, którego określał m.in. jako „the eminent scienticulist” – czyli coś w rodzaju „wybitnego mędrka”. Racja naukowa była całkowicie po stronie Heaviside’a, znalazł on warunek, jaki spełniać powinna linia przesyłowa, aby nie zniekształcała rozmów (chodzi o to, by składowe o różnych częstościach tłumione były w jednakowym stopniu, w ten sposób daleki odbiorca otrzymuje sygnał słabszy, lecz podobny do wysłanego). Ów warunek Heaviside’a był kontrintuicyjny, lecz prawdziwy i oznaczał, że należy w praktyce zwiększać indukcyjność linii, czyli wytwarzane przez nie pole magnetyczne. Nacisk Preece’a sprawił, że zmienił się redaktor naczelny „The Electrician” i nowy już nie chciał publikować artykułów Heaviside’a.

Karykatura z 1888 r.: Preece pod sztandarem wieloletnich doświadczeń pokonuje Olivera Lodge’a (który podawał w wątpliwość skuteczność używanych piorunochronów i krytykował jego teoretyczne rozważania, stając po stronie Heaviside’a)

Atmosfera wokół niego poprawiła się dopiero wówczas, gdy publicznie docenił jego teorię William Thomson. Otworzyło to drogę do przyjęcia Heaviside’a w roku 1891 na członka Towarzystwa Królewskiego, ułatwiło też publikację kolejnych prac. Zadziwiająco mało zmieniło się w życiu uczonego, który przywiązywał chyba większą wagę do możliwości publikacji niż do zarobku. Nadal pozostał prywatnym uczonym, po śmierci rodziców jego środki do życia mocno się skurczyły. Dzięki dyskretnym staraniom paru wybitnych uczonych zaczął Heaviside otrzymywać skromną emeryturę (dyskretnych, ponieważ drażliwy Heaviside nie chciał jałmużny). Żył dość długo, by widzieć, jak jego idea zwiększenia indukcyjności kabli telefonicznych została wcielona w życie jako pupinizacja albo krarupizacja. Zarówno Amerykanin serbskiego pochodzenia Mihajlo Pupin, jak i Duńczyk Karl Emil Krarup, wyciągnęli praktyczne wnioski z teorii Heaviside’a. Pupin po długiej batalii prawnej z firmą AT&T zarobił na swoim patencie 450 000 $ (blisko 30 mln $ obecnie). Jego rozwiązanie polegało na umieszczaniu w stałych odległościach cewek zwiększających indukcyjność. Krarup zastosował żelazne druty (zwiększające pole magnetyczne) oplatające miedziany rdzeń. Dzięki temu w pierwszych latach XX wieku wzrósł zasięg linii telefonicznych, a ich układanie stało się tańsze. Także kariera Preece’a, który nigdy nie przyznał się do błędu, nie doznała żadnego uszczerbku i rozwijała się pomyślnie, z czasem doczekał się on tytułu szlacheckiego. Tylko Heaviside dziwaczał coraz bardziej, mieszkał sam, pod koniec życia zastąpił meble blokami granitu, zaniedbał się i cierpiał na rodzaj manii prześladowczej. Nie dowiemy się już, czy dziwaczał, ponieważ nie osiągnął pozycji w społeczeństwie odpowiadającej jego talentowi, czy też odwrotnie: nie udało mu się zdobyć pozycji w bardzo konkurencyjnym wiktoriańskim społeczeństwie, ponieważ zbytnio odbiegał od przyjętych standardów zachowania i nawet talent nie mógł tu pomóc.

Die Vermittlungszentrale im Berliner Fernspreschamt II
Original: Frankfurt am Main, Deutsches Postmuseum
Foto: Berlin, 1894

Centrala telefoniczna w Berlinie, 1894 r.

Technika telefoniczna rozwijała się szybko. Kolejnym krokiem było skonstruowanie wzmacniacza na triodach (regeneratora sygnałów), który zaczął być stosowany komercyjnie tuż przed pierwszą wojną światową. Heaviside zdążył jeszcze przewidzieć istnienie jonosfery, dzięki której fale radiowe rozchodzą się wzdłuż powierzchni Ziemi, umożliwiając np. międzykontynentalne przekazywanie sygnału radiowego.

Pokażemy na przykładzie, jak Heaviside potraktował kwestię przesyłania sygnałów bez zniekształceń. Linia przesyłowa to rozciągnięty bardzo obwód. Można uważać, że każdy jego fragment o długości \Delta x składa się z podstawowych elementów obwodu: oporu R\Delta x, indukcyjności L\Delta x oraz połączonych równolegle pojemności C\Delta x oraz przewodnictwa G\Delta x. Dla pierwszego i ostatniego elementu obowiązuje prawo Ohma (przewodnictwo jest odwrotnością oporu):

\dfrac{U}{I}=R.

Napięcie na końcach indukcyjności równe jest

U=L\dfrac{dI}{dt},

co Heaviside w swoim języku symbolicznym zapisywał jako U=LpI (p oznaczało branie pochodnej po czasie). Dla pojemności mamy natomiast

I=\dfrac{dQ}{dt}=C\dfrac{dU}{dt}=CpU.

gdzie Q jest ładunkiem.

Stosunki napięcia do natężenia są zastępczymi oporami, mamy więc dla indukcyjności Lp, a dla pojemności 1/pC. Ponieważ możemy podzielić naszą linię transmisyjną na dowolnie dużą liczbę powtarzających się segmentów o długości \Delta x, więc dodanie kolejnego segmentu nie powinno zmieniać zastępczego oporu. Opór zastępczy całej linii Z (wejściowy) musi w takim razie być tym samym, co połączenie równoległe elementów G\Delta x, C\Delta x oraz (R+Lp)\Delta x + Z na końcu. W połączeniu równoległym dodają się odwrotności oporów, mamy więc

\dfrac{1}{Z}=(G+pC)\Delta x+\dfrac{1}{(R+pL)\Delta x+Z}.

Po przekształceniach dostajemy równanie kwadratowe na opór zastępczy:

Z^2+(R+pL)\Delta x Z=\dfrac{R+pL}{G+pC}.

Jeśli teraz przyjmiemy, że \Delta x\rightarrow 0, to otrzymamy

Z^2=\dfrac{R+pL}{G+pC}.

Otrzymany wynik wygląda odrobinę dziwnie, jeśli przypomnimy sobie, że p to różniczkowanie. Nie jest jasne, jak powinniśmy dzielić przez p i jak wyciągać pierwiastek. Heaviside szedł za swoim formalizmem tak daleko, jak tylko się dało i rozpatrywał wyrażenia takie, jak np. p^{\frac{1}{2}}. Uważał on matematykę za naukę empiryczną i jak mówił: „Czy mam odmówić zjedzenia obiadu, ponieważ nie znam wszystkich szczegółów trawienia?” My nie musimy iść aż tak daleko. Widać z ostatniego wyrażenia, że gdy spełniony będzie warunek

\dfrac{R}{G}=\dfrac{L}{C},

nasz ułamek się skróci (cokolwiek to znaczy) i nie będzie zawierał p, w takiej sytuacji sygnał o dowolnym kształcie nie ulegnie zmianie. Jest to warunek Heaviside’a. W praktyce znaczył tyle, że indukcyjność L należy powiększyć, czego nie rozumiał Preece. Dodać należy, że Heaviside formułował tę swoją matematykę także w konwencjonalny sposób – był może dziwakiem, ale w kwestii technik matematycznych zachowywał się całkiem racjonalnie. Obecnie stosuje się transformaty Laplace’a albo można sobie wyobrażać, że zależność od czasu ma postać \exp(i\omega t) (gdzie \omega to częstość kołowa), wówczas różniczkowanie sprowadza się do mnożenia i mamy po prostu p=i\omega.

 

 

 

James Clerk Maxwell: Pole magnetyczne jako wiry materii (1862)

Mody intelektualne przychodzą i odchodzą podobnie jak wszelkie inne mody. W XVII wieku starano się wszystkie zjawiska fizyczne wyjaśniać za pomocą ruchu jakichś niewidzialnych cząstek, które miały się zderzać i przekazywać sobie ruch. Chodziło głównie o to, by wyeliminować z nauki wszelkie oddziaływanie na odległość: cząstki oddziaływały tylko podczas zderzeń i nie działały pomiędzy nimi żadne siły spójności. René Descartes, zwany u nas Kartezjuszem, tak sobie wyobrażał działanie magnesu.

(Principia Philosophiae, 1644)

Świat składał się u niego z krążących strumieni cząstek, a ponieważ przestrzeń miała być tym samym co rozciągłość, cząstki owe krążyły wśród drobniejszych cząstek tak, aby nie pozostawiać nigdzie pustego miejsca (tak mu bowiem wyszło z rozumowań: że nie ma próżni, pusta przestrzeń to oksymoron, jak czarny śnieg albo zimny wrzątek). Wiry cząstek objaśniały rzeczy wielkie, jak ruch planet, a także małe, jak przyciąganie magnesu i żelaza. W przypadku magnetycznym cząstki owe przypominały makaron świderki, były skręcone i mogły się albo wkręcać, albo wykręcać z nagwintowanych porów magnesu. Nie wiemy, jak bardzo Kartezjusz wierzył w słuszność tego wyjaśnienia. Na szczęście filozofowie i uczeni nie muszą (zazwyczaj) umierać za swoje teorie, wystarczy, że to one, wiodąc żywot niezależny od swych autorów, giną albo zwyciężają w ich imieniu.

Jednak do połowy XVIII wieku Kartezjusz panował we Francji i z tego powodu nawet Newtonowska grawitacja – przyciągająca i działająca na odległość – przyjmowała się z trudem. Większość uczonych akademików i prowincjonalnych amatorów z upodobaniem wymyślała coraz to nowe cząstki i wiry, np. objaśniające elektryczność. Inaczej do sprawy podchodził Benjamin Franklin, który nie lubił zbyt skomplikowanych teorii i uznał elektryczność za rodzaj fluidu zawartego w ciałach. W naładowanym kondensatorze inne miało być stężenie owego fluidu po obu stronach izolatora. Franklin zauważył, że naładowany kondensator można rozładować za pomocą wahadełka, które przenosi ładunek od okładki do okładki – zawarty jest w tym pewien obraz elektryczności jako czegoś, co może się przenosić od jednego ciała do drugiego, jak jakiś specjalny płyn, nieważki, lecz rzeczywisty.

Butelka lejdejska (czyli kondensator) rozładowywana za pomocą wahadełka z korka

Wariant tego urządzenia zamontowany był w domu Franklina w Filadelfii: między piorunochronem a uziemieniem biegnie drut przerwany dwoma dzwonkami. Wahadełko umieszczone pomiędzy obu dzwonkami poruszało się, gdy pojawiał się w układzie ładunek. Żona badacza, Deborah, w słusznym odruchu twierdziła, że boi się tego dzwonienia podczas burzy czy wtedy, gdy się ma na burzę. Małżonek, przebywający w Londynie, zezwolił jej wówczas na zdemontowanie dzwonków.

W XIX wieku wierzono już w świat wypełniony nie sypkim piaskiem, ale raczej galaretowatym eterem. Wiedziano, że światło to fale poprzeczne, a więc i ośrodek musiał wykazywać pewną sprężystość kształtu, nie mógł przelewać się jak ciecz albo gaz. Trzeba to było jakoś pogodzić np. z ruchem ciał niebieskich, które poruszają się, nie napotykając oporu eteru. Rozwinęły się w związku z tym techniki równań różniczkowych cząstkowych oraz rozmaite fantastyczne idee na temat eteru. Michael Faraday wprowadził do nauki pojęcie linii sił. Wyobrażał sobie, że owe linie się wzajemnie odpychają, dążąc zarazem do skrócenia się, jakby były z gumy, dając w efekcie siły przyciągania bądź odpychania. Jako niematematyk wyobrażał je sobie jako pewne dość konkretne, choć niewidoczne byty. Ładunki elektryczne były dla niego w zasadzie zakończeniami owych linii sił, a nie czymś istniejącym samodzielnie. Fluid Franklina i inne tego rodzaju pomysły trafiły do lamusa. Wahadełko Franklina miało być przyciągane właśnie tymi elastycznymi i odpychającymi się liniami sił (na obrazku kulka przyciągana jest do lewej okładki kondensatora; kulka naładowana jest tak, jak prawa okładka).

W styczniu roku 1862 James Clerk Maxwell opublikował trzecią część pracy On Physical Lines of Force, w której zajmował się m.in. wyjaśnieniem pola magnetycznego za pomocą wirów w eterze. Eter wypełniać miały wielościenne, zbliżone do kul elastyczne cząstki („wiry molekularne”), a pomiędzy nimi była jeszcze pojedyncza warstwa drobniejszych cząstek kulistych.

Pole magnetyczne polegać miało na wirowaniu cząstek wielościennych – im silniejsze ple, tym większa prędkość kątowa. Obraz tych „wirów molekularnych” wiązał się z obserwacją Faradaya, że płaszczyzna polaryzacji światła obraca się, gdy fala biegnie wzdłuż kierunku pola magnetycznego. Efekt Faradaya wskazywał na związek pola magnetycznego i fali świetlnej. Aby sąsiednie wiry mogły obracać się w tym samym kierunku, potrzebna była dodatkowa warstwa cząstek przekazujących ruch i obracających się bez tarcia, nieco podobnie jak w łożysku kulkowym.

Gdy prędkość sąsiednich wirów była taka sama, owe dodatkowe kulki jedynie się obracały (lewa część rysunku), gdy natomiast prędkości wirowania się różniły, kulki dodatkowe przemieszczały się, odpowiadając za prąd elektryczny. Jednak według Maxwella nie były one nośnikami ładunku, inaczej niż to wyobrażamy sobie dziś. Włączając do modelu sprężystość wirów molekularnych, które mogły nie tylko się obracać, ale i odkształcać, Maxwell wprowadził do swej teorii prąd przesunięcia i efekty elektrostatyczne. W tej samej pracy obliczył prędkość rozchodzenia się sprężystych fal poprzecznych w swoim modelu eteru. Okazała się ona równa prędkości światła. Tak naprawdę jego model nie był do końca ściśle określony i dokładna zgodność z prędkością światła była do jakiegoś stopnia przypadkowa. Maxwell uwierzył jednak, że ma ona znaczenie i zainteresował się pomiarami elektrycznymi i magnetycznymi, które mogły dostarczyć dokładniejszej wartości stałych do modelu. Fale poprzeczne w tym eterze nie były jeszcze falami elektromagnetycznymi: pola elektryczne i magnetyczne nie zmieniały się w nich tak, jak w fali elektromagnetycznej. Dalsze prace Maxwella stopniowo oddalały się od tego modelu. Spełnił on jednak ważną rolę heurystyczną. Większość uczonych XIX wieku wierzyła, że zjawiska elektromagnetyczne w taki czy inny sposób należy sprowadzić do ruchów eteru. Mechanika była ich sposobem myślenia, był to wiek pary i urządzeń mechanicznych: przekładni, tłoków, łożysk, regulatorów itd.
Pierre Duhem, ważny filozof nauki i znacznie słabszy uczony, dostrzegał te inżynierskie parantele i patrzył na nie z pewnym politowaniem. Pisał, rozróżniając fizykę angielską i niemiecko-francuską (było to przed I wojną światową, zanim Niemcy przestali być jego faworytami):

Fizyk francuski bądź niemiecki przyjmował w przestrzeni dzielącej dwa przewodniki abstrakcyjne linie sił bez grubości, bez realnego istnienia; fizyk angielski uzna te linie za materialne, przyda im grubości, by stały się rozmiarów rurki, którą wypełni zwulkanizowanym kauczukiem; w miejsce idealnych linii sił, możliwych do pojęcia jedynie rozumowo, pojawi się u niego wiązka elastycznych strun, widzialnych i dotykalnych, mocno przyklejonych swymi końcami do powierzchni obu przewodników, naciągniętych, dążących do skrócenia się i pogrubienia zarazem (…) Tak przedstawia się słynny model oddziaływań elektrostatycznych wyobrażony przez Faraday i podziwiany jako owoc geniuszu przez Maxwella oraz całą szkołę angielską.
(…) Oto książka, która ma na celu przedstawienie nowoczesnej teorii elektryczności, przedstawienie nowej teorii; a mowa w niej wyłącznie o sznurach poruszających kołami obracającymi się w bębnach, poruszających kulkami, podnoszącymi ciężary; o rurach pompujących wodę i rurach skracających się i poszerzających, kołach zębatych sprzęgniętych ze sobą i z zębatkami; sądziliśmy, że wkraczamy do spokojnego i starannie zaprojektowanego gmachu dedukcyjnego rozumu, a trafiliśmy do fabryki”. [La Théorie physique: Son objet et sa structure, Paris 1906, s. 110-111]

Duhem ma tu na myśli książkę Olivera Lodge’a Modern views of electricity, ale i całą brytyjską szkołę naukową. Zabawnie pomyśleć, że Francuz, potomek Kartezjusza, tak bardzo gorszył się wyjaśnieniami mechanicznymi. Filozof słabo rozumiał swoje czasy, był bardzo konserwatywnym katolikiem, który starał się wykazać, że Galileusz niezbyt się przyczynił do rozwoju nauki; mniej w każdym razie niż kardynał Bellarmine, który spalił Giordana Bruna i wciągnął Kopernika na Indeks ksiąg zakazanych. Prawdopodobnie główną winą Galileusza oczach Duhema był fakt, że naraził się Kościołowi, a ten z zasady jest nieomylny. Oliver Lodge rzeczywiście miał przesadne upodobanie do mechanicznych wynalazków ilustrujących elektryczność i magnetyzm. Takie upodobanie miał także i Boltzmann, najważniejszy fizyk europejski między Maxwellem a Einsteinem. Można przypuszczać, że James Clerk Maxwell nie wykonałby swej ogromnej wieloletniej pracy nad teorią elektromagnetyzmu, gdyby nie mechaniczne modele. Odegrały one ważną rolę, bo pomagały mu w myśleniu. Duhem, podobnie jak wielu filozofów i wielu katolików, obszczekiwał nie to drzewo.

Wiry molekularne Maxwella znalazły jakiś rodzaj kontynuacji we współczesnym opracowaniu matematycznym jego teorii. Pole magnetyczne okazuje się 2-formą, czymś, co w naturalny sposób daje się całkować po powierzchni. Obiekt taki geometrycznie przedstawia się jako rurkę z pewną skrętnością. Pole elektryczne jest 1-formą, czyli czymś, co daje się naturalnie całkować wzdłuż krzywej. Obiekt taki można przedstawić jako układ płaszczyzn czy powierzchni dwuwymiarowych, które przecinamy idąc w pewnym kierunku.

Rozważania Maxwella nie były więc tak bardzo od rzeczy, jak moglibyśmy dziś sądzić, słysząc o wirach molekularnych w eterze. Opisu świata dostarczają więc raczej obiekty matematyczne niż dziewiętnastowieczne przekładnie i zębatki.

Wydaje się, że ludzie najlepiej wyobrażają sobie to, co sami potrafią w danej epoce zbudować: dawniej były to mechanizmy zegarowe i urządzenia hydrauliczne, w wieku XIX różne pomysłowe maszyny, od końca wieku XX na wyobraźnię wpływają komputery. Wyobraźnia typu inżynierskiego, obrazowego, miała zawsze duże znaczenie w nauce: od Galileusza i Kartezjusza, przez Newtona aż do lorda Kelvina, Maxwella i Einsteina – wszyscy oni mieli spore kompetencje praktyczne. W tym sensie świat jednak bardziej jest fabryką niż świątynią dogmatycznego albo tylko matematycznego rozumu. Dziś co chwila pojawiają się „komputerowe” teorie świata, np. czy zamieszkujemy wszyscy jakiś program komputerowy, którego założenia poznajemy tylko przez obserwację? Jeden z największych sporów w fizyce dotyczy tego, co dzieje się z informacją wpadającą do czarnej dziury. Z jednej strony teoria grawitacji Einsteina mówi bowiem, że informacja ta ginie razem ze swym nośnikiem pod horyzontem dziury. Z drugiej strony teoria kwantów wymaga, aby informacja nigdy nie ginęła na dobre – może być praktycznie nie do odzyskania, ale co do zasady powinno być to możliwe. Promieniowanie Hawkinga nie rozwiązuje sprawy, ponieważ dziura nie jest wprawdzie absolutnie czarna, ale jej promieniowanie jest termiczne, a więc chaotyczne, nie zawierające informacji. Stworzono gigabajty prac na ten temat, lecz wciąż nie wiadomo, czy w którejś z nich zawarta jest poszukiwana informacja.

Od zasady najdłuższego czasu do równań Maxwella III

W poprzednich dwóch częściach rozpatrzyliśmy zasadę wariacyjną dla cząstki w polu, które okazało się elektromagnetyczne (przy okazji otrzymaliśmy siłę Lorentza) oraz zasadę wariacyjną dla pola elektromagnetycznego. Skoro zaszło się tak daleko, warto może pokazać jeszcze kilka prostych konsekwencji tego, co uzyskaliśmy. Dwa równania Maxwella (prawo Gaussa i prawo Ampère’a) mają u nas postać:

\partial^{\mu}F_{\mu\nu}=\mu_0 j_{\nu},\mbox{(1)}

gdzie j_{\nu}=(c\rho,-\vec{j}) jest czterowektorem gęstości ładunku oraz gęstości prądu; nie wprowadzaliśmy ich poprzednio, ponieważ ominęliśmy obliczenie wariacji lagranżianu oddziaływania pola z cząstkami, wyraz taki ma postać -\int j^{\mu}A_{\mu} d^{4}x. Jasne jest, że muszą pojawić się jakieś źródła: ładunki i prądy.

Dwa pozostałe równania Maxwella (prawo Faradaya oraz magnetyczny odpowiednik prawa Gaussa) wyglądają następująco:

\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.\mbox{(2)}

Z równości tej otrzymujemy cztery równania skalarne, gdy trzy wskaźniki są różne. Jednak samo równanie jest prawdziwe dla dowolnego zestawu wskaźników, przy powtarzających się dostajemy tożsamościowo zero, np.

\partial_{0}F_{01}+\partial_{1}F_{00}+\partial_{0}F_{10}=0,

gdyż wyraz środkowy równy jest zeru, a dwa skrajne mają przeciwne znaki (bo F_{\mu\nu}=-F_{\nu\mu}).

Pokażemy trzy krótkie wnioski z równań zapisanych w tej postaci:

  1. Równania Maxwella w próżni sprowadzają się do równania falowego, a to znaczy, że pole elektromagnetyczne może wędrować w przestrzeni jako fala.
  2. Możemy zapisać te równania za pomocą czteropotencjału A_{\mu}.
  3. Spełniona jest zasada zachowania ładunku.

Ad 1 Obliczmy pochodną \partial^{\mu} z naszego równania (2):

\partial^{\mu}\partial_{\mu}F_{\nu\rho}+\partial^{\mu}\partial_{\rho}F_{\mu\nu}+\partial^{\mu}\partial_{\nu}F_{\rho\mu}=0.

Należy to sobie wyobrażać jako wzięcie pochodnej, a następnie wysumowanie po powtarzającym się wskaźniku. Dwa ostatnie wyrazy są w próżni równe zeru na mocy równania (1). Wyraz pierwszy to

\partial^{\mu}\partial_{\mu}=\dfrac{1}{c^2}\dfrac{\partial^2}{\partial t^2}-\dfrac{\partial^2}{\partial x^2}-\dfrac{\partial^2}{\partial y^2}-\dfrac{\partial^2}{\partial z^2}\equiv \square.

Taki operator nazywa się dalambercjanem (od Jeana Le Ronda d’Alemberta, który zajmował się jeszcze w XVIII wieku równaniem falowym) przez analogię do laplasjanu. Otrzymany wynik można więc krótko zapisać:

\square F_{\mu\nu}=0.

A więc teoria przewiduje fale w próżni.

Ad 2 Tensor pola wyraża się przez czteropotencjał następująco:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Wartości pola elektromagnetycznego otrzymujemy przez różniczkowanie, więc jasne jest, iż wybór czteropotencjału nie jest jednoznaczny. Równanie (2) zapisane za pomocą czteropotencjału daje tożsamościowo zero:

\partial_{\mu}(\partial_{\nu}A_{\rho}-\partial_{\rho} A_{\nu})+\partial_{\rho}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})+ \partial_{\nu}(\partial_{\rho}A_{\mu}-\partial_{\mu}A_{\rho})=0.

Łatwo zauważyć, że mamy pary wyrazów różniących się tylko znakiem (kolejność różniczkowania wolno zawsze zmienić). W bardziej rozbudowanej matematycznie teorii jest to tzw. tożsamość Bianchiego (od matematyka włoskiego z przełomu XIX i XX wieku, pierwszy zresztą tę tożsamość zapisał Ricci-Curbastro, a potem odkrywana była jeszcze wiele razy na nowo). Wstawiając potencjał do równania (1), otrzymujemy

\partial^{\mu}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})=\square A_{\nu}-\partial_{\nu}(\partial^{\mu}A_{\mu})=\mu_{0}j_{\nu}.

Ostatnie równanie można uprościć, korzystając ze swobody cechowania. Możemy bowiem zażądać, żeby ostatni wyraz w nawiasie po lewej stronie był równy zeru. Ograniczamy w ten sposób dowolność wyboru czteropotencjału. Warunek ten nazywa się cechowaniem Lorenza (od duńskiego uczonego Ludwiga Lorenza, którego nie należy mylić z Holendrem Hendrikiem Lorentzem od transformacji Lorentza). Jeśli go nałożymy, to nasz czteropotencjał spełnia niejednorodne równanie falowe:

\square A_{\mu}=\mu_{0}j_{\mu}.

Tam gdzie nie ma ładunków ani prądów, otrzymujemy równanie falowe dla czteropotencjału. W tej formie równania Maxwella wyglądają więc następująco:

\begin{cases} \square A_{\mu}=\mu_{0}j_{\mu}\\ \partial^{\mu}A_{\mu}=0.\end{cases}

W tej postaci mamy tylko jedno równanie na czterowektor plus warunek cechowania. Czyli w istocie pole elektromagnetyczne nie potrzebuje sześciu składowych (po trzy dla pola elektrycznego i magnetycznego), wystarczą cztery, a nawet nieco mniej, ze względu na warunek cechowania, który ogranicza możliwości.

Ad 3 Ostatni punkt: zasada zachowania ładunku. Wynika ona z równania (1), gdy weźmiemy jego pochodną:

\partial^{\nu}\partial^{\mu}F_{\mu\nu}=0=\mu_{0} (\partial^{\nu}j_{\nu}).

Pierwsza równość pochodzi stąd, że pochodne możemy przestawiać bez zmiany znaku, natomiast tensor F_{\mu\nu} jest antysymetryczny. Tak przy okazji, nazywa się często F_{\mu\nu} tensorem Faradaya, oczywiście Michael Faraday nie miał pojęcia o tensorach, odkrył jednak, że zmienne pole magnetyczne generuje pole elektryczne. Ostatnie wyrażenie to uogólnienie dywergencji na cztery wymiary:

\dfrac{\partial\rho}{\partial t}+\nabla\cdot\vec{j}=0.

Ostatnie równanie znaczy tyle, że jeśli w danym punkcie prąd wypływa, to gęstość ładunku musi odpowiednio maleć. Ładunek jest zachowany, i to lokalnie: aby wypłynął z danej objętości, musi przeciąć powierzchnię, która tę objętość ogranicza. Jeśli był, a teraz go nie ma, to znaczy, że musiał przejść przez granicę.

Równania Maxwella zapisane jak wyżej nie tylko wyglądają prościej, ale wskazują jawnie, że teoria jest relatywistycznie kowariantna, tzn. zgodna z teorią względności. To nie koniec zalet takiego podejścia: okazuje się, że w teorii grawitacji Einsteina postać równań Maxwella jest właściwie taka sama.

Międzynarodowa Wystawa Elektryczna w Paryżu (1881)

W 1831 roku Michael Faraday odkrył zjawisko indukcji elektromagnetycznej, tzn. sposób wytwarzania prądu elektrycznego ze zmiennego pola magnetycznego. Było to odkrycie ogromnej wagi teoretycznej, ujawniając nieznane dotąd powiązania w przyrodzie. Pytano nawet wtedy Faradaya, jaki jest pożytek z jego odkrycia. Odpowiedział tak, jak wcześniej Benjamin Franklin: A jaki jest pożytek z nowo narodzonego dziecka?

Pięćdziesiąt lat później, w roku 1881, sensacją Paryża stała się wielka międzynarodowa wystawa poświęcona wyłącznie elektryczności. Zwiedziło ją od sierpnia do listopada ponad 750 000 widzów. Znanym i od lat powszechnie stosowanym wynalazkiem był telegraf, produkcja rozmaitych urządzeń z nim związanych i łączenie coraz to nowych miejscowości liniami telegraficznymi stanowiło impuls do powstania całego przemysłu. Pod koniec lat siedemdziesiątych pojawiły się jednak zupełnie nowe zastosowania. Jednym z nich był telefon, opatentowany w roku 1876 przez Alexandra Grahama Bella i szybko zdobywający sobie popularność. W roku 1881 w Paryżu było około trzystu abonentów tej usługi. Dzięki wystawie wynalazek zdobył ogromną popularność, pokazywano tam m.in. „teatrofon”, tzn. muzyczną transmisję teatralną na żywo, której można było słuchać przez słuchawki. Powszechnie zachwycano się znakomitą jakością dźwięku, pozwalającą rozpoznać artystów po głosie, a nawet usłyszeć szmer na widowni.

Telefony wykorzystywały istniejące już linie telegraficzne, mogły więc stosunkowo szybko się rozwijać. Gości paryskiej wystawy woził elektryczny tramwaj konstrukcji Siemensa, ilustrując jeszcze jedną z możliwości nowej technologii.

Zaprezentowano też różne rodzaje lamp elektrycznych. Coraz szerzej wprowadzano lampy łukowe, w których źródłem światła było ciągłe wyładowanie elektryczne pomiędzy dwiema elektrodami węglowymi. Oślepiająco jasne z bliska, nie nadawały się one do zastosowań domowych, mogły jednak służyć do oświetlania miejsc publicznych. Trzy lampy Siemensa na wystawie w Paryżu zdołały oświetlić teren pół hektara, dając światło niczym podczas pełni księżyca. Chwalono oświetlenie tego rodzaju w teatrach: powietrze było czystsze i nie było tak duszno jak przy oświetleniu gazowym. Często łączono oświetlenie gazowe z elektrycznym: w Operze Paryskiej oprócz gazowych kandelabrów umieszczono też plafony z kręgami „elektrycznych diamentów”. Jednym z popularnych wtedy rozwiązań były tzw. świece Jabłoczkowa; w lampach tych elektrody węglowe ustawione były równolegle do siebie, dzięki czemu spalając się podczas świecenia, skracały się równomiernie i łuk elektryczny był stale tej samej długości. Umieszczano je w matowych kloszach, by nie raziły wzroku.

W latarniach zastosowanych w Paryżu i Londynie jedna świeca Jabłoczkowa starczała na półtorej godziny, instalowano je w zestawach po sześć w jednej latarni, otrzymując w ten sposób dziewięć godzin świecenia.
Innym wynalazkiem oświetleniowym, który pojawił się niemal jednocześnie w różnych wersjach była żarówka. Amerykanie Thomas Alva Edison i Hiram S. Maxim oraz Anglik sir Joseph Wilson Swan zaprezentowali w latach 1879-1880 swoje odmiany wynalazku, trwał wyścig w ulepszaniu technologii oraz w ich opatentowywaniu.

Głównym trudnością było wytworzenie cienkiego włókna, które mogło się równomiernie żarzyć przez dłuższy czas. Początkowo stosowano włókna węglowe, później zaczęto używać metali takich, jak tantal, osm czy wolfram.

Etapy produkcji włókna węglowego z bambusa japońskiego oraz produkcji samej żarówki, najlepsze egzemplarze świeciły wówczas do 1200 godzin (technologia Th. A. Edisona)

Żarówki dawały żółtoczerwone, niezbyt silne światło odpowiednie do zastosowań domowych. Rosnące zapotrzebowanie na prąd elektryczny wymagało budowy elektrowni i linii przesyłowych, z początku niewielkich i na skalę lokalną. Można było oczekiwać, że nowa technologia rozpowszechni się i stworzy cały rynek związany z produkcją oraz instalacją urządzeń: od generatorów i mierników, przez okablowanie i produkty końcowe w rodzaju lamp czy silników elektrycznych. Duże firmy europejskie i amerykańskie starały się rozwijać całe zespoły uzupełniających się urządzeń, tak aby dotrzeć do odbiorcy końcowego i obniżyć koszty jednostkowe. Nawet Edison myślał jednak zbyt zachowawczo, ponieważ tworzył urządzenia na prąd stały, których można było używać niedaleko od miejsca wytworzenia prądu. Chciał elektryfikować dzielnice, co w pierwszych latach było nowatorskie, ale potem okazało się, że opłaca się budowa wielkich sieci i oddalonych od siebie dużych elektrowni. Wygrał prąd zmienny, który można transformować, zmniejszając straty podczas przesyłania.

Generator Edisona z Wystawy Paryskiej (moc 120 KM zapewniała maszyna parowa, masa urządzenia 17 t, wirowało 325 obrotów na minutę, pozwalając na pracę 1000 żarówek jednocześnie).

Jak czuli się ludzie, stając po raz pierwszy wobec tak wielkich przeobrażeń świata wokół nich? Henry Adams, amerykański historyk, potomek dwóch prezydentów, opisał swoje wrażenia z Wystawy światowej w Paryżu w roku 1900:

„Aż do zamknięcia Wielkiej Wystawy w listopadzie roku 1900, Adams wciąż ją odwiedzał, boleśnie pragnąc wiedzy, niezdolny jednak jej znaleźć. Pragnąłby wiedzieć, ile potrafiłby z niej zrozumieć najlepiej poinformowany człowiek na świecie. Kiedy tak rozmyślał nad chaosem, przypadkiem spotkał Langleya, który go po niej oprowadził. Na życzenie Langleya Wystawa zrzuciła zbędne szatki i ukazała nagą skórę, ponieważ Langley wiedział, co należy studiować, a także dlaczego i w jaki sposób, podczas gdy Adams mógłby równie dobrze stać całą noc na dworze i gapić się na Drogę Mleczną. A przecież Langley nie powiedział niczego nowego ani nie nauczał niczego, czego by się nie można było nauczyć trzysta lat temu od lorda Bacona. (…) Najbardziej zdumiewającą cechą edukacji jest to, jak wielką ilość ignorancji udaje się w niej zmieścić pod postacią martwych faktów. Adams oglądał większość z owych magazynów sztuki zwanych muzeami, a jednak nie wiedział, jak patrzeć na eksponaty artystyczne z roku 1900. Z głęboką uwagą studiował Karola Marksa i jego doktryny dotyczące historii, lecz nie potrafił ich zastosować w Paryżu. Langley z łatwością wielkiego mistrza eksperymentu odsuwał na bok każdy przedmiot, który nie odsłaniał nowego zastosowania siły, a więc w naturalny sposób odrzucał każde niemal dzieło sztuki. Podobnie jak ignorował niemal wszystkie produkty przemysłowe. Prowadził swego ucznia prosto do sił. Głównym przedmiotem jego zainteresowania były nowe silniki, które mogłyby znaleźć zastosowanie w jego statkach powietrznych i uczył Adamsa zadziwiających subtelności o nowym silniku Daimlera i automobilu, który od 1893 roku, przy szybkości 100 kilometrów na godzinę, stał się koszmarem niemal tak samo destrukcyjnym jak tylko o dziesięć lat od niego starszy elektryczny tramwaj i który mógł stać się równie straszny jak lokomotywa parowa, która była niemal w tym samym wieku co Adams.

Następnie pokazał swemu studentowi wielką halę silników, wyjaśniając mu, jak niewiele sam wie na temat elektryczności oraz wszelkich innych sił, a nawet na temat Słońca, które wypluwa z siebie trudną do pojęcia ilość ciepła i które według jego najpewniejszej wiedzy mogłoby jej wypluwać mniej albo więcej w dowolnym czasie. Dla niego silnik był tylko pomysłowym kanałem służącym do przekazania gdzie indziej ciepła utajonego w paru tonach kiepskiego węgla schowanego w brudnej maszynowni starannie ukrytej przed wzrokiem. Dla Adamsa wszakże silnik stał się symbolem nieskończoności. W miarę jak przywykał do wielkiej galerii maszyn, zaczynał postrzegać czterdziestostopowe silniki jako siłę moralną, taką jaką wczesnym chrześcijanom wydawał się krzyż. Nawet glob ziemski robił mniejsze wrażenie w swoim staromodnym miarowym obrocie rocznym czy dziennym niż to ogromne koło obracające się na wyciągnięcie ręki z zawrotną szybkością i niemal bezgłośnie, buczące swoje ledwie słyszalne ostrzeżenie, by trzymać się o włos dalej z respektu dla jego mocy, lecz tak cicho, że nie zbudziłoby dziecka śpiącego na jego obudowie. W końcu zaczynało się do niego modlić, jak uczył odziedziczony instynkt, taką postawę powinien człowiek przyjąć wobec milczącej i nieskończonej siły. Wśród tysięcy symboli ostatecznej energii silnik nie był może znakiem najbardziej ludzkim, lecz z pewnością najbardziej ekspresyjnym”.

Samuel Pierpoint Langley był fizykiem, astronomem i jednym z pionierów lotnictwa.

Od zasady najdłuższego czasu do równań Maxwella (II)

Pokażemy, jak równania Maxwella wynikają z zasady najmniejszego działania dla pól relatywistycznych. Można powiedzieć, że klasyczny elektromagnetyzm jest najprostszą teorią relatywistyczną. Kolejność historyczna była odwrotna: najpierw równania Maxwella, a potem teoria względności. Teoria względności ma tu znaczenie fundamentu, ponieważ określa geometrię czasoprzestrzeni (przestrzeni Minkowskiego). Formalizm geometrii czasoprzestrzennej nie jest może oczywisty na pierwszy rzut oka, ale nawet na pierwszy rzut oka widać, że równania mają znacznie elegantszą formę.

Pokazaliśmy poprzednio, jak z zasady najmniejszego działania otrzymać dynamikę relatywistyczną cząstki. Należy w tym celu zdefiniować działanie tak, aby nie zależało od układu współrzędnych – tzn. było skalarem lorentzowskim: a więc funkcją nie zmieniającą się nie tylko przy obrotach, ale także przy transformacjach Lorentza (które geometrycznie są podobne do obrotów, tyle że mieszają ze sobą współrzędne przestrzenne i czasowe). Chcąc uwzględnić pole zewnętrzne, nie wystarczy teraz dodać funkcję będącą energią potencjalną cząstki. Okazuje się, że jeśli żądamy, aby nasze działanie było skalarem, to najprostsze pole zewnętrzne musi mieć cztery składowe: musi być czterowektorem A_{\mu} (zwanym czteropotencjałem). Równania ruchu, które uzyskuje się z zasady najmniejszego działania są wówczas równoważne wyrażeniu na siłę Lorentza w elektromagnetyzmie. Wielkością, która wchodzi do tego wyrażenia nie jest samo A_{\mu} , lecz jego pochodne:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu},

gdzie wprowadziliśmy krótsze oznaczenie: \dfrac{\partial}{\partial x^{\mu}}\equiv \partial_{\mu}.
Wielkości F_{\mu\nu} okazują się składowymi pola elektromagnetycznego: jest ich sześć, bo z definicji widać, że F_{\mu\nu}=-F_{\nu\mu} , a więc macierz 4×4 jest antysymetryczna i ma sześć składowych niezależnych. F_{\mu\nu}, zwane w czasach Einsteina Sechs-Vektor, jest tensorem, tzn. przy transformacjach zachowuje się tak jak iloczyn dwóch czterowektorów: x_{\mu}y_{\nu} . Oznacza to w szczególności, że przy transformacjach Lorentza pola elektryczne i magnetyczne będą się mieszać. Łatwo zauważyć, że powinno tak być. Weźmy parę spoczywających ładunków. Działają one na siebie siłą kulombowską. Jeśli będziemy je obserwować z układu odniesienia, względem którego oba ładunki się poruszają, będziemy mieli do czynienia z prądami, a więc i z polem magnetycznym.

Chcąc zbudować nie teorię cząstek w zadanym polu zewnętrznym, lecz równania, które musi spełniać pole, trzeba uogólnić nieco podejście. Zmiennymi będą teraz nie współrzędne cząstek, lecz wartości pól A_{\mu\nu}(x^{\rho}) . Zaznaczyliśmy wprost, że wartości pola są funkcjami położeń i czasu. Lagranżian musi teraz zależeć od wartości pola oraz jego pierwszych pochodnych: {\cal L}={\cal L}(A_{\mu}, \partial_{\nu}A_{\mu}). . To, co teraz robimy, jest uogólnieniem jednowymiarowwej teorii struny. Działanie musi przyjąć postać:

{\displaystyle S=\int {\cal L} dx^0dx^1dx^2dx^3\equiv \int {\cal L}d^4 x}

Całkujemy po czterowymiarowym obszarze w czasoprzestrzeni. Jaką postać musi przybrać działanie? Podobnie jak w przypadku struny spodziewamy się funkcji kwadratowej w A_{\mu} i jej pochodnych. Działanie powinno zawierać dwa wyrazy: jeden opisujący pola swobodne, drugi – ich oddziaływanie z naładowanymi cząstkami. Ten drugi wyraz już właściwie znamy z poprzedniej części. Gdy mamy wiele cząstek, należy oczywiście po nich wszystkich wysumować. Wrażenie to nie miało postaci całki czterowymiarowej, ale można je do takiej postaci przepisać, używając funkcji (dystrybucji) Diraca. Nie będziemy tego robić, ponieważ jest to ćwiczenie czysto rachunkowe. Zajmiemy się natomiast bliżej działaniem dla pól swobodnych. Lagranżian (ściśle mówiąc: gęstość lagranżianu) powinien być skalarem lorentzowskim. Najprostszym takim skalarem będzie wyrażenie:

{\cal L}=-\dfrac{1}{4\mu_0} F^{\mu\nu}F_{\mu\nu},

gdzie \mu_0 jest stałą fizyczną: przenikalnością magnetyczną próżni. Tensor z podniesionymi wskaźnikami ma niektóre wyrazy innego znaku niż ten z opuszczonymi: transformuje się on bowiem jak iloczyn dwóch czterowektorów x^{\mu}y^{\nu}. W praktyce oznacza to, że wyrazy z jednym wskaźnikiem czasowym zmieniają znak, pozostałe zaś są takie same. Żonglerka wskaźnikami potrzebna jest ze względu na rozróżnienie przestrzeni i czasu, które są w teorii względności nadal fundamentalnie różne. Jeśli w naszych sumach każdy wskaźnik górny jest sumowany z takim samym wskaźnikiem dolnym, to wyrażenie jest skalarem lorentzowskim. Iloczyn F^{\mu\nu}F_{\mu\nu} musi się zatem transformować, jak x^{\mu}y^{\nu}x_{\mu}y_{\nu}=(x^{\mu}x_{\mu})\cdot(y^{\nu}y_{\nu}),
a więc nie będzie zależeć od układu współrzędnych.

W dalszym ciągu postępujemy jak poprzednio, tzn. wyobrażamy sobie, że nasze pole A_{\mu} zmienia się na A_{\mu}+\delta A_{\mu} i obliczamy liniową część przyrostu działania:

{\displaystyle \delta S=\dfrac{1}{\mu_0}\int \partial_{\mu}F^{\mu\nu}\delta A_{\nu}d^4 x.}

Z zasady najmniejszego działania otrzymujemy więc cztery równania:

\boxed{\partial_{\mu}F^{\mu\nu}=0.}

Są to równania Maxwella, tzn. dokładnie ta ich para, w której występują prądy i ładunki (u nas one znikają). Możemy je równie dobrze zapisać w postaci:

\boxed{\partial^{\mu}F_{\mu\nu}=0.}

.
Pochodna ze wskaźnikiem na górze jest równa z definicji \partial^{\mu}\equiv\dfrac{\partial}{\partial x_{\mu}}.

Są to trywialne zmiany zapisu, z naszego punktu widzenia potrzebne do tego, by otrzymać prawidłowe znaki.
Równań Maxwella jest jednak osiem. Co stało się z drugą parą równań? Okazuje się, że mają one postać:

\boxed{\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.}

gdzie trójka różnych wskaźników jest przestawiana cyklicznie: \mu\nu\rho\rightarrow \rho\mu\nu\rightarrow\nu\rho\mu.

Trzy wskaźniki spośród czterech możemy wybrać na cztery sposoby, otrzymujemy więc jeszcze cztery równania, a łącznie osiem – tyle, co trzeba.
Ten drugi zestaw równań spełniony jest tożsamościowo, jeśli pamiętamy, że F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Podsumujmy jeszcze krótko, co otrzymaliśmy: najprostszy lagranżian utworzony z pola A_{\mu} prowadzi do równań Maxwella. Ich postać narzucona jest więc w znacznym stopniu żądaniem zgodności z teorią względności, czyli mówiąc żargonem fizyki: kowariantności relatywistycznej. Oba zestawy naszych równań: ten otrzymany z działania oraz ten drugi, otrzymany z warunków symetrii, mają taką samą postać w każdym układzie odniesienia. Forma, w jakiej zapisaliśmy równania, niekoniecznie jest najwygodniejsza do praktycznych zastosowań, ale ma tę zaletę, iż widzimy na pierwszy rzut oka, że cała teoria jest kowariantna.

Można otrzymać z tych równań wniosek, że w pustej przestrzeni pola elektromagnetyczne wędrują z prędkością światła. Została ona tu wprowadzona jako przelicznik odległości czasowych na przestrzenne w teorii względności. Inaczej: prędkość c jest stałą wynikającą z historycznych zaszłości: mamy inne jednostki dla czasu i przestrzeni, choć Stwórca (jakby to ujął Einstein) nie widzi między nimi większej różnicy niż różnica znaku w niektórych wyrażeniach. Na tym fundamencie zbudowaliśmy teorię elektromagnetyzmu i przewiduje ona fale rozchodzące się z prędkością c, czyli dla Stwórcy jednostkową. Ludzie najpierw zetknęli się z tą wielkością, mierząc szybkość rozchodzenia się światła, stąd jej nazwa.

Jeszcze jedna uwaga na koniec. Lagranżian przez nas przyjęty może się nie wydawać absolutnie najprostszy. Mamy tu jednak jeszcze jedną symetrię, zwaną symetrią cechowania: jeśli do czteropotencjału dodać pochodną czasoprzestrzenną dowolnej funkcji \partial_{\mu}f zmiennych przestrzennych i czasu, to lagranżian oddziaływania z poprzedniej części zmieni się wprawdzie, ale niegroźnie, tzn. równania ruchu z poprzedniej części nie zmienią się, nie zmieni się też tensor pola F_{\mu\nu} (bo jest antysymetryczny, a drugie pochodne cząstkowe są przemienne). Dlatego do lagranżianu nie ma sensu dodawać takich wyrazów, jak A_{\mu}A^{\mu} – bo nie są one niezależne od cechowania. Symetria cechowania okazała się bardzo istotna. Najpierw wydawało się, że jest to pewna szczególna własność elektrodynamiki, z czasem jednak symetrię cechowania uogólniono na tzw. cechowanie nieabelowe. Chromodynamika i teoria oddziaływań elektrosłabych są takimi teoriami z symetrią cechowania – czyli cały Model Standardowy.

Zauważmy też, że podstawową wielkością jest czteropotencjał, choć w wielu przypadkach wygodniej jest posługiwać się polami elektromagnetycznymi.