Skąd się bierze Maxwellowski rozkład prędkości cząsteczek w gazie doskonałym?

James Clerk Maxwell podał w roku 1859 postać rozkładu prawdopodobieństwa prędkości cząsteczek w gazie doskonałym. Okazuje się, że prawdopodobieństwo, iż np. x-owa składowa prędkości losowo wybranej cząsteczki należy do przedziału (x, x+dx) równe jest

p(x)dx=C\exp(-\alpha x^2)dx,

gdzie C jest stałą normalizacyjną (wybraną tak, aby prawdopodobieństwo zdarzenia pewnego było równe 1). Jest to słynny rozkład Gaussa, zwany też rozkladem normalnym, gdyż pojawia się on w najróżniejszych kontekstach.

Składowa x-owa prędkości danej cząsteczki zmienia się wskutek zderzeń z innymi cząsteczkami w sposób przypadkowy i w rezultacie opisywana jest takim rozkładem o kształcie dzwonu. Jeśli całkowita energia gazu jest stała, to stała jest także suma kwadratów wszystkich prędkości:

E=\dfrac{m{\vec{v}_1}\,^2}{2}+\ldots+\dfrac{m\vec{v}_N\,^2}{2}=const.

(m jest masą cząseczki gazu). Kwadrat każdego wektora jest sumą trzech kwadratów jego współrzędnych. Oznaczając więc wszystkie składowe wszystkich prędkości cząsteczek gazu jako x_1,x_2, \ldots, x_{3N}, mamy 3N-wymiarową przestrzeń prędkości. Warunek stałości energii przyjmuje postać:

x_1^2+x_2^2+\ldots+x_{3N}^2=R^2,

co geometrycznie oznacza, że koniec wektora prędkości Y=[x_1, x_2,\ldots, x_{3N}] leży na powierzchni sfery S^{3N-1} o promieniu R (sfera ma o jeden wymiar mniej niż przestrzeń).

Aby wyprowadzić rozkład Maxwella, przyjmijmy najprostsze założenie: każde położenie końca wektora Y na sferze jest jednakowo prawdopodobne.

Szukamy teraz rozkładu prawdopodobieństwa którejkolwiek pojedynczej składowej np. x\equiv x_1 (jest ona jednocześnie x-ową składową prędkości cząsteczki nr 1). W przypadku sfery S^2 możemy to narysować.

Prawdopodobieństwo, że x bedzie leżeć w cienkim pasie sfery zaznaczonym na rysunku jest proporcjonalne do pola powierzchni pasa sferycznego równej iloczynowi długości razy szerokość:

\Delta S=2\pi R\sin\vartheta \times R\Delta \vartheta.

Sumując pola powierzchni takich pasów, czyli całkując, otrzymamy wzór na pole powierzchni sfery S^2:

S_2(R)={\displaystyle \int_{0}^{\pi} 2\pi R^2 \sin\vartheta d\vartheta}=4\pi R^2.

Prawdopodobieństwo znalezienia końca wektora Y w pasie sferycznym byłoby w takim razie równe ilorazowi obu tych wielkości

p(\vartheta)\Delta\vartheta=\dfrac{2\pi R \sin\vartheta}{4\pi R^2}\times R\Delta\vartheta= \dfrac{S_1(R\sin\vartheta)}{S_2(R)} R\Delta \vartheta.

Szerokość naszego pasa jest zarazem „polem” sfery S^1, tzn. długością okręgu o promieniu R\sin\vartheta (co widać z rysunku). Dla trójwymiarowego wektora Y rozkład ten nie jest szczególnie interesujący. Fizycznie odpowiadałby jednocząstkowemu gazowi doskonałemu. Prędkość tej jednej jedynej cząsteczki przyjmuje z równym prawdopodbieństwem dowolny kierunek w przestrzeni. Długość wektora jest określona przez energię tej cząstki.

Ostatnie wyrażenie dla prawdopodobieństwa można zastosować równie dobrze w przestrzeni 3N-wymiarowej. Możemy zawsze ustalić wartość jednej ze współrzędnych x_1\equiv x. Pozostałe współrzędne spełniają wtedy warunek

x_2^2+x_3^2+\ldots+x_{3N}^2=R^2-x^2

i jest to jedyne ograniczenie. Znaczy to, że pozostałe składowe leżą na sferze wymiarze o jeden mniejszym i mniejszym promieniu. Pole powierzchni sfery S^n jest równe pewnej stałej zależnej od wymiaru razy promień sfery do potęgi n-tej:

S_n(r)=C_n r^n.

Korzystając z tego faktu możemy szukane prawdopodobieństwo zapisać w postaci

p(x)dx=\dfrac{S_{3N-2}(\sqrt{R^2-x^2})}{S_{3N-1}(R)} R\Delta\vartheta \sim \left(1-\dfrac{x^2}{R^2}\right)^{\frac{3N}{2}}dx.

Ostatnie wyrażenie możemy dla dużych wartości N zapisać jako potęgę liczby e:

\left(1-\dfrac{x^2}{R^2}\right)^{R^2\cdot\frac{3N}{2R^2}}dx=\exp(-\alpha x^2) dx.

Parametr \alpha jest równy

\alpha=\dfrac{3N}{2R^2}=\dfrac{3Nm}{4E}=\dfrac{3m}{4\epsilon},

gdzie \epsilon jest energią przypadającą na jedną cząsteczkę gazu. Możemy wyrazić tę ostatnią energię za pomocą temperatury T:

\epsilon=\dfrac{3}{2}kT \Rightarrow \alpha=\dfrac{m}{2kT}.

Otrzymaliśmy rozkład Maxwella. Stałą C można znaleźć z warunku unormowania (można ją też obliczyć bezpośrednio, potrzeba jednak wówczas wiedzieć więcej nt. stałych C_n, czyli postaci wzoru na pole sfery S^n).

Rozkład Maxwella wynika więc z założenia o równomiernym rozkładzie prawdopodobieństwa na sferze w przestrzeni 3N-wymiarowej. Założenie to nazywane jest rozkładem mikrokanonicznym i jest jednym z postulatów fizyki statystycznej. Wyobrażamy sobie, że stan naszego układu, czyli wektor Y wędruje po dozwolonej powierzchni w taki sposób, że jego koniec może znaleźć się z jednakowym prawdopodobieństwem w otoczeniu każdego punktu sfery. Jest to założenie ergodyczności.

Oczywiście, nie znaczy to, że układ zderzających się cząstek gazu musi być ergodyczny. Jak to często bywa w fizyce: z jednej strony pośrednio sprawdzamy to założenie, badając rozmaite jego konsekwencje i porównując z doświadczeniem. Z drugiej strony, można badać pewne proste przypadki, aby sprawdzić, czy założenie ergodyczności jest prawdziwe w tych sytuacjach. W 1963 r. Yakov Sinai, wybitny matematyk rosyjski, udowodnił, że gaz doskonały sztywnych zderzających się kul jest ergodyczny.

W pewnej chwili zamieniliśmy R \Delta\vartheta wartoscią dx. Nie są one ściśle biorąc równe, mamy bowiem

dx=-R\sin\vartheta d \vartheta \Rightarrow Rd\vartheta=\dfrac{dx}{\sqrt{1-\frac{x^2}{R^2}}}.

Dodatkowy czynnik pod pierwiastkiem nie ma znaczenia, gdy wartości R są duże. Widać to też z rysunku: gdy |x|\ll R, to R d\vartheta \approx dx.

Reklamy

Istota teorii względności (1923) – Albert Einstein

Ślepy żuk pełznący po powierzchni globusa nie wie, że tor, po którym się porusza, jest zakrzywiony. Ja miałem szczęście to zauważyć [A. Einstein]

Ta niewielka książeczka jest jedynym kompletnym przedstawieniem teorii przez jej twórcę, adresowanym do zawodowych uczonych, stanowiąc coś pośredniego między monografią a podręcznikiem. Ukazała się najpierw w 1923 roku w wersji angielskiej nakładem Princeton University Press oraz w wersji niemieckiej w wydawnictwie Vieweg & Sohn (z datą roczną 1922). Od tamtej pory doczekała się niezliczonych wydań w wielu językach. Uczony nie zmieniał głównego tekstu, choć z czasem dołączył kilka dodatków traktujących o późniejszych osiągnięciach.

Podstawą książki były wykłady wygłoszone w maju 1921 roku na uniwersytecie w Princeton. Czterdziestodwuletni Einstein wybrał się w swą pierwszą podróż za ocean, towarzysząc Chaimowi Weizmannowi i delegacji syjonistów. Ich celem było zebranie funduszy na założenie uniwersytetu w Jerozolimie. Uczony, który w kilku poprzednich latach z odrazą obserwował antysemityzm narastający w społeczeństwie niemieckim i który sam stał się ofiarą niewybrednych ataków z rasistowskimi podtekstami, zgodził się na ten wyjazd, rezygnując z udziału w pierwszym po wojnie Kongresie Solvaya, konferencji gromadzącej szczupłe grono najwybitniejszych fizyków świata. Po raz pierwszy wystąpił więc Einstein w roli działacza społecznego, wykorzystując autorytet naukowy do propagowania bliskich mu poglądów. Uczony witany był w Ameryce owacyjnie, zwłaszcza przez społeczność żydowską w Nowym Jorku, Bostonie, Cleveland. Niektórzy koledzy Einsteina, jak Fritz Haber, wybitny chemik, Żyd i niemiecki szowinista, mieli mu za złe podróż do Stanów Zjednoczonych, kraju niedawnego wroga. Rany wojenne nie zdążyły się jeszcze zabliźnić, zwłaszcza w Niemczech dźwigających ciężar przegranej wojny. Wielu niemieckich Żydów sądziło też, iż nie należy prowokować antysemityzmu i lepiej siedzieć cicho. Einstein, czy to dlatego, że spędził wiele lat w Szwajcarii, czy też z racji swego charakteru, nie podzielał takiego nastawienia, przeciwnie, to właśnie antysemityzm przyspieszył dojrzewanie jego żydowskiej tożsamości.

Podróż po Stanach Zjednoczonych miała też ważną część naukową. Einstein miał wykłady na Columbia University i w City College w Nowym Jorku, na uniwersytecie w Chicago oraz uniwersytecie Harvarda. W Princeton otrzymał stopień honorowy i wygłosił sławne zdanie, które później wyryto nad kominkiem w sali Wydziału Matematyki: „Pan Bóg jest wyrafinowany, lecz nie jest złośliwy” (odnosiło się ono do pewnych wyników eksperymentalnych zaprzeczających jego teorii). Bezpośrednio po uroczystościach rozpoczął się cykl pięciu wykładów odbywających się w kolejne dni tygodnia. Dwa pierwsze były popularne, następne bardziej techniczne. Wykładu inauguracyjnego słuchało około czterystu osób, podczas drugiego audytorium znacznie się przerzedziło, a kolejne odbywały się już w mniejszej sali dla niewielkiego grona słuchaczy. Na początku pobytu w Princeton uczony podpisał umowę z wydawnictwem uniwersytetu na publikację tekstu jego wystąpień. Ponieważ odbywały się one po niemiecku, wydawnictwo wynajęło niemiecką stenografkę, która notowała na żywo. Każdy z wykładów był na koniec podsumowywany po angielsku przez profesora fizyki Edwina Plimptona Adamsa, który został też tłumaczem wersji książkowej. Dopiero w styczniu 1922 roku uczony przesłał niemiecki tekst książki do wydawnictwa Vieweg & Sohn, wydrukowane przez nie korekty stały się podstawą angielskiego przekładu. Prace te wraz z poprawkami autorskimi zajęły cały rok 1922. Pod jego koniec wydrukowano wydanie niemieckie, a w styczniu ukończono druk wydania angielskiego. W trakcie tych prac ogłoszono wiadomość, że Albert Einstein został laureatem Nagrody Nobla za rok 1921. Laureat przebywał w tym czasie w Azji w drodze do Japonii.

Uczony spodziewał się otrzymać Nagrodę Nobla, w istocie przyszła ona dość późno i z istotnym zastrzeżeniem. Jak pisał Christopher Aurivillius, sekretarz Królewskiej Szwedzkiej Akademii Nauk, w liście do laureata: „Akademia (…) postanowiła przyznać panu Nagrodę Nobla w dziedzinie fizyki za ubiegły rok w uznaniu Pana dokonań w fizyce teoretycznej, w szczególności odkrycia teoretycznych podstaw zjawiska fotoelektrycznego, lecz z pominięciem zasług, które staną się Pana udziałem, gdy potwierdzą się sformułowane przez Pana teorie względności i grawitacji”. Teoria względności była więc w oczach szwedzkich akademików osiągnięciem kontrowersyjnym, podobnie myślało wielu uczonych.

Niewykluczone, że Einstein pragnął swoją książką przekonać część kolegów po fachu. Na początku lat dwudziestych obie teorie względności: szczególną z roku 1905 oraz ogólną z roku 1915 można było uznać za zakończony etap. Dzięki pracy Einsteina, ale także szeregu innych fizyków i matematyków, jak Max Planck, Max von Laue, David Hilbert, Felix Klein, Emmy Noether, Max Born, Hermann Weyl, Tullio Levi-Civita, Karl Schwarzschild, Hans Thirring, Josef Lense, Willem de Sitter, Hendrik Lorentz, Gunnar Nordström, Erich Kretschmann, Arthur Eddington, Paul Ehrenfest, Johannes Droste, Paul Langevin udało się wyjaśnić wiele aspektów nowej teorii – już sama lista nazwisk wskazuje, że praca Einsteina nie przebiegała w próżni, a ranga tych uczonych świadczy o poważnym traktowaniu osiągnięć Einsteina. Miał on jednak także sporo przeciwników, którzy z rozmaitych powodów odmawiali jego teorii naukowej wartości, a często także kwestionowali intelektualną uczciwość jej twórcy. Berliński profesor optyki Ernst Gehrcke uznawał teorię Einsteina za skutek zbiorowej sugestii, wybitni eksperymentatorzy (i laureaci Nagrody Nobla) Philipp Lenard i Johannes Stark nie potrafili się pogodzić ze światem nowych pojęć i widzieli w teorii względności produkt reklamy oraz sprytne pomieszanie elementów filozofii, matematyki i fizyki tak, by trudno było znaleźć uczonego zdolnego ją krytykować bez wykraczania poza ramy swej specjalności. Obaj ostatni nie ukrywali też swego antysemityzmu i stali się zwolennikami Adolfa Hitlera jeszcze we wczesnych latach dwudziestych, na długo przed rządami nazistów. Niektórzy, jak szwedzki oftalmolog i laureat Nagrody Nobla Allvar Gullstrand, sądzili, że teoria względności jest pusta wewnętrznie i może prowadzić do różnych wyników w tej samej sytuacji. Dochodziły do tego ostre podziały wśród filozofów, niektórzy jak Hans Reichenbach i Moritz Schlick mocno ją popierali, wielu jednak, jak Oskar Kraus czy Henri Bergson, wyrażało sceptycyzm, jeśli nie wrogość, wobec nowej teorii.
Większość uczonych była na ogół wciąż zdezorientowana, nie wiedząc, co sądzić. Toteż książka Einsteina skupiła się na podkreślaniu ciągłości w rozwoju fizyki, uwydatnieniu pewnej linii rozwoju, w której teoria względności stawała się naturalnym ogniwem. Nie sposób jednak ukryć, że teorie Einsteina zrywały z pojęciami absolutnej przestrzeni i absolutnego czasu, stanowiącymi fundament mechaniki, a z nią całej fizyki od czasów Isaaca Newtona. Kwestionowanie uświęconych tradycją zdobyczy nauki w oczach wielu było gestem obrazoburczym i świętokradczym. To, co starszych przejmowało zgrozą i oburzeniem, w oczach ówczesnych ludzi młodych stawało się fascynującą rewolucją. Karl Popper wspominał, jak wielką rolę w jego myśleniu o nauce odegrała teoria Einsteina, już sam fakt, że można było stworzyć realną alternatywę wobec królującej mechaniki Newtona miał dla niego rangę intelektualnego objawienia.

Zacząć wypada od samej nazwy: teoria względności. Z początku mówiło się o zasadzie względności, potem określać tak zaczęto teorię Einsteina z roku 1905 (szczególną teorię względności), a później Einstein zaczął mówić o uogólnionej bądź ogólnej teorii względności. W dyskursie potocznym zaczęto nazwy tę wiązać z zanegowaniem absolutnego czasu, a nawet szerzej z zanegowaniem dotychczasowej fizyki czy wręcz obowiązującej logiki albo etyki. Oczywiście, teoria względności, tak jak żadna udana teoria fizyczna, nie zmienia świata doświadczenia, ponieważ musi być zgodna z dotychczasowymi danymi eksperymentalnymi. Zmienia jedynie nasz sposób widzenia świata, przewidując nowe zjawiska i rozszerzając tym samym granice wiedzy. Mechanika newtonowska nadal obowiązuje, znamy tylko dokładniej jej ograniczenia. Max Planck, jeden z najwcześniejszych zwolenników teorii Einsteina, przekonuje w swej autobiografii naukowej, że jego zainteresowanie teorią względności wynikło właśnie z szukania w fizyce absolutu, ponieważ w świecie teorii względności są także wielkości oraz pojęcia niezmienne i absolutne. Dlatego nazwa ta bywa myląca.

W czerwcu 1905 roku redakcja „Annalen der Physik” otrzymała pracę nikomu nieznanego urzędnika Biura Patentowego w Bernie zatytułowaną O elektrodynamice ciał w ruchu. Rzecz dotyczyła jednego z najważniejszych zagadnień fizyki teoretycznej, którym w poprzednim dziesięcioleciu zajmowali się dwaj uznani luminarze Henri Poincaré i Hendrik Lorentz. Chodziło o eter – hipotetyczny ośrodek wypełniający świat. Na początku XIX stulecia Thomas Young i Augustin Fresnel wykazali, że światło jest falą. Wyobrażano sobie, że musi ono być falą sprężystą w eterze, czyli drganiem, które propaguje się na wszystkie strony podobnie jak fale akustyczne w powietrzu bądź innych ośrodkach sprężystych. Eter ów charakteryzować się musiał dość osobliwymi własnościami, gdyż z jednej strony był na tyle rzadki, by nie hamować ruchów planet, z drugiej zaś musiał być niezmiernie sprężysty, gdyż prędkość światła jest niewyobrażalnie duża w porównaniu np. z prędkością dźwięku. W przypadku dźwięku wiemy, że jego prędkość dodaje się wektorowo do prędkości powietrza: zmierzona prędkość będzie więc zależeć od prędkości ruchu powietrza. Podobne zjawisko zachodzić powinno także w przypadku światła. Ruch roczny Ziemi po orbicie wokół Słońca zachodzi z prędkością około 30 km/s, co stanowi 1/10 000 prędkości światła. Precyzyjne pomiary powinny wykryć zmiany obserwowanej prędkości światła. Przez cały wiek XIX szereg eksperymentatorów od François Arago w roku 1810 aż do Alberta Michelsona i Edwarda Morleya w roku 1887 starało się za pomocą różnych metod optycznych wykryć ruch Ziemi w eterze. Wyniki wszystkich tych doświadczeń były negatywne. Wyglądało to tak, jakby eter poruszał się razem z Ziemią, ale taka hipoteza rodziła sprzeczności z innymi obserwacjami.

Obok optyki innym wielkim tematem dziewiętnastowiecznej fizyki były elektryczność i magnetyzm. W latach sześćdziesiątych XIX wieku James Clerk Maxwell podsumował te wszystkie badania, podając jednolitą matematyczną teorię zjawisk elektrycznych, magnetycznych oraz optycznych – okazało się bowiem, że powinny istnieć fale elektromagnetyczne. Ich prędkość wynikająca z teorii Maxwella była bliska prędkości światła w próżni. Maxwell wysnuł więc wniosek, że światło jest rodzajem fal elektromagnetycznych. W latach 1887-1888 Heinrich Hertz wykazał, że można w laboratorium wytworzyć fale elektromagnetyczne o długości kilku metrów, które także rozchodzą się z prędkością światła. Teoria Maxwella została potwierdzona, stając się praktycznym narzędziem pracy inżynierów. Niemal równocześnie rozwijały się bowiem techniczne zastosowania elektromagnetyzmu: oświetlenie elektryczne, telefon i pierwsze elektrownie. Ojciec i stryj Einsteina, bracia Rudolf i Jakob, prowadzili najpierw w Monachium, później w północnych Włoszech firmę elektryczną i Albert niemal od dziecka miał do czynienia z techniką elektryczną. Elektrodynamika była także ważnym tematem zajęć laboratoryjnych i wykładów na Politechnice w Zurychu. Einstein jednak od początku nie chciał zostać inżynierem i narzekał, że program studiów nie obejmuje teorii Maxwella.

Teoria Maxwella pozwalała w jednolity sposób opisać ogromny obszar zjawisk. Czyniła to za pomocą pojęć pola elektrycznego oraz magnetycznego. W każdym punkcie przestrzeni i w każdej chwili można było za pomocą dwóch wektorów scharakteryzować stan pola. Wydawało się, że eter z początku wieku zyskał teraz nową funkcję, nośnika pola. Ważną cechą nowego podejścia była lokalność: to, co dzieje się z polem elektrycznym i magnetycznym w danym punkcie zależy od ładunków i prądów w tym samym punkcie. Zaburzenia pola rozchodzą się jako fale elektromagnetyczne. Była to więc fizyka pojęciowo odmienna od Newtonowskiej grawitacji, w której dwie masy oddziałują na siebie na odległość w sposób natychmiastowy. W teorii Maxwella ładunek jest źródłem pola w otaczającej go przestrzeni i pole to z kolei oddziałuje na inne ładunki. Prędkość rozchodzenia się zmian pola jest wielka, ale nie nieskończona. Choć Maxwell dokonał najważniejszej pracy, formułując teorię w sposób logicznie zamknięty, to dopiero jego następcy, m.in. Oliver Heaviside i Hendrik Lorentz, znaleźli prostsze i bardziej eleganckie jej wersje. Okazało się np., że każdy prąd elektryczny jest jedynie ruchem ładunków. Mamy więc dwa rodzaje ładunków, których położenia i prędkości określają stan pola w różnych miejscach – są to równania pola, czyli równania Maxwella. Znając zaś wartość pola elektrycznego i magnetycznego, możemy obliczyć siłę działającą na ładunek – są to równania ruchu (siła Lorentza).

Teoria Maxwella wyrastała z modelu pewnego ośrodka sprężystego i uczony, podobnie jak większość współczesnych, uważał, że jego rolą jest sprowadzenie zjawisk elektrycznych i magnetycznych do zjawisk mechanicznych. W odróżnieniu od teorii Newtona, w której mamy pojedyncze punkty materialne, tutaj substratem jest eter, który wyobrażano sobie jako pewien sprężysty materiał. Paradoksalny status eteru opisał na zjeździe Brytyjskiego Towarzystwa Krzewienia Nauk w Oksfordzie w roku 1894 markiz Salisbury, stwierdzając, że „główną, jeśli nie wyłączną, własnością słowa eter było dostarczanie rzeczownika do czasownika falować”.

Problem wykrycia ruchu Ziemi w eterze stał się tym bardziej palący. Wiadomo było wprawdzie, że inżynier stosować może równania Maxwella, nie przejmując się takimi subtelnościami, ale należało wyjaśnić negatywne wyniki doświadczeń. Hendrik Lorentz spróbował podejść do tego problemu w sposób systematyczny i wykazał, że każdemu stanowi pól w nieruchomym eterze odpowiada pewien stan pól w eterze ruchomym. Chciał w ten sposób podać ogólny dowód, że wszelkie zjawiska elektromagnetyczne przebiegają w taki sposób, aby nie można było ruchu Ziemi wykryć. Wprowadził przy tym dość szczególną konstrukcję matematyczną: w poruszającym się układzie należało zdefiniować czas w taki sposób, że zależał on od współrzędnej przestrzennej. Był to zdaniem Lorentza czas fikcyjny, potrzebny do dowodu niemożliwości wykrycia ruchu przez eter. Okazało się też, że należy założyć coś osobliwego na temat długości obiektów poruszających się: powinny one ulec nieznacznemu skróceniu o czynnik \sqrt{1-v^2/c^2}, gdzie v jest prędkością ruchu obiektu, a c – prędkością światła.

Praca Alberta Einsteina, eksperta technicznego III klasy z Berna, proponowała już we wstępie krok decydujący: pojęcie eteru świetlnego jest w fizyce „zbyteczne”. W ten sposób cała dziedzina badań nad zjawiskami w poruszającym się eterze przechodziła do historii, rozpoczynała się natomiast era szczególnej teorii względności.

Fizycy znali wcześniej zasadę względności. Dotyczyła ona mechaniki. I zasada dynamiki, czyli zasada bezwładności, mówi, że gdy żadne siły nie działają na ciało, to porusza się ono ruchem jednostajnym i prostoliniowym bądź spoczywa. Zasada ta nie dotyczy każdego układu współrzędnych (in. układu odniesienia). Obserwator w hamującym pociągu widzi, jak przewracają się przedmioty, które dotąd spokojnie sobie tkwiły w bezruchu. Hamujący pociąg nie jest więc układem odniesienia, w którym zasada bezwładności ma zastosowanie. Fizycy mówią: nie jest układem inercjalnym (tzn. takim, w którym obowiązuje zasada bezwładności). Pociąg jadący ruchem jednostajnym jest dobrym przybliżeniem układu inercjalnego, podobnie jak powierzchnia Ziemi. Wiemy jednak, że także powierzchnia Ziemi nie jest idealnym układem inercjalnym, ponieważ Ziemia wiruje wokół osi, a także porusza się ruchem rocznym wokół Słońca. Układ inercjalny jest więc pewnym ideałem teoretycznym. Zasady dynamiki mają w takim układzie szczególnie prostą postać i zazwyczaj tak są domyślnie sformułowane.

Ważną cechą układów inercjalnych jest to, że każdy układ odniesienia poruszający się ruchem jednostajnym i prostoliniowym względem jednego z nich jest także układem inercjalnym. mamy więc do czynienia z klasą równoważnych fizycznie układów odniesienia. W każdym z nich obowiązują zasady dynamiki w zwykłej postaci. Nie znaczy to, że nie możemy opisywać ruchu np. w odniesieniu do hamującego pociągu, musimy jednak wtedy uwzględnić dodatkowe siły, które nie wynikają z żadnych oddziaływań, lecz są skutkiem ruchu układu: w hamującym pociągu pasażerowie odczuwają siłę zwróconą ku jego przodowi, która znika, gdy pociąg się zatrzyma.

Isaac Newton sformułował w Matematycznych zasadach filozofii przyrody pojęcia absolutnej przestrzeni – czegoś w rodzaju nieskończonego pojemnika na wszystkie obiekty w świecie oraz absolutnego czasu. Prawa dynamiki obowiązywać miały, gdy ruch odnosimy do owej przestrzeni absolutnej, ale także w każdym układzie odniesienia poruszającym się ruchem jednostajnym i prostoliniowym. W rezultacie w fizyce Newtona nie ma sposobu na ustalenie, który z nieskończonego zbioru układów inercjalnych jest absolutną przestrzenią albo w języku dziewiętnastego wieku: eterem. Nie możemy więc ustalić absolutnego położenia żadnego przedmiotu w sposób empiryczny: dwa zdarzenia zachodzące w odstępie jednej minuty w tym samym punkcie (inercjalnego) pociągu zachodzą w różnych miejscach przestrzeni zdaniem obserwatora na peronie. Fizycznie oba punkty widzenia są równoprawne, a także punkty widzenia wszelkich innych obserwatorów inercjalnych. Absolutna przestrzeń należy więc do założeń metafizycznych Newtona, żadne eksperymenty nie pozwalają jej zlokalizować. Inaczej można powiedzieć, że w fizyce Newtona obowiązuje zasada względności: prawa fizyki są takie same w każdym układzie inercjalnym.

Czas w fizyce Newtona jest rzeczywiście absolutny, to znaczy, można zawsze ustalić, czy zdarzenia są równoczesne, nawet gdy zachodzą one daleko od siebie (zresztą dla pewnego obserwatora inercjalnego będą one równoczesne i zarazem w tym samym punkcie przestrzeni).

Einstein uważał, iż zasadę względności należy rozciągnąć także na zjawiska elektromagnetyczne i zaproponował, aby obowiązywała ona jako nowe prawo fizyki: wszelkie prawa fizyki mają taką samą postać w każdym układzie inercjalnym. Drugim postulatem jego teorii było przyjecie, że prędkość światła w próżni jest dla każdego obserwatora inercjalnego równa tej samej wartości c (wynikającej z teorii Maxwella). Zamiast analizować szczegóły zaproponował więc dwie zasady ogólne, które jego współczesnym wydawały się przeczyć sobie wzajemnie. Rozszerzenie zasady względności na całą fizykę byłoby wprawdzie eleganckim wyjaśnieniem, dlaczego nie obserwujemy ruchu Ziemi w eterze (bo eteru nie ma), ale pojawia się trudność z drugim postulatem. Znaczy on bowiem, że nie tylko prędkość światła zawsze jest równa c, bez względu na ruch źródła światła, ale także równa jest c bez względu na to, czy obserwator goni falę świetlną, czy też porusza się jej naprzeciw. Przeczy to prawu składania prędkości, a przecież eksperymenty potwierdzają je na co dzień: gdy pasażer porusza się z prędkością u (względem pociągu) w kierunku do przodu pociągu jadącego z prędkością v (względem peronu), to jego prędkość względem peronu jest sumą u+v. Dlaczego prawo to nie działa, gdy jednym z obiektów jest światło?

Czyniono często zarzut Einsteinowi, że prędkość światła w próżni jest w jego teorii jakoś szczególnie wyróżniona. Rzeczywiście, istnieje w tej teorii graniczna prędkość poruszania się obiektów materialnych, np. przekazywania energii albo informacji, i to jest właśnie c. Można powiedzieć, że światło ma tę szczególną własność, iż porusza się z ową maksymalną prędkością. Nie ma jednak żadnych przeszkód, aby istniały inne obiekty poruszające się z prędkością c. Wiemy, że światło składa się z fotonów (było to treścią innej pracy Einsteina z tego samego roku, nie bez powodu nazywanego jego „cudownym rokiem”), cząstek poruszających się z prędkością c. Podobnie poruszają się inne cząstki, odkryte później, jak gluony, albo wciąż czekające na odkrycie, jak grawitony. Cząstki takie nie istnieją w stanie spoczynku, lecz zawsze poruszają się z prędkością c.

Istnienie maksymalnej prędkości, i to w dodatku zawsze jednakowej, pozwala na eksperymentalne badanie równoczesności dwóch zjawisk. Obserwator inercjalny może rozmieścić w swoim układzie odniesienia zegary w różnych punktach. Znając odległość tych puntów oraz prędkość światła, może te zegary zsynchronizować. Gdy jego zegar wskazuje czas t, wysyła sygnał do punktu odległego o r i umawia się z kolegą, który tam przebywa, że moment odebrania sygnału będzie czasem t+r/c. Dzięki temu przepisowi wszystkie zegary zostaną zsynchronizowane i można będzie ustalić zawsze czas danego zdarzenia, obserwując go na pobliskim zegarze. Metoda ta zastosowana w innym układzie inercjalnym może dać inne wyniki w odniesieniu do tej samej pary zdarzeń.

Przykład podany przez Einsteina pomaga to zrozumieć. Wyobraźmy sobie jadący pociąg i obserwatora na peronie. W chwili, gdy mija go środek pociągu, w jego początek i koniec uderzają równocześnie dwa pioruny. Ich uderzenia są równoczesne, ponieważ światło obu błyskawic dociera do naszego obserwatora w jednej chwili, a wiadomo, że odległość obu końców pociągu od obserwatora była w tym momencie taka sama. Inaczej opisze te zdarzenia obserwator siedzący w środku pociągu. Jego zdaniem piorun najpierw uderzył w przód pociągu, a dopiero później w jego tył (linia świata pasażera jest na rysunku zakreskowana, jest to zarazem jego oś czasu). Skoro równoczesność dwóch zdarzeń zależy od układu odniesienia, to znaczy, że czas absolutny nie istnieje. Wbrew pozorom nie burzy to jednak naszych koncepcji przyczyny i skutku. Musimy tylko precyzyjnie opisywać zdarzenia, podając ich położenie oraz czas. Zdarzenia takie, jak jednoczesne uderzenia dwóch piorunów w dwóch różnych punktach nie są z pewnością połączone związkiem przyczynowo-skutkowym, ponieważ wymagałoby to oddziaływania przenoszącego się natychmiastowo, z nieskończoną prędkością. Wszystkie zaś oddziaływania fizyczne mogą przenosić się co najwyżej z prędkością światła w próżni. Dlatego zmiana kolejności czasowej obu uderzeń pioruna nie burzy fizyki. Jeśli natomiast jakieś zdarzenie A może potencjalnie być przyczyną innego zdarzenia B, to dla każdego obserwatora ich kolejność czasowa będzie taka sama: t_A<t_B. Obalenie koncepcji absolutnego czasu nie oznacza zatem wprowadzenia anarchii w relacjach czasoprzestrzennych, lecz zaprowadzenie innego ładu niż dotąd.

Był to najważniejszy wniosek Einsteina. Oznaczał konieczność przebudowy samych podstaw fizyki: pojęć czasu i przestrzeni. Okazywało się, że teoria Maxwella zgodna jest z teorią względności, nie wymaga więc żadnej przebudowy. Przeciwnie, fikcyjny czas lokalny Lorentza należy interpretować jako czas rzeczywisty mierzony przez innego obserwatora. Póki znajdujemy się w jednym ustalonym układzie inercjalnym czas wydaje nam się absolutny. Rewolucja dotyczyła porównywania wyników pomiarów dokonywanych przez różnych obserwatorów. W przypadku elektrodynamiki oznaczało to względność pól elektrycznych i magnetycznych. Jeśli np. w jednym układzie odniesienia mamy spoczywający ładunek wytwarzający pole elektryczne, to w innym układzie ładunek ten będzie się poruszać – będziemy więc mieli do czynienia z prądem, i obserwować będziemy zarówno pole elektryczne, jak i magnetyczne. Oba wektory pola elektromagnetycznego stanowią więc z punktu widzenia teorii względności jedną całość, jeden obiekt matematyczny, którego składowe w różnych układach są różne, podobnie jak składowe zwykłego wektora w różnych układach współrzędnych.

Równania Maxwella są takie same w każdym układzie inercjalnym, więc i prędkość fali świetlnej będzie w każdym układzie taka sama. Większej przebudowy wymagała mechanika. Jej newtonowska wersja nadal pozostaje słuszna, gdy ciała poruszają się wolno w porównaniu do prędkości światła. Najważniejszą konsekwencją nowej mechaniki stało się słynne równanie E=mc^2, które pozwala zrozumieć m.in. reakcje, w których powstają albo giną cząstki, oraz skąd gwiazdy czerpią energię na świecenie przez miliardy lat.

Szczególna teoria względności rozwiązywała problemy, które od lat uciążliwie towarzyszyły fizykom, choć były one głównie natury pojęciowej. Można było na co dzień nie zaprzątać sobie głowy ruchem Ziemi w eterze i uprawiać fizykę tak, jakby Ziemia była nieruchoma. Także narzędzia do rozwiązania owych problemów zostały już wypracowane, głównie przez Lorentza i Poincarégo, Einstein je tylko radykalnie zreinterpretował. Pierwszy z fizyków pogodził się z sytuacją i zaprzyjaźnił z Einsteinem, drugi starał się ignorować prace młodszego kolegi (być może zresztą jego stosunek do Einsteina uległby z czasem zmianie, Poincaré zmarł w roku 1912, a więc przed stworzeniem ogólnej teorii względności). Ostatecznie elektrodynamika ciał w ruchu przeszła do historii, a podstawą fizyki stała się szczególna teoria względności.
Natomiast jej uogólnienie, czyli Einsteinowska teoria grawitacji, było praktycznie dziełem jednego tylko autora, stworzonym w latach 1907-1915.

Pojęciowym punktem wyjścia była prosty eksperyment myślowy: obserwator swobodnie spadający w polu grawitacyjnym nie będzie odczuwał grawitacji – będzie w stanie nieważkości, dziś dobrze znanym z lotów kosmicznych. Einstein uznał tę obserwację za „najszczęśliwsza myśl swego życia”. Z punktu widzenia fizyki Newtonowskiej istnieją dwa rodzaje masy: grawitacyjna i bezwładna. Pierwsza określa siłę, z jaką na ciało będzie oddziaływać grawitacja. Druga określa przyspieszenie ciała. Ponieważ obie te masy są jednakowe, więc przyspieszenie dowolnego ciała w danym polu grawitacyjnym jest takie same. Ilustruje to się czasem, demonstrując spadanie różnych ciał w rurze próżniowej. Obie masy skracają się zawsze, kiedy obliczamy przyspieszenie. Zdaniem Einsteina należało tę tożsamość wbudować w strukturę fizyki, zamiast ją tylko postulować jako dodatkowy warunek. Uczony sformułował zasadę równoważności pola grawitacyjnego i przyspieszenia. Znajdując się w zamkniętej kapsule, nie potrafilibyśmy odróżnić, czy nasza kapsuła porusza się ruchem przyspieszonym, czy spoczywa w polu grawitacyjnym (możliwe byłyby także kombinacje obu stanów). Grawitacja jest więc w fundamentalny sposób związana z bezwładnością. Einstein dążył do stworzenia teorii, która objaśniałaby jednocześnie grawitację oraz bezwładność. Argumentował przy tym, że układy inercjalne są sztucznym ograniczeniem dla fizyki, powinniśmy więc dopuścić także układy przyspieszone, nieinercjalne. Podobnie jak w szczególnej teorii względności każda prędkość ma zawsze charakter względny, w teorii uogólnionej także przyspieszenie miało stać się pojęciem względnym. Nawiązywał tu do rozważań Ernsta Macha, który sądził, że przyspieszenie jest względne. W swoim czasie Isaac Newton posłużył się przykładem wiadra z wodą wirującego na skręconym sznurze. Gdy wiadro przekaże ruch wirowy wodzie, jej powierzchnia staje się wklęsła, co jest skutkiem sił odśrodkowych. Możemy w ten sposób stwierdzić, czy woda wiruje względem absolutnej przestrzeni. Zdaniem Macha eksperyment ten dowodzi tylko tego, że woda obraca się względem dalekich gwiazd. Gdyby to owe gwiazdy zaczęły się obracać, skutek byłby ten sam, a przestrzeń absolutna nie istnieje.

Droga Einsteina do ogólnej teorii względności była zawikłana, lecz z perspektywy roku 1921 jej struktura matematyczna została już wyjaśniona. Rolę układów inercjalnych odgrywały teraz swobodnie spadające układy odniesienia. Obserwator znajdujący się w jednym z nich może stosować szczególną teorię względności. Różnica fizyczna między obiema teoriami polega jednak na tym, że szczególną teorię względności stosować można jedynie lokalnie. Nawet bowiem w spadającym swobodnie laboratorium można wykryć niewielkie zmiany przyspieszenia między różnymi jego punktami – są to siły przypływowe (poznane historycznie na przykładzie zjawiska przypływów i odpływów w oceanach, które są z różnymi siłami przyciągane grawitacyjnie przez Księżyc oraz Słońce). Oznacza to, że nie można wprowadzić jednego układu inercjalnego dla całego wszechświata, można tylko wprowadzać je lokalnie. Matematycznie rzecz biorąc, różnica między teorią ogólną i szczególną polega na geometrii: zakrzywionej w pierwszym przypadku, płaskiej w drugim. Einstein posłużył się czterowymiarowym sformułowaniem swej teorii szczególnej podanym przez Hermanna Minkowskiego. Czas i przestrzeń stanowią tu pewną całość, czasoprzestrzeń. W przypadku dwuwymiarowym w każdym punkcie powierzchni możemy zbudować płaszczyznę styczną. Jest ona zarazem dobrym przybliżeniem geometrii w otoczeniu danego punktu: w taki sposób posługujemy się planami miast, mimo że Ziemia nie jest płaska.

Teorię dwuwymiarowych powierzchni zawartych w trójwymiarowej przestrzeni zbudował Karl Friedrich Gauss. Zauważył przy tym, że wystarczy posługiwać się wielkościami dostępnymi bez wychodzenia poza powierzchnię. Można np. w ten sposób ustalić, czy jest ona zakrzywiona. Podejście Gaussa uogólnił później Bernhard Riemann, a inni matematycy rozwinęli je w systematyczne procedury dla powierzchni o dowolnej liczbie wymiarów.

W geometrii Riemanna współrzędne można wybrać w sposób dowolny, w przypadku zakrzywionych przestrzeni nie istnieje na ogół żaden szczególnie prosty układ współrzędnych, który mógłby odegrać taką rolę jak współrzędne kartezjańskie w przestrzeni euklidesowej. Nadal decydującą rolę odgrywa tu pojęcie odległości. Dla pary bliskich punktów możemy ją zawsze obliczyć w sposób euklidesowy, a długość dowolnej krzywej uzyskać przez sumowanie takich elementarnych odległości. Zamiast równania ds^2=dx^2+dy^2 na płaszczyźnie, mamy teraz równanie nieco bardziej skomplikowane

ds^2=g_{11}dx_1^2+2g_{12}dx_1dx_2+g_{22}dx_2^2.

Geometrię przestrzeni określa więc zbiór funkcji g_{\mu\nu} pozwalających obliczyć odległość punktów. Funkcje g_{\mu\nu} noszą nazwę tensora metrycznego (albo metryki). Można za ich pomocą wyrazić wszelkie własności geometryczne danej przestrzeni. W przypadku dwuwymiarowym wystarczą trzy takie funkcje, w przypadku czterowymiarowym należy znać ich dziesięć.

W zakrzywionej przestrzeni nie ma linii prostych, można jednak znaleźć ich odpowiedniki. Są to linie geodezyjne (albo geodetyki). Mają one niektóre własności linii prostych w geometrii euklidesowej: są np. najkrótszą drogą łączącą dwa punkty. Krzywe geodezyjne w teorii Einsteina są liniami świata cząstek poruszających się pod wpływem grawitacji. Metryka określa więc, jak poruszają się cząstki – grawitacja nie jest z punktu widzenia Einsteina siłą, lecz własnością czasoprzestrzeni. Należy dodać, że inne rodzaje sił działających na dane ciało sprawią, że przestanie się ono poruszać po geodezyjnej. Jedynie grawitacja wiąże się tak ściśle z geometrią. Jest to zgodne z faktem, że grawitacja jest powszechna, tzn. dotyczy wszystkich cząstek, a także działa na wszystkie w taki sam sposób – dzięki czemu można ją opisać jako własność czasoprzestrzeni. W teorii Einsteina nie potrzeba osobnej masy grawitacyjnej i bezwładnej.

Znając metrykę czasoprzestrzeni, możemy wyznaczyć geodezyjne, czyli obliczyć, jak poruszają się ciała pod wpływem grawitacji. Są to równania ruchu, zastępujące zasady dynamiki Newtona. Aby jednak wyznaczyć metrykę, potrzebne są równania, które musi ona spełniać. Są to równania pola, największe osiągnięcie Einsteina jako fizyka. Przystępując do pracy nad ogólną teorią względności uczony wiedział jedynie, że powinna ona zawierać teorię szczególną a także Newtonowską teorię grawitacji. Równania pola powinny mieć postać znaną z teorii Maxwella: (pewne kombinacje pochodnych pól)=(źródła pola). W przypadku grawitacyjnym źródłem powinna być masa, ale to także znaczy: energia. W teorii szczególnej opisuje się energię i pęd zbioru cząstek jako tensor energii pędu T_{\mu\nu}, zbiór dziesięciu wielkości danych w każdym punkcie czasoprzestrzeni. Masy powinny decydować o krzywiźnie czasoprzestrzeni. Zatem po lewej stronie równań pola powinna znaleźć się wielkość informująca o krzywiźnie. Okazuje się, że praktycznie jedyną możliwością jest tu tzw. tensor Einsteina, G_{\mu\nu} zbiór dziesięciu pochodnych metryki. Równania muszą więc przybrać postać

G_{\mu\nu}=\kappa T_{\mu\nu}.

gdzie \kappa jest odpowiednio dobraną stałą związaną ze stałą grawitacyjną. Sama postać zapisu tych równań zapewnia, że możemy w dowolny sposób wybrać współrzędne, a równania nadal pozostaną słuszne. Znalezienie prawidłowych równań pola pod koniec listopada 1915 roku zakończyło odyseję Einsteina: ogólna teoria względności została zbudowana.

Jeszcze w listopadzie 1915 roku uzyskał Einstein dla swej teorii pierwsze potwierdzenie obserwacyjne. Obliczył bowiem wielkość obrotu orbity Merkurego wokół Słońca – niewielkiej rozbieżności między obserwacjami a teorią Newtona nie udawało się wyjaśnić od półwiecza. Teraz okazało się, że przyczyną rozbieżności było niedokładne prawo grawitacji. Przewidział też Einstein, że promienie gwiazd biegnące blisko powierzchni Słońca powinny uginać się o kąt 1,74’’. Efekt ten został w roku 1919 potwierdzony podczas całkowitego zaćmienia Słońca przez dwie ekspedycje brytyjskie. Teoria grawitacji Einsteina okazała się ogromnym sukcesem, jest powszechnie uważana za najpiękniejszą teorię w fizyce. Nie wszystko jednak poszło po myśli jej twórcy. Okazało się np., że choć wprawdzie grawitacja i bezwładność zostały ze sobą zespolone, to nie udało się jednak zrealizować idei Macha. W teorii Einsteina wirowanie całego wszechświata jest czym innym niż wirowanie wiadra Newtona. Einstein z pewnym uporem trzymał się zasady Macha nawet wówczas, gdy wykazano, że nie obowiązuje ona w jego teorii. Wbrew przewidywaniom twórcy grawitacja może prowadzić do zapadania się materii i tworzenia czarnych dziur, w których zamknięta jest osobliwość czasoprzestrzeni. Einstein zmieniał w ciągu swej późniejszej kariery zdanie na temat tego, czy istnieją fale grawitacyjne: początkowo je przewidywał, później nabrał wątpliwości. Jego początkowe przybliżone podejście okazało się słuszne i fale grawitacyjne zostały odkryte w roku 2015.

Oliver Heaviside i głuchy telefon (1886-1891)

Heaviside był człowiekiem trudnym w kontaktach, nie bardzo też interesowała go kariera zawodowa. Rodzina była zbyt biedna, aby mógł zdobyć solidne wykształcenie, toteż zakończył swą szkolną edukację w wieku szesnastu lat. Przebyta w dzieciństwie szkarlatyna upośledziła jego słuch, izolując go od rówieśników. Choć z czasem odzyskał w znacznej mierze słuch, to pozostał autsajderem na resztę życia. Krótko pracował jako telegrafista i pracownik techniczny u boku starszego brata Arthura w firmie zarządzającej kablem pomiędzy Danią i Anglią, lecz zwolnił się w wieku dwudziestu czterech lat i już nigdy później nie pracował zawodowo. Mieszkając w pokoju u rodziców, zajmował się eksperymentalnie i teoretycznie elektrycznością, jedyne pieniądze zarabiał z publikacji artykułów w fachowym piśmie „The Electrician”. Był jednym z pierwszych kontynuatorów Jamesa Clerka Maxwella, udało mu się uprościć i przejrzyściej zapisać równania elektromagnetyzmu. Odkrył rachunek operatorowy ułatwiający rozwiązywanie równań różniczkowych (posługiwał się funkcją δ na długo przed Dirakiem). Zastosował też zapis wektorowy, bez którego trudno dziś sobie wyobrazić teorię Maxwella. Dzięki bratu, pracującemu jako inżynier, znał praktyczne problemy telefonii i podał metodę zbudowania linii przesyłowej w taki sposób, aby nie zniekształcała sygnałów. Problem był palący, ponieważ telefonia rozwijała się burzliwie i wraz ze wzrostem odległości sygnał nie tylko był słabszy, ale też ulegał zniekształceniu. Dalsza historia tego odkrycia Heaviside’a była zapewne do przewidzenia: z początku nie chciano mu wierzyć, a później to inni zarobili miliony na wcieleniu jego idei w życie.

Biografia Heaviside’a skłania do zastanowienia nad rolą autorytetów w różnych dziedzinach. Będąc jednym z najwybitniejszych uczonych swoich czasów, postrzegany był jako jakiś niedouczony telegrafista, a przy tym dziwak. Jego artykuły w „The Electrician” były trudne do zrozumienia, a może po prostu nikt nie przykładał się do ich zrozumienia, ponieważ były autorstwa jakiegoś urzędnika, nie wiadomo właściwie kogo. Tymczasem stanowiły one oryginalny wykład do teorii elektromagnetyzmu. Gdy Heinrich Hertz odkrył fale elektromagnetyczne, w pracach Heaviside’a znaleźć można było nowocześniejsze i prostsze ujęcie teorii, która tak wspaniale się potwierdziła. Nasz „telegrafista” wyprzedził tu znacznie większość uczonych brytyjskich i kontynentalnych. W szczególności jego podejście górowało nad konserwatywnym i sceptycznym nastawieniem Williama Thomsona, późniejszego lorda Kelvina. Ten ostatni nie potrafił się przekonać do teorii Maxwella, co miało znaczenie, ponieważ był najsławniejszym uczonym Wielkiej Brytanii, zasiadał we wszystkich możliwych radach i towarzystwach, a każde jego słowo prasa traktowała jak wyrocznię. Tak było, gdy w 1888 roku, po odkryciu Hertza, Thomson orzekł, iż jego zastrzeżenia wobec teorii Maxwella nieco się zmniejszyły (uznał bowiem, że prąd przesunięcia – najważniejszy element pojęciowy zaproponowany przez Maxwella – z „zupełnie nie do utrzymania” awansował w jego oczach do kategorii „niezupełnie do utrzymania”). Thomson miał swoją wizję idealnej teorii elektromagnetyzmu, prawdopodobnie zresztą dlatego nie osiągnął końcowego sukcesu. W każdym razie to młodszy od niego James Clerk Maxwell rozwiązał problem, choć sir William nie chciał się z tym pogodzić.

 

Baron Kelvin of Largs

William Thomson umiał jednak zachowywać się fair i dzięki temu Oliver Heaviside doczekał się nieco uznania za życia. Wcześniej, w roku 1887, przeszedł swe najgorsze chwile, gdy stracił możliwość publikowania, a zarazem też skromne dochody, jakie ta działalność zapewniała. Za 40 funtów rocznie redakcja otrzymywała ciągły strumień oryginalnych publikacji z dziedziny elektromagnetyzmu. Kryzys nastąpił wtedy, gdy Oliver Heaviside wszedł w konflikt z Williamem Henry’m Preece’em, ważnym ekspertem brytyjskiej poczty. Preece starał się przeforsować kosztowną decyzję budowy linii telefonicznych z kablem miedzianym w miejsce żelaznego. Argumentował, że dzięki temu wzrośnie zasięg rozmów, ponieważ kable żelazne wytwarzają pole magnetyczne, a to prowadzi do strat energii (zmienne pole magnetyczne indukuje dodatkowe napięcie, mówi się o indukcyjności kabla: miedziane zmniejszały wg Preece’a indukcyjność i na tym polegała ich wyższość). Mało tego, Preece twierdził, że wykazał fałszywość teorii Maxwella. W tym samym czasie Arthur i  Oliver próbowali opublikować pracę, która podważała poglądy Preece’a, a nawet im przeczyła: otóż pole magnetyczne wcale nie musi przeszkadzać w przesyłaniu rozmów telefonicznych, a nawet może pomagać. Pewny siebie Preece zakazał publikacji. Obaj bracia zareagowali na to rozmaicie: Arthur jako podwładny Preece’a przestał się zajmować tym tematem, Oliver natomiast zaczął z upodobaniem dowodzić niekompetencji Preece’a, którego określał m.in. jako „the eminent scienticulist” – czyli coś w rodzaju „wybitnego mędrka”. Racja naukowa była całkowicie po stronie Heaviside’a, znalazł on warunek, jaki spełniać powinna linia przesyłowa, aby nie zniekształcała rozmów (chodzi o to, by składowe o różnych częstościach tłumione były w jednakowym stopniu, w ten sposób daleki odbiorca otrzymuje sygnał słabszy, lecz podobny do wysłanego). Ów warunek Heaviside’a był kontrintuicyjny, lecz prawdziwy i oznaczał, że należy w praktyce zwiększać indukcyjność linii, czyli wytwarzane przez nie pole magnetyczne. Nacisk Preece’a sprawił, że zmienił się redaktor naczelny „The Electrician” i nowy już nie chciał publikować artykułów Heaviside’a.

Karykatura z 1888 r.: Preece pod sztandarem wieloletnich doświadczeń pokonuje Olivera Lodge’a (który podawał w wątpliwość skuteczność używanych piorunochronów i krytykował jego teoretyczne rozważania, stając po stronie Heaviside’a)

Atmosfera wokół niego poprawiła się dopiero wówczas, gdy publicznie docenił jego teorię William Thomson. Otworzyło to drogę do przyjęcia Heaviside’a w roku 1891 na członka Towarzystwa Królewskiego, ułatwiło też publikację kolejnych prac. Zadziwiająco mało zmieniło się w życiu uczonego, który przywiązywał chyba większą wagę do możliwości publikacji niż do zarobku. Nadal pozostał prywatnym uczonym, po śmierci rodziców jego środki do życia mocno się skurczyły. Dzięki dyskretnym staraniom paru wybitnych uczonych zaczął Heaviside otrzymywać skromną emeryturę (dyskretnych, ponieważ drażliwy Heaviside nie chciał jałmużny). Żył dość długo, by widzieć, jak jego idea zwiększenia indukcyjności kabli telefonicznych została wcielona w życie jako pupinizacja albo krarupizacja. Zarówno Amerykanin serbskiego pochodzenia Mihajlo Pupin, jak i Duńczyk Karl Emil Krarup, wyciągnęli praktyczne wnioski z teorii Heaviside’a. Pupin po długiej batalii prawnej z firmą AT&T zarobił na swoim patencie 450 000 $ (blisko 30 mln $ obecnie). Jego rozwiązanie polegało na umieszczaniu w stałych odległościach cewek zwiększających indukcyjność. Krarup zastosował żelazne druty (zwiększające pole magnetyczne) oplatające miedziany rdzeń. Dzięki temu w pierwszych latach XX wieku wzrósł zasięg linii telefonicznych, a ich układanie stało się tańsze. Także kariera Preece’a, który nigdy nie przyznał się do błędu, nie doznała żadnego uszczerbku i rozwijała się pomyślnie, z czasem doczekał się on tytułu szlacheckiego. Tylko Heaviside dziwaczał coraz bardziej, mieszkał sam, pod koniec życia zastąpił meble blokami granitu, zaniedbał się i cierpiał na rodzaj manii prześladowczej. Nie dowiemy się już, czy dziwaczał, ponieważ nie osiągnął pozycji w społeczeństwie odpowiadającej jego talentowi, czy też odwrotnie: nie udało mu się zdobyć pozycji w bardzo konkurencyjnym wiktoriańskim społeczeństwie, ponieważ zbytnio odbiegał od przyjętych standardów zachowania i nawet talent nie mógł tu pomóc.

Die Vermittlungszentrale im Berliner Fernspreschamt II
Original: Frankfurt am Main, Deutsches Postmuseum
Foto: Berlin, 1894

Centrala telefoniczna w Berlinie, 1894 r.

Technika telefoniczna rozwijała się szybko. Kolejnym krokiem było skonstruowanie wzmacniacza na triodach (regeneratora sygnałów), który zaczął być stosowany komercyjnie tuż przed pierwszą wojną światową. Heaviside zdążył jeszcze przewidzieć istnienie jonosfery, dzięki której fale radiowe rozchodzą się wzdłuż powierzchni Ziemi, umożliwiając np. międzykontynentalne przekazywanie sygnału radiowego.

Pokażemy na przykładzie, jak Heaviside potraktował kwestię przesyłania sygnałów bez zniekształceń. Linia przesyłowa to rozciągnięty bardzo obwód. Można uważać, że każdy jego fragment o długości \Delta x składa się z podstawowych elementów obwodu: oporu R\Delta x, indukcyjności L\Delta x oraz połączonych równolegle pojemności C\Delta x oraz przewodnictwa G\Delta x. Dla pierwszego i ostatniego elementu obowiązuje prawo Ohma (przewodnictwo jest odwrotnością oporu):

\dfrac{U}{I}=R.

Napięcie na końcach indukcyjności równe jest

U=L\dfrac{dI}{dt},

co Heaviside w swoim języku symbolicznym zapisywał jako U=LpI (p oznaczało branie pochodnej po czasie). Dla pojemności mamy natomiast

I=\dfrac{dQ}{dt}=C\dfrac{dU}{dt}=CpU.

gdzie Q jest ładunkiem.

Stosunki napięcia do natężenia są zastępczymi oporami, mamy więc dla indukcyjności Lp, a dla pojemności 1/pC. Ponieważ możemy podzielić naszą linię transmisyjną na dowolnie dużą liczbę powtarzających się segmentów o długości \Delta x, więc dodanie kolejnego segmentu nie powinno zmieniać zastępczego oporu. Opór zastępczy całej linii Z (wejściowy) musi w takim razie być tym samym, co połączenie równoległe elementów G\Delta x, C\Delta x oraz (R+Lp)\Delta x + Z na końcu. W połączeniu równoległym dodają się odwrotności oporów, mamy więc

\dfrac{1}{Z}=(G+pC)\Delta x+\dfrac{1}{(R+pL)\Delta x+Z}.

Po przekształceniach dostajemy równanie kwadratowe na opór zastępczy:

Z^2+(R+pL)\Delta x Z=\dfrac{R+pL}{G+pC}.

Jeśli teraz przyjmiemy, że \Delta x\rightarrow 0, to otrzymamy

Z^2=\dfrac{R+pL}{G+pC}.

Otrzymany wynik wygląda odrobinę dziwnie, jeśli przypomnimy sobie, że p to różniczkowanie. Nie jest jasne, jak powinniśmy dzielić przez p i jak wyciągać pierwiastek. Heaviside szedł za swoim formalizmem tak daleko, jak tylko się dało i rozpatrywał wyrażenia takie, jak np. p^{\frac{1}{2}}. Uważał on matematykę za naukę empiryczną i jak mówił: „Czy mam odmówić zjedzenia obiadu, ponieważ nie znam wszystkich szczegółów trawienia?” My nie musimy iść aż tak daleko. Widać z ostatniego wyrażenia, że gdy spełniony będzie warunek

\dfrac{R}{G}=\dfrac{L}{C},

nasz ułamek się skróci (cokolwiek to znaczy) i nie będzie zawierał p, w takiej sytuacji sygnał o dowolnym kształcie nie ulegnie zmianie. Jest to warunek Heaviside’a. W praktyce znaczył tyle, że indukcyjność L należy powiększyć, czego nie rozumiał Preece. Dodać należy, że Heaviside formułował tę swoją matematykę także w konwencjonalny sposób – był może dziwakiem, ale w kwestii technik matematycznych zachowywał się całkiem racjonalnie. Obecnie stosuje się transformaty Laplace’a albo można sobie wyobrażać, że zależność od czasu ma postać \exp(i\omega t) (gdzie \omega to częstość kołowa), wówczas różniczkowanie sprowadza się do mnożenia i mamy po prostu p=i\omega.

 

 

 

James Clerk Maxwell: Pole magnetyczne jako wiry materii (1862)

Mody intelektualne przychodzą i odchodzą podobnie jak wszelkie inne mody. W XVII wieku starano się wszystkie zjawiska fizyczne wyjaśniać za pomocą ruchu jakichś niewidzialnych cząstek, które miały się zderzać i przekazywać sobie ruch. Chodziło głównie o to, by wyeliminować z nauki wszelkie oddziaływanie na odległość: cząstki oddziaływały tylko podczas zderzeń i nie działały pomiędzy nimi żadne siły spójności. René Descartes, zwany u nas Kartezjuszem, tak sobie wyobrażał działanie magnesu.

(Principia Philosophiae, 1644)

Świat składał się u niego z krążących strumieni cząstek, a ponieważ przestrzeń miała być tym samym co rozciągłość, cząstki owe krążyły wśród drobniejszych cząstek tak, aby nie pozostawiać nigdzie pustego miejsca (tak mu bowiem wyszło z rozumowań: że nie ma próżni, pusta przestrzeń to oksymoron, jak czarny śnieg albo zimny wrzątek). Wiry cząstek objaśniały rzeczy wielkie, jak ruch planet, a także małe, jak przyciąganie magnesu i żelaza. W przypadku magnetycznym cząstki owe przypominały makaron świderki, były skręcone i mogły się albo wkręcać, albo wykręcać z nagwintowanych porów magnesu. Nie wiemy, jak bardzo Kartezjusz wierzył w słuszność tego wyjaśnienia. Na szczęście filozofowie i uczeni nie muszą (zazwyczaj) umierać za swoje teorie, wystarczy, że to one, wiodąc żywot niezależny od swych autorów, giną albo zwyciężają w ich imieniu.

Jednak do połowy XVIII wieku Kartezjusz panował we Francji i z tego powodu nawet Newtonowska grawitacja – przyciągająca i działająca na odległość – przyjmowała się z trudem. Większość uczonych akademików i prowincjonalnych amatorów z upodobaniem wymyślała coraz to nowe cząstki i wiry, np. objaśniające elektryczność. Inaczej do sprawy podchodził Benjamin Franklin, który nie lubił zbyt skomplikowanych teorii i uznał elektryczność za rodzaj fluidu zawartego w ciałach. W naładowanym kondensatorze inne miało być stężenie owego fluidu po obu stronach izolatora. Franklin zauważył, że naładowany kondensator można rozładować za pomocą wahadełka, które przenosi ładunek od okładki do okładki – zawarty jest w tym pewien obraz elektryczności jako czegoś, co może się przenosić od jednego ciała do drugiego, jak jakiś specjalny płyn, nieważki, lecz rzeczywisty.

Butelka lejdejska (czyli kondensator) rozładowywana za pomocą wahadełka z korka

Wariant tego urządzenia zamontowany był w domu Franklina w Filadelfii: między piorunochronem a uziemieniem biegnie drut przerwany dwoma dzwonkami. Wahadełko umieszczone pomiędzy obu dzwonkami poruszało się, gdy pojawiał się w układzie ładunek. Żona badacza, Deborah, w słusznym odruchu twierdziła, że boi się tego dzwonienia podczas burzy czy wtedy, gdy się ma na burzę. Małżonek, przebywający w Londynie, zezwolił jej wówczas na zdemontowanie dzwonków.

W XIX wieku wierzono już w świat wypełniony nie sypkim piaskiem, ale raczej galaretowatym eterem. Wiedziano, że światło to fale poprzeczne, a więc i ośrodek musiał wykazywać pewną sprężystość kształtu, nie mógł przelewać się jak ciecz albo gaz. Trzeba to było jakoś pogodzić np. z ruchem ciał niebieskich, które poruszają się, nie napotykając oporu eteru. Rozwinęły się w związku z tym techniki równań różniczkowych cząstkowych oraz rozmaite fantastyczne idee na temat eteru. Michael Faraday wprowadził do nauki pojęcie linii sił. Wyobrażał sobie, że owe linie się wzajemnie odpychają, dążąc zarazem do skrócenia się, jakby były z gumy, dając w efekcie siły przyciągania bądź odpychania. Jako niematematyk wyobrażał je sobie jako pewne dość konkretne, choć niewidoczne byty. Ładunki elektryczne były dla niego w zasadzie zakończeniami owych linii sił, a nie czymś istniejącym samodzielnie. Fluid Franklina i inne tego rodzaju pomysły trafiły do lamusa. Wahadełko Franklina miało być przyciągane właśnie tymi elastycznymi i odpychającymi się liniami sił (na obrazku kulka przyciągana jest do lewej okładki kondensatora; kulka naładowana jest tak, jak prawa okładka).

W styczniu roku 1862 James Clerk Maxwell opublikował trzecią część pracy On Physical Lines of Force, w której zajmował się m.in. wyjaśnieniem pola magnetycznego za pomocą wirów w eterze. Eter wypełniać miały wielościenne, zbliżone do kul elastyczne cząstki („wiry molekularne”), a pomiędzy nimi była jeszcze pojedyncza warstwa drobniejszych cząstek kulistych.

Pole magnetyczne polegać miało na wirowaniu cząstek wielościennych – im silniejsze ple, tym większa prędkość kątowa. Obraz tych „wirów molekularnych” wiązał się z obserwacją Faradaya, że płaszczyzna polaryzacji światła obraca się, gdy fala biegnie wzdłuż kierunku pola magnetycznego. Efekt Faradaya wskazywał na związek pola magnetycznego i fali świetlnej. Aby sąsiednie wiry mogły obracać się w tym samym kierunku, potrzebna była dodatkowa warstwa cząstek przekazujących ruch i obracających się bez tarcia, nieco podobnie jak w łożysku kulkowym.

Gdy prędkość sąsiednich wirów była taka sama, owe dodatkowe kulki jedynie się obracały (lewa część rysunku), gdy natomiast prędkości wirowania się różniły, kulki dodatkowe przemieszczały się, odpowiadając za prąd elektryczny. Jednak według Maxwella nie były one nośnikami ładunku, inaczej niż to wyobrażamy sobie dziś. Włączając do modelu sprężystość wirów molekularnych, które mogły nie tylko się obracać, ale i odkształcać, Maxwell wprowadził do swej teorii prąd przesunięcia i efekty elektrostatyczne. W tej samej pracy obliczył prędkość rozchodzenia się sprężystych fal poprzecznych w swoim modelu eteru. Okazała się ona równa prędkości światła. Tak naprawdę jego model nie był do końca ściśle określony i dokładna zgodność z prędkością światła była do jakiegoś stopnia przypadkowa. Maxwell uwierzył jednak, że ma ona znaczenie i zainteresował się pomiarami elektrycznymi i magnetycznymi, które mogły dostarczyć dokładniejszej wartości stałych do modelu. Fale poprzeczne w tym eterze nie były jeszcze falami elektromagnetycznymi: pola elektryczne i magnetyczne nie zmieniały się w nich tak, jak w fali elektromagnetycznej. Dalsze prace Maxwella stopniowo oddalały się od tego modelu. Spełnił on jednak ważną rolę heurystyczną. Większość uczonych XIX wieku wierzyła, że zjawiska elektromagnetyczne w taki czy inny sposób należy sprowadzić do ruchów eteru. Mechanika była ich sposobem myślenia, był to wiek pary i urządzeń mechanicznych: przekładni, tłoków, łożysk, regulatorów itd.
Pierre Duhem, ważny filozof nauki i znacznie słabszy uczony, dostrzegał te inżynierskie parantele i patrzył na nie z pewnym politowaniem. Pisał, rozróżniając fizykę angielską i niemiecko-francuską (było to przed I wojną światową, zanim Niemcy przestali być jego faworytami):

Fizyk francuski bądź niemiecki przyjmował w przestrzeni dzielącej dwa przewodniki abstrakcyjne linie sił bez grubości, bez realnego istnienia; fizyk angielski uzna te linie za materialne, przyda im grubości, by stały się rozmiarów rurki, którą wypełni zwulkanizowanym kauczukiem; w miejsce idealnych linii sił, możliwych do pojęcia jedynie rozumowo, pojawi się u niego wiązka elastycznych strun, widzialnych i dotykalnych, mocno przyklejonych swymi końcami do powierzchni obu przewodników, naciągniętych, dążących do skrócenia się i pogrubienia zarazem (…) Tak przedstawia się słynny model oddziaływań elektrostatycznych wyobrażony przez Faraday i podziwiany jako owoc geniuszu przez Maxwella oraz całą szkołę angielską.
(…) Oto książka, która ma na celu przedstawienie nowoczesnej teorii elektryczności, przedstawienie nowej teorii; a mowa w niej wyłącznie o sznurach poruszających kołami obracającymi się w bębnach, poruszających kulkami, podnoszącymi ciężary; o rurach pompujących wodę i rurach skracających się i poszerzających, kołach zębatych sprzęgniętych ze sobą i z zębatkami; sądziliśmy, że wkraczamy do spokojnego i starannie zaprojektowanego gmachu dedukcyjnego rozumu, a trafiliśmy do fabryki”. [La Théorie physique: Son objet et sa structure, Paris 1906, s. 110-111]

Duhem ma tu na myśli książkę Olivera Lodge’a Modern views of electricity, ale i całą brytyjską szkołę naukową. Zabawnie pomyśleć, że Francuz, potomek Kartezjusza, tak bardzo gorszył się wyjaśnieniami mechanicznymi. Filozof słabo rozumiał swoje czasy, był bardzo konserwatywnym katolikiem, który starał się wykazać, że Galileusz niezbyt się przyczynił do rozwoju nauki; mniej w każdym razie niż kardynał Bellarmine, który spalił Giordana Bruna i wciągnął Kopernika na Indeks ksiąg zakazanych. Prawdopodobnie główną winą Galileusza oczach Duhema był fakt, że naraził się Kościołowi, a ten z zasady jest nieomylny. Oliver Lodge rzeczywiście miał przesadne upodobanie do mechanicznych wynalazków ilustrujących elektryczność i magnetyzm. Takie upodobanie miał także i Boltzmann, najważniejszy fizyk europejski między Maxwellem a Einsteinem. Można przypuszczać, że James Clerk Maxwell nie wykonałby swej ogromnej wieloletniej pracy nad teorią elektromagnetyzmu, gdyby nie mechaniczne modele. Odegrały one ważną rolę, bo pomagały mu w myśleniu. Duhem, podobnie jak wielu filozofów i wielu katolików, obszczekiwał nie to drzewo.

Wiry molekularne Maxwella znalazły jakiś rodzaj kontynuacji we współczesnym opracowaniu matematycznym jego teorii. Pole magnetyczne okazuje się 2-formą, czymś, co w naturalny sposób daje się całkować po powierzchni. Obiekt taki geometrycznie przedstawia się jako rurkę z pewną skrętnością. Pole elektryczne jest 1-formą, czyli czymś, co daje się naturalnie całkować wzdłuż krzywej. Obiekt taki można przedstawić jako układ płaszczyzn czy powierzchni dwuwymiarowych, które przecinamy idąc w pewnym kierunku.

Rozważania Maxwella nie były więc tak bardzo od rzeczy, jak moglibyśmy dziś sądzić, słysząc o wirach molekularnych w eterze. Opisu świata dostarczają więc raczej obiekty matematyczne niż dziewiętnastowieczne przekładnie i zębatki.

Wydaje się, że ludzie najlepiej wyobrażają sobie to, co sami potrafią w danej epoce zbudować: dawniej były to mechanizmy zegarowe i urządzenia hydrauliczne, w wieku XIX różne pomysłowe maszyny, od końca wieku XX na wyobraźnię wpływają komputery. Wyobraźnia typu inżynierskiego, obrazowego, miała zawsze duże znaczenie w nauce: od Galileusza i Kartezjusza, przez Newtona aż do lorda Kelvina, Maxwella i Einsteina – wszyscy oni mieli spore kompetencje praktyczne. W tym sensie świat jednak bardziej jest fabryką niż świątynią dogmatycznego albo tylko matematycznego rozumu. Dziś co chwila pojawiają się „komputerowe” teorie świata, np. czy zamieszkujemy wszyscy jakiś program komputerowy, którego założenia poznajemy tylko przez obserwację? Jeden z największych sporów w fizyce dotyczy tego, co dzieje się z informacją wpadającą do czarnej dziury. Z jednej strony teoria grawitacji Einsteina mówi bowiem, że informacja ta ginie razem ze swym nośnikiem pod horyzontem dziury. Z drugiej strony teoria kwantów wymaga, aby informacja nigdy nie ginęła na dobre – może być praktycznie nie do odzyskania, ale co do zasady powinno być to możliwe. Promieniowanie Hawkinga nie rozwiązuje sprawy, ponieważ dziura nie jest wprawdzie absolutnie czarna, ale jej promieniowanie jest termiczne, a więc chaotyczne, nie zawierające informacji. Stworzono gigabajty prac na ten temat, lecz wciąż nie wiadomo, czy w którejś z nich zawarta jest poszukiwana informacja.

Od zasady najdłuższego czasu do równań Maxwella III

W poprzednich dwóch częściach rozpatrzyliśmy zasadę wariacyjną dla cząstki w polu, które okazało się elektromagnetyczne (przy okazji otrzymaliśmy siłę Lorentza) oraz zasadę wariacyjną dla pola elektromagnetycznego. Skoro zaszło się tak daleko, warto może pokazać jeszcze kilka prostych konsekwencji tego, co uzyskaliśmy. Dwa równania Maxwella (prawo Gaussa i prawo Ampère’a) mają u nas postać:

\partial^{\mu}F_{\mu\nu}=\mu_0 j_{\nu},\mbox{(1)}

gdzie j_{\nu}=(c\rho,-\vec{j}) jest czterowektorem gęstości ładunku oraz gęstości prądu; nie wprowadzaliśmy ich poprzednio, ponieważ ominęliśmy obliczenie wariacji lagranżianu oddziaływania pola z cząstkami, wyraz taki ma postać -\int j^{\mu}A_{\mu} d^{4}x. Jasne jest, że muszą pojawić się jakieś źródła: ładunki i prądy.

Dwa pozostałe równania Maxwella (prawo Faradaya oraz magnetyczny odpowiednik prawa Gaussa) wyglądają następująco:

\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.\mbox{(2)}

Z równości tej otrzymujemy cztery równania skalarne, gdy trzy wskaźniki są różne. Jednak samo równanie jest prawdziwe dla dowolnego zestawu wskaźników, przy powtarzających się dostajemy tożsamościowo zero, np.

\partial_{0}F_{01}+\partial_{1}F_{00}+\partial_{0}F_{10}=0,

gdyż wyraz środkowy równy jest zeru, a dwa skrajne mają przeciwne znaki (bo F_{\mu\nu}=-F_{\nu\mu}).

Pokażemy trzy krótkie wnioski z równań zapisanych w tej postaci:

  1. Równania Maxwella w próżni sprowadzają się do równania falowego, a to znaczy, że pole elektromagnetyczne może wędrować w przestrzeni jako fala.
  2. Możemy zapisać te równania za pomocą czteropotencjału A_{\mu}.
  3. Spełniona jest zasada zachowania ładunku.

Ad 1 Obliczmy pochodną \partial^{\mu} z naszego równania (2):

\partial^{\mu}\partial_{\mu}F_{\nu\rho}+\partial^{\mu}\partial_{\rho}F_{\mu\nu}+\partial^{\mu}\partial_{\nu}F_{\rho\mu}=0.

Należy to sobie wyobrażać jako wzięcie pochodnej, a następnie wysumowanie po powtarzającym się wskaźniku. Dwa ostatnie wyrazy są w próżni równe zeru na mocy równania (1). Wyraz pierwszy to

\partial^{\mu}\partial_{\mu}=\dfrac{1}{c^2}\dfrac{\partial^2}{\partial t^2}-\dfrac{\partial^2}{\partial x^2}-\dfrac{\partial^2}{\partial y^2}-\dfrac{\partial^2}{\partial z^2}\equiv \square.

Taki operator nazywa się dalambercjanem (od Jeana Le Ronda d’Alemberta, który zajmował się jeszcze w XVIII wieku równaniem falowym) przez analogię do laplasjanu. Otrzymany wynik można więc krótko zapisać:

\square F_{\mu\nu}=0.

A więc teoria przewiduje fale w próżni.

Ad 2 Tensor pola wyraża się przez czteropotencjał następująco:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Wartości pola elektromagnetycznego otrzymujemy przez różniczkowanie, więc jasne jest, iż wybór czteropotencjału nie jest jednoznaczny. Równanie (2) zapisane za pomocą czteropotencjału daje tożsamościowo zero:

\partial_{\mu}(\partial_{\nu}A_{\rho}-\partial_{\rho} A_{\nu})+\partial_{\rho}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})+ \partial_{\nu}(\partial_{\rho}A_{\mu}-\partial_{\mu}A_{\rho})=0.

Łatwo zauważyć, że mamy pary wyrazów różniących się tylko znakiem (kolejność różniczkowania wolno zawsze zmienić). W bardziej rozbudowanej matematycznie teorii jest to tzw. tożsamość Bianchiego (od matematyka włoskiego z przełomu XIX i XX wieku, pierwszy zresztą tę tożsamość zapisał Ricci-Curbastro, a potem odkrywana była jeszcze wiele razy na nowo). Wstawiając potencjał do równania (1), otrzymujemy

\partial^{\mu}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})=\square A_{\nu}-\partial_{\nu}(\partial^{\mu}A_{\mu})=\mu_{0}j_{\nu}.

Ostatnie równanie można uprościć, korzystając ze swobody cechowania. Możemy bowiem zażądać, żeby ostatni wyraz w nawiasie po lewej stronie był równy zeru. Ograniczamy w ten sposób dowolność wyboru czteropotencjału. Warunek ten nazywa się cechowaniem Lorenza (od duńskiego uczonego Ludwiga Lorenza, którego nie należy mylić z Holendrem Hendrikiem Lorentzem od transformacji Lorentza). Jeśli go nałożymy, to nasz czteropotencjał spełnia niejednorodne równanie falowe:

\square A_{\mu}=\mu_{0}j_{\mu}.

Tam gdzie nie ma ładunków ani prądów, otrzymujemy równanie falowe dla czteropotencjału. W tej formie równania Maxwella wyglądają więc następująco:

\begin{cases} \square A_{\mu}=\mu_{0}j_{\mu}\\ \partial^{\mu}A_{\mu}=0.\end{cases}

W tej postaci mamy tylko jedno równanie na czterowektor plus warunek cechowania. Czyli w istocie pole elektromagnetyczne nie potrzebuje sześciu składowych (po trzy dla pola elektrycznego i magnetycznego), wystarczą cztery, a nawet nieco mniej, ze względu na warunek cechowania, który ogranicza możliwości.

Ad 3 Ostatni punkt: zasada zachowania ładunku. Wynika ona z równania (1), gdy weźmiemy jego pochodną:

\partial^{\nu}\partial^{\mu}F_{\mu\nu}=0=\mu_{0} (\partial^{\nu}j_{\nu}).

Pierwsza równość pochodzi stąd, że pochodne możemy przestawiać bez zmiany znaku, natomiast tensor F_{\mu\nu} jest antysymetryczny. Tak przy okazji, nazywa się często F_{\mu\nu} tensorem Faradaya, oczywiście Michael Faraday nie miał pojęcia o tensorach, odkrył jednak, że zmienne pole magnetyczne generuje pole elektryczne. Ostatnie wyrażenie to uogólnienie dywergencji na cztery wymiary:

\dfrac{\partial\rho}{\partial t}+\nabla\cdot\vec{j}=0.

Ostatnie równanie znaczy tyle, że jeśli w danym punkcie prąd wypływa, to gęstość ładunku musi odpowiednio maleć. Ładunek jest zachowany, i to lokalnie: aby wypłynął z danej objętości, musi przeciąć powierzchnię, która tę objętość ogranicza. Jeśli był, a teraz go nie ma, to znaczy, że musiał przejść przez granicę.

Równania Maxwella zapisane jak wyżej nie tylko wyglądają prościej, ale wskazują jawnie, że teoria jest relatywistycznie kowariantna, tzn. zgodna z teorią względności. To nie koniec zalet takiego podejścia: okazuje się, że w teorii grawitacji Einsteina postać równań Maxwella jest właściwie taka sama.

Od nacjonalizmu do idiotyzmu: duch francuski i fizyka niemiecka (1915, 1936)

Ponieważ przybliża się chwila, gdy nasze niestrudzone władze powołają wreszcie do życia Narodowy Instytut Fizyki im. Antoniego od Wielu Wybuchów, więc warto może przypomnieć chlubne przykłady z przeszłości. Złudne jest bowiem mniemanie, że dziedziny takie, jak matematyka albo fizyka nie mają charakteru narodowego. Otóż mają i dlatego tak ważne jest promowanie autentycznie polskiej fizyki. A jakaż to będzie radość dla dziatek naszych najmilszych, gdy w programie szkół po Koperniku będzie od razu Maria Skłodowska-Curie, wypadną zaś te wszystkie Newtony, Ohmy, Hertze i Einsteiny. Wszak żarówkę wynalazł Łodygin, nie jakiś Edison. A była przecież i lampa naftowa Łukasiewicza, i elektryczne świece Jabłoczkowa. My, Słowianie (czyli w zasadzie Polacy), daliśmy światu tyle, tylko on o tym nic nie wie. Kto zaś będzie negował nasze osiągnięcia, ten skazany być może na 3 lata naszej szkoły i nawet wśród pingwinów dopadnie go karząca ręka prawa i sprawiedliwości.

Pierwszy przykład pięknej myśli narodowej w naukach ścisłych znajdujemy u Pierre’a Duhema. Wybitny specjalista od termodynamiki, najbardziej znany jest jako filozof i historyk nauki. Wprowadził on rozróżnienie umysłów naukowych na typ angielski i francuski. Miało się ono wywodzić z tego, co Blaise Pascal określał jako zmysł życiowy (esprit de finesse) oraz zmysł geometryczny (esprit de géométrie). W nauce mielibyśmy uczonych, którzy tworzą różne modele, trzymając się danych doświadczalnych, nawet gdy wprowadza to pewien zamęt pojęciowy; drudzy to budowniczowie prostych teorii, koncentrujący się na ich konsekwencjach. Przykładem typu angielskiego miał być Michael Faraday, francuskiego – Isaac Newton. Rozróżnienie nie miało więc charakteru nacjonalnego, lecz analityczny. Duhem nie lubił brytyjskiej szkoły posługującej się pojęciem pola elektromagnetycznego i mocno atakował Jamesa Clerka Maxwella z pozycji filozoficznych. Oczywiście, żadna filozofia nie mogła na dłuższą metę zaszkodzić osiągnięciom Maxwella, filozofowie mówią swoje, a nauka idzie dalej, nawet bez ich pozwolenia.

Gdy wybuchła pierwsza wojna światowa, czyli wielka wojna (nikt jeszcze nie wiedział, że będzie następna), Duhem, za stary, aby iść na front, zaczął pisać i nauczać o niemieckiej nauce. Co pochlebnego można było powiedzieć o nauce wrogów? Duhem nie zamierzał ich chwalić, wprowadził i omówił pojęcie umysłu typu niemieckiego. Nauka niemiecka była formalistyczna, polegająca na wywodach logicznych nawet tam, gdzie to nie ma większego sensu. „Niemiec jest pracowity, skrupulatny, zdyscyplinowany i podporządkowany”. To geometra, brak mu subtelności. Przykładem Bernhard Riemann, twórca abstrakcyjnego ujęcia geometrii nieeuklidesowej. „Doktryna Riemanna jest ścisłą algebrą, gdyż wszystkie twierdzenia, jakie się w niej formułuje, są bardzo precyzyjnie wydedukowane z przyjętych postulatów; zaspokaja to zmysł geometryczny. Nie jest jednak prawdziwą geometrią, gdyż, wprowadzając swoje postulaty, wcale nie zatroszczyła się, aby wnioski z nich zgadzały się w każdym punkcie z osądami wyprowadzonymi z doświadczenia, które składają się na nasze intuicje dotyczące przestrzeni; w ten sposób przeczy ona zdrowemu rozsądkowi”. Był luty roku 1915, w listopadzie Albert Einstein zapisał równania pola grawitacyjnego w swej teorii. Od kilku lat ci, którzy śledzili rozwój fizyki, wiedzieli, że właśnie geometria riemannowska jest językiem matematycznym nowej teorii. Inaczej mówiąc: owa formalistyczna geometria, rzekomo ignorująca nasze pojęcie przestrzeni, okazała się nauką o fizycznej czasoprzestrzeni, jak najbardziej konkretną, podlegającą pomiarom. Duhem nie śledził zapewne grawitacyjnych prac Einsteina, ponieważ już wcześniejsza szczególna teoria względności nie zyskała w jego oczach aprobaty. Sądził, iż nie istnieje graniczna prędkość w przyrodzie, gdyż można sobie zawsze wyobrazić przebycie określonej drogi w dowolnie krótkim czasie, nawet gdy praktycznie nie potrafimy tego zrealizować. Przyjęcie zasady względności Einsteina, Minkowskiego i Lauego sprawia, że prędkość ponadświetlna staje się sprzecznością logiczną – twierdzi Duhem. „To, iż zasada względności dezorganizuje wszelkie intuicje wynikające ze zdrowego rozsądku, nie wywołuje u fizyków niemieckich żadnych wątpliwości. Przyjęcie jej oznacza siłą rzeczy obalenie wszystkich doktryn dotyczących przestrzeni, czasu, ruchu, wszystkich teorii mechaniki i fizyki; w tak wielkiej dewastacji nie ma niczego, co by nie mogło się podobać myśli germańskiej. Na terenie, który zostanie oczyszczony z dawnych poglądów, geometryczny zmysł Niemców pozwoli im całym sercem oddać się dziełu zbudowania na nowo całej fizyki, której fundamentem stanie się zasada względności”. Widzimy więc na tych przykładach, jak bardzo niefrancuska, a tym samym przykra dla zrównoważonego umysłu, była niemiecka nauka Einsteina.

Mamy drugi jeszcze przykład, jak wolna myśl narodowa kształtować może zdrową etnicznie fizykę. Autorem naszym jest Philipp Lenard, laureat Nagrody Nobla z fizyki eksperymentalnej, człowiek mimo to zgorzkniały i upatrujący odrodzenia nauki aryjskiej w wyzwoleniu się od wpływów żydowskich. Zdaniem Lenarda fizyka stworzona została niemal wyłącznie przez Aryjczyków: Francuzów w jego opowieści nie było, Anglicy, Szkoci i Skandynawowie to praktycznie Niemcy. Niemcami byli też wielcy eksperymentatorzy, jak Heinrich Hertz, odkrywca fal elektromagnetycznych, u którego Lenard pracował kiedyś jako asystent. Hertz nie był jednak „czystej krwi”: jego ojciec, prawnik i senator hanzeatyckiego miasta Hamburga, był Żydem przechrzczonym na luteranizm. Miało to złowieszcze, zdaniem Lenarda, następstwa, gdyż w ostatnich latach życia Hertz zajmował się zasadami mechaniki. W pracy tej „silnie wyszedł na jaw duch żydowski, który w jego wcześniejszych owocnych pracach pozostawał w ukryciu”. W 1936 roku ukazało się czterotomowe dzieło Philippa Lenarda, zatytułowane Deutsche Physik. Był to podręcznik zawierający zdrową pod względem narodowym część fizyki, a nie – jakby ktoś złośliwy mógł pomyśleć – to, co z fizyki zrozumiał Lenard. We wstępie do swego wiekopomnego dzieła skromny jego autor zwracał się do czytelnika: „«Fizyka niemiecka?» – zapytacie. Mógłbym równie dobrze powiedzieć fizyka aryjska albo fizyka ludzi typu nordyckiego, fizyka badaczy rzeczywistości, poszukiwaczy prawdy, fizyka tych, którzy stworzyli badania naukowe. «Nauka jest międzynarodowa i zawsze taka pozostanie» – zaczniecie protestować. (…) W rzeczywistości tak samo, jak wszystko, co tworzy człowiek, również nauka zdeterminowana jest przez rasę albo krew. (…) Należy powiedzieć tu nieco o «fizyce» narodu żydowskiego, ponieważ stoi ona w jaskrawym przeciwieństwie do fizyki niemieckiej (…) fizyka żydowska dopiero niedawno poddana została wyważonej ocenie publicznej. Pod koniec wojny, kiedy Żydzi w Niemczech zaczęli dominować i narzucać ton, wezbrała niczym powódź i ujawniły się jej wszystkie cechy. Znalazła szybko gorliwych zwolenników wśród wielu autorów krwi innej niż żydowska albo nie czysto żydowska”. Oczywiście, przykładem fizyki żydowskiej par excellence musiał być Albert Einstein, jego teorie „kompletnie zgrały się w zetknięciu z rzeczywistością. Najwyraźniej nie były nawet w zamierzeniu prawdziwe. Żyd pozbawiony jest całkowicie zrozumienia prawdy innej niż tylko powierzchowna zgodność z rzeczywistością, [prawdy], która nie zależy od ludzkiej myśli. (…) Zdumiewające jest, że prawda czy rzeczywistość nie wydają się Żydowi czymś szczególnym bądź różnym od nieprawdy, lecz są one równoważne jednej z wielu możliwych opcji teoretycznych”.

Lenard nie mógł przeboleć, że powstaje nowa fizyka, tworzona m.in. przez Einsteina, a popierana ku jego niezadowoleniu przez Maksa Plancka czy Maksa Lauego, późn. von Laue – niewątpliwych etnicznych Niemców. Poglądy wygłaszane przez Lenarda, choć sformułowane prymitywniej, są w istocie zbliżone do zarzutów Duhema. Dla obu teoria względności sprzeczna była ze zdrowym rozsądkiem, była wykwitem zbyt dużej skłonności do abstrakcji oderwanej od rzeczywistości, przerośniętym esprit de géométrie. Duhem widział w tym cechę niemiecką, Lenard natomiast żydowską.

„«Ja cierpię» – Lepiej tak powiedzieć, niż powiedzieć: «Ten krajobraz jest brzydki»” (Simone Weil).

Od zasady najdłuższego czasu do równań Maxwella (II)

Pokażemy, jak równania Maxwella wynikają z zasady najmniejszego działania dla pól relatywistycznych. Można powiedzieć, że klasyczny elektromagnetyzm jest najprostszą teorią relatywistyczną. Kolejność historyczna była odwrotna: najpierw równania Maxwella, a potem teoria względności. Teoria względności ma tu znaczenie fundamentu, ponieważ określa geometrię czasoprzestrzeni (przestrzeni Minkowskiego). Formalizm geometrii czasoprzestrzennej nie jest może oczywisty na pierwszy rzut oka, ale nawet na pierwszy rzut oka widać, że równania mają znacznie elegantszą formę.

Pokazaliśmy poprzednio, jak z zasady najmniejszego działania otrzymać dynamikę relatywistyczną cząstki. Należy w tym celu zdefiniować działanie tak, aby nie zależało od układu współrzędnych – tzn. było skalarem lorentzowskim: a więc funkcją nie zmieniającą się nie tylko przy obrotach, ale także przy transformacjach Lorentza (które geometrycznie są podobne do obrotów, tyle że mieszają ze sobą współrzędne przestrzenne i czasowe). Chcąc uwzględnić pole zewnętrzne, nie wystarczy teraz dodać funkcję będącą energią potencjalną cząstki. Okazuje się, że jeśli żądamy, aby nasze działanie było skalarem, to najprostsze pole zewnętrzne musi mieć cztery składowe: musi być czterowektorem A_{\mu} (zwanym czteropotencjałem). Równania ruchu, które uzyskuje się z zasady najmniejszego działania są wówczas równoważne wyrażeniu na siłę Lorentza w elektromagnetyzmie. Wielkością, która wchodzi do tego wyrażenia nie jest samo A_{\mu} , lecz jego pochodne:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu},

gdzie wprowadziliśmy krótsze oznaczenie: \dfrac{\partial}{\partial x^{\mu}}\equiv \partial_{\mu}.
Wielkości F_{\mu\nu} okazują się składowymi pola elektromagnetycznego: jest ich sześć, bo z definicji widać, że F_{\mu\nu}=-F_{\nu\mu} , a więc macierz 4×4 jest antysymetryczna i ma sześć składowych niezależnych. F_{\mu\nu}, zwane w czasach Einsteina Sechs-Vektor, jest tensorem, tzn. przy transformacjach zachowuje się tak jak iloczyn dwóch czterowektorów: x_{\mu}y_{\nu} . Oznacza to w szczególności, że przy transformacjach Lorentza pola elektryczne i magnetyczne będą się mieszać. Łatwo zauważyć, że powinno tak być. Weźmy parę spoczywających ładunków. Działają one na siebie siłą kulombowską. Jeśli będziemy je obserwować z układu odniesienia, względem którego oba ładunki się poruszają, będziemy mieli do czynienia z prądami, a więc i z polem magnetycznym.

Chcąc zbudować nie teorię cząstek w zadanym polu zewnętrznym, lecz równania, które musi spełniać pole, trzeba uogólnić nieco podejście. Zmiennymi będą teraz nie współrzędne cząstek, lecz wartości pól A_{\mu\nu}(x^{\rho}) . Zaznaczyliśmy wprost, że wartości pola są funkcjami położeń i czasu. Lagranżian musi teraz zależeć od wartości pola oraz jego pierwszych pochodnych: {\cal L}={\cal L}(A_{\mu}, \partial_{\nu}A_{\mu}). . To, co teraz robimy, jest uogólnieniem jednowymiarowwej teorii struny. Działanie musi przyjąć postać:

{\displaystyle S=\int {\cal L} dx^0dx^1dx^2dx^3\equiv \int {\cal L}d^4 x}

Całkujemy po czterowymiarowym obszarze w czasoprzestrzeni. Jaką postać musi przybrać działanie? Podobnie jak w przypadku struny spodziewamy się funkcji kwadratowej w A_{\mu} i jej pochodnych. Działanie powinno zawierać dwa wyrazy: jeden opisujący pola swobodne, drugi – ich oddziaływanie z naładowanymi cząstkami. Ten drugi wyraz już właściwie znamy z poprzedniej części. Gdy mamy wiele cząstek, należy oczywiście po nich wszystkich wysumować. Wrażenie to nie miało postaci całki czterowymiarowej, ale można je do takiej postaci przepisać, używając funkcji (dystrybucji) Diraca. Nie będziemy tego robić, ponieważ jest to ćwiczenie czysto rachunkowe. Zajmiemy się natomiast bliżej działaniem dla pól swobodnych. Lagranżian (ściśle mówiąc: gęstość lagranżianu) powinien być skalarem lorentzowskim. Najprostszym takim skalarem będzie wyrażenie:

{\cal L}=-\dfrac{1}{4\mu_0} F^{\mu\nu}F_{\mu\nu},

gdzie \mu_0 jest stałą fizyczną: przenikalnością magnetyczną próżni. Tensor z podniesionymi wskaźnikami ma niektóre wyrazy innego znaku niż ten z opuszczonymi: transformuje się on bowiem jak iloczyn dwóch czterowektorów x^{\mu}y^{\nu}. W praktyce oznacza to, że wyrazy z jednym wskaźnikiem czasowym zmieniają znak, pozostałe zaś są takie same. Żonglerka wskaźnikami potrzebna jest ze względu na rozróżnienie przestrzeni i czasu, które są w teorii względności nadal fundamentalnie różne. Jeśli w naszych sumach każdy wskaźnik górny jest sumowany z takim samym wskaźnikiem dolnym, to wyrażenie jest skalarem lorentzowskim. Iloczyn F^{\mu\nu}F_{\mu\nu} musi się zatem transformować, jak x^{\mu}y^{\nu}x_{\mu}y_{\nu}=(x^{\mu}x_{\mu})\cdot(y^{\nu}y_{\nu}),
a więc nie będzie zależeć od układu współrzędnych.

W dalszym ciągu postępujemy jak poprzednio, tzn. wyobrażamy sobie, że nasze pole A_{\mu} zmienia się na A_{\mu}+\delta A_{\mu} i obliczamy liniową część przyrostu działania:

{\displaystyle \delta S=\dfrac{1}{\mu_0}\int \partial_{\mu}F^{\mu\nu}\delta A_{\nu}d^4 x.}

Z zasady najmniejszego działania otrzymujemy więc cztery równania:

\boxed{\partial_{\mu}F^{\mu\nu}=0.}

Są to równania Maxwella, tzn. dokładnie ta ich para, w której występują prądy i ładunki (u nas one znikają). Możemy je równie dobrze zapisać w postaci:

\boxed{\partial^{\mu}F_{\mu\nu}=0.}

.
Pochodna ze wskaźnikiem na górze jest równa z definicji \partial^{\mu}\equiv\dfrac{\partial}{\partial x_{\mu}}.

Są to trywialne zmiany zapisu, z naszego punktu widzenia potrzebne do tego, by otrzymać prawidłowe znaki.
Równań Maxwella jest jednak osiem. Co stało się z drugą parą równań? Okazuje się, że mają one postać:

\boxed{\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.}

gdzie trójka różnych wskaźników jest przestawiana cyklicznie: \mu\nu\rho\rightarrow \rho\mu\nu\rightarrow\nu\rho\mu.

Trzy wskaźniki spośród czterech możemy wybrać na cztery sposoby, otrzymujemy więc jeszcze cztery równania, a łącznie osiem – tyle, co trzeba.
Ten drugi zestaw równań spełniony jest tożsamościowo, jeśli pamiętamy, że F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Podsumujmy jeszcze krótko, co otrzymaliśmy: najprostszy lagranżian utworzony z pola A_{\mu} prowadzi do równań Maxwella. Ich postać narzucona jest więc w znacznym stopniu żądaniem zgodności z teorią względności, czyli mówiąc żargonem fizyki: kowariantności relatywistycznej. Oba zestawy naszych równań: ten otrzymany z działania oraz ten drugi, otrzymany z warunków symetrii, mają taką samą postać w każdym układzie odniesienia. Forma, w jakiej zapisaliśmy równania, niekoniecznie jest najwygodniejsza do praktycznych zastosowań, ale ma tę zaletę, iż widzimy na pierwszy rzut oka, że cała teoria jest kowariantna.

Można otrzymać z tych równań wniosek, że w pustej przestrzeni pola elektromagnetyczne wędrują z prędkością światła. Została ona tu wprowadzona jako przelicznik odległości czasowych na przestrzenne w teorii względności. Inaczej: prędkość c jest stałą wynikającą z historycznych zaszłości: mamy inne jednostki dla czasu i przestrzeni, choć Stwórca (jakby to ujął Einstein) nie widzi między nimi większej różnicy niż różnica znaku w niektórych wyrażeniach. Na tym fundamencie zbudowaliśmy teorię elektromagnetyzmu i przewiduje ona fale rozchodzące się z prędkością c, czyli dla Stwórcy jednostkową. Ludzie najpierw zetknęli się z tą wielkością, mierząc szybkość rozchodzenia się światła, stąd jej nazwa.

Jeszcze jedna uwaga na koniec. Lagranżian przez nas przyjęty może się nie wydawać absolutnie najprostszy. Mamy tu jednak jeszcze jedną symetrię, zwaną symetrią cechowania: jeśli do czteropotencjału dodać pochodną czasoprzestrzenną dowolnej funkcji \partial_{\mu}f zmiennych przestrzennych i czasu, to lagranżian oddziaływania z poprzedniej części zmieni się wprawdzie, ale niegroźnie, tzn. równania ruchu z poprzedniej części nie zmienią się, nie zmieni się też tensor pola F_{\mu\nu} (bo jest antysymetryczny, a drugie pochodne cząstkowe są przemienne). Dlatego do lagranżianu nie ma sensu dodawać takich wyrazów, jak A_{\mu}A^{\mu} – bo nie są one niezależne od cechowania. Symetria cechowania okazała się bardzo istotna. Najpierw wydawało się, że jest to pewna szczególna własność elektrodynamiki, z czasem jednak symetrię cechowania uogólniono na tzw. cechowanie nieabelowe. Chromodynamika i teoria oddziaływań elektrosłabych są takimi teoriami z symetrią cechowania – czyli cały Model Standardowy.

Zauważmy też, że podstawową wielkością jest czteropotencjał, choć w wielu przypadkach wygodniej jest posługiwać się polami elektromagnetycznymi.