Fizyka dla mieszkańców Syriusza: stałe fizyczne (Max Planck, 1899-Matvei Bronstein, 1935)

Max Planck, profesor fizyki w Berlinie, najwybitniejszy niemiecki fizyk teoretyczny przełomu wieku XIX i XX, przez lata badał własności promieniowania termicznego. Idealnym obiektem badań jest tu tzw. ciało doskonale czarne, czyli takie, które pochłania całe padające nań promieniowanie. Można wykazać, że każde ciało doskonale czarne emituje promieniowanie o rozkładzie widmowym zależnym wyłącznie od temperatury. Np. Słońce jest w dobrym przybliżeniu ciałem doskonale czarnym.

Widzimy tu (szary) teoretyczny rozkład widmowy promieniowania ciała doskonale czarnego o temperaturze T=5777 K zestawiony z rzeczywistym promieniowaniem docierającym ze Słońca. Ciało doskonale czarne nie jest czarne, jego barwa zależy od temperatury. (obrazek: Wikimedia)

Znalezienie postaci krzywej widmowej tego promieniowania stało się największym osiągnięciem Maksa Plancka. Otrzymana przez niego zależność ma następującą postać

I(\lambda)=\dfrac{2hc^2}{\lambda^5}\,\dfrac{1}{\exp{(\frac{hc}{\lambda kT})}-1},

gdzie stałe k,c, h oznaczają odpowiednio stałą Boltzmanna (nazwa wprowadzona przez Plancka), prędkość światła w próżni i stałą Plancka. Mamy tu trzy stałe fizyczne, które ze względu na uniwersalność promieniowania powinny mieć fundamentalne znaczenie.

Max Planck zauważył (w roku 1899, zanim jeszcze wyprowadził swój słynny wzór), że stałe k, c,h w połączeniu ze stałą grawitacyjną G pozwalają wprowadzić jednostki niezależne od zaszłości ludzkiej historii czy w ogóle niezależne od naszych ludzkich parametrów: „pojawia się możliwość ustanowienia jednostek długości, masy, czasu i temperatury niezależnych od szczególnych ciał czy substancji, których znaczenie dla wszystkich czasów i wszystkich kultur, także pozaziemskich i pozaludzkich, pozostanie w konieczny sposób takie same”.

Stała Plancka to h=6,7\cdot 10^{-34} kg\cdot m^2/s , stała grawitacyjna to G=6,7\cdot 10^{-11} m^3/(kg\cdot s^2). Mamy więc dla ich iloczynu i ilorazu jednostki:

[hG]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{m}^3}{\mbox{kg}\cdot \mbox{s}^2}=\dfrac{\mbox{m}^3}{\mbox{s}^3}\mbox{m}^2=[c^3]\mbox{m}^2,

[h/G]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{kg}\cdot \mbox{s}^2}{\mbox{m}^3}=\mbox{kg}^2\cdot \dfrac{\mbox{s}}{\mbox{m}}=\mbox{kg}^2 [c^{-1}].

Zatem wielkości l_P, m_P będą nowymi „pozaziemskimi” jednostkami długości oraz masy:

l_P=\sqrt{\dfrac{hG}{c^3}}=4\cdot 10^{-35}\mbox{ m} ,

m_P=\sqrt{\dfrac{hc}{G}}=5,5\cdot 10^{-8}\mbox{ kg}.

Jednostkę czasu otrzymamy, dzieląc odległość przez prędkość światła:

t_P=\sqrt{\dfrac{hG}{c^5}}=1,3\cdot 10^{-43}\mbox { s}.

Te „pozaziemskie” jednostki Planck nazwał naturalnymi, a my dziś nazywamy układem jednostek Plancka. Podstawowe stałe fizyki mają w nim wartości równe 1: h=c=G=1. W roku 1899 interesująca wydawała się sama możliwość wprowadzenia jednostek, umożliwiających porozumiewanie się z fizykiem z Syriusza, który ma – jak to dobrze wiemy – postać  świecącego zielono dodekahedronu zanurzonego w inteligentnym oceanie (oni tam szybciej weszli w fazę AI).

Jednostki długości i czasu w układzie Plancka są skrajnie małe: nie tylko w porównaniu z nami, ale nawet z protonem i czasem potrzebnym światłu na przebycie jego wnętrza. Sens fizyczny tych jednostek stał się jasny znacznie później.

Najpierw powiedzmy, jak interpretuje się dziś stałe użyte przez Plancka.

Stała Boltzmanna jest w zasadzie przelicznikiem temperatury w kelwinach T na wartości energii kT – byłoby logiczniej z punktu widzenia fizyki mierzyć temperatury w jednostkach energii, a skoro tego nie robimy, potrzebujemy stałej Boltzmanna. Według najnowszych ustaleń od roku 2019 stała Boltzmanna równa jest dokładnie k=1,380649\cdot 10^{-13} J/K. Jest to tym samym nowa definicja kelwina (bo dżul zdefiniowany jest na podstawie kilograma, metra i sekundy).

Prędkość światła, czy ogólniej: każdego promieniowania elektromagnetycznego, w próżni wydawała się już około roku 1900 wielkością bardzo ważną. Dzięki teorii względności z roku 1905 wiemy, że jest to coś więcej niż pewna charakterystyczna prędkość w przyrodzie. Jest to bowiem naturalna granica prędkości ciał. Z punktu widzenia teorii względności prędkość światła jest właściwie przelicznikiem między odległościami a czasem. W fizyce poeinsteinowskiej odległości i czas należałoby mierzyć tymi samymi jednostkami. Inaczej mówiąc, stała c wyraża stosunek jednostek odległości do jednostek czasu. Jej wartość w dzisiejszej fizyce jest na mocy konwencji równa dokładnie c=299\,792\, 458 m/s$. Ta dziwna wartość wynika z potrzeby ciągłości dawnych i nowych jednostek.

Trzecia stałą, pojawiającą się we wzorze Plancka, jest oznaczana przez niego literą h wielkość, dziś zwana stałą Plancka. Pojawia się ona wszędzie tam, gdzie występują zjawiska kwantowe. Podstawowe równanie fizyki kwantowej, równanie Schrödingera, można zawsze zapisać w postaci

i\hbar \dfrac{\partial\psi}{\partial t}=H\psi,

gdzie i to jednostka urojona, a \hbar\equiv \dfrac{h}{2\pi}, \psi jest funkcją falową, a H – hamiltonianem, czyli matematycznym zapisem energii układu. Planck z początku nie wiedział, jak ogromne znaczenie ma jego stała wprowadzona dla promieniowania. Obecnie (od roku 2019) wartość stałej Plancka jest określona raz na zawsze jako h=6,67607015\cdot 10^{-34} J·s. W istocie, jest to nowa definicja kilograma, słynny wzorzec z Sèvres jest już niepotrzebny (kilogram pojawia się w jednostce energii: 1\mbox{J}=1 \mbox{kg}\cdot \dfrac{\mbox{m}^2}{\mbox{s}^2}.).

Stałe h,c,G określają możliwe teorie fundamentalne fizyki. Sytuację tę można przedstawić za pomocą sześcianu Bronsteina (sam obrazek jest późniejszy):

 

W początku układu mamy mechanikę klasyczną bez grawitacji. Odpowiada to wartościom \hbar=G=1/c=0. Szczególna teoria względności odpowiada przyjęciu 1/c<\infty, mechanika kwantowa przyjęciu niezerowej stałej Plancka \hbar\neq 0. Kwantowa teoria pola, czyli Model Standardowy cząstek odpowiada \hbar\neq 0 oraz c<\infty. Ogólna teoria względności zawiera stałą grawitacji G oraz prędkość światła c. Kwantowa teoria grawitacji byłaby „teorią wszystkiego” w tym sensie, że zawierałaby zarówno efekty kwantowe, jak i grawitacyjne. Wszystkie trzy stałe byłyby w niej niezerowe.

Matvei Bronstein, dwudziestoparolatek, już w roku 1933 zaczął się zastanawiać nad kwantowaniem grawitacji. Pięć lat później już nie żył, aresztowany i skazany na śmierć podczas wielkiego terroru w Związku Sowieckim. Także Lew Landau, największy rosyjski teoretyk, był wówczas aresztowany. W jego przypadku pomogła interwencja Piotra Kapicy.

Sześcian Bronsteina jest tylko prostą ilustracją jednego z aspektów poszukiwanej kwantowej teorii grawitacji: wszystkie trzy fundamentalne stałe miałyby w niej skończoną wartość. Wszystkie te stałe (wraz ze stałą Boltzmanna) pojawiają się w we wzorze Hawkinga na temperaturę czarnej dziury. Układ Plancka byłby w kwantowej grawitacji naturalnym układem jednostek. Znaczy to, że zjawisk kwantowych związanych z grawitacją należy oczekiwać w skali długości Plancka, czyli znacznie poniżej dostępnych dziś w badaniach. Masa Plancka jest niemal porównywalna z naszymi jednostkami. Znaczy to jednak, że odpowiadająca jej energia równa będzie E_P=m_P c^2=4,9\cdot 10^{9} J. W teorii fundamentalnej jest to energia olbrzymia, widać to, gdy wyrazimy ją w elektronowoltach:  E_P=3,07\cdot 10^{28} eV. Dla porównania najdroższy akcelerator w dziejach fizyki, LHC w CERN-ie, może maksymalnie osiągnąć energię 14 TeV, czyli 14\cdot 10^{12} eV – jest to piętnaście rzędów wielkości poniżej energii Plancka.

Wartości stałych fundamentalnych stanowią rodzaj przelicznika pomiędzy naszymi zwykłymi jednostkami, jak metry, sekundy, kilogramy, a jednostkami, jakich używa przyroda, zrozumiałymi dla kolegi z Syriusza. Nb. matematyka jest zapewne jedynym językiem, w którym moglibyśmy się z owym dodekaedrem porozumieć. Może należy zwrócić na to uwagę w dyskusji dotyczącej matury z matematyki: matematyka to jedyny język, w którym możemy się porozumiewać z mieszkańcami Syriusza czy szerzej: ze wszechświatem. Zastosowania są chyba oczywiste.

Niezależne od jednostek są stałe bezwymiarowe. Np. kwadrat ładunku elektronu można wyrazić następująco:

\alpha=\dfrac{q_e^2}{4\pi\varepsilon_0 \hbar c}=\dfrac{1}{137,036}.

Mając jeszcze do dyspozycji masę elektronu m_e, można wyrazić wszystkie wielkości atomowe. Energia wiązania elektronu w atomie wodoru to

E_j=\alpha^2 m_e c^2=13,6 \mbox{ eV},

a promień atomu (tzw. promień Bohra):

r=\dfrac{\hbar}{\alpha m_e c}=0,5\cdot 10^{-10}\mbox{ m}.

Wielkości te określają skalę zjawisk atomowych i cząsteczkowych. W  fundamentalnej teorii wszystkiego powinniśmy masę elektronu wyrazić w masach Plancka, a promień Bohra w długościach Plancka.

Ilu różnych bezwymiarowych stałych potrzebujemy do opisu świata? Używamy jednostek Plancka. Zatem grawitacja kwantowa nie zawiera żadnych dowolnych stałych. Model Standardowy potrzebuje trzech stałych określających siłę oddziaływań: oprócz \alpha dla oddziaływań elektromagnetycznych, potrzeba jeszcze stałych dla oddziaływań słabych i silnych. W sumie mamy 3 stałe. Dalej, potrzebujemy mas: sześciu kwarków, trzech leptonów i trzech neutrin oraz bozonu Higgsa (wszystko wyrażamy w masach Plancka, więc są to wielkości bezwymiarowe). Dotąd mamy 16 stałych. Potrzebna jest jeszcze wartość oczekiwana pola Higgsa: stała nr 17. Kolejnych 8 stałych bierze się z różnych macierzy mieszania. Daje to 25 parametrów, przy czym większość wynika z Modelu Standardowego. Wielkość ciemnej energii jest parametrem nr 26 (jeśli ciemna energia to stała kosmologiczna). Z jednej strony jest tych stałych za wiele jak na fundamentalną teorię, z drugiej strony jednak od czterdziestu lat nikt nie potrafi wskazać teorii bardziej ekonomicznej, a te stałe nie są jakimiś kaprysami teoretyków, lecz potwierdzane są w eksperymentach (tutaj LHC ma jak najbardziej zastosowanie).

Więcej szczegółów nt. stałych w artykule Johna Baeza.

 

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Oliver Heaviside i głuchy telefon (1886-1891)

Heaviside był człowiekiem trudnym w kontaktach, nie bardzo też interesowała go kariera zawodowa. Rodzina była zbyt biedna, aby mógł zdobyć solidne wykształcenie, toteż zakończył swą szkolną edukację w wieku szesnastu lat. Przebyta w dzieciństwie szkarlatyna upośledziła jego słuch, izolując go od rówieśników. Choć z czasem odzyskał w znacznej mierze słuch, to pozostał autsajderem na resztę życia. Krótko pracował jako telegrafista i pracownik techniczny u boku starszego brata Arthura w firmie zarządzającej kablem pomiędzy Danią i Anglią, lecz zwolnił się w wieku dwudziestu czterech lat i już nigdy później nie pracował zawodowo. Mieszkając w pokoju u rodziców, zajmował się eksperymentalnie i teoretycznie elektrycznością, jedyne pieniądze zarabiał z publikacji artykułów w fachowym piśmie „The Electrician”. Był jednym z pierwszych kontynuatorów Jamesa Clerka Maxwella, udało mu się uprościć i przejrzyściej zapisać równania elektromagnetyzmu. Odkrył rachunek operatorowy ułatwiający rozwiązywanie równań różniczkowych (posługiwał się funkcją δ na długo przed Dirakiem). Zastosował też zapis wektorowy, bez którego trudno dziś sobie wyobrazić teorię Maxwella. Dzięki bratu, pracującemu jako inżynier, znał praktyczne problemy telefonii i podał metodę zbudowania linii przesyłowej w taki sposób, aby nie zniekształcała sygnałów. Problem był palący, ponieważ telefonia rozwijała się burzliwie i wraz ze wzrostem odległości sygnał nie tylko był słabszy, ale też ulegał zniekształceniu. Dalsza historia tego odkrycia Heaviside’a była zapewne do przewidzenia: z początku nie chciano mu wierzyć, a później to inni zarobili miliony na wcieleniu jego idei w życie.

Biografia Heaviside’a skłania do zastanowienia nad rolą autorytetów w różnych dziedzinach. Będąc jednym z najwybitniejszych uczonych swoich czasów, postrzegany był jako jakiś niedouczony telegrafista, a przy tym dziwak. Jego artykuły w „The Electrician” były trudne do zrozumienia, a może po prostu nikt nie przykładał się do ich zrozumienia, ponieważ były autorstwa jakiegoś urzędnika, nie wiadomo właściwie kogo. Tymczasem stanowiły one oryginalny wykład do teorii elektromagnetyzmu. Gdy Heinrich Hertz odkrył fale elektromagnetyczne, w pracach Heaviside’a znaleźć można było nowocześniejsze i prostsze ujęcie teorii, która tak wspaniale się potwierdziła. Nasz „telegrafista” wyprzedził tu znacznie większość uczonych brytyjskich i kontynentalnych. W szczególności jego podejście górowało nad konserwatywnym i sceptycznym nastawieniem Williama Thomsona, późniejszego lorda Kelvina. Ten ostatni nie potrafił się przekonać do teorii Maxwella, co miało znaczenie, ponieważ był najsławniejszym uczonym Wielkiej Brytanii, zasiadał we wszystkich możliwych radach i towarzystwach, a każde jego słowo prasa traktowała jak wyrocznię. Tak było, gdy w 1888 roku, po odkryciu Hertza, Thomson orzekł, iż jego zastrzeżenia wobec teorii Maxwella nieco się zmniejszyły (uznał bowiem, że prąd przesunięcia – najważniejszy element pojęciowy zaproponowany przez Maxwella – z „zupełnie nie do utrzymania” awansował w jego oczach do kategorii „niezupełnie do utrzymania”). Thomson miał swoją wizję idealnej teorii elektromagnetyzmu, prawdopodobnie zresztą dlatego nie osiągnął końcowego sukcesu. W każdym razie to młodszy od niego James Clerk Maxwell rozwiązał problem, choć sir William nie chciał się z tym pogodzić.

 

Baron Kelvin of Largs

William Thomson umiał jednak zachowywać się fair i dzięki temu Oliver Heaviside doczekał się nieco uznania za życia. Wcześniej, w roku 1887, przeszedł swe najgorsze chwile, gdy stracił możliwość publikowania, a zarazem też skromne dochody, jakie ta działalność zapewniała. Za 40 funtów rocznie redakcja otrzymywała ciągły strumień oryginalnych publikacji z dziedziny elektromagnetyzmu. Kryzys nastąpił wtedy, gdy Oliver Heaviside wszedł w konflikt z Williamem Henry’m Preece’em, ważnym ekspertem brytyjskiej poczty. Preece starał się przeforsować kosztowną decyzję budowy linii telefonicznych z kablem miedzianym w miejsce żelaznego. Argumentował, że dzięki temu wzrośnie zasięg rozmów, ponieważ kable żelazne wytwarzają pole magnetyczne, a to prowadzi do strat energii (zmienne pole magnetyczne indukuje dodatkowe napięcie, mówi się o indukcyjności kabla: miedziane zmniejszały wg Preece’a indukcyjność i na tym polegała ich wyższość). Mało tego, Preece twierdził, że wykazał fałszywość teorii Maxwella. W tym samym czasie Arthur i  Oliver próbowali opublikować pracę, która podważała poglądy Preece’a, a nawet im przeczyła: otóż pole magnetyczne wcale nie musi przeszkadzać w przesyłaniu rozmów telefonicznych, a nawet może pomagać. Pewny siebie Preece zakazał publikacji. Obaj bracia zareagowali na to rozmaicie: Arthur jako podwładny Preece’a przestał się zajmować tym tematem, Oliver natomiast zaczął z upodobaniem dowodzić niekompetencji Preece’a, którego określał m.in. jako „the eminent scienticulist” – czyli coś w rodzaju „wybitnego mędrka”. Racja naukowa była całkowicie po stronie Heaviside’a, znalazł on warunek, jaki spełniać powinna linia przesyłowa, aby nie zniekształcała rozmów (chodzi o to, by składowe o różnych częstościach tłumione były w jednakowym stopniu, w ten sposób daleki odbiorca otrzymuje sygnał słabszy, lecz podobny do wysłanego). Ów warunek Heaviside’a był kontrintuicyjny, lecz prawdziwy i oznaczał, że należy w praktyce zwiększać indukcyjność linii, czyli wytwarzane przez nie pole magnetyczne. Nacisk Preece’a sprawił, że zmienił się redaktor naczelny „The Electrician” i nowy już nie chciał publikować artykułów Heaviside’a.

Karykatura z 1888 r.: Preece pod sztandarem wieloletnich doświadczeń pokonuje Olivera Lodge’a (który podawał w wątpliwość skuteczność używanych piorunochronów i krytykował jego teoretyczne rozważania, stając po stronie Heaviside’a)

Atmosfera wokół niego poprawiła się dopiero wówczas, gdy publicznie docenił jego teorię William Thomson. Otworzyło to drogę do przyjęcia Heaviside’a w roku 1891 na członka Towarzystwa Królewskiego, ułatwiło też publikację kolejnych prac. Zadziwiająco mało zmieniło się w życiu uczonego, który przywiązywał chyba większą wagę do możliwości publikacji niż do zarobku. Nadal pozostał prywatnym uczonym, po śmierci rodziców jego środki do życia mocno się skurczyły. Dzięki dyskretnym staraniom paru wybitnych uczonych zaczął Heaviside otrzymywać skromną emeryturę (dyskretnych, ponieważ drażliwy Heaviside nie chciał jałmużny). Żył dość długo, by widzieć, jak jego idea zwiększenia indukcyjności kabli telefonicznych została wcielona w życie jako pupinizacja albo krarupizacja. Zarówno Amerykanin serbskiego pochodzenia Mihajlo Pupin, jak i Duńczyk Karl Emil Krarup, wyciągnęli praktyczne wnioski z teorii Heaviside’a. Pupin po długiej batalii prawnej z firmą AT&T zarobił na swoim patencie 450 000 $ (blisko 30 mln $ obecnie). Jego rozwiązanie polegało na umieszczaniu w stałych odległościach cewek zwiększających indukcyjność. Krarup zastosował żelazne druty (zwiększające pole magnetyczne) oplatające miedziany rdzeń. Dzięki temu w pierwszych latach XX wieku wzrósł zasięg linii telefonicznych, a ich układanie stało się tańsze. Także kariera Preece’a, który nigdy nie przyznał się do błędu, nie doznała żadnego uszczerbku i rozwijała się pomyślnie, z czasem doczekał się on tytułu szlacheckiego. Tylko Heaviside dziwaczał coraz bardziej, mieszkał sam, pod koniec życia zastąpił meble blokami granitu, zaniedbał się i cierpiał na rodzaj manii prześladowczej. Nie dowiemy się już, czy dziwaczał, ponieważ nie osiągnął pozycji w społeczeństwie odpowiadającej jego talentowi, czy też odwrotnie: nie udało mu się zdobyć pozycji w bardzo konkurencyjnym wiktoriańskim społeczeństwie, ponieważ zbytnio odbiegał od przyjętych standardów zachowania i nawet talent nie mógł tu pomóc.

Die Vermittlungszentrale im Berliner Fernspreschamt II
Original: Frankfurt am Main, Deutsches Postmuseum
Foto: Berlin, 1894

Centrala telefoniczna w Berlinie, 1894 r.

Technika telefoniczna rozwijała się szybko. Kolejnym krokiem było skonstruowanie wzmacniacza na triodach (regeneratora sygnałów), który zaczął być stosowany komercyjnie tuż przed pierwszą wojną światową. Heaviside zdążył jeszcze przewidzieć istnienie jonosfery, dzięki której fale radiowe rozchodzą się wzdłuż powierzchni Ziemi, umożliwiając np. międzykontynentalne przekazywanie sygnału radiowego.

Pokażemy na przykładzie, jak Heaviside potraktował kwestię przesyłania sygnałów bez zniekształceń. Linia przesyłowa to rozciągnięty bardzo obwód. Można uważać, że każdy jego fragment o długości \Delta x składa się z podstawowych elementów obwodu: oporu R\Delta x, indukcyjności L\Delta x oraz połączonych równolegle pojemności C\Delta x oraz przewodnictwa G\Delta x. Dla pierwszego i ostatniego elementu obowiązuje prawo Ohma (przewodnictwo jest odwrotnością oporu):

\dfrac{U}{I}=R.

Napięcie na końcach indukcyjności równe jest

U=L\dfrac{dI}{dt},

co Heaviside w swoim języku symbolicznym zapisywał jako U=LpI (p oznaczało branie pochodnej po czasie). Dla pojemności mamy natomiast

I=\dfrac{dQ}{dt}=C\dfrac{dU}{dt}=CpU.

gdzie Q jest ładunkiem.

Stosunki napięcia do natężenia są zastępczymi oporami, mamy więc dla indukcyjności Lp, a dla pojemności 1/pC. Ponieważ możemy podzielić naszą linię transmisyjną na dowolnie dużą liczbę powtarzających się segmentów o długości \Delta x, więc dodanie kolejnego segmentu nie powinno zmieniać zastępczego oporu. Opór zastępczy całej linii Z (wejściowy) musi w takim razie być tym samym, co połączenie równoległe elementów G\Delta x, C\Delta x oraz (R+Lp)\Delta x + Z na końcu. W połączeniu równoległym dodają się odwrotności oporów, mamy więc

\dfrac{1}{Z}=(G+pC)\Delta x+\dfrac{1}{(R+pL)\Delta x+Z}.

Po przekształceniach dostajemy równanie kwadratowe na opór zastępczy:

Z^2+(R+pL)\Delta x Z=\dfrac{R+pL}{G+pC}.

Jeśli teraz przyjmiemy, że \Delta x\rightarrow 0, to otrzymamy

Z^2=\dfrac{R+pL}{G+pC}.

Otrzymany wynik wygląda odrobinę dziwnie, jeśli przypomnimy sobie, że p to różniczkowanie. Nie jest jasne, jak powinniśmy dzielić przez p i jak wyciągać pierwiastek. Heaviside szedł za swoim formalizmem tak daleko, jak tylko się dało i rozpatrywał wyrażenia takie, jak np. p^{\frac{1}{2}}. Uważał on matematykę za naukę empiryczną i jak mówił: „Czy mam odmówić zjedzenia obiadu, ponieważ nie znam wszystkich szczegółów trawienia?” My nie musimy iść aż tak daleko. Widać z ostatniego wyrażenia, że gdy spełniony będzie warunek

\dfrac{R}{G}=\dfrac{L}{C},

nasz ułamek się skróci (cokolwiek to znaczy) i nie będzie zawierał p, w takiej sytuacji sygnał o dowolnym kształcie nie ulegnie zmianie. Jest to warunek Heaviside’a. W praktyce znaczył tyle, że indukcyjność L należy powiększyć, czego nie rozumiał Preece. Dodać należy, że Heaviside formułował tę swoją matematykę także w konwencjonalny sposób – był może dziwakiem, ale w kwestii technik matematycznych zachowywał się całkiem racjonalnie. Obecnie stosuje się transformaty Laplace’a albo można sobie wyobrażać, że zależność od czasu ma postać \exp(i\omega t) (gdzie \omega to częstość kołowa), wówczas różniczkowanie sprowadza się do mnożenia i mamy po prostu p=i\omega.

 

 

 

James Clerk Maxwell: Pole magnetyczne jako wiry materii (1862)

Mody intelektualne przychodzą i odchodzą podobnie jak wszelkie inne mody. W XVII wieku starano się wszystkie zjawiska fizyczne wyjaśniać za pomocą ruchu jakichś niewidzialnych cząstek, które miały się zderzać i przekazywać sobie ruch. Chodziło głównie o to, by wyeliminować z nauki wszelkie oddziaływanie na odległość: cząstki oddziaływały tylko podczas zderzeń i nie działały pomiędzy nimi żadne siły spójności. René Descartes, zwany u nas Kartezjuszem, tak sobie wyobrażał działanie magnesu.

(Principia Philosophiae, 1644)

Świat składał się u niego z krążących strumieni cząstek, a ponieważ przestrzeń miała być tym samym co rozciągłość, cząstki owe krążyły wśród drobniejszych cząstek tak, aby nie pozostawiać nigdzie pustego miejsca (tak mu bowiem wyszło z rozumowań: że nie ma próżni, pusta przestrzeń to oksymoron, jak czarny śnieg albo zimny wrzątek). Wiry cząstek objaśniały rzeczy wielkie, jak ruch planet, a także małe, jak przyciąganie magnesu i żelaza. W przypadku magnetycznym cząstki owe przypominały makaron świderki, były skręcone i mogły się albo wkręcać, albo wykręcać z nagwintowanych porów magnesu. Nie wiemy, jak bardzo Kartezjusz wierzył w słuszność tego wyjaśnienia. Na szczęście filozofowie i uczeni nie muszą (zazwyczaj) umierać za swoje teorie, wystarczy, że to one, wiodąc żywot niezależny od swych autorów, giną albo zwyciężają w ich imieniu.

Jednak do połowy XVIII wieku Kartezjusz panował we Francji i z tego powodu nawet Newtonowska grawitacja – przyciągająca i działająca na odległość – przyjmowała się z trudem. Większość uczonych akademików i prowincjonalnych amatorów z upodobaniem wymyślała coraz to nowe cząstki i wiry, np. objaśniające elektryczność. Inaczej do sprawy podchodził Benjamin Franklin, który nie lubił zbyt skomplikowanych teorii i uznał elektryczność za rodzaj fluidu zawartego w ciałach. W naładowanym kondensatorze inne miało być stężenie owego fluidu po obu stronach izolatora. Franklin zauważył, że naładowany kondensator można rozładować za pomocą wahadełka, które przenosi ładunek od okładki do okładki – zawarty jest w tym pewien obraz elektryczności jako czegoś, co może się przenosić od jednego ciała do drugiego, jak jakiś specjalny płyn, nieważki, lecz rzeczywisty.

Butelka lejdejska (czyli kondensator) rozładowywana za pomocą wahadełka z korka

Wariant tego urządzenia zamontowany był w domu Franklina w Filadelfii: między piorunochronem a uziemieniem biegnie drut przerwany dwoma dzwonkami. Wahadełko umieszczone pomiędzy obu dzwonkami poruszało się, gdy pojawiał się w układzie ładunek. Żona badacza, Deborah, w słusznym odruchu twierdziła, że boi się tego dzwonienia podczas burzy czy wtedy, gdy się ma na burzę. Małżonek, przebywający w Londynie, zezwolił jej wówczas na zdemontowanie dzwonków.

W XIX wieku wierzono już w świat wypełniony nie sypkim piaskiem, ale raczej galaretowatym eterem. Wiedziano, że światło to fale poprzeczne, a więc i ośrodek musiał wykazywać pewną sprężystość kształtu, nie mógł przelewać się jak ciecz albo gaz. Trzeba to było jakoś pogodzić np. z ruchem ciał niebieskich, które poruszają się, nie napotykając oporu eteru. Rozwinęły się w związku z tym techniki równań różniczkowych cząstkowych oraz rozmaite fantastyczne idee na temat eteru. Michael Faraday wprowadził do nauki pojęcie linii sił. Wyobrażał sobie, że owe linie się wzajemnie odpychają, dążąc zarazem do skrócenia się, jakby były z gumy, dając w efekcie siły przyciągania bądź odpychania. Jako niematematyk wyobrażał je sobie jako pewne dość konkretne, choć niewidoczne byty. Ładunki elektryczne były dla niego w zasadzie zakończeniami owych linii sił, a nie czymś istniejącym samodzielnie. Fluid Franklina i inne tego rodzaju pomysły trafiły do lamusa. Wahadełko Franklina miało być przyciągane właśnie tymi elastycznymi i odpychającymi się liniami sił (na obrazku kulka przyciągana jest do lewej okładki kondensatora; kulka naładowana jest tak, jak prawa okładka).

W styczniu roku 1862 James Clerk Maxwell opublikował trzecią część pracy On Physical Lines of Force, w której zajmował się m.in. wyjaśnieniem pola magnetycznego za pomocą wirów w eterze. Eter wypełniać miały wielościenne, zbliżone do kul elastyczne cząstki („wiry molekularne”), a pomiędzy nimi była jeszcze pojedyncza warstwa drobniejszych cząstek kulistych.

Pole magnetyczne polegać miało na wirowaniu cząstek wielościennych – im silniejsze ple, tym większa prędkość kątowa. Obraz tych „wirów molekularnych” wiązał się z obserwacją Faradaya, że płaszczyzna polaryzacji światła obraca się, gdy fala biegnie wzdłuż kierunku pola magnetycznego. Efekt Faradaya wskazywał na związek pola magnetycznego i fali świetlnej. Aby sąsiednie wiry mogły obracać się w tym samym kierunku, potrzebna była dodatkowa warstwa cząstek przekazujących ruch i obracających się bez tarcia, nieco podobnie jak w łożysku kulkowym.

Gdy prędkość sąsiednich wirów była taka sama, owe dodatkowe kulki jedynie się obracały (lewa część rysunku), gdy natomiast prędkości wirowania się różniły, kulki dodatkowe przemieszczały się, odpowiadając za prąd elektryczny. Jednak według Maxwella nie były one nośnikami ładunku, inaczej niż to wyobrażamy sobie dziś. Włączając do modelu sprężystość wirów molekularnych, które mogły nie tylko się obracać, ale i odkształcać, Maxwell wprowadził do swej teorii prąd przesunięcia i efekty elektrostatyczne. W tej samej pracy obliczył prędkość rozchodzenia się sprężystych fal poprzecznych w swoim modelu eteru. Okazała się ona równa prędkości światła. Tak naprawdę jego model nie był do końca ściśle określony i dokładna zgodność z prędkością światła była do jakiegoś stopnia przypadkowa. Maxwell uwierzył jednak, że ma ona znaczenie i zainteresował się pomiarami elektrycznymi i magnetycznymi, które mogły dostarczyć dokładniejszej wartości stałych do modelu. Fale poprzeczne w tym eterze nie były jeszcze falami elektromagnetycznymi: pola elektryczne i magnetyczne nie zmieniały się w nich tak, jak w fali elektromagnetycznej. Dalsze prace Maxwella stopniowo oddalały się od tego modelu. Spełnił on jednak ważną rolę heurystyczną. Większość uczonych XIX wieku wierzyła, że zjawiska elektromagnetyczne w taki czy inny sposób należy sprowadzić do ruchów eteru. Mechanika była ich sposobem myślenia, był to wiek pary i urządzeń mechanicznych: przekładni, tłoków, łożysk, regulatorów itd.
Pierre Duhem, ważny filozof nauki i znacznie słabszy uczony, dostrzegał te inżynierskie parantele i patrzył na nie z pewnym politowaniem. Pisał, rozróżniając fizykę angielską i niemiecko-francuską (było to przed I wojną światową, zanim Niemcy przestali być jego faworytami):

Fizyk francuski bądź niemiecki przyjmował w przestrzeni dzielącej dwa przewodniki abstrakcyjne linie sił bez grubości, bez realnego istnienia; fizyk angielski uzna te linie za materialne, przyda im grubości, by stały się rozmiarów rurki, którą wypełni zwulkanizowanym kauczukiem; w miejsce idealnych linii sił, możliwych do pojęcia jedynie rozumowo, pojawi się u niego wiązka elastycznych strun, widzialnych i dotykalnych, mocno przyklejonych swymi końcami do powierzchni obu przewodników, naciągniętych, dążących do skrócenia się i pogrubienia zarazem (…) Tak przedstawia się słynny model oddziaływań elektrostatycznych wyobrażony przez Faraday i podziwiany jako owoc geniuszu przez Maxwella oraz całą szkołę angielską.
(…) Oto książka, która ma na celu przedstawienie nowoczesnej teorii elektryczności, przedstawienie nowej teorii; a mowa w niej wyłącznie o sznurach poruszających kołami obracającymi się w bębnach, poruszających kulkami, podnoszącymi ciężary; o rurach pompujących wodę i rurach skracających się i poszerzających, kołach zębatych sprzęgniętych ze sobą i z zębatkami; sądziliśmy, że wkraczamy do spokojnego i starannie zaprojektowanego gmachu dedukcyjnego rozumu, a trafiliśmy do fabryki”. [La Théorie physique: Son objet et sa structure, Paris 1906, s. 110-111]

Duhem ma tu na myśli książkę Olivera Lodge’a Modern views of electricity, ale i całą brytyjską szkołę naukową. Zabawnie pomyśleć, że Francuz, potomek Kartezjusza, tak bardzo gorszył się wyjaśnieniami mechanicznymi. Filozof słabo rozumiał swoje czasy, był bardzo konserwatywnym katolikiem, który starał się wykazać, że Galileusz niezbyt się przyczynił do rozwoju nauki; mniej w każdym razie niż kardynał Bellarmine, który spalił Giordana Bruna i wciągnął Kopernika na Indeks ksiąg zakazanych. Prawdopodobnie główną winą Galileusza oczach Duhema był fakt, że naraził się Kościołowi, a ten z zasady jest nieomylny. Oliver Lodge rzeczywiście miał przesadne upodobanie do mechanicznych wynalazków ilustrujących elektryczność i magnetyzm. Takie upodobanie miał także i Boltzmann, najważniejszy fizyk europejski między Maxwellem a Einsteinem. Można przypuszczać, że James Clerk Maxwell nie wykonałby swej ogromnej wieloletniej pracy nad teorią elektromagnetyzmu, gdyby nie mechaniczne modele. Odegrały one ważną rolę, bo pomagały mu w myśleniu. Duhem, podobnie jak wielu filozofów i wielu katolików, obszczekiwał nie to drzewo.

Wiry molekularne Maxwella znalazły jakiś rodzaj kontynuacji we współczesnym opracowaniu matematycznym jego teorii. Pole magnetyczne okazuje się 2-formą, czymś, co w naturalny sposób daje się całkować po powierzchni. Obiekt taki geometrycznie przedstawia się jako rurkę z pewną skrętnością. Pole elektryczne jest 1-formą, czyli czymś, co daje się naturalnie całkować wzdłuż krzywej. Obiekt taki można przedstawić jako układ płaszczyzn czy powierzchni dwuwymiarowych, które przecinamy idąc w pewnym kierunku.

Rozważania Maxwella nie były więc tak bardzo od rzeczy, jak moglibyśmy dziś sądzić, słysząc o wirach molekularnych w eterze. Opisu świata dostarczają więc raczej obiekty matematyczne niż dziewiętnastowieczne przekładnie i zębatki.

Wydaje się, że ludzie najlepiej wyobrażają sobie to, co sami potrafią w danej epoce zbudować: dawniej były to mechanizmy zegarowe i urządzenia hydrauliczne, w wieku XIX różne pomysłowe maszyny, od końca wieku XX na wyobraźnię wpływają komputery. Wyobraźnia typu inżynierskiego, obrazowego, miała zawsze duże znaczenie w nauce: od Galileusza i Kartezjusza, przez Newtona aż do lorda Kelvina, Maxwella i Einsteina – wszyscy oni mieli spore kompetencje praktyczne. W tym sensie świat jednak bardziej jest fabryką niż świątynią dogmatycznego albo tylko matematycznego rozumu. Dziś co chwila pojawiają się „komputerowe” teorie świata, np. czy zamieszkujemy wszyscy jakiś program komputerowy, którego założenia poznajemy tylko przez obserwację? Jeden z największych sporów w fizyce dotyczy tego, co dzieje się z informacją wpadającą do czarnej dziury. Z jednej strony teoria grawitacji Einsteina mówi bowiem, że informacja ta ginie razem ze swym nośnikiem pod horyzontem dziury. Z drugiej strony teoria kwantów wymaga, aby informacja nigdy nie ginęła na dobre – może być praktycznie nie do odzyskania, ale co do zasady powinno być to możliwe. Promieniowanie Hawkinga nie rozwiązuje sprawy, ponieważ dziura nie jest wprawdzie absolutnie czarna, ale jej promieniowanie jest termiczne, a więc chaotyczne, nie zawierające informacji. Stworzono gigabajty prac na ten temat, lecz wciąż nie wiadomo, czy w którejś z nich zawarta jest poszukiwana informacja.

Od zasady najdłuższego czasu do równań Maxwella III

W poprzednich dwóch częściach rozpatrzyliśmy zasadę wariacyjną dla cząstki w polu, które okazało się elektromagnetyczne (przy okazji otrzymaliśmy siłę Lorentza) oraz zasadę wariacyjną dla pola elektromagnetycznego. Skoro zaszło się tak daleko, warto może pokazać jeszcze kilka prostych konsekwencji tego, co uzyskaliśmy. Dwa równania Maxwella (prawo Gaussa i prawo Ampère’a) mają u nas postać:

\partial^{\mu}F_{\mu\nu}=\mu_0 j_{\nu},\mbox{(1)}

gdzie j_{\nu}=(c\rho,-\vec{j}) jest czterowektorem gęstości ładunku oraz gęstości prądu; nie wprowadzaliśmy ich poprzednio, ponieważ ominęliśmy obliczenie wariacji lagranżianu oddziaływania pola z cząstkami, wyraz taki ma postać -\int j^{\mu}A_{\mu} d^{4}x. Jasne jest, że muszą pojawić się jakieś źródła: ładunki i prądy.

Dwa pozostałe równania Maxwella (prawo Faradaya oraz magnetyczny odpowiednik prawa Gaussa) wyglądają następująco:

\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.\mbox{(2)}

Z równości tej otrzymujemy cztery równania skalarne, gdy trzy wskaźniki są różne. Jednak samo równanie jest prawdziwe dla dowolnego zestawu wskaźników, przy powtarzających się dostajemy tożsamościowo zero, np.

\partial_{0}F_{01}+\partial_{1}F_{00}+\partial_{0}F_{10}=0,

gdyż wyraz środkowy równy jest zeru, a dwa skrajne mają przeciwne znaki (bo F_{\mu\nu}=-F_{\nu\mu}).

Pokażemy trzy krótkie wnioski z równań zapisanych w tej postaci:

  1. Równania Maxwella w próżni sprowadzają się do równania falowego, a to znaczy, że pole elektromagnetyczne może wędrować w przestrzeni jako fala.
  2. Możemy zapisać te równania za pomocą czteropotencjału A_{\mu}.
  3. Spełniona jest zasada zachowania ładunku.

Ad 1 Obliczmy pochodną \partial^{\mu} z naszego równania (2):

\partial^{\mu}\partial_{\mu}F_{\nu\rho}+\partial^{\mu}\partial_{\rho}F_{\mu\nu}+\partial^{\mu}\partial_{\nu}F_{\rho\mu}=0.

Należy to sobie wyobrażać jako wzięcie pochodnej, a następnie wysumowanie po powtarzającym się wskaźniku. Dwa ostatnie wyrazy są w próżni równe zeru na mocy równania (1). Wyraz pierwszy to

\partial^{\mu}\partial_{\mu}=\dfrac{1}{c^2}\dfrac{\partial^2}{\partial t^2}-\dfrac{\partial^2}{\partial x^2}-\dfrac{\partial^2}{\partial y^2}-\dfrac{\partial^2}{\partial z^2}\equiv \square.

Taki operator nazywa się dalambercjanem (od Jeana Le Ronda d’Alemberta, który zajmował się jeszcze w XVIII wieku równaniem falowym) przez analogię do laplasjanu. Otrzymany wynik można więc krótko zapisać:

\square F_{\mu\nu}=0.

A więc teoria przewiduje fale w próżni.

Ad 2 Tensor pola wyraża się przez czteropotencjał następująco:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Wartości pola elektromagnetycznego otrzymujemy przez różniczkowanie, więc jasne jest, iż wybór czteropotencjału nie jest jednoznaczny. Równanie (2) zapisane za pomocą czteropotencjału daje tożsamościowo zero:

\partial_{\mu}(\partial_{\nu}A_{\rho}-\partial_{\rho} A_{\nu})+\partial_{\rho}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})+ \partial_{\nu}(\partial_{\rho}A_{\mu}-\partial_{\mu}A_{\rho})=0.

Łatwo zauważyć, że mamy pary wyrazów różniących się tylko znakiem (kolejność różniczkowania wolno zawsze zmienić). W bardziej rozbudowanej matematycznie teorii jest to tzw. tożsamość Bianchiego (od matematyka włoskiego z przełomu XIX i XX wieku, pierwszy zresztą tę tożsamość zapisał Ricci-Curbastro, a potem odkrywana była jeszcze wiele razy na nowo). Wstawiając potencjał do równania (1), otrzymujemy

\partial^{\mu}(\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu})=\square A_{\nu}-\partial_{\nu}(\partial^{\mu}A_{\mu})=\mu_{0}j_{\nu}.

Ostatnie równanie można uprościć, korzystając ze swobody cechowania. Możemy bowiem zażądać, żeby ostatni wyraz w nawiasie po lewej stronie był równy zeru. Ograniczamy w ten sposób dowolność wyboru czteropotencjału. Warunek ten nazywa się cechowaniem Lorenza (od duńskiego uczonego Ludwiga Lorenza, którego nie należy mylić z Holendrem Hendrikiem Lorentzem od transformacji Lorentza). Jeśli go nałożymy, to nasz czteropotencjał spełnia niejednorodne równanie falowe:

\square A_{\mu}=\mu_{0}j_{\mu}.

Tam gdzie nie ma ładunków ani prądów, otrzymujemy równanie falowe dla czteropotencjału. W tej formie równania Maxwella wyglądają więc następująco:

\begin{cases} \square A_{\mu}=\mu_{0}j_{\mu}\\ \partial^{\mu}A_{\mu}=0.\end{cases}

W tej postaci mamy tylko jedno równanie na czterowektor plus warunek cechowania. Czyli w istocie pole elektromagnetyczne nie potrzebuje sześciu składowych (po trzy dla pola elektrycznego i magnetycznego), wystarczą cztery, a nawet nieco mniej, ze względu na warunek cechowania, który ogranicza możliwości.

Ad 3 Ostatni punkt: zasada zachowania ładunku. Wynika ona z równania (1), gdy weźmiemy jego pochodną:

\partial^{\nu}\partial^{\mu}F_{\mu\nu}=0=\mu_{0} (\partial^{\nu}j_{\nu}).

Pierwsza równość pochodzi stąd, że pochodne możemy przestawiać bez zmiany znaku, natomiast tensor F_{\mu\nu} jest antysymetryczny. Tak przy okazji, nazywa się często F_{\mu\nu} tensorem Faradaya, oczywiście Michael Faraday nie miał pojęcia o tensorach, odkrył jednak, że zmienne pole magnetyczne generuje pole elektryczne. Ostatnie wyrażenie to uogólnienie dywergencji na cztery wymiary:

\dfrac{\partial\rho}{\partial t}+\nabla\cdot\vec{j}=0.

Ostatnie równanie znaczy tyle, że jeśli w danym punkcie prąd wypływa, to gęstość ładunku musi odpowiednio maleć. Ładunek jest zachowany, i to lokalnie: aby wypłynął z danej objętości, musi przeciąć powierzchnię, która tę objętość ogranicza. Jeśli był, a teraz go nie ma, to znaczy, że musiał przejść przez granicę.

Równania Maxwella zapisane jak wyżej nie tylko wyglądają prościej, ale wskazują jawnie, że teoria jest relatywistycznie kowariantna, tzn. zgodna z teorią względności. To nie koniec zalet takiego podejścia: okazuje się, że w teorii grawitacji Einsteina postać równań Maxwella jest właściwie taka sama.

Międzynarodowa Wystawa Elektryczna w Paryżu (1881)

W 1831 roku Michael Faraday odkrył zjawisko indukcji elektromagnetycznej, tzn. sposób wytwarzania prądu elektrycznego ze zmiennego pola magnetycznego. Było to odkrycie ogromnej wagi teoretycznej, ujawniając nieznane dotąd powiązania w przyrodzie. Pytano nawet wtedy Faradaya, jaki jest pożytek z jego odkrycia. Odpowiedział tak, jak wcześniej Benjamin Franklin: A jaki jest pożytek z nowo narodzonego dziecka?

Pięćdziesiąt lat później, w roku 1881, sensacją Paryża stała się wielka międzynarodowa wystawa poświęcona wyłącznie elektryczności. Zwiedziło ją od sierpnia do listopada ponad 750 000 widzów. Znanym i od lat powszechnie stosowanym wynalazkiem był telegraf, produkcja rozmaitych urządzeń z nim związanych i łączenie coraz to nowych miejscowości liniami telegraficznymi stanowiło impuls do powstania całego przemysłu. Pod koniec lat siedemdziesiątych pojawiły się jednak zupełnie nowe zastosowania. Jednym z nich był telefon, opatentowany w roku 1876 przez Alexandra Grahama Bella i szybko zdobywający sobie popularność. W roku 1881 w Paryżu było około trzystu abonentów tej usługi. Dzięki wystawie wynalazek zdobył ogromną popularność, pokazywano tam m.in. „teatrofon”, tzn. muzyczną transmisję teatralną na żywo, której można było słuchać przez słuchawki. Powszechnie zachwycano się znakomitą jakością dźwięku, pozwalającą rozpoznać artystów po głosie, a nawet usłyszeć szmer na widowni.

Telefony wykorzystywały istniejące już linie telegraficzne, mogły więc stosunkowo szybko się rozwijać. Gości paryskiej wystawy woził elektryczny tramwaj konstrukcji Siemensa, ilustrując jeszcze jedną z możliwości nowej technologii.

Zaprezentowano też różne rodzaje lamp elektrycznych. Coraz szerzej wprowadzano lampy łukowe, w których źródłem światła było ciągłe wyładowanie elektryczne pomiędzy dwiema elektrodami węglowymi. Oślepiająco jasne z bliska, nie nadawały się one do zastosowań domowych, mogły jednak służyć do oświetlania miejsc publicznych. Trzy lampy Siemensa na wystawie w Paryżu zdołały oświetlić teren pół hektara, dając światło niczym podczas pełni księżyca. Chwalono oświetlenie tego rodzaju w teatrach: powietrze było czystsze i nie było tak duszno jak przy oświetleniu gazowym. Często łączono oświetlenie gazowe z elektrycznym: w Operze Paryskiej oprócz gazowych kandelabrów umieszczono też plafony z kręgami „elektrycznych diamentów”. Jednym z popularnych wtedy rozwiązań były tzw. świece Jabłoczkowa; w lampach tych elektrody węglowe ustawione były równolegle do siebie, dzięki czemu spalając się podczas świecenia, skracały się równomiernie i łuk elektryczny był stale tej samej długości. Umieszczano je w matowych kloszach, by nie raziły wzroku.

W latarniach zastosowanych w Paryżu i Londynie jedna świeca Jabłoczkowa starczała na półtorej godziny, instalowano je w zestawach po sześć w jednej latarni, otrzymując w ten sposób dziewięć godzin świecenia.
Innym wynalazkiem oświetleniowym, który pojawił się niemal jednocześnie w różnych wersjach była żarówka. Amerykanie Thomas Alva Edison i Hiram S. Maxim oraz Anglik sir Joseph Wilson Swan zaprezentowali w latach 1879-1880 swoje odmiany wynalazku, trwał wyścig w ulepszaniu technologii oraz w ich opatentowywaniu.

Głównym trudnością było wytworzenie cienkiego włókna, które mogło się równomiernie żarzyć przez dłuższy czas. Początkowo stosowano włókna węglowe, później zaczęto używać metali takich, jak tantal, osm czy wolfram.

Etapy produkcji włókna węglowego z bambusa japońskiego oraz produkcji samej żarówki, najlepsze egzemplarze świeciły wówczas do 1200 godzin (technologia Th. A. Edisona)

Żarówki dawały żółtoczerwone, niezbyt silne światło odpowiednie do zastosowań domowych. Rosnące zapotrzebowanie na prąd elektryczny wymagało budowy elektrowni i linii przesyłowych, z początku niewielkich i na skalę lokalną. Można było oczekiwać, że nowa technologia rozpowszechni się i stworzy cały rynek związany z produkcją oraz instalacją urządzeń: od generatorów i mierników, przez okablowanie i produkty końcowe w rodzaju lamp czy silników elektrycznych. Duże firmy europejskie i amerykańskie starały się rozwijać całe zespoły uzupełniających się urządzeń, tak aby dotrzeć do odbiorcy końcowego i obniżyć koszty jednostkowe. Nawet Edison myślał jednak zbyt zachowawczo, ponieważ tworzył urządzenia na prąd stały, których można było używać niedaleko od miejsca wytworzenia prądu. Chciał elektryfikować dzielnice, co w pierwszych latach było nowatorskie, ale potem okazało się, że opłaca się budowa wielkich sieci i oddalonych od siebie dużych elektrowni. Wygrał prąd zmienny, który można transformować, zmniejszając straty podczas przesyłania.

Generator Edisona z Wystawy Paryskiej (moc 120 KM zapewniała maszyna parowa, masa urządzenia 17 t, wirowało 325 obrotów na minutę, pozwalając na pracę 1000 żarówek jednocześnie).

Jak czuli się ludzie, stając po raz pierwszy wobec tak wielkich przeobrażeń świata wokół nich? Henry Adams, amerykański historyk, potomek dwóch prezydentów, opisał swoje wrażenia z Wystawy światowej w Paryżu w roku 1900:

„Aż do zamknięcia Wielkiej Wystawy w listopadzie roku 1900, Adams wciąż ją odwiedzał, boleśnie pragnąc wiedzy, niezdolny jednak jej znaleźć. Pragnąłby wiedzieć, ile potrafiłby z niej zrozumieć najlepiej poinformowany człowiek na świecie. Kiedy tak rozmyślał nad chaosem, przypadkiem spotkał Langleya, który go po niej oprowadził. Na życzenie Langleya Wystawa zrzuciła zbędne szatki i ukazała nagą skórę, ponieważ Langley wiedział, co należy studiować, a także dlaczego i w jaki sposób, podczas gdy Adams mógłby równie dobrze stać całą noc na dworze i gapić się na Drogę Mleczną. A przecież Langley nie powiedział niczego nowego ani nie nauczał niczego, czego by się nie można było nauczyć trzysta lat temu od lorda Bacona. (…) Najbardziej zdumiewającą cechą edukacji jest to, jak wielką ilość ignorancji udaje się w niej zmieścić pod postacią martwych faktów. Adams oglądał większość z owych magazynów sztuki zwanych muzeami, a jednak nie wiedział, jak patrzeć na eksponaty artystyczne z roku 1900. Z głęboką uwagą studiował Karola Marksa i jego doktryny dotyczące historii, lecz nie potrafił ich zastosować w Paryżu. Langley z łatwością wielkiego mistrza eksperymentu odsuwał na bok każdy przedmiot, który nie odsłaniał nowego zastosowania siły, a więc w naturalny sposób odrzucał każde niemal dzieło sztuki. Podobnie jak ignorował niemal wszystkie produkty przemysłowe. Prowadził swego ucznia prosto do sił. Głównym przedmiotem jego zainteresowania były nowe silniki, które mogłyby znaleźć zastosowanie w jego statkach powietrznych i uczył Adamsa zadziwiających subtelności o nowym silniku Daimlera i automobilu, który od 1893 roku, przy szybkości 100 kilometrów na godzinę, stał się koszmarem niemal tak samo destrukcyjnym jak tylko o dziesięć lat od niego starszy elektryczny tramwaj i który mógł stać się równie straszny jak lokomotywa parowa, która była niemal w tym samym wieku co Adams.

Następnie pokazał swemu studentowi wielką halę silników, wyjaśniając mu, jak niewiele sam wie na temat elektryczności oraz wszelkich innych sił, a nawet na temat Słońca, które wypluwa z siebie trudną do pojęcia ilość ciepła i które według jego najpewniejszej wiedzy mogłoby jej wypluwać mniej albo więcej w dowolnym czasie. Dla niego silnik był tylko pomysłowym kanałem służącym do przekazania gdzie indziej ciepła utajonego w paru tonach kiepskiego węgla schowanego w brudnej maszynowni starannie ukrytej przed wzrokiem. Dla Adamsa wszakże silnik stał się symbolem nieskończoności. W miarę jak przywykał do wielkiej galerii maszyn, zaczynał postrzegać czterdziestostopowe silniki jako siłę moralną, taką jaką wczesnym chrześcijanom wydawał się krzyż. Nawet glob ziemski robił mniejsze wrażenie w swoim staromodnym miarowym obrocie rocznym czy dziennym niż to ogromne koło obracające się na wyciągnięcie ręki z zawrotną szybkością i niemal bezgłośnie, buczące swoje ledwie słyszalne ostrzeżenie, by trzymać się o włos dalej z respektu dla jego mocy, lecz tak cicho, że nie zbudziłoby dziecka śpiącego na jego obudowie. W końcu zaczynało się do niego modlić, jak uczył odziedziczony instynkt, taką postawę powinien człowiek przyjąć wobec milczącej i nieskończonej siły. Wśród tysięcy symboli ostatecznej energii silnik nie był może znakiem najbardziej ludzkim, lecz z pewnością najbardziej ekspresyjnym”.

Samuel Pierpoint Langley był fizykiem, astronomem i jednym z pionierów lotnictwa.

Od zasady najdłuższego czasu do równań Maxwella (II)

Pokażemy, jak równania Maxwella wynikają z zasady najmniejszego działania dla pól relatywistycznych. Można powiedzieć, że klasyczny elektromagnetyzm jest najprostszą teorią relatywistyczną. Kolejność historyczna była odwrotna: najpierw równania Maxwella, a potem teoria względności. Teoria względności ma tu znaczenie fundamentu, ponieważ określa geometrię czasoprzestrzeni (przestrzeni Minkowskiego). Formalizm geometrii czasoprzestrzennej nie jest może oczywisty na pierwszy rzut oka, ale nawet na pierwszy rzut oka widać, że równania mają znacznie elegantszą formę.

Pokazaliśmy poprzednio, jak z zasady najmniejszego działania otrzymać dynamikę relatywistyczną cząstki. Należy w tym celu zdefiniować działanie tak, aby nie zależało od układu współrzędnych – tzn. było skalarem lorentzowskim: a więc funkcją nie zmieniającą się nie tylko przy obrotach, ale także przy transformacjach Lorentza (które geometrycznie są podobne do obrotów, tyle że mieszają ze sobą współrzędne przestrzenne i czasowe). Chcąc uwzględnić pole zewnętrzne, nie wystarczy teraz dodać funkcję będącą energią potencjalną cząstki. Okazuje się, że jeśli żądamy, aby nasze działanie było skalarem, to najprostsze pole zewnętrzne musi mieć cztery składowe: musi być czterowektorem A_{\mu} (zwanym czteropotencjałem). Równania ruchu, które uzyskuje się z zasady najmniejszego działania są wówczas równoważne wyrażeniu na siłę Lorentza w elektromagnetyzmie. Wielkością, która wchodzi do tego wyrażenia nie jest samo A_{\mu} , lecz jego pochodne:

F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu},

gdzie wprowadziliśmy krótsze oznaczenie: \dfrac{\partial}{\partial x^{\mu}}\equiv \partial_{\mu}.
Wielkości F_{\mu\nu} okazują się składowymi pola elektromagnetycznego: jest ich sześć, bo z definicji widać, że F_{\mu\nu}=-F_{\nu\mu} , a więc macierz 4×4 jest antysymetryczna i ma sześć składowych niezależnych. F_{\mu\nu}, zwane w czasach Einsteina Sechs-Vektor, jest tensorem, tzn. przy transformacjach zachowuje się tak jak iloczyn dwóch czterowektorów: x_{\mu}y_{\nu} . Oznacza to w szczególności, że przy transformacjach Lorentza pola elektryczne i magnetyczne będą się mieszać. Łatwo zauważyć, że powinno tak być. Weźmy parę spoczywających ładunków. Działają one na siebie siłą kulombowską. Jeśli będziemy je obserwować z układu odniesienia, względem którego oba ładunki się poruszają, będziemy mieli do czynienia z prądami, a więc i z polem magnetycznym.

Chcąc zbudować nie teorię cząstek w zadanym polu zewnętrznym, lecz równania, które musi spełniać pole, trzeba uogólnić nieco podejście. Zmiennymi będą teraz nie współrzędne cząstek, lecz wartości pól A_{\mu\nu}(x^{\rho}) . Zaznaczyliśmy wprost, że wartości pola są funkcjami położeń i czasu. Lagranżian musi teraz zależeć od wartości pola oraz jego pierwszych pochodnych: {\cal L}={\cal L}(A_{\mu}, \partial_{\nu}A_{\mu}). . To, co teraz robimy, jest uogólnieniem jednowymiarowwej teorii struny. Działanie musi przyjąć postać:

{\displaystyle S=\int {\cal L} dx^0dx^1dx^2dx^3\equiv \int {\cal L}d^4 x}

Całkujemy po czterowymiarowym obszarze w czasoprzestrzeni. Jaką postać musi przybrać działanie? Podobnie jak w przypadku struny spodziewamy się funkcji kwadratowej w A_{\mu} i jej pochodnych. Działanie powinno zawierać dwa wyrazy: jeden opisujący pola swobodne, drugi – ich oddziaływanie z naładowanymi cząstkami. Ten drugi wyraz już właściwie znamy z poprzedniej części. Gdy mamy wiele cząstek, należy oczywiście po nich wszystkich wysumować. Wrażenie to nie miało postaci całki czterowymiarowej, ale można je do takiej postaci przepisać, używając funkcji (dystrybucji) Diraca. Nie będziemy tego robić, ponieważ jest to ćwiczenie czysto rachunkowe. Zajmiemy się natomiast bliżej działaniem dla pól swobodnych. Lagranżian (ściśle mówiąc: gęstość lagranżianu) powinien być skalarem lorentzowskim. Najprostszym takim skalarem będzie wyrażenie:

{\cal L}=-\dfrac{1}{4\mu_0} F^{\mu\nu}F_{\mu\nu},

gdzie \mu_0 jest stałą fizyczną: przenikalnością magnetyczną próżni. Tensor z podniesionymi wskaźnikami ma niektóre wyrazy innego znaku niż ten z opuszczonymi: transformuje się on bowiem jak iloczyn dwóch czterowektorów x^{\mu}y^{\nu}. W praktyce oznacza to, że wyrazy z jednym wskaźnikiem czasowym zmieniają znak, pozostałe zaś są takie same. Żonglerka wskaźnikami potrzebna jest ze względu na rozróżnienie przestrzeni i czasu, które są w teorii względności nadal fundamentalnie różne. Jeśli w naszych sumach każdy wskaźnik górny jest sumowany z takim samym wskaźnikiem dolnym, to wyrażenie jest skalarem lorentzowskim. Iloczyn F^{\mu\nu}F_{\mu\nu} musi się zatem transformować, jak x^{\mu}y^{\nu}x_{\mu}y_{\nu}=(x^{\mu}x_{\mu})\cdot(y^{\nu}y_{\nu}),
a więc nie będzie zależeć od układu współrzędnych.

W dalszym ciągu postępujemy jak poprzednio, tzn. wyobrażamy sobie, że nasze pole A_{\mu} zmienia się na A_{\mu}+\delta A_{\mu} i obliczamy liniową część przyrostu działania:

{\displaystyle \delta S=\dfrac{1}{\mu_0}\int \partial_{\mu}F^{\mu\nu}\delta A_{\nu}d^4 x.}

Z zasady najmniejszego działania otrzymujemy więc cztery równania:

\boxed{\partial_{\mu}F^{\mu\nu}=0.}

Są to równania Maxwella, tzn. dokładnie ta ich para, w której występują prądy i ładunki (u nas one znikają). Możemy je równie dobrze zapisać w postaci:

\boxed{\partial^{\mu}F_{\mu\nu}=0.}

.
Pochodna ze wskaźnikiem na górze jest równa z definicji \partial^{\mu}\equiv\dfrac{\partial}{\partial x_{\mu}}.

Są to trywialne zmiany zapisu, z naszego punktu widzenia potrzebne do tego, by otrzymać prawidłowe znaki.
Równań Maxwella jest jednak osiem. Co stało się z drugą parą równań? Okazuje się, że mają one postać:

\boxed{\partial_{\mu}F_{\nu\rho}+\partial_{\rho}F_{\mu\nu}+\partial_{\nu}F_{\rho\mu}=0.}

gdzie trójka różnych wskaźników jest przestawiana cyklicznie: \mu\nu\rho\rightarrow \rho\mu\nu\rightarrow\nu\rho\mu.

Trzy wskaźniki spośród czterech możemy wybrać na cztery sposoby, otrzymujemy więc jeszcze cztery równania, a łącznie osiem – tyle, co trzeba.
Ten drugi zestaw równań spełniony jest tożsamościowo, jeśli pamiętamy, że F_{\mu\nu}=\partial_{\mu}A_{\nu}-\partial_{\nu}A_{\mu}.

Podsumujmy jeszcze krótko, co otrzymaliśmy: najprostszy lagranżian utworzony z pola A_{\mu} prowadzi do równań Maxwella. Ich postać narzucona jest więc w znacznym stopniu żądaniem zgodności z teorią względności, czyli mówiąc żargonem fizyki: kowariantności relatywistycznej. Oba zestawy naszych równań: ten otrzymany z działania oraz ten drugi, otrzymany z warunków symetrii, mają taką samą postać w każdym układzie odniesienia. Forma, w jakiej zapisaliśmy równania, niekoniecznie jest najwygodniejsza do praktycznych zastosowań, ale ma tę zaletę, iż widzimy na pierwszy rzut oka, że cała teoria jest kowariantna.

Można otrzymać z tych równań wniosek, że w pustej przestrzeni pola elektromagnetyczne wędrują z prędkością światła. Została ona tu wprowadzona jako przelicznik odległości czasowych na przestrzenne w teorii względności. Inaczej: prędkość c jest stałą wynikającą z historycznych zaszłości: mamy inne jednostki dla czasu i przestrzeni, choć Stwórca (jakby to ujął Einstein) nie widzi między nimi większej różnicy niż różnica znaku w niektórych wyrażeniach. Na tym fundamencie zbudowaliśmy teorię elektromagnetyzmu i przewiduje ona fale rozchodzące się z prędkością c, czyli dla Stwórcy jednostkową. Ludzie najpierw zetknęli się z tą wielkością, mierząc szybkość rozchodzenia się światła, stąd jej nazwa.

Jeszcze jedna uwaga na koniec. Lagranżian przez nas przyjęty może się nie wydawać absolutnie najprostszy. Mamy tu jednak jeszcze jedną symetrię, zwaną symetrią cechowania: jeśli do czteropotencjału dodać pochodną czasoprzestrzenną dowolnej funkcji \partial_{\mu}f zmiennych przestrzennych i czasu, to lagranżian oddziaływania z poprzedniej części zmieni się wprawdzie, ale niegroźnie, tzn. równania ruchu z poprzedniej części nie zmienią się, nie zmieni się też tensor pola F_{\mu\nu} (bo jest antysymetryczny, a drugie pochodne cząstkowe są przemienne). Dlatego do lagranżianu nie ma sensu dodawać takich wyrazów, jak A_{\mu}A^{\mu} – bo nie są one niezależne od cechowania. Symetria cechowania okazała się bardzo istotna. Najpierw wydawało się, że jest to pewna szczególna własność elektrodynamiki, z czasem jednak symetrię cechowania uogólniono na tzw. cechowanie nieabelowe. Chromodynamika i teoria oddziaływań elektrosłabych są takimi teoriami z symetrią cechowania – czyli cały Model Standardowy.

Zauważmy też, że podstawową wielkością jest czteropotencjał, choć w wielu przypadkach wygodniej jest posługiwać się polami elektromagnetycznymi.