Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Reklamy

Po co człowiekowi w życiu logarytmy? Henry Briggs (1617)

Zanim przejdziemy do tytułowego pytania, zacznijmy od tego, jak należy wyobrażać sobie teorię oraz praktykę. Cesare Ripa daje następującą odpowiedź:

Słowo Theoria, oznaczające u Greków kontemplowanie, oglądanie, u nas zaczęło być stosowane na oznaczenie wszelkiego wywodu rozumowego opartego na przyczynach rzeczy stosownie do właściwych im porządków i z uwzględnieniem zasad zależących nie od rozsądku, lecz raczej od intelektu, gdyż zasady zawisłe od rozsądku określają Praktykę, przeciwstawną wszak Teorii. Ze względu na te okoliczności uważam, że Teorię całkiem trafnie przedstawić można w postaci młodej Niewiasty spoglądającej w górę, z dłońmi złączonymi, na głowie mającej cyrkiel o ramionach rozwartych i celujących w Niebo. Ma ona być odziana w dostojną błękitną suknię, i schodzić ze szczytu schodów. Wszystkie te szczegóły symbolizują wybitność, dostojność i wzniosłość. (przeł. I. Kania)

(…) Praktykę można przedstawić w postaci Staruchy z głową i rękami opuszczonymi w dół, ubranej nędznie w bure suknie, z wielkim rozwartym cyrklem, którego jedna nóżka wbita jest w ziemię; jedną ręką wspiera się na rzeczonym cyrklu, drugą – na liniale, w taki sposób, że druga nóżka cyrkla dotyka końca liniału układając się razem w kształt greckiej litery π, którą oni zwykli oznaczać Praktykę, podczas gdy Teorię oznaczali literą θ. (przekł. jw.)

Kto chodził do szkoły, ten wie, że Teoria ma przewagę nad Praktyką: ledwo zdążymy oswoić się z jednym pojęciem, a już mówi się o następnych i idzie dalej i dalej, nie pokazując zastosowań. W podobny sposób działały uniwersytety i szkoły także na przełomie XVI i XVII wieku. Dlatego znaczna część Rewolucji naukowej przebiegała niejako równolegle do systemu edukacji, który nawet owej rewolucji nie zauważył, nadal kształcąc na bazie Arystotelesa.

Logarytmy są wynalazkiem praktycznym, jednym z niewielu ważnych pojęć matematycznych, które powinno się wynosić ze szkoły. I nie chodzi o definicję czy dziwaczne równania z niewiadomymi pod logarytmem, ale o ideę zapisywania bardzo dużych albo bardzo małych liczb w krótki sposób. Logarytmy dziesiętne wprowadził Henry Briggs, profesor w londyńskim Gresham College. Była to szkoła o nastawieniu praktycznym, kształciła mierniczych, inżynierów i nawigatorów (żegluga oceaniczna zmusiła korzystania z astronomicznych metod wyznaczania położenia, a te wymagały obliczeń matematycznych). Pomysł należał do Szkota Johna Napiera, choć niezależnie od niego wpadł na podobną ideę Jost Bürgi, zegarmistrz i konstruktor przyrządów, zaprzyjaźniony z Johannesem Keplerem. Logarytmy pozwalały znacznie przyspieszyć obliczenia numeryczne, ponieważ mnożenie i dzielenie zastępują dodawaniem i odejmowaniem – działaniami znacznie mniej czasochłonnymi. Mówiono, że dzięki logarytmom życie astronomów wydłużyło się dwukrotnie, tak bardzo skracały one bowiem rachunki. Najważniejsze tablice astronomiczne czasów nowożytnych: Tablice Rudolfińskie (1627) Johannesa Keplera zostały obliczone przy wykorzystaniu logarytmów. Dzieło to zawierało frontispis przedstawiający świątynię astronomii, w której kilku sławnych uczonych minionych wieków prowadzi zaświatową debatę nad systemem planetarnym. Jedynie dwie kolumny oznaczone imionami Kopernika i Tychona Brahego są zdrowe i mocne, w suterenie widzimy Johannesa Keplera pochylonego nad swymi pracami.

Przyjrzyjmy się alegorycznym figurom na dachu świątyni. Cesarski orzeł zrzuca guldeny, co było raczej pobożnym życzeniem Keplera niż faktem, choć w sumie dzieło powstało dzięki patronatowi kolejnych cesarzy od Rudolfa II począwszy. Kobiece postaci od lewej strony począwszy to Physica lucis – fizyka światła, Optica – dzierżąca teleskop, Logarithmica – alegoria, niemal bogini logarytmów, Doctrina triangulorum – trygonometria, Stathmica – statyka przedstawiona z dźwignią (prawo dźwigni odgrywało zdaniem Keplera istotną rolę w ruchu planet) oraz Magnetica – alegoria nauki o magnetyzmie (uczony sądził, że jedną z sił poruszających planety jest specjalna siła magnetyczna). W aureoli wokół głowy Logarithmiki znajdują się cyfry 6931472, odpowiadające \ln(2)=0,6931472, dlatego pręty, które trzyma nasza bogini mają stosunek długości 1:2.

Johannes Kepler widział więc wagę logarytmów dla astronomii. Henry Briggs obliczył pierwsze praktyczne tablice logarytmów dziesiętnych. Poniżej wyjaśnimy, jak tego dokonał, najpierw jednak spróbujemy odpowiedzieć na pytanie, do czego w życiu przydają się logarytmy. Są one potrzebne szczególnie wtedy, gdy mamy do czynienia z procesami, w których jakaś wielkość zmienia się bardzo silnie. Np. ludność świata w milionach od czasów prehistorycznych do roku 2015. Widzimy, co znaczy określenie eksplozja demograficzna i dlaczego jest nas dziś więcej niż wszystkich ludzi razem wziętych w minionych epokach. W zaświatach spotkalibyśmy niemal wyłącznie współczesnych.

Drugi wykres ma skalę logarytmiczną na osi pionowej: znacznie lepiej widać zmiany szybkości eksplozji demograficznej: nachylenie krzywej (tangens kąta) mierzy wskaźnik przyrostu naturalnego. Stałe nachylenie to stały przyrost procentowy. Nadal widzimy eksplozję w ostatnich stuleciach, ale teraz widać znacznie więcej szczegółów zachowania krzywej. Spójrzmy jeszcze na wykres obejmujący tylko dwa ostatnie stulecia.

Widać na nim właściwie trzy odcinki prostoliniowe: 1800-1900, 1900-1950, 1950-2015. Zupełnie niewidoczne są obie wojny światowe. Skoki przyrostu naturalnego wiążą się najwyraźniej z postępem cywilizacyjnym: nawozy sztuczne, mniejsza umieralność niemowląt i dzieci, dłuższy średni czas życia.

Logarytm dziesiętny to w zasadzie liczba zer w zapisie: zamiast liczb 0,01;10;100000 piszemy -2,1,5. Oczywiście, musimy umieć obliczać logarytmy także innych liczb niż całkowite potęgi dziesiątki. Jeśli np. naszą liczbą jest a=3\cdot 10^4, to widać od razu, że jej logarytm musi być większy niż 4, lecz mniejszy niż 5 (bo 10^4<3\cdot 10^4<10^5). Trzeba znaleźć taki wykładnik, aby 10^{x}=3. Wiadomo, że x=0,477121, mamy więc

a=3\cdot 10^{4}=10^{0,477121}\cdot 10^{4}=10^{0,477121+4}=10^{4,477121}.

Zatem \log 3\cdot 10^4=4,477121.

Możemy powiedzieć (niestandardowo), że liczba 3\cdot 10^4=30000 ma 4,477121 zer. Logarytm jest więc uogólnieniem liczby zer, skonstruowanym w taki sposób, żeby zachować zwykłe reguły potęgowania, np. 10^{x}\cdot 10^{y}=10^{x+y}.

Jak można skonstruować tablice logarytmów, wiedząc tyle, ile Henry Briggs, to znaczy bez znajomości szeregów, pochodnych itd.? W zasadzie wystarczy umiejętność wyciągania pierwiastka kwadratowego – dawniej uczono, jak to się robi. Szybką metodę przybliżoną znano od czasów starożytnych. Przyjmijmy więc, że umiemy wyciągać pierwiastki kwadratowe. Możemy obliczyć teraz kolejne pierwiastki kwadratowe z 10 aż powstanie tabelka jak poniżej.

Zaczerpnęliśmy ją z rozdziału 22 tomu I wykładów Richarda Feynmana. Oczywiście, nietrudno ją obliczyć samemu, ale warto też spojrzeć na stronice Feynmana poświęcone temu zagadnieniu. Richard Feynman cenił matematykę praktyczną, metody uzyskiwania konkretnych liczbowych odpowiedzi. Pewnie dlatego zainteresował się Briggsem i sposobem konstruowania tablic. Gdybyśmy znaleźli się na bezludnej wyspie, będziemy wiedzieć, jak obliczyć tablice logarytmów. Ważniejszym powodem jest może ten, że wiedza powinna tworzyć powiązany system, a nie bezładne nagromadzenie faktów, i Feynman zawsze starał się poznać całe łańcuchy rozumowań od faktów doświadczalnych do teorii. (Nawiasem mówiąc, ta swoista niechęć do wykraczania poza fakty stała się chyba przyczyną, dla której nie podobały mu się kwarki, zaproponowane teoretycznie. Wprowadził nawet swoją nazwę: partony na części protonu, które obserwuje się w rozproszeniach przy dużych energiach. Uparcie nie chciał ich jednak uznać za kwarki.)

Z tabelki widać, że kolejne pierwiastki przejawiają prostą regularność:

10^{x}\approx 1+2,3025 x. \mbox{   (*)}

Także Briggs to zauważył: zamiast obliczać pierwiastki odpowiadające małym wykładnikom, można zastosować powyższe przybliżenie. Weźmy teraz jakąkolwiek liczbę z przedziału (1,10), np. 3. Szukamy w trzeciej kolumnie tabeli czynników, które przybliżą 3 z dołu:

10^{\frac{1}{4}}\cdot 10^{\frac{1}{8}}\cdot 10^{\frac{1}{16}}\cdot 10^{\frac{1}{32}}\cdot 10^{\frac{1}{128}}=10^{0,476563}\approx 2,996143.

Mamy już prawie 3. Brakujący czynnik to 3/2,996143=1,001287. Stosując przybliżenie (*) otrzymamy logarytm tego czynnika równy 0,000559. Liczbę tę należy dodać do wykładnika powyżej:

\log {3}=0,476563+0,000559=0,477121.

Metoda zastosowana przez Briggsa była nieco bardziej skomplikowana, ale w istocie sprowadzała się do tego samego. Zauważmy, że każdą liczbę z przedziału (0,1) możemy zapisać jako sumę potęg dwójkowych – będzie to po prostu owa liczba zapisana dwójkowo. Henry Briggs obliczył 54 kolejne pierwiastki z dokładnością 30 cyfr znaczących, co było pracą iście herkulesową (gdyby tylko Herkules pracował umysłowo, a nie fizycznie). W dodatku prawie wcale się przy tym nie mylił, drobne pomyłki nie wpłynęły na wyniki tablic. Zawierały one w pierwszej wersji logarytmy liczb od 1 do 1000 z dokładnością czternastu znaków. Po sześciu latach rozszerzył te tablice do liczb 1-20 000 oraz 90 000-100 000 z tą samą monstrualną dokładnością czternastu cyfr. Wydawca flamandzki Adriaan Vlacq zatrudnił mierniczego Ezechiela de Deckera, aby dokończyć tablice od 1 do 100 000. Miały one dokładność już tylko dziesięciu cyfr, de Decker stosował interpolację. Tablice Vlacqa ukazały się w 1627, trzy lata po niepełnych tablicach Briggsa.

Korzystałem m.in. z artykułu Iana Bruce’a, The agony and the ecstasy – the development of logarithms by Henry Briggs, „The Matematical Gazette”, t. 86 (2002), s. 216-227.

(*) Przybliżenie znalezione przez Briggsa łatwo uzasadnić rozwijając funkcję wykładniczą w szereg MacLaurina:

10^{x}=e^{x\ln 10}\approx 1+x\ln {10}.

 

 

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)

Rezygnacja Richarda Willstättera (1924)

Na krótkim filmie z czerwca 1920 r. widzimy laureatów Nagrody Nobla wraz z żonami. Od lewej stoją: Fritz Haber (chemia, 1918), Charles Glover Barkla (fizyka, 1917), Max Planck (fizyka 1918), Richard Willstätter (chemia, 1915), Johannes Stark (fizyka, 1919) oraz Max von Laue (fizyka, 1914).

Półtora roku po Wielkiej Wojnie – jak wtedy mówiono – uroczystość noblowska była jedną z pierwszych okazji gromadzących uczonych z dwóch stron niedawnego frontu. Wymowny jest brak na zdjęciach obu brytyjskich laureatów z fizyki za rok 1915: Williama Henry’ego Bragga (ojciec) i Williama Lawrence’a Bragga (syn). Drugi syn Williama Bragga, Robert Charles, zginął na wojnie. Obaj Brytyjczycy pracowali nad dźwiękowym wykrywaniem łodzi podwodnych oraz pozycji artylerii – czymś w rodzaju akustycznego radaru. Także Haber i Willstätter zaangażowani byli w wysiłek wojenny swego kraju. Pierwszy uratował Niemcy przed klęską militarną: zapasy materiałów wybuchowych i amunicji wystarczały na kilka miesięcy wojny. Kiedy okazało się, że nie będzie szybkiego rozstrzygnięcia, pojawił się problem produkcji materiałów wybuchowych. Do tej pory korzystano z saletry importowanej z Chile. Jednak po wybuchu wojny marynarka brytyjska dość skutecznie odcięła tę drogę zaopatrzenia. Ratunkiem dla Niemiec okazał się proces Habera-Boscha produkcji amoniaku z powietrza. Haber na tym nie poprzestał, zaczął pracować nad gazami bojowymi i stał się entuzjastycznym inicjatorem wojny chemicznej. Willstätter także pracował na rzecz armii, ale nie chciał zajmować się produkcją broni, opracował maskę gazową, chroniącą żołnierzy. Zaopatrzenie armii koordynował Walther Rathenau, przemysłowiec i wielki patriota, późniejszy minister spraw zagranicznych w roku 1922 zamordowany przez nacjonalistów. Charakterystyczne jest, że choć niemieccy Żydzi wnieśli wielki wkład w wysiłek wojenny swego kraju (także walcząc w okopach), po przegranej wojnie to oni zostali oskarżeni o klęskę i spiskowanie z wrogiem.

Społeczeństwo niemieckie wyszło z wojny zupełnie podzielone. Nikt nie chciał odpowiadać za klęskę i bezmiar cierpień. Traktat wersalski przyniósł upokorzenie, nakładając ciężary reparacji niemożliwe do udźwignięcia. Skrajne siły na lewicy i prawicy podmywały porządek konstytucyjny, antysemityzm, od dawna obecny wśród Niemców, coraz częściej przeradzał się w obsesyjną nienawiść. Nawet nauka nie była wyłączona z tej presji politycznej. Z pięciu uczonych niemieckich na filmie, dwóch było Żydami, dwóch – von Laue i Planck – starało się zachować neutralność nauki, Johannes Stark natomiast był jednym z wczesnych zwolenników Hitlera i później propagatorem czegoś, co nazywało się „fizyką niemiecką” – jakby atomy, grawitacja, elektryczność, kwanty miały narodowość i aryjski rodowód.

Richard Willstätter był chemikiem, Nagrodę Nobla otrzymał za badania nad chlorofilem. Dzięki jego długoletniej pracy znane stały się podstawowe cechy budowy cząsteczki chlorofilu, z jej magnezowym centrum (miał tu polskiego prekursora w Leonie Marchlewskim), udowodnił także, że występują dwa rodzaje chlorofilu: a i b. Wykazał, że cząsteczki chlorofilu w różnych roślinach mają jednakową budowę, podobną zresztą do budowy cząsteczki hemoglobiny. Za ogromną różnorodnością życia kryła się więc jednolitość na poziomie biochemicznym. Willstätter badał też inne barwniki występujące w roślinach. Na filmie jest sam, jego żona umarła, później umarł także ich synek, została mu tylko córka. Uczony do końca życia pozostał już sam.

Rodzina pochodziła z Badenii, lecz przyszły chemik do gimnazjum chodził w Norymberdze, a studiował w Monachium. Starszy o siedem lat od Einsteina, w odróżnieniu od niego czuł się w Bawarii dobrze, choć też doświadczał czasem antysemityzmu, począwszy od łobuziaków na ulicy, goniących i rzucającyh kamieniami za żydowskimi rówieśnikami. Znacznie poważniejszym problemem był antysemityzm elit. W nauce Żydzi zostawali czasem profesorami, było to jednak trudne. Willstätter pierwszą posadę profesorską dostał w Szwajcarii, w ETH w Zurychu. Potem ściągnięto go w roku 1912 do Berlina, nieco podobnie dwa lata później Einsteina: był to świadomy zamysł ludzi takich, jak Haber, Nernst czy Planck, aby budować wielkość nauki niemieckiej. W roku 1916 Willstätter dostał propozycję katedry w Monachium, mógł dzięki temu wrócić na swą macierzystą uczelnię, teraz jako dyrektor budujący nowy gmach laboratorium, który wyposażył za pieniądze ze swej Nagrody Nobla.

W 1924 roku uniwersytet rozpatrywał sprawę nominacji profesora geochemii. Znakomitym kandydatem był Victor M. Goldschmidt, pracujący w Kristianii (dzisiejsze Oslo). Jednak Wilhelm Wien, fizyk i ówczesny dziekan wydziału, utrącił tę kandydaturę, przekonując profesorów, by nie głosowali za osobą „obcokrajowca” (nie chodziło mu przy tym bynajmniej o obywatelstwo norweskie). Przyjęto na stanowisko nauczyciela ze szkoły dla dziewcząt, bez żadnego dorobku naukowego. Decyzja podjęta za sprawą uprzedzeń rasowych wzburzyła bardzo Willstättera – tego samego dnia podał się do dymisji i nie odwiodły go od niej rozmaite apele i rozgłos wokół tej sprawy. Nie przyjął też żadnej z licznych propozycji, które zaczęły napływać z kraju i zagranicy: miał pięćdziesiąt trzy lata, był noblistą i sporo jeszcze mógł dokonać. Wycofał się na emeryturę, odtąd pracował naukowo, kontaktując się telefonicznie ze swymi asystentami, nigdy już nie odwiedzając swego laboratorium.

W marcu 1939 roku Richard Willstätter przekroczył granicę niemiecko-szwajcarską, opuszczając na zawsze ojczyznę. Pozwolenie na wyjazd okupione było długotrwałymi staraniami i utratą większej części majątku, w tym wspaniałej biblioteki zajmującej siedem pokoi w jego monachijskim domu. Umarł kilka lat później.

Marcel Grossmann – przyjaciel i współpracownik Einsteina

Było ich pięcioro w Sekcji VIA Politechniki w Zurychu (obecna ETH) – „matematycy”: Marcel Grossmann, Jakob Ehrat i Louis Kollros oraz „fizycy”: Albert Einstein i Mileva Marić. Sekcja VIA była wydziałem ogólnym Politechniki, przygotowującym przyszłych nauczycieli matematyki i fizyki. Uczyli się oni (w nieco odmiennych proporcjach) matematyki i fizyki, tylko podgrupa „fizyków” miała praktyczne zajęcia laboratoryjne. Politechnika w Zurychu (obok paryskiej Sorbony) przyjmowała na studia kobiety, należąc pod tym względem do nielicznych wyjątków w Europie. Dlatego Mileva Marić, uzdolniona Serbka z Wojwodiny, trafiła tam na studia. Mileva została z czasem żoną Alberta, Marcel należał do jego najbliższych przyjaciół. Wzorowo prowadzone notatki Grossmanna z wykładów służyły Albertowi pomocą przed egzaminami, Einstein był bowiem studentem niezbyt sumiennym, czytał prace wielkich fizyków na własną rękę i zajmował się tym, co mu się akurat wydawało interesujące, a nie tym, co wynikało akurat z programu studiów. Nie miał w szczególności zbyt wiele zapału do tych części matematyki, które wydawały się oderwane od zastosowań w fizyce. Stracił na tym zapewne, ponieważ wśród wykładowców matematyki na Politechnice byli uczeni tak wybitni jak Adolf Hurwitz i Hermann Minkowski. Nie orientował się wówczas – podobnie jak większość jego profesorów – że w przyszłości aparat matematyczny fizyki bardzo się powiększy.

W lipcu 1900 roku wszyscy oni, oprócz Milevy, uzyskali dyplom Politechniki. Grossmann i Kollros zostali dość szybko profesorami tej uczelni, Einstein natomiast nie mógł przez długi czas znaleźć pracy. Pisał do Grossmanna z domu rodziców we Włoszech:

Drogi Marcelu! Gdy wczoraj znalazłem twój list, byłem wzruszony wiernością i życzliwością, które nie pozwoliły ci zapomnieć o starym przyjacielu pechowcu. Niełatwo byłoby znaleźć lepszych przyjaciół niż ty i [Jakob] Ehrat. Nie muszę chyba mówić, że byłbym szczęśliwy, mogąc zająć się tak piękną sferą aktywności, i że dołożyłbym starań, by nie zawieść okazanego mi zaufania. Już od trzech tygodni jestem u rodziców i stąd usiłuję zdobyć posadę asystenta na jakimkolwiek uniwersytecie. Już dawno bym uzyskał posadę, gdyby nie intrygi Webera. Pomimo to staram się nie przeoczyć żadnej okazji i nie tracę humoru. Bóg stworzył osła i dał mu grubą skórę.
Mamy tu prześliczną wiosnę i cały świat uśmiecha się tak radośnie, że siłą rzeczy trzeba odrzucić wszelką hipochondrię. Poza tym moi muzyczni znajomi chronią mnie od zgorzknienia.
Co się tyczy nauki – przyszło mi do głowy parę pięknych pomysłów, ale muszą one jeszcze dojrzeć. (14 IV 1901)

Dzięki ojcu Grossmanna, który znał dyrektora Biura Patentowego w Bernie, Friedricha Hallera, Einstein trafił do niego na rozmowę kwalifikacyjną i został przyjęty do pracy jako ekspert techniczny III klasy. Było to w czerwcu 1902 roku, po dwóch latach niepewności i braku stabilizacji finansowej. Einstein przez całe życie wdzięczny był Grossmannowi za pomoc w tym trudnym momencie.

W roku 1912 Marcel Grossmann już jako profesor ETH zaproponował Einsteinowi profesurę na tej uczelni. Sytuacja była już zupełnie inna: Einstein był najwybitniejszym fizykiem Europy, a więc i świata, jego prace z teorii względności, fizyki statystycznej, fizyki kwantowej zasługiwały już nie na jedną, lecz na kilka Nagród Nobla. Teraz to ETH miała zyskać sławnego uczonego, Einstein zgodził się, ponieważ w Pradze, gdzie przebywał, nie czuł się zbyt dobrze, a Mileva była zupełnie osamotniona. Einstein pracował intensywnie nad teorią grawitacji. Miał wtedy ponoć zwrócić się do swego kolegi słowami: „Grossmann, pomóż mi, bo inaczej zwariuję”.

Pracowali wspólnie w ciągu niecałych dwóch lat, jakie spędził Einstein w Zurychu. Opublikowali dwie wspólne prace. Pierwsza z nich, tzw. Entwurf, była chybionym zarysem teorii grawitacji. To Grossmann skierował uwagę Einsteina na geometrię różniczkową Levi-Civity i Ricciego-Curbastro. Fizycy zawdzięczają Grossmannowi określenie tensor (samo pojęcie było znane). Praca Entwurf składała się z dwóch części: fizycznej autorstwa Einsteina oraz matematycznej autorstwa Grossmanna. Grossmann zaprezentował w swej części zarys geometrii różniczkowej znanej w tamtym momencie w sposób jednolity i do pewnego stopnia autorski. Nie była to matematyka, którą Grossmann uprawiał naukowo ani przedtem, ani później. Jego specjalnością była geometria wykreślna oraz konstrukcje geometryczne w geometrii nieeuklidesowej. Jak się wydaje, sam wolał się dystansować od odpowiedzialności za prezentowaną teorię fizyczną. Czy jego pomoc ograniczała się wyłącznie do kwestii technicznych? I tak, i nie. Brał on udział w obliczeniach, część z nich znajduje się w tzw. Notatniku z Zurychu, analizowanym szczegółowo przez historyków. Podejście czysto matematyczne nie doprowadziło do sukcesu. Teoria przedstawiona w Enwurf jest nieelegancka i nieprawdziwa fizycznie (co nie od razu było jasne). Potęga formalizmu geometrii różniczkowej nie była wykorzystana w pełni, obaj, jak się zdaje, nie doceniali jej wtedy. Grossmann nie interesował się zbytnio dalszym losem teorii grawitacji, w każdym razie ich współpraca skończyła się w sposób naturalny w roku 1914. Einstein wyjechał do Berlina, aby objąć najbardziej prestiżowe stanowisko w Niemczech, stworzone specjalnie dla niego: miał być członkiem Pruskiej Akademii Nauk otrzymującym wysoką pensję bez żadnych zobowiązań dydaktycznych. Max Planck i Walther Nernst, którzy mu tę posadę zaproponowali, liczyli, że Berlin utrzyma dzięki temu pozycję najważniejszego centrum fizyki w Niemczech. Silną konkurencją było Monachium, gdzie pracował Arnold Sommerfeld, a później także Getynga, w czasach Maksa Borna i Jamesa Francka. Marcel Grossmann nie pracował wiele naukowo, zajął się uczeniem matematyki oraz organizacją. Ich synowie chodzili potem do jednej klasy gimnazjalnej w Zurychu (Mileva zamieszkała tam po rozstaniu z Albertem.

Einstein dopiero w roku 1915 spostrzegł, że teoria Entwurf nie jest tym, o czym myślał. Chodziło o to, że nie dało się jej zastosować w układzie obracającym się. Tymczasem jedną z głównych idei „uogólnionej” czy „ogólnej” teorii względności było dopuszczenie dowolnych układów współrzędnych. Dzięki pracy poprzednich lat mógł teraz Einstein szybko wrócić do niedokończonych obliczeń i części układanki szybko się domknęły. A właściwie kolejno domykały w listopadzie 1915 roku. Przez cztery tygodnie opublikował wtedy Einstein cztery kolejne prace (był to rytm posiedzeń Akademii Nauk), przy czym każda następna zmieniała nieco wyniki poprzedniej. Powstał zamęt, w którym tylko sam Einstein umiał się odnaleźć. Toteż w roku 1916 napisał dużą pracę podsumowującą wyniki.

Był to największy sukces naukowy Einsteina, choć dopiero po latach stało się jasne, jak znakomitą i świetnie zgadzającą się z doświadczeniami teorię stworzył. Nie ulega też kwestii, że nikt inny wtedy by jej nie zbudował. Grossmann bardzo tu Einsteinowi pomógł, kierując go we właściwą z matematycznego punktu widzenia stronę. Był jednak w tę pracę zaangażowany w mniejszym chyba stopniu niż Besso, który brał udział w obliczeniach obrotu peryhelium Merkurego. Einstein nie miał nigdy współpracownika, który dorównywałby mu intelektualnie. Być może zresztą uczeni mający silne osobowości nie bardzo dają się zaprzęgnąć do pracy zespołowej czy nawet partnerskiej, mają bowiem wyraźnie sprecyzowane cele i własne wyobrażenie drogi do nich.

Galileusz i Torricelli: krzywe balistyczne (pierwsza połowa XVII wieku)

Rewolucja naukowa XVII wieku ukazała nowe zastosowania matematyki: poznano kształt orbit planetarnych, a także krzywą balistyczną – tor wystrzelonego bądź rzuconego ciała. Jedną z osobliwości rozwoju nauki na planecie Ziemia jest fakt, że skomplikowany eliptyczny ruch planet został odkryty przez Johannesa Keplera, zanim jeszcze poznano prosty paraboliczny kształt krzywej balistycznej. Odkrycia te były zupełnie od siebie niezależne, dopiero Isaac Newton potrafił dostrzec, że w obu przypadkach mamy do czynienia z przejawami ciążenia powszechnego.
Galileusz bardziej niż ktokolwiek inny przyczynił się do zmiany sposobu podejścia do nauki o ruchu: miała ona stać się matematyczna i ugruntowana w eksperymencie. Miała też być zupełnie nowa, osiągnięcia dawnych filozofów traciły gwałtownie na znaczeniu.

Jak pisał Galileusz w jednej ze swych zjadliwych polemik z jezuitą, o. Grassim (występującym pod nom de plume Sarsi):

„[Sarsi] zadaje pełne irytacji pytania: za kim zatem należałoby pójść? Może za Ptolemeuszem (…)? A może za Kopernikiem, od którego trzeba się jednak trzymać z daleka, z powodu potępienia jego hipotez? (…) w podejściu Sarsiego daje się zauważyć silna wiara, że w filozofii zawsze trzeba się opierać na opiniach jakiegoś sławnego autora, tak jakby nasza inteligencja, jeśli nie weźmie sobie za męża cudzego rozumu, musiała na zawsze pozostać sterylna i bezpłodna. Albo może jest on zdania, że filozofia jest czymś na kształt księgi lub wytworu ludzkiej fantazji, jak Iliada albo Orland szalony, czyli dzieła, w którym najmniej się liczy, czy to, co jest napisane, jest prawdą. Panie Sarsi, nie tak się rzeczy mają! Filozofia zawarta jest w tej przeogromnej księdze, którą ciągle mamy otwartą przed oczami (nazywam tę księgę wszechświatem), jednakże nie można jej pojąć, jeśli wpierw nie pozna się języka, nie pozna się znaków, za których pomocą została napisana. A księga ta została napisana w języku matematyki, i jej literami są trójkąty, koła i inne figury geometryczne” (przeł. T. Sierotowicz).

Odkrycie parabolicznego kształtu krzywej balistycznej jest jednym ze sławnych osiągnięć Galileusza. Brzmi prosto, ale wyjaśnianie, czemu tak jest, czy rzeczywiście tak jest i w jakich warunkach, zajęło uczonemu wiele lat i nie całkiem się udało pod względem matematycznym. W zadowalającej i eleganckiej formie ujął to dopiero Evangelista Torricelli, rozwijając prace mistrza. Starość Galileusza upłynęła w areszcie domowym po wyroku inkwizycji. Nawet kiedy umarł, papież Urban VIII zakazał uroczystego pogrzebu i uczonego pochowano w miejscu nie oznaczonym żadnym nagrobkiem. Pierwszym pomnikiem Galileusza było popiersie wybudowane przez jego ucznia Vincenza Vivianiego na ścianie własnego domu pół wieku później. Krzywa balistyczna znalazła się wsród emblematycznych osiągnięć wielkiego Toskańczyka. Po następnych czterdziestu latach szczątki uczonego doczekały się nie tylko uroczystego pochówku, ale i zaczęły być traktowane jak relikwie (do dziś przechowywane tu i ówdzie), co było może nieuniknione w kraju tak bardzo katolickim, lecz nieźle by ubawiło samego Galileusza.

Punktem wyjścia były w poprzednim stuleciu rozważania takie, jak u Niccolò Fontany, zwanego Tartaglia (czyli „Jąkała”). Chwalił się on, że rozwiązał zagadnienie krzywej balistycznej. W jego pojęciu ruch pocisku czy innego wystrzelonego ciała składa się z trzech etapów: z początku jest to prostoliniowy ruch wymuszony, na końcu jest to także ruch prostoliniowy, lecz naturalny: spadanie pionowo w dół. Obie te fazy miały uzasadnienie w fizyce Arystotelesa. Zdroworozsądkowym dodatkiem było uznanie, że między tymi dwiema fazami jest jeszcze krzywoliniowe interludium, o którym teoria nie mówiła nic. Zupełnie gołosłownie Tartaglia twierdził, że zasięg strzału jest największy, gdy strzela się pod kątem 45° do poziomu. Istniały zatem aż dwie teorie tego, co się miało dziać podczas ruchu, w dodatku żadna z nich nie była ilościowa ani matematyczna. Arystoteles prowadził rozważania jakościowe, „filozoficzne”. Tymczasem artylerzyści rozumieli, że z teorią czy bez, pociski lecą wzdłuż określonej trajektorii.

Pierwszym patronem młodego Galileo Galilei z Florencji był Guidobaldo del Monte. Wspólnie przeprowadzili oni doświadczenia dotyczące kształtu krzywej balistycznej. Puszczali w tym celu ukośnie kulkę zanurzoną wcześniej w atramencie po nachylonej płaszczyźnie. Odkryli, że krzywa balistyczna jest symetryczna i podobna do paraboli lub hiperboli. Błędnie utożsamili jej kształt z krzywą łańcuchową – opisującą kształt ciężkiego łańcucha zamocowanego z obu końców. Galileusz do końca życia był przywiązany do tej obserwacji, choć w późniejszych doświadczeniach sprawdził, że obie krzywe są do siebie zbliżone tylko wtedy, gdy są dość płaskie. W drugiej połowie XVII wieku, stosując rachunek różniczkowy i całkowy, ustalono, że linia łańcuchowa to kombinacja funkcji wykładniczych (cosinus hiperboliczny), a więc nie ma wiele wspólnego z krzywą balistyczną.

Zrozumienie, skąd bierze się parabola jako krzywa balistyczna, wymagało czasu i eksperymentów. Galileusz zrozumiał, że ruch poziomy i ruch pionowy są od siebie niezależne (jeśli tylko opór ośrodka możemy pominąć). Pionowy spadek jest ruchem przyspieszonym, a więc odległość rośnie jak kwadrat czasu. Razem z jednostajnym ruchem poziomym daje to właśnie parabolę. Pierwszy opublikował te rozważania w roku 1632 Bonaventura Cavalieri, młody matematyk, który był przekonany, że Galileusz musiał je kiedyś wcześniej ogłosić. Starszy uczony zareagował furią, ale Cavalieri jakoś go ugłaskał i przekonał, że nie miał złych intencji. Dowód Cavalieriego, a także opublikowany później dowód Galileusza, odnosiły się do przypadku rzutu poziomego. Galileusz nie udowodnił, ściśle rzecz biorąc, że w rzucie ukośnym także powstaje parabola.

 

 

 

 

 

 

 

 

 

 

 

 

 

Powstawanie paraboli odcinki pionowe przebywane w równych czasach mają się jak 1:3:5:7 (czyli całkowite drogi mają się jak 1:4:9:16).  Rysunek z książki Cavalieriego, Lo Specchio ustorio („Zwierciadło zapalające”), 1632 r.

Jednak to Galileusza należy uznać za odkrywcę kształtu toru, on pierwszy bowiem zrozumiał w zasadzie wszystko, co było potrzebne do matematycznego opisu krzywej balistycznej. Przeprowadził też doświadczenia, w których mierzył zasięg rzutu poziomego kulek staczających się z równi pochyłej o różnych wysokościach. Uczony wiedział, że prędkość kulek u podnóża równi jest proporcjonalna do pierwiastka z wysokości. Zmierzył, że zasięg rzutu x jest proporcjonalny do tej prędkości.

Dopiero Evangelista Torricelli domknął stronę matematyczną teorii i udowodnił, że także w ruchu ukośnym mamy do czynienia z parabolą.

Znalazł też prosty sposób przedstawienia maksymalnej wysokości oraz zasięgu rzutu w zależności od kąta. Jeśli AB jest maksymalną wysokością przy pionowym strzale, to należy skonstruować półokrąg, jak na rysunku. Dla dowolnego kąta wystrzału rysujemy linię AF: mamy wówczas maksymalną wysokość równą AE=h, odcinek EF=x/4 jest równy jednej czwartej zasięgu. Widać od razu, że maksymalny zasięg uzyskamy dla kąta \alpha=45^{\circ}. Widać też, że przy kątach różnych od 45^{\circ} każdemu zasięgowi odpowiadają dwie wartości kąta: można więc osiągnąć tę odległość za pomocą dwóch parabol: jednej mniej, a drugiej bardziej stromej.

Ruch paraboliczny jest wypadkową jednostajnego ruchu prostoliniowego i swobodnego spadku w kierunku pionowym. Reszta jest ćwiczeniem geometrycznym.

Także Torricelli zbadał kształt krzywej bezpieczeństwa: oddzielającej punkty będące w zasięgu strzału od tych, które są poza zasięgiem (przy danej prędkości pocisku). Krzywa ta także jest parabolą o wysokości równej wysokości strzału pionowego, a połowa jej szerokości równa się maksymalnemu zasięgowi strzału.


Książka Torricellego ukazała się w 1644 roku (choć wyniki zostały uzyskane jeszcze za życia Galileusza i stary mistrz miał okazję się z nimi zapoznać). W 1687 roku Isaac Newton pokazał, że dowolny ruch orbitalny jest złożeniem ruchu prostoliniowego i spadku swobodnego. Musimy tylko wziąć pod uwagę, że wielkość grawitacji zmienia się od punktu do punktu, a więc opis tego rodzaju słuszny jest jedynie w bardzo krótkim przedziale czasu. Jest to spora komplikacja matematyczna, pozwala jednak opisać w sposób jednolity rozmaite ruchy we wszechświecie. Tor wypadkowy będzie parabolą jedynie lokalnie, jego kształt w przypadku planet jest jedną z krzywych stożkowych. Podobno Isaac Newton tylko raz wybuchnął śmiechem: kiedy ktoś go zapytał, jaki jest pożytek z matematyki. Lepiej niż jego współcześni rozumiemy teraz głębokie powody tego śmiechu.

Obliczenia. Jeśli wprowadzimy układ współrzędnych poziomej – X i pionowej Y, to wektor  początkowej możemy zapisać jako \vec{v}=[v\cos\alpha, v\sin\alpha], a przyspieszenie ziemskie \vec{g}=[0,-g]. Równania ruchu mają więc postać:

\begin{cases} X=v\cos\alpha t,\\  Y=v\sin\alpha t-\dfrac{gt^2}{2v^2 \cos^2\alpha}.\end{cases}

Dla \alpha\neq \pi/2 równanie toru można obliczyć, wyznaczając t z pierwszego równania i wstawiając do drugiego:

Y=X\mbox{tg}\,\alpha -\dfrac{gX^2}{2v^2 \cos^2\alpha}.

Jest to równanie z funkcją kwadratową X po prawej stronie – tor jest więc parabolą. Łatwo można wyznaczyć współrzędne wierzchołka paraboli (za pomocą szkolnych wzorów albo szukając maksimum funkcji). W oznaczeniach z rysunków otrzymamy

\begin{cases} \dfrac{x}{2}=\dfrac{v^2}{g}\sin\alpha\cos\alpha,\\ \\h=\dfrac{v^2}{2g}\sin^2\alpha.\end{cases}

Ostatnie wyrażenie słuszne jest także dla \alpha=\pi/2, co wynika np. z ciągłości funkcji: gdy zbliżamy się do kąta \pi/2 wysokość maksymalna nie powina mieć skoku. Zatem maksymalna wysokość możliwa do osiągnięcia równa jest

AB=\dfrac{v^2}{2g}.

Odcinki na rysunku Torricellego są z naszego współczesnego (trygonometrycznego) punktu widzenia równe:

\begin{cases}\dfrac{EF}{AB}=\dfrac{EF}{AF}\cdot\dfrac{AF}{AB}=\cos\alpha\sin\alpha,\\ \\  \dfrac{AE}{AB}=\dfrac{AE}{AF}\cdot\dfrac{AF}{AB}=\sin^2\alpha.\end{cases}

Zasięg i maksymalna wysokość skalują się zatem jak odpowiednie funkcje trygonometryczne, \sin2\alpha oraz \sin^2\alpha.

Richarda Feynmana droga do równania Schrödingera (1941)

Jeszcze w trakcie swoich studiów pierwszego stopnia w MIT (ukończył je w 1939 r.) Feynman dowiedział się o trudnościach elektrodynamiki kwantowej. Teoria taka była niezbędna do opisania oddziaływań przy większych energiach: kiedy mogą tworzyć się albo anihilować pary elektron-pozyton. Obliczenia prowadziły jednak do całek rozbieżnych, teoria wymagała nowego podejścia.

W swoim wykładzie noblowskim Richard Feynman opowiada o kilku ideach, które starał się rozwijać w trakcie swoich dalszych studiów w Princeton (na egzaminach wstępnych z fizyki uzyskał tam komplet punktów, co zdarzyło się po raz pierwszy). W roku 1942 r uzyskał doktorat pod kierunkiem Johna Archibalda Wheelera i niebawem zaczął pracę w Projekcie Manhattan.

Jednym z pomysłów Feynmana było nowe sformułowanie mechaniki kwantowej. Poszukiwał podejścia, w którym można by opisać, co dzieje się z cząstkami w czasoprzestrzeni. Chodziło mu o teorię relatywistyczną, w której opis taki wydaje się naturalny. Należało się spodziewać, że zamiast hamiltonianu pojawi się tu lagranżian cząstek (sformułowanie Lagrange’a mechaniki daje się łatwo zapisać w postaci jawnie kowariantnej, w której zgodność z teorią względności jest punktem wyjścia, a nie dodatkowym założeniem). Na początek udało mu się sformułować w nowy sposób „starą” mechanikę kwantową, która liczyła wprawdzie dopiero piętnaście lat, lecz dla młodego człowieka była to już prehistoria. Właśnie to sformułowanie znalazło się w doktoracie.

Punktem wyjścia była rozmowa z Herbertem Jehle w „Nassau Inn” w Princeton któregoś wieczoru. Jehle, Niemiec, syn generała, był kwakrem i pacyfistą, wyemigrował z nazistowskiej ojczyzny, pracował w Brukseli, w końcu trafił do obozu internowania w Gurs w Pirenejach w republice Vichy, skąd trafił do Stanów Zjednoczonych. Jehle znał pewną pracę Paula Diraca, w której pojawiał się lagranżian. Nazajutrz wybrali się obaj do biblioteki, aby odszukać tę pracę z 1933 roku. Była ona opublikowana w dość nieprawdopodobnym miejscu, bo w rosyjskim czasopiśmie „Physikalische Zeitschrift der Sowjetunion”.

Dirac pisze, jak znaleźć funkcję falową w chwili późniejszej t+\varepsilon z funkcji falowej w chwili t, korzystając z zasady Huygensa:

\psi(x,t+\varepsilon)={\displaystyle \int G(x,y)\psi(y,t)dy}.

Funkcja G(x,y) jest dziś zwana propagatorem cząstki. Funkcja falowa w późniejszym czasie jest więc sumą funkcji falowych w czasie wcześniejszym wziętą z odpowiednimi wagami – wagi te opisuje propagator. Angielski uczony stwierdził też, że propagator dla krótkich czasów „odpowiada” (corresponds to) wyrażeniu

e^{iL \varepsilon /\hbar},

gdzie L jest lagranżianem, \hbar – stałą Plancka. W wykładniku mamy tu działanie dla bardzo krótkiego czasu \varepsilon. Feynman spróbował natychmiast ustalić, co oznacza owa odpowiedniość. Jeśli wziąć dwa punkty x i y, to średnia prędkość cząstki powinna się równać

v=\frac{x-y}{\varepsilon},

a energia potencjalna powinna być także jakąś wartością średnią:

V=V(\frac{x+y}{2}).

Lagranżian to różnica energii kinetycznej i potencjalnej, a więc wyrażenie wykładnicze Diraca jest równe:

\exp\left(\frac{im(x-y)^2}{2\hbar\varepsilon}-\frac{i}{\hbar}V(\frac{x+y}{2})\varepsilon\right).

Dla niewielkich \varepsilon pierwszy składnik wykładnika będzie gwałtownie oscylował, drugi natomiast staje się coraz mniejszy i może być zastąpiony przybliżeniem liniowym. Oznaczając x-y=\xi i przyjmując, że „odpowiada” u Diraca znaczy „jest proporcjonalny”, mielibyśmy

\psi(x,t+\varepsilon) =A(\varepsilon) {\displaystyle \int \exp\left(\dfrac{im\xi^2}{2\varepsilon\hbar}\right)\left\{ 1-\dfrac{i\varepsilon}{\hbar}V(x-{\xi}/{2})\right\}\psi(x-\xi)d\xi}.

Ponieważ pierwszy czynnik pod całką gwałtownie oscyluje, więc możemy funkcję falową pod całką przybliżyć jej rozwinięciem Taylora wokół x:

\psi(x-\xi)\approx \psi(x)-\xi \dfrac{\partial \psi}{\partial x}+\dfrac{\xi^2}{2}\dfrac{\partial^2\psi}{\partial x^2}.

Także energię potencjalną możemy zamienić jej wartością w punkcie x. Całki po prawej stronie dają się w tym przybliżeniu bez trudu obliczyć i otrzymujemy:

\psi(x,t+\varepsilon)=\psi(x,t)-\dfrac{i\varepsilon }{\hbar}V(x)\psi(x,t)+\dfrac{i\hbar \varepsilon}{2m}\,\dfrac{\partial^2\psi}{\partial x^2}.

Możemy to równanie przekształcić do postaci

i\hbar \dfrac{\psi(x,t+\varepsilon)-\psi(x,t)}{\varepsilon}=-\dfrac{\hbar^2}{2m}\dfrac{\partial^2\psi}{\partial x^2}+V(x)\psi(x,t),

co w granicy \varepsilon\rightarrow 0 przechodzi w równanie Schrödingera.

Jak opowiada Feynman, obliczenie to wykonał od razu w obecności Jehlego, który pilnie notował kolejne kroki.
Był to punkt wyjścia do całek Feynmana po trajektoriach (albo po historiach cząstki – jak nazwał to John Wheeler). Wyobraźmy sobie bowiem, że dany przedział czasu (0,T) dzielimy na N+1 podprzedziałów o długości \varepsilon każdy.

Propagator cząstki przyjmuje postać:

G(x,y)=A^{N+1}{\displaystyle \int\ldots\int \exp(\frac{i\varepsilon}{\hbar}(L(y,x_1)+L(x_1,x_2)+\ldots+L(x_N,x))dx_1\ldots dx_N}\mbox{(*)}.

Jeśli wyobrazimy sobie, że N\rightarrow\infty, to wykładnik w funkcji wykładniczej będzie dążył do całki działania pomnożonej przez czynnik i/\hbar:

\dfrac{i}{\hbar}S={\displaystyle \frac{i}{\hbar}\int_0^T L\left(x,\frac{dx}{dt}\right)dt}.

Mamy więc procedurę obliczania wartości G(x,y) za pomocą sumy po różnych możliwych trajektoriach. G można zinterpretować fizycznie: kwadrat modułu tej zespolonej wartości jest prawdopodobieństwem, że cząstka z punktu czasoprzestrzeni (y,0) przemieści się do punktu (x,T). Po drodze „próbuje” ona niejako wszelkich możliwych trajektorii i każda z nich daje wkład proporcjonalny do wartości działania:

G(x,T|y,0) \sim {\displaystyle \sum_{trajektorie}e^{iS[trajektoria]/\hbar}}.

Zapisujemy to następująco:

G(x,T|y,0)= {\displaystyle \int e^{iS[x(t)]/\hbar}{\mathcal D}[x(t)]}.

Całka Feynmana jest w istocie granicą wyrażeń (*) i w celu obliczenia jej wartości musimy wracać do tej definicji. Okazuje się jednak, że sformułowanie to pozwala nie tylko spojrzeć inaczej na znaną fizykę, ale także umożliwia konkretne numeryczne obliczenia metodą Monte Carlo. Pozwala też łatwo zrozumieć, czemu przechodząc od fizyki kwantowej do klasycznej, otrzymujemy zasadę najmniejszego działania.

Wartości potrzebnych całek wynikają ze znanego wzoru:

{\displaystyle \int_{-\infty}^{\infty}e^{-\alpha x^2}dx=\sqrt{\dfrac{\pi}{\alpha}} }.

Jest on słuszny także dla czysto urojonych wartości \alpha. Różniczkowanie tego wzoru po \alpha generuje nam także całkę \int x^2 e^{-\alpha x^2} dx. Stała A równa jest

A=\sqrt{\dfrac{m}{2\pi i\hbar \varepsilon}}.

Kiedyś napiszę może trochę więcej na temat obliczania całek przez Feynmana, nieprzypadkowo zajmował się on w Los Alamos nadzorowaniem praktycznych obliczeń numerycznych – jak mało kto potrafił bowiem szybko obliczyć niemal wszystko, co daje się obliczyć metodami klasycznej analizy.