Czemu Ptolemeusz był wielkim astronomem?

Klaudiusz Ptolemeusz – jak wskazuje rzymskie Klaudiusz i greckie Ptolemeusz – był Grekiem żyjącym w czasach imperium rzymskiego. Pracował w kosmopolitycznej, handlowej i uczonej Aleksandrii, jednym z wielu miast założonych przez Aleksandra Macedońskiego. Zdobywca światów umarł młodo, lecz poszerzył zasięg greckiej kultury. Egipska Aleksandria stała się głównym ośrodkiem nauki tworzonej w języku greckim: Muzeum albo Musejon, przybytek muz, był czymś w rodzaju instytutu naukowego ze słynną biblioteką, obserwatorium astronomicznym, ogrodami botanicznymi i zoologicznymi. Od Euklidesa przez Apoloniusza, Hipparcha do Ptolemeusza rozwijały się tam nauki matematyczne. Sam Ptolemeusz jest autorem Geografii, traktatów o muzyce, optyce i astrologii oraz podstawowego dzieła astronomicznego Mathēmatikē Syntaxis („Zbiór matematyczny”– bezbarwne tytuły nie są wynalazkiem współczesnych uczonych), znanego też jako Megiste („Największy”), co przeszło w arabskie al-majisṭī, z czego wzięła się używana od średniowiecza do dziś nazwa Almagest. Już sama historia tego tytułu pokazuje skomplikowane dzieje przekazywania wiedzy greckiej do nowożytnej Europy.

Mapa świata wg Geografii Ptolemeusza narysowana w XV wieku (Wikimedia Commons)

Mapka rozpowszechnienia Almagestu do czasów Kopernika (В.А. Бронштэн, Клавдий Птолемей, 1988)

Z czasem dzieło Ptolemeusza zawędrowało nawet dalej niż sięgały zdobycze Aleksandra Macedońskiego, bo aż do Indii i do Chin. Co było w nim tak niezwykłego, że tłumaczono je na różne języki, pracowicie kopiowano, a potem drukowano? Almagest i Elementy to najważniejsze dzieła greckie dotyczące nauk ścisłych. Elementy były popularne aż do końca XIX wieku, ponieważ zawierały podstawy geometrii i nadawały się do nauczania w szkołach. Jednak późniejsi uczeni greccy, jak Archimedes, Apoloniusz czy Pappus znacznie powiększyli wiedzę matematyczną. Inaczej w przypadku Almagestu: stanowił on szczyt osiągnięć greckich i można odpowiedzialnie powiedzieć, że dopiero Johannes Kepler posunął dalej sztukę rozumienia ruchów planet, przekraczając poziom osiągnięty przez Ptolemeusza. A więc od II w.n.e. aż do początku wieku XVII ludzkość nie miała lepszej astronomii niż Ptolemeuszowa. Zmieniały się mapy polityczne, wierzenia, religie, języki, kultury, a dzieło Ptolemeusza wciąż stanowiło punkt odniesienia, szczyt kiedyś już zdobyty, ale wciąż trudny do ponownego zdobycia.

Teorie wykładane w Almageście nie są autorstwa Ptolemeusza. Konstrukcje geometryczne zawierające złożenia ruchów po okręgach zastosował już Apoloniusz. Wiele ważnych obserwacji dokonał Hipparch. Do Ptolemeusza jednak należy synteza całej tradycji i sformułowanie jej w postaci pewnego systemu wiedzy. Korzystał z nagromadzonych obserwacji, sam był aktywnym obserwatorem, poprawił też zastane rozwiązania. Almagest pozwala dla danej daty i godziny znaleźć położenie na niebie Słońca, Księżyca, a także pięciu znanych wówczas planet. Sądzono, że położenia te mają wpływ na los człowieka – astrologia była głównym motywem badań astronomicznych. Można wszakże sądzić, że matematyczne umysły w rodzaju Apoloniusza czy Ptolemeusza tak czy owak zgłębiałyby ruchy planet. Są one bowiem powtarzalne, ale niezupełnie, ich usytuowanie nigdy się naprawdę nie powtarza, choć w oczywisty sposób zawiera pewne cykle. Sądzę, że i bez astrologii ruch planet byłby wyzwaniem. Astrologia była raczej koniecznym dopowiedzeniem: skoro świat jest tak urządzony, że owe boskie ciała krążą w zawiły sposób po niebie, to musi to w jakiś sposób dotyczyć także naszego losu. Oczywiście, przeskok od matematyki do cech charakteru czy obliczenia daty odpowiedniej  np. na ślub był logicznie i empirycznie wadliwy, ale i zrozumiały: ludzie zawsze starają się znaleźć w świecie przede wszystkim to, co może ich dotyczyć. Egocentryzm jest postawą jeszcze bardziej naturalną niż geocentryzm.

Podstawowa idea modeli planetarnych była prosta. Mamy dwa okręgi: większy o środku O (deferent) i mniejszy o środku C (epicykl). Wektor \overrightarrow{OC} obraca się, unosząc epicykl, planeta P znajduje się na jego obwodzie, na końcu wektora \overrightarrow{CP}. Ziemia spoczywa w punkcie Z. Ruch zachodzi tu w jednej płaszczyźnie. Planety znajdują się na niebie zawsze w pobliżu ekliptyki, czyli rzutu płaszczyzny orbity Ziemi na sferą niebieską. A więc w pierwszym przybliżeniu możemy ich ruchy rzutować na tę jedną płaszczyznę – dla nas jest to płaszczyzna orbity Ziemi, dla starożytnych była to płaszczyzna orbity Słońca. Dzięki temu model płaski może opisywać najważniejszą część ruchu planet. Odchyleniami od ekliptyki zajmowano się również, ale było to niejako drugie przybliżenie, którego szczegóły tutaj sobie darujemy. Warto pamietać, że dopiero Johannes Kepler wpadł na pomysł, iż orbity planet leżą w płaszczyznach, które przecinają się w Słońcu. Nie wiedzieli o tym starożytni ani Mikołaj Kopernik.

Zazwyczaj dominuje ruch po deferencie w lewo i planeta porusza się względem gwiazd z zachodu na wschód. Czasem jednak zatrzymuje się i zaczyna poruszać się ruchem wstecznym, ze wschodu na zachód. Potem znów wraca do ruchu prostego, tzn. z zachodu na wschód. Pętla w naszym przybliżeniu powinna być spłaszczona: zostaje tylko zmieniający się ruch w płaszczyźnie ekliptyki. Epicykl potrzebny był właśnie do tego, by odtwarzać ruch wsteczny planety.

 

Ptolemeusz ani jego koledzy nie wiedzieli prawie nic o odległościach planet. Wiadomo wprawdzie, że np. Mars jest najjaśniejszy w środku swego ruchu wstecznego, kiedy jest na niebie po przeciwnej stronie niż Słońce (jest w opozycji do Słońca, mówią astronomowie). Sugeruje to, że powinien wtedy być bliżej, ale epicykl ma taki, a nie inny kształt z przyczyn estetyczno-filozoficznych: co się porusza w cyklu, powinno się poruszać koliście. Kierunki przewidywane przez ten model są  opisane prawidłowo – tyle wiedział Ptolemeusz. Fakt, że również i odległości są opisane prawidłowo, jest dodatkową cechą modelu, z czego pierwszy zdał sobie sprawę Kopernik. Jeśli znamy kierunki obu wektorów \overrightarrow{OC}, \overrightarrow{CP}, to znamy i wektor położenia planety

\overrightarrow{ZP}=\overrightarrow{ZO}+\overrightarrow{OC}+\overrightarrow{CP}.

Pierwszy z wektorów po prawej stronie jest stały. Zauważył bowiem Hipparch, że Ziemię lepiej jest odsunąć nieco od środka deferentu O (dla każdej planety inaczej i w innym kierunku). Dwa ruchome wektory obracają się jednostajnie i ich kierunek dla danej chwili można zawsze obliczyć.

I w tym miejscu pojawia się z pozoru drobne ulepszenie autorstwa Ptolemeusza: ekwant. Miał on do dyspozycji więcej obserwacji niż Hipparch, minęły między nimi stulecia – postęp naukowy był wówczas niesłychanie powolny. Zresztą po Ptolemeuszu w zasadzie postępu nie było przez następne tysiąc pięćset lat. Piszę w zasadzie, ponieważ astronomowie islamscy i potem chrześcijańscy aż do Kopernika i do końca XVI wieku wprowadzali rozmaite udoskonalenia, które jednak niczego nie poprawiały. Na początku XVII wieku nadal najlepszą teorią była ta Ptolemeuszowa. Jej błędy dla Marsa zwykle nie przekraczały 1°.

Błędy w położeniach Marsa według efemeryd Origanusa (Ptolemeusz) i Keplera (źródło: O. Gingerich, Johannes Kepler and the Rudolphine Tables, „Sky and Telescope”, December, 1971, s. 328). Warto może dodać, że oprócz uczonych islamskich i Kopernika nikt nie dodawał epicykli do epicykli. Spotyka się czasem powiedzenie, że dalsze poprawianie jakiejś niezbyt udanej teorii to dodawanie kolejnych epicykli. Otóż takiego dodawania kolejnych epicykli w historii nie było. Teoria Ptolemeusza zestarzała się, by tak rzec moralnie (heliocentryzm itd.), ale matematycznie i pod względem zgodności z obserwacjami – wcale. Dalsze epicykle nie były potrzebne.

Gdy obserwuje się ruchy Marsa (w tym przypadku widać to najwyraźniej), okazuje się, że pętle ruchu wstecznego mają różne wielkości w różnych częściach nieba. Planeta w opozycji porusza się też raz szybciej, raz wolniej. Odsunięcie Ziemi od środka deferentu nie wystarczy. Dlatego Ptolemeusz wprowadził kontrowersyjne, ale znakomite rozwiązanie. Przyjął mianowicie, że punkt C  porusza się jednostajnie nie względem środka okręgu O, lecz względem pewnego innego punktu E (zwanego ekwantem) i położonego po drugiej stronie środka deferentu tak, że ZO=OE.

Teraz kąt M jest proporcjonalny do czasu, planeta nadal krąży jednostajnie po epicyklu (kąt \gamma=\angle{HCP} jest proporcjonalny do czasu). Teoria przewiduje następujące ruchy Marsa:

Z punktu widzenia obserwatora ziemskiego Mars zatacza skomplikowane spirale: ich pętle odpowiadają ruchowi wstecznemu. Widzimy, że ich wielkość zależy od miejsca, w którym planeta znajdzie się najbliżej Ziemi: opozycje bliskie ujemnemu kierunkowi osi x odpowiadają mniejszej odległości planety od Ziemi niż opozycje po przeciwnej stronie ekliptyki. Dobrą zgodność ilościową otrzymujemy, uwzględniając ekwant – kontrowersyjne, jako się rzekło, rozwiązanie Ptolemeusza. Popatrzmy jeszcze na pętle Wenus:

Na drugim wykresie widać, że tor planety podwaja się po ośmiu latach. Zjawisko to wynika ze szczególnej wartości stosunku okresów obiegu Ziemi i Wenus wokół Słońca i nie ma dotąd przekonującego wyjaśnienia.

Jak dobrym przybliżeniem rzeczywistości jest ekwant? W przypadku Marsa deferent odpowiada orbicie planety, epicykl – orbicie Ziemi. Ograniczmy się do deferentu.

Położenie punktu C, czyli heliocentrycznie rzecz biorąc, planety, dane jest odległością r i kątem v. Kąt M jest proporcjonalny do czasu. Można łatwo obliczyć, że w modelu Ptolemeusza dla R=1, otrzymujemy (pomijając wyrazy z potęgami e wyższymi niż druga):

\left\{\begin{array}{l}M-v=2e\sin M-e^2 \sin 2M\\[5pt] r=1+\frac{3}{4}e^2+e\cos M-\frac{3}{4}e^2\cos 2M.\end{array}\right.

Porównajmy to z wynikami dla ruchu keplerowskiego po elipsie z tą samą dokładnością:

\left\{ \begin{array}{l} M-v=2e\sin M-\frac{5}{4}e^2 \sin 2M \\[5pt] r=1+\frac{1}{2}e^2+e\cos M-\frac{1}{2}e^2 \cos 2M.\end{array}\right.

Zatem błędy równe są

\left\{\begin{array}{l}\Delta v=-\frac{1}{4}e^2 \sin 2M \\[5pt] \Delta r=-\frac{1}{4}e^2(1-\cos 2M).\end{array}\right.

Nawet dla Marsa, gdy e\approx 0,1, błędy są mniejsze niż \Delta v=0,0025 \mbox{ rd}=8,5', a \Delta r=0,0025. Teoria Ptolemeusza jest więc rewelacyjnie dokładna, biorąc pod uwagę ówczesny stan wiedzy i dokładność pomiarów. O takiej dokładności marzył Mikołaj Kopernik, ale jej nie osiągnął. Problemem była tu nie teoria, lecz dobór parametrów modelu na podstawie obserwacji.

Jeszcze na koniec powiedzmy, dlaczego pomysł z ekwantami był kontrowersyjny przez 1500 lat, zanim Kepler nie zrozumiał, jak świetne jest to przybliżenie rzeczywistych ruchów i nie poszedł dalej. Teoria geometryczna była znakomita, ale nie bardzo sobie wyobrażano, jak niebiosa realizują taki ruch. Planety były, jak wierzono, unoszone przez pewne sfery, rodzaj mechanizmu zegarowego. Można wyobrazić sobie, że ów mechanizm zawiera mniejsze i większe kółka. Można było nawet umieścić Ziemię ekscentrycznie. Jednak obrót, który nie jest jednostajny względem swego środka C, ale względem innego punktu E, wydawał się mechanicznie niewykonalny. Ludzie rozumieją zawsze tyle, ile potrafią wykonać albo przynajmniej wyobrazić sobie jako pewną idealną wersję tego, co działa tu na Ziemi. Ptolemeusz wykazał się niezwykłą odwagą, przedkładając zgodność z obserwacjami nad fizyczną realizację. Jego ekwant był ogniskiem elipsy w zarodku: w jednym ognisku mamy Słońce, wokół drugiego ogniska, które jest puste, prędkość kątowa jest niemal stała.

Pokażemy jeszcze, jak w dzisiejszym języku opisać można Ptolemeuszowe tory planet i jak wyznaczyć M-v,r w funkcji M, czyli czasu.

Z trójkąta COE i twierdzenia sinusów dostajemy

\dfrac{\sin (\beta-M)}{e}=\dfrac{\sin M}{R} \Rightarrow \beta=M+\arcsin (\frac{e}{R}\sin M).

Wektor położenia planety jest zatem równy:

\overrightarrow{ZP}=[e+R\cos\beta+\varrho \cos\alpha,R\sin\beta+\varrho\cos\alpha],

gdzie \alpha jest kątem CP z osią x. Oba kąty M, \alpha zmieniają się liniowo z czasem:

 M=\dfrac{2\pi}{T_1}+M_0,\; \alpha=\dfrac{2\pi}{T_2}+\alpha_0,

gdzie T_1,T_2 są okresami obiegu deferentu i epicyklu. Linie zakreślane przez P narysowane zostały wyżej dla przypadku Marsa i Wenus.

Z rysunku tego łatwo wyznaczyć M-v,r w funkcji M, czyli czasu.

Mamy bowiem kolejno:

\mbox{tg}\,(M-v)=\dfrac{ZE''}{CE''}=\dfrac{2e\sin M}{CE'+E'E''},

CE'=1^2-e^2\sin^2 M,\, E'E''=e\cos M.

Ostatecznie więc

\mbox{tg}\, (M-v)=\dfrac{2e\sin M}{\sqrt{1-e^2\sin^2 M}+e\cos M}.

Odległość r znajdujemy z tw. Pitagorasa. Wynik dla ruchu keplerowskiego znaleźć można w podręcznikach mechaniki niebios, np. klasycznej książce F.R. Moultona. Nasza konwencja jest zgodna z tradycją dawnej astronomii: mierzymy kąty od apogeum. Obecnie panuje zwyczaj mierzenia ich od perigeum/perihelium, różnią się więc o 180º, co daje nieco inne znaki.

Reklamy

Bertrand Russell: Czy matematyka to logika? (1900-1913)

Jego ojcem chrzestnym był John Stuart Mill i Bertrand „odziedziczył” po nim wiele poglądów. Nie było to wcale oczywiste: Mill umarł, gdy dziecko miało rok, odumarli go też wcześnie oboje liberalni rodzice, którzy przyjaźnili się z filozofem, a wychowanie przejęła wiktoriańska babka, unitarianka o bardzo rygorystycznej moralności, jak najdalsza od zachęcania do wolnomyślicielstwa. Mimo to młodzieniec po solennym rozpatrzeniu kwestii doszedł do wniosku, że Boga nie ma, uznając wszelkie formy kultu religijnego za pozbawione treści, a przy tym bardziej szkodliwe niż pożyteczne dla społeczeństwa.

Chcemy stać o własnych siłach i patrzeć na świat bez uprzedzeń, ale i bez złudzeń – na jego dobre i złe strony, jego piękno i brzydotę, chcemy widzieć świat takim, jakim jest, i nie odczuwać przed nim lęku. Powinniśmy podbijać świat inteligencją, a nie odnosić się doń z niewolniczą uległością wypływającą z przerażenia, jakie w nas budzi. Pojęcie Boga bierze swój początek ze starożytnych wschodnich despotyzmów. To pojęcie bezwarunkowo niegodne wolnych ludzi. (…)

Dobrze urządzony świat potrzebuje wiedzy, dobroci i odwagi. Nie potrzeba mu żalów i westchnień za przeszłością ani zakuwania w kajdany swobodnej inteligencji za pomocą słów wyrzeczonych niegdyś przez ignorantów. Potrzebuje on śmiałych poglądów i swobodnej inteligencji. Potrzebna mu jest nadzieja na przyszłość, a nie oglądanie się wstecz. (Dlaczego nie jestem chrześcijaninem?, 1927 r., przeł. A. Kurlandzka, przekład poprawiony)

Największym odkryciem jego młodości była matematyka. Wciąż jeszcze uczono jej, korzystając z Elementów Euklidesa.

W wieku lat jedenastu zabrałem się za Euklidesa, mając mojego brata jako nauczyciela. Było to jedno z wielkich  wydarzeń w moim życiu, równie olśniewające jak pierwsza miłość. Nie wyobrażałem sobie, że na świecie istnieje coś tak cudownego. Kiedy przeszedłem Zagadnienie 5 (Pons asinorum), brat powiedział mi, że powszechnie uchodzi ono za trudne, ja jednak nie miałem z nim żadnych trudności. Wtedy to po raz pierwszy zaświtało mi w głowie, że może posiadam jaką taką inteligencję. (Autobiografia 1872-1914, przeł. B. Zieliński, przekład poprawiony)

W późniejszych latach Russell krytykował zresztą zwyczaj uczenia z Euklidesa, ponieważ starożytny podręcznik nie spełnia dzisiejszych wymagań logicznych. Logika i filozofia miały stać się głównymi dziedzinami wczesnej pracy naukowej Russella, choć niemal jednocześnie zajmował się polityką socjaldemokracji (niezbyt typowe zajęcie dla młodego lorda, przyszłego trzeciego earla Russella), ekonomią, filozofią Leibniza, podstawami geometrii. Jego wykształcenie z Cambridge, gdzie studiował, a później został członkiem Trinity College, było wprawdzie nierównej jakości, ale młody człowiek poczuł się tam nareszcie na swoim miejscu i zaczął odrabiać towarzysko lata samotnego przebywania z babką i rodziną. Zwrócono zresztą na niego uwagę od pierwszej chwili. Egzaminujący go filozof i matematyk Alfred North Whitehead postanowił przyjąć właśnie jego mimo gorszego wyniku punktowego, polecając go uwadze przyszłych kolegów. Whitehead został z czasem przyjacielem i współpracownikiem Russella.

Cambridge odegrało ważną rolę w moim życiu dzięki temu, że dało mi przyjaciół i pozwoliło zakosztować intelektualnych dyskusji, ale nie było ważne pod względem właściwego wykształcenia akademickiego. (…) Większość tego, czego nauczyłem się z filozofii, wydała mi się z czasem błędna i wiele następnych lat spędziłem na stopniowym oduczaniu się nawyków myślowych, których tam nabrałem. Jedynym takim nawykiem prawdziwie cennym była intelektualna uczciwość. Ta cnota z pewnością występowała nie tylko u moich kolegów, ale i u nauczycieli. (Autobiografia)

Portret pędzla Arthura Fry, 1923 r.

W roku 1900 Russell brał udział w Międzynarodowym Kongresie Filozoficznym w Paryżu. Wielkie wrażenie wywarły tam na nim osoba i prace Giuseppe Peano. Włoski matematyk był jednym z pionierów logiki matematycznej i teorii mnogości. Wprowadził m.in. symbolikę logiczną, która pozwalała sprowadzać twierdzenia matematyki do operacji na zdaniach logiki, np. \sim p oznaczało zaprzeczenie zdania p, p \lor q – alternatywę zdań p,q itd. Russell, który od lat interesował się tym, skąd się bierze pewność twierdzeń matematycznych, dostrzegł możliwość szczegółowego sprowadzenia podstaw matematyki do logiki.

We wspomnieniu wydaje mi się, że każdy dzień owego miesiąca był ciepły i słoneczny. Whitehead przebywał z żoną u nas w Fernhurst i wyjaśniałem mu moje nowe pomysły. Co wieczór dyskusja kończyła się na jakiejś trudności, a co rano stwierdzałem, że trudność z poprzedniego wieczora rozwiązała się sama, podczas gdy spałem. Był to okres intelektualnego upojenia. Moje odczucia przypominały wrażenie, które odnosi się, kiedy po wspinaczce na górę we mgle docieramy do szczytu i mgła się nagle rozwiewa i wiadać całą okolicę na mil czterdzieści wokoło. Przez całe lata usiłowałem przeanalizować podstawowe pojęcia matematyczne, takie jak porządek i liczby kardynalne. I oto nagle, w ciągu paru tygodni, odkryłem coś, co wydawało się ostatecznymi odpowiedziami na problemy, które zastanawiały mnie od lat. A odkrywając te odpowiedzi, wprowadzałem nową technikę matematyczną, dzięki której regiony pozostawiane poprzednio mglistości filzofów zdobywane były dla precyzji ścisłych formuł. Pod względem intelektualnym wrzesień 1900 roku był punktem szczytowym mojego życia. Powtarzałem sobie, że teraz nareszcie uczyniłam coś wartego zachodu i doznawałem uczucia, że muszę uważać, aby mnie nie przejechano na ulicy, zanim to spiszę. (jw.)

Stan upojenia, czujemy to przecież, musiał się kiedyś skończyć. W tym przypadku było nim odkrycie paradoksu. Jedno z jego sformułowań jest następujące. Rozważmy zbiór S=\{A| A \mbox{  jest zbiorem }  \land A \notin A \}. Słowami: S jest zbiorem takich zbiorów, które nie są jednocześnie swoimi elementami. Zbiór S może albo być swoim elementem: S\in S, albo nim nie być: S\notin S. W pierwszym przypadku zbiór S spełnia warunki definicji A, a więc S\notin S. W drugim S spełnia warunek definicyjny, a więc S\in S. Zatem w obu przypadkach natrafiamy na sprzeczność.

Z początku sądziłem, że powinienem z łatwością ją przezwyciężyć i że prawdopodobnie tkwi tu jakiś banalny błąd w rozumowaniu. Burali-Forti wykrył już podobną sprzeczność i przy analizie logicznej wyszło na jaw, że istnieje tu pokrewieństwo ze starożytnym paradoskem greckim dotyczącym Epimenidesa Kreteńczyka, który powiedział, że wszyscy Kreteńczycy są kłamcami. (…)

Wydawało się rzeczą niegodną dorosłego człowieka trwonić czas na takie błahostki, ale cóż mogłem począć? Trywialna czy nie, sprawa ta stanowiła wyzwanie. Przez drugą połowę roku 1901 przypuszczałem, że rozwiązanie będzie łatwe, lecz po upływie tego czasu doszedłem do wniosku, że wymaga to dużej pracy.

Russell opublikował książkę w 1903 r. The Principles of Mathematics, a kilka lat później wziął się wraz z Whiteheadem do pracy nad ogromnym trzytomowym dziełem Principia Mathematica.

Nie był to oczywiście rodzaj rękopisu, który można by przepisać na maszynie czy choćby skopiować. Kiedy go w końcu zabraliśmy do wydawnictwa [Cambridge University Press], był tak ogromny, że musieliśmy w tym celu wynająć stary wózek. Ale nawet i wtedy nasze trudności się nie zakończyły. Wydawnictwo oceniło, że straci na tej książce 600 funtów, a syndycy byli wprawdzie gotowi ponieść stratę w wysokości 300 funtów, ale uważali, że poza tę sumę posunąć się nie mogą. Towarzystwo Królewskie nader wspaniałomyślnie wpłaciło 200 funtów, a pozostałe 100 musieliśmy znaleźć sami. Tym sposobem zarobiliśmy po minus 50 funtów za pracę dziesięciu lat.

Fragment początkowy dowodu, że 1+1=2 (s. 379, t. 1). Zakończenie tego dowodu znajduje się dopiero w t. 2 na s. 89 (pierwsze wydanie)

Rozwiązanie paradoksu zaproponowane przez Russella i Whiteheada, teoria typów, nie było całkiem zadowalające. Później, w roku 1931, Kurt Gödel wykazał, że nie istnieje taki zbiór aksjomatów, który pozwoliłby rozstrzygnąć prawdziwość każdego twierdzenia, jakie zostanie sformułowane na jego gruncie.

 

 

Wieczny powrót od Retyka i Kopernika do Poincarégo

Niebo Greków składało się z wirujących z różną prędkością sfer. Jak pisał Platon w Timajosie:

…aby dać jasną miarę relatywnej powolności i szybkości, z którymi gwiazdy wykonują swoich osiem ruchów, Bóg umieścił na drugiej po Ziemi orbicie światło, które nazywamy teraz Słońcem, aby całe niebo było oświetlone, a jestestwa żyjące, wszelkie, jakie natura zamierzyła, mogły uczestniczyć w Liczbie, ucząc się arytmetyki przez obroty Tego Samego i podobnego. (…)  A na obieg innych gwiazd ludzie, z bardzo małymi wyjątkami, nie zwracają uwagi, nie nadają im nazw, nie porównują ich obiegów ilościowo, tak, że powiedzieć można, nie wiedzą, że czas to błędne wędrówki tych gwiazd nieprzeliczone i przedziwnie różnorodne. Mimo to można pojąć, że doskonała liczba czasu wypełnia rok doskonały wtedy, gdy wszystkie osiem obrotów, mających swoje względne stopnie szybkości, dokona się wspólnie i zakończy w tym samym czasie, mierzonym obrotem Tego Samego, które się porusza w sposób jednostajny. (39 c-39d)

Według Platona po 36 000 lat cykl kosmiczny się powtarza. W XVI w. Georg Joachim Retyk, jedyny uczeń Kopernika, powiązał epoki historyczne ze zmianami mimośrodu orbity Ziemi. Środek orbity Ziemi poruszał się bowiem u Kopernika po niewielkim kółku , a okres tego ruchu wynosił 3434 lat egipskich. Kiedy mimośród orbity Ziemi był największy Rzym stał się z republiki cesarstwem. Po ćwierci obiegu owego małego kółka powstał islam, a po następnej ćwierci ok. 1652 r. – upadnie, jak prorokował. Drugie przyjście Chrystusa miało nastąpić w roku 2510, gdy mimosród wróci po raz drugi do swej wartości w chwili stworzenia. W książce Kopernika nie znajdziemy rozważań tego typu. Nie ma jednak podstaw by sądzić, że ich nie aprobował. Astrologia była dziedziną respektowaną, głównym powodem badania położeń planet na niebie. Więc choć Kopernik nie był z pewnością entuzjastycznym astrologiem – nie zachowały się tworzone jego ręką horoskopy, to mógł wierzyć, że los Ziemi i jej mieszkańców jest powiązany ze zjawiskami niebieskimi. O obrotach było dziełem czysto astronomicznym i matematycznym, zatem umieszczanie w nim astrologicznych konkretów byłoby nie na miejscu.

Środek orbity Ziemi \bar{S} porusza się po małym kółku, rzeczywiste Słońce spoczywa sobie spokojnie obok, nie biorąc udziału w tych „rewolucjach”. Słowo użyte przez Kopernika w tytule De revolutionibus oznaczało obroty, a więc coś cyklicznego, z czasem zaczęło oznaczać wszelkie dramatyczne przemiany, na ogół już jednokierunkowe. Proporcje na rysunku są oczywiście przesadzone, inaczej niewiele byłoby widać.

Wraz z upadkiem idei sfer niebieskich znaczenie cyklów planetarnych zmalało, a czas zaczął wydawać się nieskończony niczym prosta euklidesowa: od minus do plus nieskończoności. Oczywiście, chrześcijanie obowiązani byli wierzyć w stworzenie świata i jego koniec, ale z braku dopływu nowych bodźców wiara ta wyraźnie słabła. Już w XVIII wieku niezbyt się buntowano, gdy Buffon obliczył wiek Ziemi na mniej więcej dziesięć razy dłuższy, niż wynikałby z Biblii. Potem Fourier, zajmując się stygnięciem Ziemi, jeszcze powiększył tę wartość. Mechanistyczny wszechświat najłatwiej było sobie wyobrażać jako trwający od zawsze i mający istnieć zawsze. Od połowy XIX w. do obrazu tego doszły dwie zasady termodynamiki. Według pierwszej – zasady zachowania energii – istnieje wielkość, która we wszystkich przemianach się nie zmienia, co przemawia za tym, że wszechświat nie ma końca. Według drugiej zasady energia rozkłada się z czasem coraz bardziej równomiernie, świat powinien stawać się jednolitym ośrodkiem o stałej gęstości i temperaturze. Tak więc choć istniałby zawsze, po pewnym czasie przechodziłby w postać mało interesującą i praktycznie martwą. Mówiło się o „śmierci cieplnej” wszechświata.

Pomysł wiecznego powrotu pojawił się w latach osiemdziesiątych XIX stulecia nie u uczonego, lecz u filozofa, Friedricha Nietzschego. Pisał on:

Jeśli wszechświat należy uważać za pewną ilość energii, za pewną liczbę ośrodków energii, a każda inna koncepcja pozostaje nieokreślona i przez to bezużyteczna, to wynika stąd, że wszechświat przejść musi przez obliczalną liczbę kombinacji w wielkiej grze losowej, którą jest jego istnienie. W nieskończoności, w takim albo innym momencie, zrealizowana musi zostać każda możliwa kombinacja; a nawet więcej: musi ona zostać zrealizowana nieskończenie wiele razy. (…) wszechświat ukazuje się więc jako ruch kolisty, który zdążył się już powtórzyć nieskończenie wiele razy i który toczy swą grę przez całą wieczność.

Nietzsche, pogrążający się już w szaleństwie, przekonany był, że rozumowanie takie przeczy mechanistycznej nauce, którą traktował pogardliwie. Jednak w roku 1889 Henri Poincaré udowodnił, że w newtonowskiej mechanice także mamy do czynienia z wiecznym powrotem. Jego rozprawa zatytułowana O problemie trzech ciał i równaniach dynamiki zawierała nowatorskie podejście do klasycznego tematu za pomocą metod topologii, czyli rozważań operujących ogólnymi pojęciami takimi jak ciągłość, które okazały się bardzo owocne. Poincaré stał się prekursorem teorii chaosu. A metody topologiczne wykazywały jeszcze nieraz swą przydatność: np. w badaniu osobliwości w ogólnej teorii względności (czarne dziury, początek wszechświata) czy w badaniach osobliwych stanów materii (Nobel 2016).

Poincaré udowodnił następujące twierdzenie: Jeśli dopuszczalne stany układu mechanicznego zawarte są w pewnym ograniczonym obszarze D, to w dowolnym otoczeniu U każdego punktu obszaru D znajdzie się punkt s, który powraca do otoczenia U.

Można to narysować. Przestrzeń stanów to zbiór punktów, których współrzędnymi są położenia i pędy x,p (same położenia nie wystarczą, bo nie precyzują, jak zachodzi ruch; jest to tzw. przestrzeń fazowa układu). Naszym obszarem D jest niebieska elipsa (obszar ograniczony odpowiada temu, że np. energia układu jest stała). Rozpatrujemy dowolnie mały obszar U (u nas ma postać czerwonego kółka). Stany z obszaru U po jakimś kroku czasowym przechodzą w stany g(U), niemające wspólnego punktu z U (gdyby tak nie było, to już mamy tezę twierdzenia). Po kolejnych krokach czasowych otrzymujemy g^2(U),\ldots g^n(U). Wiadomo z mechaniki, że objętości tych wszystkich obszarów U, g(U),\ldots g^n(U) są jednakowe (twierdzenie Liouville’a). Skoro tak, to któryś z obszarów ciągu g^n(U) musi przeciąć się z U, a tym samym istnieć będzie punkt s należący zarówno do U, jak i g^n(U) (*)

Oznacza to, że wybierając dowolny stan początkowy i czekając dostatecznie długo, doczekamy się powrotu naszego układu jeśli nie do punktu początkowego to dowolnie blisko tego punktu. Wynik jest zupełnie ogólny, nie musimy nic wiedzieć na temat działających sił, a nasz układ może być dowolnie duży. Twierdzenie Poincarégo pokazuje więc, że na gruncie mechaniki mamy do czynienia z wiecznym powrotem. Można pokazać, że powroty takie będą się powtarzać nieskończenie wiele razy. Idea powrotu nie przeczy więc mechanicznemu światu, choć niezgodna jest ze śmiercią cieplną wszechświata. Poincaré zauważył filozoficzne konsekwencje swego twierdzenia. Zauważył je także młody matematyk Ernst Zermelo, asystent Plancka, który wystąpił z polemiką przeciwko koncepcji entropii Boltzmanna. Zermelo dał się potem poznać jako wybitny specjalista od podstaw matematyki, jego aksjomaty teorii mnogości stosowane są dziś powszechnie.

(*) Idea dowodu twierdzenia Poincarégo opiera się na zachowaniu objętości w przestrzeni fazowej. Kolejne zbiory g^k(U) mają takie same objętości, nie mogą więc być parami rozłączne, gdyż wtedy suma ich objętości przekroczyłaby każdą zadaną liczbę, a wszystko musi się zmieścić w większym obszarze D. Jeśli zaś jakaś para tych obszarów nie jest rozłączna, np. g^k(U) \cap g^l(U)\neq \O przy pewnych k>l\geq 0, to g^{k-l}(U)\cap U \neq\O , co oznacza, że dla jakiegoś punktu s\in U mamy s=g^{k-l}y, gdzie y\in S.

Zachowanie objętości kolejnych obszarów wynika stąd, że gdybyśmy wyobrazili sobie punkty przestrzeni fazowej jako punkty w poruszającej się cieczy, to dywergencja pola prędkości owej cieczy równa się zeru, a to jest warunek dla cieczy nieściśliwej, czyli zachowującej objętość. Oznaczając wektor prędkości \vec{q}=(\dot{x}_i,\dot{p}_i) dla i=1,\ldots, 3N (gdzie N jest liczbą cząstek składających się na układ), mamy

\mbox{div } \vec{q}=\dfrac{\partial\dot{x}_i}{\partial x_i}+\dfrac{\partial\dot{p}_i}{\partial p_i}=\dfrac{\partial^2 H}{\partial x_i \partial p_i}-\dfrac{\partial^2 H}{\partial p_i \partial x_i}=0,

gdzie H=H(x,p) jest hamiltonianem układu, po wskaźniku i sumujemy.

Dodatek matematyczny, twierdzenie Poincarégo w nowoczesnym sformułowaniu. Ujęcie to zawdzięczamy Constantinowi Carathéodory’emu, matematykowi z Getyngi, był już rok 1919. Pojawiło się pojęcie miary, będące uogólnieniem zwykłej objętości. Twierdzenie Poincarégo można uściślić w ten sposób, że zbiór punktów przestrzeni fazowej, które nigdy nie powracają do wybranego otoczenia jest miary zero. Zbiory miary zero, czyli zerowej objętości, mogą mieć skomplikowaną strukturę, ale są rzadkie w tym sensie, że nie można im przypisać żadnej dodatniej objętości. Nowoczesne pojęcie miary zbioru rozszerza dodawanie miar na zbiory przeliczalne (dające się ponumerować liczbami naturalnymi, ciągi zbiorów). Miara spełnia więc warunek:

\mu(\bigcup\limits_{i=1}^{\infty} A_i)=\sum\limits_{i=1}^{\infty} \mu(A_i),

gdy zbiory są parami rozłączne: A_i\cap A_j=\O, dla różnych wskaźników i,j. Pokażemy, że jeśli odwzorowanie g zachowuje miarę, a miara obszaru D jest skończona, to miara zbioru tych punktów D, które nie mają własności powracania, jest równa zeru. W tym sensie prawie każdy stan ma własność powracania.

Dla dowodu pokrywamy obszar D przeliczalną liczbą kul U_1, U_2, \ldots, . Dla każdej kuli U_n definiujemy jej podzbiór B_n jako zbiór tych s\in U_n, dla których g^k(s)\in U_n tylko dla skończenie wielu wartości wskaźnika k. Zbiór B=\bigcup\limits_{i=1}^{\infty} B_i jest zbiorem punktów niepowracających. Ponieważ \mu(B)\leq \sum\limits_{i=1}^{\infty} \mu(B_i), wystarczy udowodnić, że każdy ze zbiorów B_n jest miary zero.

W tym celu wybierzmy dowolny wskaźnik i. Będziemy teraz pisać oznaczenia U_i bez indeksu dla  uproszczenia zapisu.

Rozpatrzmy zbiór C=U\setminus \bigcup\limits_{p=1}^{\infty}g^{-p}(U). Punkt s\in g^{-k}(U) wtedy i tylko wtedy, gdy g^k(s)\in U oraz g^m(s)\notin U przy m>k. Zbiory g^{-i}(C), g^{-j}(C) są parami rozłączne, gdy wskaźniki i, j są różne, przy czym dopuszczamy, aby któryś z nich równał się zeru (g^{-0}(C)=C). Zbiór B_i=\bigcup\limits_{p=0}^{\infty}g^{-p}(C). Zatem mamy

\mu(B_i)=\sum\limits_{p=0}^{\infty}\mu(g^{-p}(C)).

Miary wszystkich zbiorów po prawej stronie są takie same, bo nasze odwzorowanie zachowuje miarę. Gdyby miary te były dodatnie, suma byłaby nieskończona, co jest niemożliwe, gdyż B_i\subset U_i, więc jego miara musi być skończona. Zatem wszystkie miary po prawej stronie są zerowe i \mu(B_i)=0. Zbiór B jest przeliczalną sumą B_i, zatem i on musi być miary zero. Dowód ten pochodzi z artykułu R. Daniela Mouldina, Probability and Nonlinear Systems, „Los Alamos Science” nr poświęcony Stanisławowi Ulamowi.

Twierdzenie Poincarégo o powracaniu ilustruje tzw. kot Arnolda (chodzi o Vladimira Arnolda, wybitnego matematyka rosyjskiego). Mamy tu ograniczoną przestrzeń stanów i pewną grupę stanów początkowych, które ułożone są w kształt kociego pyszczka. Gdy puścimy w ruch tę animację, zobaczymy, że w pewnych chwilach kot powraca.

 

Fizyka dla mieszkańców Syriusza: stałe fizyczne (Max Planck, 1899-Matvei Bronstein, 1935)

Max Planck, profesor fizyki w Berlinie, najwybitniejszy niemiecki fizyk teoretyczny przełomu wieku XIX i XX, przez lata badał własności promieniowania termicznego. Idealnym obiektem badań jest tu tzw. ciało doskonale czarne, czyli takie, które pochłania całe padające nań promieniowanie. Można wykazać, że każde ciało doskonale czarne emituje promieniowanie o rozkładzie widmowym zależnym wyłącznie od temperatury. Np. Słońce jest w dobrym przybliżeniu ciałem doskonale czarnym.

Widzimy tu (szary) teoretyczny rozkład widmowy promieniowania ciała doskonale czarnego o temperaturze T=5777 K zestawiony z rzeczywistym promieniowaniem docierającym ze Słońca. Ciało doskonale czarne nie jest czarne, jego barwa zależy od temperatury. (obrazek: Wikimedia)

Znalezienie postaci krzywej widmowej tego promieniowania stało się największym osiągnięciem Maksa Plancka. Otrzymana przez niego zależność ma następującą postać

I(\lambda)=\dfrac{2hc^2}{\lambda^5}\,\dfrac{1}{\exp{(\frac{hc}{\lambda kT})}-1},

gdzie stałe k,c, h oznaczają odpowiednio stałą Boltzmanna (nazwa wprowadzona przez Plancka), prędkość światła w próżni i stałą Plancka. Mamy tu trzy stałe fizyczne, które ze względu na uniwersalność promieniowania powinny mieć fundamentalne znaczenie.

Max Planck zauważył (w roku 1899, zanim jeszcze wyprowadził swój słynny wzór), że stałe k, c,h w połączeniu ze stałą grawitacyjną G pozwalają wprowadzić jednostki niezależne od zaszłości ludzkiej historii czy w ogóle niezależne od naszych ludzkich parametrów: „pojawia się możliwość ustanowienia jednostek długości, masy, czasu i temperatury niezależnych od szczególnych ciał czy substancji, których znaczenie dla wszystkich czasów i wszystkich kultur, także pozaziemskich i pozaludzkich, pozostanie w konieczny sposób takie same”.

Stała Plancka to h=6,7\cdot 10^{-34} kg\cdot m^2/s , stała grawitacyjna to G=6,7\cdot 10^{-11} m^3/(kg\cdot s^2). Mamy więc dla ich iloczynu i ilorazu jednostki:

[hG]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{m}^3}{\mbox{kg}\cdot \mbox{s}^2}=\dfrac{\mbox{m}^3}{\mbox{s}^3}\mbox{m}^2=[c^3]\mbox{m}^2,

[h/G]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{kg}\cdot \mbox{s}^2}{\mbox{m}^3}=\mbox{kg}^2\cdot \dfrac{\mbox{s}}{\mbox{m}}=\mbox{kg}^2 [c^{-1}].

Zatem wielkości l_P, m_P będą nowymi „pozaziemskimi” jednostkami długości oraz masy:

l_P=\sqrt{\dfrac{hG}{c^3}}=4\cdot 10^{-35}\mbox{ m} ,

m_P=\sqrt{\dfrac{hc}{G}}=5,5\cdot 10^{-8}\mbox{ kg}.

Jednostkę czasu otrzymamy, dzieląc odległość przez prędkość światła:

t_P=\sqrt{\dfrac{hG}{c^5}}=1,3\cdot 10^{-43}\mbox { s}.

Te „pozaziemskie” jednostki Planck nazwał naturalnymi, a my dziś nazywamy układem jednostek Plancka. Podstawowe stałe fizyki mają w nim wartości równe 1: h=c=G=1. W roku 1899 interesująca wydawała się sama możliwość wprowadzenia jednostek, umożliwiających porozumiewanie się z fizykiem z Syriusza, który ma – jak to dobrze wiemy – postać  świecącego zielono dodekahedronu zanurzonego w inteligentnym oceanie (oni tam szybciej weszli w fazę AI).

Jednostki długości i czasu w układzie Plancka są skrajnie małe: nie tylko w porównaniu z nami, ale nawet z protonem i czasem potrzebnym światłu na przebycie jego wnętrza. Sens fizyczny tych jednostek stał się jasny znacznie później.

Najpierw powiedzmy, jak interpretuje się dziś stałe użyte przez Plancka.

Stała Boltzmanna jest w zasadzie przelicznikiem temperatury w kelwinach T na wartości energii kT – byłoby logiczniej z punktu widzenia fizyki mierzyć temperatury w jednostkach energii, a skoro tego nie robimy, potrzebujemy stałej Boltzmanna. Według najnowszych ustaleń od roku 2019 stała Boltzmanna równa jest dokładnie k=1,380649\cdot 10^{-13} J/K. Jest to tym samym nowa definicja kelwina (bo dżul zdefiniowany jest na podstawie kilograma, metra i sekundy).

Prędkość światła, czy ogólniej: każdego promieniowania elektromagnetycznego, w próżni wydawała się już około roku 1900 wielkością bardzo ważną. Dzięki teorii względności z roku 1905 wiemy, że jest to coś więcej niż pewna charakterystyczna prędkość w przyrodzie. Jest to bowiem naturalna granica prędkości ciał. Z punktu widzenia teorii względności prędkość światła jest właściwie przelicznikiem między odległościami a czasem. W fizyce poeinsteinowskiej odległości i czas należałoby mierzyć tymi samymi jednostkami. Inaczej mówiąc, stała c wyraża stosunek jednostek odległości do jednostek czasu. Jej wartość w dzisiejszej fizyce jest na mocy konwencji równa dokładnie c=299\,792\, 458 m/s$. Ta dziwna wartość wynika z potrzeby ciągłości dawnych i nowych jednostek.

Trzecia stałą, pojawiającą się we wzorze Plancka, jest oznaczana przez niego literą h wielkość, dziś zwana stałą Plancka. Pojawia się ona wszędzie tam, gdzie występują zjawiska kwantowe. Podstawowe równanie fizyki kwantowej, równanie Schrödingera, można zawsze zapisać w postaci

i\hbar \dfrac{\partial\psi}{\partial t}=H\psi,

gdzie i to jednostka urojona, a \hbar\equiv \dfrac{h}{2\pi}, \psi jest funkcją falową, a H – hamiltonianem, czyli matematycznym zapisem energii układu. Planck z początku nie wiedział, jak ogromne znaczenie ma jego stała wprowadzona dla promieniowania. Obecnie (od roku 2019) wartość stałej Plancka jest określona raz na zawsze jako h=6,67607015\cdot 10^{-34} J·s. W istocie, jest to nowa definicja kilograma, słynny wzorzec z Sèvres jest już niepotrzebny (kilogram pojawia się w jednostce energii: 1\mbox{J}=1 \mbox{kg}\cdot \dfrac{\mbox{m}^2}{\mbox{s}^2}.).

Stałe h,c,G określają możliwe teorie fundamentalne fizyki. Sytuację tę można przedstawić za pomocą sześcianu Bronsteina (sam obrazek jest późniejszy):

 

W początku układu mamy mechanikę klasyczną bez grawitacji. Odpowiada to wartościom \hbar=G=1/c=0. Szczególna teoria względności odpowiada przyjęciu 1/c<\infty, mechanika kwantowa przyjęciu niezerowej stałej Plancka \hbar\neq 0. Kwantowa teoria pola, czyli Model Standardowy cząstek odpowiada \hbar\neq 0 oraz c<\infty. Ogólna teoria względności zawiera stałą grawitacji G oraz prędkość światła c. Kwantowa teoria grawitacji byłaby „teorią wszystkiego” w tym sensie, że zawierałaby zarówno efekty kwantowe, jak i grawitacyjne. Wszystkie trzy stałe byłyby w niej niezerowe.

Matvei Bronstein, dwudziestoparolatek, już w roku 1933 zaczął się zastanawiać nad kwantowaniem grawitacji. Pięć lat później już nie żył, aresztowany i skazany na śmierć podczas wielkiego terroru w Związku Sowieckim. Także Lew Landau, największy rosyjski teoretyk, był wówczas aresztowany. W jego przypadku pomogła interwencja Piotra Kapicy.

Sześcian Bronsteina jest tylko prostą ilustracją jednego z aspektów poszukiwanej kwantowej teorii grawitacji: wszystkie trzy fundamentalne stałe miałyby w niej skończoną wartość. Wszystkie te stałe (wraz ze stałą Boltzmanna) pojawiają się w we wzorze Hawkinga na temperaturę czarnej dziury. Układ Plancka byłby w kwantowej grawitacji naturalnym układem jednostek. Znaczy to, że zjawisk kwantowych związanych z grawitacją należy oczekiwać w skali długości Plancka, czyli znacznie poniżej dostępnych dziś w badaniach. Masa Plancka jest niemal porównywalna z naszymi jednostkami. Znaczy to jednak, że odpowiadająca jej energia równa będzie E_P=m_P c^2=4,9\cdot 10^{9} J. W teorii fundamentalnej jest to energia olbrzymia, widać to, gdy wyrazimy ją w elektronowoltach:  E_P=3,07\cdot 10^{28} eV. Dla porównania najdroższy akcelerator w dziejach fizyki, LHC w CERN-ie, może maksymalnie osiągnąć energię 14 TeV, czyli 14\cdot 10^{12} eV – jest to piętnaście rzędów wielkości poniżej energii Plancka.

Wartości stałych fundamentalnych stanowią rodzaj przelicznika pomiędzy naszymi zwykłymi jednostkami, jak metry, sekundy, kilogramy, a jednostkami, jakich używa przyroda, zrozumiałymi dla kolegi z Syriusza. Nb. matematyka jest zapewne jedynym językiem, w którym moglibyśmy się z owym dodekaedrem porozumieć. Może należy zwrócić na to uwagę w dyskusji dotyczącej matury z matematyki: matematyka to jedyny język, w którym możemy się porozumiewać z mieszkańcami Syriusza czy szerzej: ze wszechświatem. Zastosowania są chyba oczywiste.

Niezależne od jednostek są stałe bezwymiarowe. Np. kwadrat ładunku elektronu można wyrazić następująco:

\alpha=\dfrac{q_e^2}{4\pi\varepsilon_0 \hbar c}=\dfrac{1}{137,036}.

Mając jeszcze do dyspozycji masę elektronu m_e, można wyrazić wszystkie wielkości atomowe. Energia wiązania elektronu w atomie wodoru to

E_j=\alpha^2 m_e c^2=13,6 \mbox{ eV},

a promień atomu (tzw. promień Bohra):

r=\dfrac{\hbar}{\alpha m_e c}=0,5\cdot 10^{-10}\mbox{ m}.

Wielkości te określają skalę zjawisk atomowych i cząsteczkowych. W  fundamentalnej teorii wszystkiego powinniśmy masę elektronu wyrazić w masach Plancka, a promień Bohra w długościach Plancka.

Ilu różnych bezwymiarowych stałych potrzebujemy do opisu świata? Używamy jednostek Plancka. Zatem grawitacja kwantowa nie zawiera żadnych dowolnych stałych. Model Standardowy potrzebuje trzech stałych określających siłę oddziaływań: oprócz \alpha dla oddziaływań elektromagnetycznych, potrzeba jeszcze stałych dla oddziaływań słabych i silnych. W sumie mamy 3 stałe. Dalej, potrzebujemy mas: sześciu kwarków, trzech leptonów i trzech neutrin oraz bozonu Higgsa (wszystko wyrażamy w masach Plancka, więc są to wielkości bezwymiarowe). Dotąd mamy 16 stałych. Potrzebna jest jeszcze wartość oczekiwana pola Higgsa: stała nr 17. Kolejnych 8 stałych bierze się z różnych macierzy mieszania. Daje to 25 parametrów, przy czym większość wynika z Modelu Standardowego. Wielkość ciemnej energii jest parametrem nr 26 (jeśli ciemna energia to stała kosmologiczna). Z jednej strony jest tych stałych za wiele jak na fundamentalną teorię, z drugiej strony jednak od czterdziestu lat nikt nie potrafi wskazać teorii bardziej ekonomicznej, a te stałe nie są jakimiś kaprysami teoretyków, lecz potwierdzane są w eksperymentach (tutaj LHC ma jak najbardziej zastosowanie).

Więcej szczegółów nt. stałych w artykule Johna Baeza.

 

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Po co człowiekowi w życiu logarytmy? Henry Briggs (1617)

Zanim przejdziemy do tytułowego pytania, zacznijmy od tego, jak należy wyobrażać sobie teorię oraz praktykę. Cesare Ripa daje następującą odpowiedź:

Słowo Theoria, oznaczające u Greków kontemplowanie, oglądanie, u nas zaczęło być stosowane na oznaczenie wszelkiego wywodu rozumowego opartego na przyczynach rzeczy stosownie do właściwych im porządków i z uwzględnieniem zasad zależących nie od rozsądku, lecz raczej od intelektu, gdyż zasady zawisłe od rozsądku określają Praktykę, przeciwstawną wszak Teorii. Ze względu na te okoliczności uważam, że Teorię całkiem trafnie przedstawić można w postaci młodej Niewiasty spoglądającej w górę, z dłońmi złączonymi, na głowie mającej cyrkiel o ramionach rozwartych i celujących w Niebo. Ma ona być odziana w dostojną błękitną suknię, i schodzić ze szczytu schodów. Wszystkie te szczegóły symbolizują wybitność, dostojność i wzniosłość. (przeł. I. Kania)

(…) Praktykę można przedstawić w postaci Staruchy z głową i rękami opuszczonymi w dół, ubranej nędznie w bure suknie, z wielkim rozwartym cyrklem, którego jedna nóżka wbita jest w ziemię; jedną ręką wspiera się na rzeczonym cyrklu, drugą – na liniale, w taki sposób, że druga nóżka cyrkla dotyka końca liniału układając się razem w kształt greckiej litery π, którą oni zwykli oznaczać Praktykę, podczas gdy Teorię oznaczali literą θ. (przekł. jw.)

Kto chodził do szkoły, ten wie, że Teoria ma przewagę nad Praktyką: ledwo zdążymy oswoić się z jednym pojęciem, a już mówi się o następnych i idzie dalej i dalej, nie pokazując zastosowań. W podobny sposób działały uniwersytety i szkoły także na przełomie XVI i XVII wieku. Dlatego znaczna część Rewolucji naukowej przebiegała niejako równolegle do systemu edukacji, który nawet owej rewolucji nie zauważył, nadal kształcąc na bazie Arystotelesa.

Logarytmy są wynalazkiem praktycznym, jednym z niewielu ważnych pojęć matematycznych, które powinno się wynosić ze szkoły. I nie chodzi o definicję czy dziwaczne równania z niewiadomymi pod logarytmem, ale o ideę zapisywania bardzo dużych albo bardzo małych liczb w krótki sposób. Logarytmy dziesiętne wprowadził Henry Briggs, profesor w londyńskim Gresham College. Była to szkoła o nastawieniu praktycznym, kształciła mierniczych, inżynierów i nawigatorów (żegluga oceaniczna zmusiła korzystania z astronomicznych metod wyznaczania położenia, a te wymagały obliczeń matematycznych). Pomysł należał do Szkota Johna Napiera, choć niezależnie od niego wpadł na podobną ideę Jost Bürgi, zegarmistrz i konstruktor przyrządów, zaprzyjaźniony z Johannesem Keplerem. Logarytmy pozwalały znacznie przyspieszyć obliczenia numeryczne, ponieważ mnożenie i dzielenie zastępują dodawaniem i odejmowaniem – działaniami znacznie mniej czasochłonnymi. Mówiono, że dzięki logarytmom życie astronomów wydłużyło się dwukrotnie, tak bardzo skracały one bowiem rachunki. Najważniejsze tablice astronomiczne czasów nowożytnych: Tablice Rudolfińskie (1627) Johannesa Keplera zostały obliczone przy wykorzystaniu logarytmów. Dzieło to zawierało frontispis przedstawiający świątynię astronomii, w której kilku sławnych uczonych minionych wieków prowadzi zaświatową debatę nad systemem planetarnym. Jedynie dwie kolumny oznaczone imionami Kopernika i Tychona Brahego są zdrowe i mocne, w suterenie widzimy Johannesa Keplera pochylonego nad swymi pracami.

Przyjrzyjmy się alegorycznym figurom na dachu świątyni. Cesarski orzeł zrzuca guldeny, co było raczej pobożnym życzeniem Keplera niż faktem, choć w sumie dzieło powstało dzięki patronatowi kolejnych cesarzy od Rudolfa II począwszy. Kobiece postaci od lewej strony począwszy to Physica lucis – fizyka światła, Optica – dzierżąca teleskop, Logarithmica – alegoria, niemal bogini logarytmów, Doctrina triangulorum – trygonometria, Stathmica – statyka przedstawiona z dźwignią (prawo dźwigni odgrywało zdaniem Keplera istotną rolę w ruchu planet) oraz Magnetica – alegoria nauki o magnetyzmie (uczony sądził, że jedną z sił poruszających planety jest specjalna siła magnetyczna). W aureoli wokół głowy Logarithmiki znajdują się cyfry 6931472, odpowiadające \ln(2)=0,6931472, dlatego pręty, które trzyma nasza bogini mają stosunek długości 1:2.

Johannes Kepler widział więc wagę logarytmów dla astronomii. Henry Briggs obliczył pierwsze praktyczne tablice logarytmów dziesiętnych. Poniżej wyjaśnimy, jak tego dokonał, najpierw jednak spróbujemy odpowiedzieć na pytanie, do czego w życiu przydają się logarytmy. Są one potrzebne szczególnie wtedy, gdy mamy do czynienia z procesami, w których jakaś wielkość zmienia się bardzo silnie. Np. ludność świata w milionach od czasów prehistorycznych do roku 2015. Widzimy, co znaczy określenie eksplozja demograficzna i dlaczego jest nas dziś więcej niż wszystkich ludzi razem wziętych w minionych epokach. W zaświatach spotkalibyśmy niemal wyłącznie współczesnych.

Drugi wykres ma skalę logarytmiczną na osi pionowej: znacznie lepiej widać zmiany szybkości eksplozji demograficznej: nachylenie krzywej (tangens kąta) mierzy wskaźnik przyrostu naturalnego. Stałe nachylenie to stały przyrost procentowy. Nadal widzimy eksplozję w ostatnich stuleciach, ale teraz widać znacznie więcej szczegółów zachowania krzywej. Spójrzmy jeszcze na wykres obejmujący tylko dwa ostatnie stulecia.

Widać na nim właściwie trzy odcinki prostoliniowe: 1800-1900, 1900-1950, 1950-2015. Zupełnie niewidoczne są obie wojny światowe. Skoki przyrostu naturalnego wiążą się najwyraźniej z postępem cywilizacyjnym: nawozy sztuczne, mniejsza umieralność niemowląt i dzieci, dłuższy średni czas życia.

Logarytm dziesiętny to w zasadzie liczba zer w zapisie: zamiast liczb 0,01;10;100000 piszemy -2,1,5. Oczywiście, musimy umieć obliczać logarytmy także innych liczb niż całkowite potęgi dziesiątki. Jeśli np. naszą liczbą jest a=3\cdot 10^4, to widać od razu, że jej logarytm musi być większy niż 4, lecz mniejszy niż 5 (bo 10^4<3\cdot 10^4<10^5). Trzeba znaleźć taki wykładnik, aby 10^{x}=3. Wiadomo, że x=0,477121, mamy więc

a=3\cdot 10^{4}=10^{0,477121}\cdot 10^{4}=10^{0,477121+4}=10^{4,477121}.

Zatem \log 3\cdot 10^4=4,477121.

Możemy powiedzieć (niestandardowo), że liczba 3\cdot 10^4=30000 ma 4,477121 zer. Logarytm jest więc uogólnieniem liczby zer, skonstruowanym w taki sposób, żeby zachować zwykłe reguły potęgowania, np. 10^{x}\cdot 10^{y}=10^{x+y}.

Jak można skonstruować tablice logarytmów, wiedząc tyle, ile Henry Briggs, to znaczy bez znajomości szeregów, pochodnych itd.? W zasadzie wystarczy umiejętność wyciągania pierwiastka kwadratowego – dawniej uczono, jak to się robi. Szybką metodę przybliżoną znano od czasów starożytnych. Przyjmijmy więc, że umiemy wyciągać pierwiastki kwadratowe. Możemy obliczyć teraz kolejne pierwiastki kwadratowe z 10 aż powstanie tabelka jak poniżej.

Zaczerpnęliśmy ją z rozdziału 22 tomu I wykładów Richarda Feynmana. Oczywiście, nietrudno ją obliczyć samemu, ale warto też spojrzeć na stronice Feynmana poświęcone temu zagadnieniu. Richard Feynman cenił matematykę praktyczną, metody uzyskiwania konkretnych liczbowych odpowiedzi. Pewnie dlatego zainteresował się Briggsem i sposobem konstruowania tablic. Gdybyśmy znaleźli się na bezludnej wyspie, będziemy wiedzieć, jak obliczyć tablice logarytmów. Ważniejszym powodem jest może ten, że wiedza powinna tworzyć powiązany system, a nie bezładne nagromadzenie faktów, i Feynman zawsze starał się poznać całe łańcuchy rozumowań od faktów doświadczalnych do teorii. (Nawiasem mówiąc, ta swoista niechęć do wykraczania poza fakty stała się chyba przyczyną, dla której nie podobały mu się kwarki, zaproponowane teoretycznie. Wprowadził nawet swoją nazwę: partony na części protonu, które obserwuje się w rozproszeniach przy dużych energiach. Uparcie nie chciał ich jednak uznać za kwarki.)

Z tabelki widać, że kolejne pierwiastki przejawiają prostą regularność:

10^{x}\approx 1+2,3025 x. \mbox{   (*)}

Także Briggs to zauważył: zamiast obliczać pierwiastki odpowiadające małym wykładnikom, można zastosować powyższe przybliżenie. Weźmy teraz jakąkolwiek liczbę z przedziału (1,10), np. 3. Szukamy w trzeciej kolumnie tabeli czynników, które przybliżą 3 z dołu:

10^{\frac{1}{4}}\cdot 10^{\frac{1}{8}}\cdot 10^{\frac{1}{16}}\cdot 10^{\frac{1}{32}}\cdot 10^{\frac{1}{128}}=10^{0,476563}\approx 2,996143.

Mamy już prawie 3. Brakujący czynnik to 3/2,996143=1,001287. Stosując przybliżenie (*) otrzymamy logarytm tego czynnika równy 0,000559. Liczbę tę należy dodać do wykładnika powyżej:

\log {3}=0,476563+0,000559=0,477121.

Metoda zastosowana przez Briggsa była nieco bardziej skomplikowana, ale w istocie sprowadzała się do tego samego. Zauważmy, że każdą liczbę z przedziału (0,1) możemy zapisać jako sumę potęg dwójkowych – będzie to po prostu owa liczba zapisana dwójkowo. Henry Briggs obliczył 54 kolejne pierwiastki z dokładnością 30 cyfr znaczących, co było pracą iście herkulesową (gdyby tylko Herkules pracował umysłowo, a nie fizycznie). W dodatku prawie wcale się przy tym nie mylił, drobne pomyłki nie wpłynęły na wyniki tablic. Zawierały one w pierwszej wersji logarytmy liczb od 1 do 1000 z dokładnością czternastu znaków. Po sześciu latach rozszerzył te tablice do liczb 1-20 000 oraz 90 000-100 000 z tą samą monstrualną dokładnością czternastu cyfr. Wydawca flamandzki Adriaan Vlacq zatrudnił mierniczego Ezechiela de Deckera, aby dokończyć tablice od 1 do 100 000. Miały one dokładność już tylko dziesięciu cyfr, de Decker stosował interpolację. Tablice Vlacqa ukazały się w 1627, trzy lata po niepełnych tablicach Briggsa.

Korzystałem m.in. z artykułu Iana Bruce’a, The agony and the ecstasy – the development of logarithms by Henry Briggs, „The Matematical Gazette”, t. 86 (2002), s. 216-227.

(*) Przybliżenie znalezione przez Briggsa łatwo uzasadnić rozwijając funkcję wykładniczą w szereg MacLaurina:

10^{x}=e^{x\ln 10}\approx 1+x\ln {10}.

 

 

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)