Mikołaj Kopernik, Commentariolus (przed 1514 r.)

Mikołaj Kopernik jest jednym z najbardziej przecenianych astronomów w historii. Dzieje jego pośmiertnej sławy mogłyby stać się pasjonującym przedmiotem badań (interesujący podtemat stanowi tu walka polskich i niemieckich uczonych o zaprzęgniecie postaci Nicolausa Coppernicusa czy Koppernigka w służbę szowinizmu narodowego (*)). Im dalej od astronomii leżały kompetencje historyka i im więcej mijało czasu, tym głośniej wychwalano rewolucję kopernikańską. Dziś wiemy, iż prawdziwa rewolucja zaczęła się w nauce niemal sto lat później, już w wieku XVII, a Kopernik był tylko jednym z uczonych w długim szeregu od Greków i Ptolemeusza, przez astronomów islamskich, jak Pers Nasir At-Tūsi i Syryjczyk Ibn aš-Šātir, po pochodzących z krajów niemieckich Georga Peurbacha i Johannesa Müllera, znanego jako Regiomontanus. Kopernik wysunał rzeczywiście zadziwiający pomysł ruchu Ziemi i bezruchu Słońca, ale był on sprzeczny z całą nauką o ruchu – ówczesną fizyką i filozofią przyrody, natomiast w samej astronomii Kopernik był skrajnym konserwatystą, raczej ostatnim uczonym średniowiecznym niż pierwszym nowożytnym. Z pewnością nie zamierzał „ruszyć z posad bryły świata”, jak to zapowiadał Eugène Pottier, dziewiętnastowieczny autor słów Miedzynarodówki. Pomysł Kopernika okazał się płodny znacznie później, natomiast jego astronomia była porażką, jałowym dodawaniem epicykli do znanego modelu. W wyniku powstał model matematyczny, który raczej psuł, niż poprawiał astronomię Ptolemeusza. Astronomię przebudowali dopiero Tycho Brahe i Johannes Kepler: dlatego uczymy się o prawach Keplera, a nie o prawach Kopernika.

Wszystko to nie znaczy, rzecz jasna, że Niklas Koppernig niczego nie dokonał. Był najwybitniejszym astronomem swego pokolenia, tyle że nie każdemu pokoleniu dane jest dokonać w nauce czegoś przełomowego. Pomysł astronomii heliocentrycznej był krokiem w dobrym kierunku. Używając języka dzisiejszej fizyki, można powiedzieć, że Kopernik odkrył czy może zwrócił mocno uwagę na ukrytą symetrię ruchów planetarnych. Planety przed Kopernikiem poruszały się na niebie tak samo jak i po nim, model Kopernikański nie był ani trochę dokładniejszy niż Ptolemeuszowy, ale od tej pory zaczęliśmy dostrzegać nowy punkt widzenia: widziane ze Słońca ruchy planet są znacznie prostsze niż z Ziemi. Nie zamieszkaliśmy na Słońcu, ale mogliśmy wykorzystać tę symetrię, ułatwiła ona późniejsze, znacznie późniejsze zrozumienie, jaki jest rzeczywisty mechanizm ruchu planet (u Kopernika Słońce było tylko lampą oświetlającą kosmos, nie wpływało fizycznie na ruchy planet).

Nie jest jasne, kiedy Mikołaj Kopernik powziął myśl o zbudowaniu całkiem nowego systemu świata. Być może podczas pobytu we Włoszech, ale najprawdopodobniej już po powrocie na Warmię. Możliwe, że idea nowego systemu dojrzewała w jego głowie całymi latami. Kopernik nigdy nie mógł się zajmować wyłącznie astronomią, wciąż musiał pamiętać przede wszystkim o tym, co może być przydatne dla kapituły fromborskiej, astronomia była jego zajęciem ubocznym. Po powrocie na Warmię był praktycznie odizolowany od kręgów naukowych i pozostał amatorem – w najlepszym znaczeniu tego słowa – z czasem stał się bowiem najbardziej kompetentnym astronomem swojej epoki.

Przez kilka lat Kopernik pełnił funkcję sekretarza swego wuja biskupa Lucasa Watzenrode, będąc po trosze lekarzem, po trosze humanistą. Początkowo mógł jeszcze wahać się co do wyboru dalszej drogi życiowej: humanista, lekarz, sekretarz dostojnika i kandydat na przyszłego biskupa, czy badacz gwiazd? W roku 1509 wydał zadedykowany wujowi przekład Listów Teofilakta. Było to ćwiczenie ze znajomości greki, literacko bezwartościowe, lecz przydatne dla astronoma, pragnącego rozumieć niektóre teksty źródłowe. W wierszu poprzedzającym tekst Teofilakta Wawrzyniec Korwin, pisarz królewskiego miasta Wrocławia, maluje taki obraz swego przyjaciela przy wuju biskupie: „Przy nim uczony mąż, jak wierny Achates przy Eneaszu, tłumacz dzieła niniejszego z greki na łacinę, który szybki ruch Księżyca i zmienne biegi bratniego Słońca, jako też gwiazd i planet – zdumiewające dzieło Wszechmocnego – wraz z ukrytymi przyczynami zjawisk umie objaśniać na godnych podziwu zasadach.” Może w tym czasie pojawił się już pomysł nowej astronomii. Niewykluczone, że pomysł ten miał wpływ na dalsze losy jego autora: chcąc opracować swą teorię, zrezygnował z kariery kościelnej (do której zapewne nakłaniał go wuj, nie mający żadnych innych bliskich krewnych, kandydatów na swych następców) i wrócił do sprawowania funkcji kanonika, która jednak umożliwiała pracę naukową. W każdym razie od roku 1510, jeszcze za życia wuja, zamieszkał Kopernik na stałe w siedzibie kapituły we Fromborku, gdzie z przerwami mieszkać miał już do końca życia. O mitrę biskupią wyraźnie się nie ubiegał (choć raz umieszczono go honorowo na liście kandydatów, bez realnej szansy na wybór), nie przyjął też wyższych święceń – kanonicy przyjmowali je często dopiero wtedy, gdy mieli zostać biskupami. Wśród szesnastu kanoników kapituły, gdzie wszystko – począwszy od miejsc w katedrze aż po kolejność zabierania głosu na posiedzeniach – regulowane było wedle zasady precedencji, czyli kolejności objęcia stanowiska kanonika, doszedł z czasem do miejsca piątego.

Pobyt we Fromborku nie oznaczał bynajmniej wygodnego i beztroskiego życia. Kopernik pracował jako administrator, ceniony lekarz, był jednym z najlepiej wykształconych ludzi na tym skrawku ziemi. Kanonicy byli wprawdzie ludźmi dość majętnymi, ale mieli liczne obowiązki, oprócz spraw czysto kościelnych administrować musieli należącymi do kapituły ogromnymi dobrami. Cała Warmia była oddzielnym księstwem rządzonym przez biskupa. W dodatku była terenem pogranicznym, z trzech stron otoczonym przez ziemie Zakonu Krzyżackiego, który stanowił ciągłe zagrożenie i z którym niezmordowanie walczył biskup Watzenrode, zabiegając jednocześnie w Rzymie o przeniesienie Zakonu z Prus na Podole. Kopernik zmuszony był więc zarówno do prowadzenia ksiąg, jak objeżdżania konno różnych majątków, a nawet gromadzenia broni na wypadek krzyżackiego oblężenia. Zajmował się też kwestiami reform gospodarczych, popierał unię monetarną Prus Królewskich z Koroną. Wcześniej w różnych miastach Prus Toruniu, Gdańsku i Elblągu bito własne monety, z herbem króla z jednej strony, a herbem miasta z drugiej. Nasilała się też tendencja do psucia monety, co było w interesie rządzących oraz oszustów. Kopernik chciał temu zaradzić przez ujednolicenie monety i ustalenie w niej stałej zawartości kruszcu.

W istocie jednak prowadził podwójne życie i wolne chwile poświęcał astronomii. Pierwszy zarys nowego systemu opisany został w krótkim anonimowym streszczeniu znanym jako Komentarzyk. Ów kilkustronicowy Komentarzyk znajdował się w roku 1514 w księgozbiorze krakowskiego uczonego Macieja z Miechowa, musiał więc zostać napisany wcześniej.

Pisze tam Kopernik:

Wielką ilość sfer niebieskich przodkowie nasi przyjęli, jak sądzę, dla zachowania zasady regularności w pozornym ruchu planet. Całkowicie niedorzeczne wydawało się bowiem przypuszczenie, by ciała niebieskie nie poruszały się zawsze jednostajnie po doskonałych kołach. Zauważyli zaś, że wskutek złożenia i połączenia ruchów jednostajnych na różne sposoby osiągnąć można dowolny ruch pozorny każdego z tych ciał do dowolnego położenia. (przeł. J. Drewnowski, M. Kopernik, Dzieła wszystkie, t. 3, Pisma pomniejsze, przekł. nieco zmieniony)

Następnie omawia krótko sytuację w astronomii od starożytności: najpierw Kallippos i Eudoksos starali się wyjaśnić ruchy nieba za pomocą sfer współśrodkowych, następnie przyjęto teorię Ptolemeusza, posługującą się kołami. Przeciwko pierwszej teorii w Komentarzyku, a także wielokrotnie później, przytaczał argument znany już od starożytności: przy stałych odległościach od Ziemi jasności planet nie powinny się zmieniać, podczas gdy w rzeczywistości zmieniają się bardzo wyraźnie.

Jednakże to, co głosili Ptolemeusz i wielu innych, pozostawało wprawdzie w zgodzie z danymi liczbowymi, ale budziło również niemałe wątpliwości. Tłumaczenia te nie były bowiem wystarczające bez dodatkowego wprowadzenia pewnych fikcyjnych kół wyrównujących, z których wynikało, że planeta ani na swojej sferze unoszącej, ani w odniesieniu do środka swego epicykla nie porusza się z zawsze jednakową prędkością. Toteż tego rodzaju system nie wydawał się ani ostatecznie doskonały, ani wystarczająco zgodny z rozumem.

Owe fikcyjne koła wyrównujące, to koła o środku w ekwancie E – którego nazwa łacińska brzmiała punctum equans – a więc punkt wyrównujący. Konstrukcja ta, wprowadzona przez Ptolemeusza, znakomicie poprawiała zgodność teorii z obserwacjami. Ruch punktu C był jednostajny, gdy patrzeć z punktu E, Ziemia jednak była w punkcie Z i mechanizm ten był nielogiczny z zegarmistrzowskiego punktu widzenia: obroty kół powinny być jednostajne, bo chodzi o idealny zegar stworzony przez Boga, który nie mógł być przecież partaczem; powinny one także być jednostajne względem swoich środków, a nie jakichś innych punktów.

Zważywszy te braki często się zastanawiałem, czy by się nie dało wynaleźć racjonalniejszego układu kół, od których zależałyby wszelkie pozorne nierówności ruchów i które obracałyby się ruchem jednostajnym względem własnych środków tak, jak tego wymaga zasada ruchu doskonałego. Przystąpiwszy do tego trudnego i niemal nierozwiązywalnego problemu znalazłem wreszcie sposób, w jaki można tego dokonać za pomocą kół o wiele mniej licznych i o wiele bardziej ze sobą zgodnych, niż przyjmowano dawniej, jeśli tylko wolno nam będzie przyjąć następujące założenia, zwane aksjomatami.

Założenie pierwsze

Nie istnieje jeden środek wszystkich sfer niebieskich.

Założenie drugie

Środek Ziemi nie jest środkiem świata, lecz tylko środkiem ciężkości i sfery Księżyca.

Założenie trzecie

Wszystkie sfery krążą wokół Słońca jako środka i dlatego w pobliżu Słońca znajduje się środek świata.

Założenie czwarte

Stosunek odległości Słońca od Ziemi do wysokości firmamentu jest o tyle mniejszy od stosunku promienia ziemskiego do odległości Słońca, że odległość ta jest niezauważalna w porównaniu z wielkością firmamentu.

Założenie piąte

Każdy ruch widoczny na firmamencie jest wywołany nie jego własnym ruchem, lecz ruchem Ziemi. Ziemia więc, wraz z otaczającymi ją żywiołami, w ciągu doby obraca się cała w swoich niezmiennych biegunach, podczas gdy firmament i najwyższe niebo pozostają nieruchome.

Założenie szóste

Cokolwiek spostrzegamy jako ruch Słońca, nie jest jego własnym ruchem, lecz skutkiem ruchu Ziemi i naszej sfery, z którą się obracamy wokół Słońca podobnie jak każda inna planeta; Ziemia wykonuje zatem kilka ruchów.

Założenie siódme

To, co u planet wydaje się ruchem wstecznym lub posuwaniem się naprzód, nie pochodzi od nich, lecz od Ziemi. Jej więc ruch sam wystarczy dla wyjaśnienia tak wielu nierówności dostrzeganych na niebie.

U Kopernika Ziemia przestaje pokrywać się ze środkiem świata – wbrew temu, co dowodził Arystoteles – stając się centrum już tylko lokalnym: ciążą ku niej ciała, ale tylko te, które znajdują się blisko, w granicach sfery Księżyca. Ciała ciężkie spadają więc w kierunku centrum Ziemi, a nie centrum świata.

Oprócz Słońca także gwiazdy są w rzeczywistości nieruchome, nie obracają się wokół Ziemi. Wraz z wprowadzeniem ruchu dobowego Ziemi odwraca się tradycyjny porządek: do tej pory to niebo, obejmująca wszystko najwyższa sfera gwiazd, miała się najszybciej, raz na dobę, obracać. U Arystotelesa niebo obracane miało być przez Nieruchomego Poruszyciela i miało przekazywać ruch do dołu. U chrześcijan takim poruszycielem stał się Bóg. Teraz ta największa sfera zastygnąć miała w absolutnym bezruchu.

Giovanni di Paolo, Stworzenie świata i wygnanie z Raju (1445)

Oczywiście obserwowane na niebie zjawiska będą takie same bez względu na to, czy to Ziemia się obraca raz na dobę, czy niebo krąży wokół niej raz na dobę. Wiedziano o tym już od starożytności, zawsze jednak wybierano tę drugą możliwość. Skoro Słońce jest w środku świata, to oczywiście jest ono nieruchome. Mamy więc obok sfery gwiazd drugie nieruchome ciało w kosmosie.

Roczny ruch Słońca na niebie, jego przesuwanie się wzdłuż Zodiaku [ekliptyki] także jest złudzeniem optycznym wywołanym ruchem Ziemi. Znów: z punktu widzenia obserwowanych zjawisk astronomicznych wszystko przebiegać będzie tak samo. Motywem Kopernika nie jest uzyskanie precyzyjniejszego opisu zjawisk, lecz zbliżenie się do prawdy. System Ptolemeusza jest wprawdzie „w zgodzie z danymi liczbowymi”, ale to za mało.

Założenia piąte i szóste zawierają, w sensie dosłownym, nowe spojrzenie na zjawiska niebieskie. Można sobie z tych słów wyobrazić, jak od czasu swego pomysłu Kopernik zaczął patrzeć na niebo zupełnie innym wzrokiem. Co innego widzi się wiedząc, że niebo obraca się wokół nas, co innego zaś, gdy uważamy, że to my obserwujemy niebo z wirującej karuzeli. Patrzenie nie jest czynnością prostą i niezależną od refleksji: co innego widzi zwolennik Ptolemeusza, dla którego cały świat wiruje, co innego zaś Kopernik, czy jego późniejsi zwolennicy, widząc absolutnie nieruchome gwiazdy. Jest to dwoistość poznawcza przypominająca pewne grafiki M.C. Eschera.

Psychologiczne doświadczenie nowego spojrzenia na wszechświat musiało być dla Kopernika niezwykle ważnym przeżyciem. Nigdy nie wrócił już do tradycyjnego obrazu. Nie usiłował ich też w żaden sposób pogodzić. Dla współczesnego człowieka przyzwyczajonego do zmian układów odniesienia oraz do względności prawd i punktów widzenia kopernikanizm może wydać się dość banalnym ćwiczeniem z tego zakresu. Trudno jest wyobrazić sobie sytuację kogoś, kto wykonuje je po raz pierwszy. Bez wątpienia Kopernik przekonany był o prawdziwości swojego pomysłu i wierzył w niego, choć nie miał na to żadnych dowodów.

Założenie siódme sprawia, że niepotrzebne stają się Ptolemeuszowe epicykle dla pięciu planet, wprowadzone właśnie po to, aby opisać zmiany kierunku ich ruchu na tle gwiazd. Jeśli przyjmiemy ruch Ziemi, to wszystkie planety poruszają się stale w jednym kierunku, bez żadnych ruchów wstecznych. Tu właśnie kopernikańskie spojrzenie przynosi najwieksze korzyści: układ planet wygląda teraz prościej.

Komentarzyk był przedstawieniem niezwykłego pomysłu. Przekonywał, że układ heliocentryczny może być astronomicznie nie gorszy, a nawet lepszy od tradycyjnego Ptolemeuszowego. Pokazywał, że możemy w nowy, niezwykły sposób spojrzeć na zjawiska niebieskie i że wtedy system świata przedstawia się prościej. Planety obiegają Słońce w czasie tym dłuższym, im dalej znajdują się od niego. Co więcej, w Komentarzyku Kopernik sądzi, że tor zakreślany przez daną planetę jest niezmienny, że powraca ona regularnie do tych samych miejsc kosmosu (w teorii Ptolemeusza tak nie było, ponieważ okresy obrotu epicyklu i deferentu były niewspółmierne). Później, pracując nad swoim traktatem Kopernik odkrył, że od czasów Ptolemeusza orbity planet zmieniły wyraźnie swą orientację względem gwiazd.

Ruch Słońca i ruch gwiazd są więc jedynie złudzeniem wywołanym ruchem Ziemi. Należało zatem Ziemi przypisać kilka ruchów, a dokładnie trzy:

Ziemia podlega trzem ruchom. Pierwszy jest ruch na wielkiej sferze [wielkim kręgu Orbis Magnus], z której okrążając Słońce według kolejności znaków Zodiaku, dokonuje obrotu w ciągu roku […] wydaje się, że Słońe porusza się po kole takim ruchem, jakby Ziemia leżała w środku świata. Tymczasem dzieje się to nie wskutek ruchu Słońca, lecz Ziemi. Kiedy na przykład znajduje się ona w znaku Koziorożca, Słońce widoczne jest na wprost, w kierunku średnicy, w znaku Raka i tak dalej […]

Potrzebny był Kopernikowi jeszcze jeden, trzeci ruch Ziemi, który wyjaśnić mógłby, dlaczego oś Ziemi zamiast obracać się w okresie roku, zachowuje mniej więcej stały kierunek względem gwiazd. Kopernik, zgodnie z tradycją, wyobrażał sobie ruch Ziemi wokół Słońca tak, jakby była ona unoszona na jakimś sztywnym ramieniu – było to myślenie kategoriami machina mundi, machiny świata złożonej ze sfer. Oś Ziemi unoszonej w taki sposób musiałaby się także obracać razem z nią samą, dlatego potrzebne było wprowadzenie trzeciego ruchu kompensującego. Nie istniało jeszcze takie pojęcie przestrzeni, do jakiego później przyzwyczaił nas Newton (obecnie stałość kierunku ziemskiej osi w przestrzeni objaśniana jest zasadą zachowania momentu pędu: Ziemia jak wirujący żyroskop zachowuje stałą orientację osi). Jednocześnie zastanawiał się Kopernik nad możliwością jakiegoś fizycznego mechanizmu zapewniającego stałą orientację osi ziemskiej względem gwiazd: „Wiem – by sięgnąć do pomniejszych spraw – że namagnesowana igła przyjmuje zawsze ten sam kierunek” (W późniejszych tekstach Kopernik już nie wraca do tego pomysłu, astronomia w jego pojęciu wymaga zresztą opisu zjawisk, a nie podawania ich fizycznych przyczyn).

Przy okazji ów trzeci ruch Ziemi, ruch jej osi obrotu, można było wykorzystać do tego, aby zdać także sprawę ze zjawiska precesji, „obrotu ósmej sfery”. Wystarczyło założyć, że okres trzeciego ruchu nie pokrywa się dokładnie z okresem obiegu Ziemi po orbicie, dzięki temu po wykonaniu pełnego okrążenia oś ziemska nie wraca dokładnie do tej samej orientacji, lecz nieznacznie obraca się względem gwiazd. Jak pisze Kopernik, „Powszechnie przyjmuje sie więc, że firmament obarczony jest kilkoma ruchami, którymi rządzą prawa, niedostatecznie dotąd zrozumiane. Ale ruch Ziemi może te zmienności wyjaśnić w bardziej naturalny sposób.”

Zamiast więc przypisywać niebu gwiaździstemu kilka ruchów, można te wszystkie ruchy przypisać Ziemi, gwiazdy uznając za nieruchome. To nie oś nieba wykonuje ruchy w kosmosie, ale oś Ziemi wykonuje te ruchy. Z technicznego punktu widzenia nic się nie zmieniało. Oczywiście rozwiązanie takie było bardziej zadowalające kosmologicznie: łatwiej przypisać pewne, nawet dość zawiłe ruchy Ziemi niż doskonałemu niebu.

Komentarzyk jest tekstem o tyle osobliwym, że zaczyna od tradycyjnej filozoficznej krytyki ekwantów – niejednostajności ruchów kołowych w tradycyjnej astronomii – a następnie formułuje ideę uproszczenia układu świata przez wprowadzenie ruchu Ziemi. Obie te kwestie nie są logicznie powiązane. Można wyeliminować ekwanty i pozostać przy układzie geocentrycznym, jak zrobili to dużo wcześniej uczeni islamscy ze szkoły w Maragha tacy, jak Nasir At-Tūsi i Ibn aš-Šātir. Można też przyjąć układ heliocentryczny oraz ekwanty, jak na pewnym etapie swej pracy zrobił Johannes Kepler. Kopernik miał trzymać się obu tych założeń jednocześnie.

Rozwiązania geometryczne astronomów islamskich są w zasadzie identyczne z przyjętymi przez Kopernika. Dzieła islamskie nie były powszechnie znane za czasów Kopernika, do niedawna nie były też znane historykom współczesnym. Zbyt wiele jednak szczegółów u Kopernika pokrywa się z rozwiązaniami stosowanymi w szkole z Maragha, aby mogło to być jedynie zbiegiem okoliczności. Najprawdopodobniej podczas pobytu w Italii Kopernik zetknął się z jakimiś manuskryptami ze Wschodu. Uczeni islamscy nie proponowali jednak ruchu Ziemi. Astronomiczna teoria heliocentryczna – zawierająca wszelkie niezbędne szczegóły – jest niewątpliwie własnością intelektualną Kopernika. Wielu historyków czuje się pewniej, gdy mogą sprowadzić odkrycie do zapożyczenia pewnych elementów z przeszłości, jakby nie wierząc, by jakikolwiek pomysł na świecie mógł powstać jedynie dzięki myśleniu. Wyznają oni swego rodzaju atomizm w świecie idei: idee krążą wiecznie niby niezmienne atomy, łącząc się co najwyżej od czasu do czasu w nowe wzory i kombinacje. Poszukiwano z zapałem także i prekursorów teorii Kopernika, jednak bez zadowalających rezultatów. Pomysły jakiegoś ruchu Ziemi pojawiały się niejednokrotnie, zwykle były to jednak tylko pomysły, nie traktowane zbyt serio przez tych, którzy je głosili. Sama możliwość ruchu Ziemi znajdowała się od starożytności właściwie ciągle w polu widzenia uczonych, odkąd Arystoteles i Ptolemeusz uznali za stosowne podać argumenty przeciwko ruchowi Ziemi. Kopernik chcąc zrewidować punkt widzenia astronomii zwracał oczywiście uwagę na wzmianki o ruchu Ziemi. Bardziej oczywistą ideą był tu ruch dobowy Ziemi wokół osi. Chyba jednak nikt prócz Arystarcha (o którym Kopernik nie wiedział) nie rozpatrywał ruchu rocznego, znacznie bardziej brzemiennego w skutki i ważniejszego, zarówno dla Kopernika, jak i dla dalszego rozwoju nauki. Ponadto gdybyśmy nawet znaleźli jakieś źródła, które mogły zasugerować Kopernikowi jego punkt wyjścia, to i tak pozostaje faktem, że nikt nie przekształcił idei tego rodzaju w funkcjonującą teorię astronomiczną, a tylko to się ostatecznie liczy w nauce. Z dwóch podstawowych innowacji kopernikańskich: heliocentryzmu i ruchów jednostajnych, to ta pierwsza – bardziej zaskakująca i ważniejsza historycznie – okazuje się własnością intelektualną Kopernika, druga zaś – która zdawała się ważniejsza współczesnym Kopernika – okazała się zbieżna z wcześniejszymi rozwiązaniami astronomów islamskich i być może nie jest nawet niezależnym wkładem Kopernika do nauki.

Ostatecznie Kopernik formułuje swój układ heliocentrycznego kosmosu, w którym planety poruszają się dzięki złożeniu ściśle jednostajnych ruchów kołowych. Potrzebował do tego, jak sam obwieszcza w Komentarzyku 34 kół. W stosunku do 55 sfer Arystotelesa stanowi to niewątpliwe uproszczenie. Rzecz jednak w tym, że należałoby tę teorię zestawiać nie z filozoficznym modelem Arystotelesa, który nigdy nie objaśniał ilościowo żadnych zjawisk i stanowił raczej rodzaj muzealnego zegara, od którego nie wymaga się by chodził, lecz z działającą teorią matematyczną Ptolemeusza. Na razie jednak Kopernik nie zbudował porównywalnej teorii, miał jedynie jej zarys, wstępną wersję. W trakcie pracy nad Obrotami miał się przekonać, że szczegółowe porównanie nie wypada już tak jednoznacznie na korzyść jego systemu.

Ruch planet wg Komentarzyka. Słońce (w istocie tzw. Słońce średnie, a nie to fizyczne, świecące na niebie) znajduje się w centrum dużego koła o promieniu R. Znikły epicykle Ptolemeusza, ale wprowadza Kopernik dwa dodatkowe epicykle: jeden o promieniu e_1 obracał się tak, aby linia C_1C_2 pozostawała stale równoległa do linii SO. Z dzisiejszego punktu widzenia powiedzielibyśmy, że wektor C_1C_2 pozostaje stały (względem gwiazd), dla Kopernika obracał się on, ponieważ położenia C_2 mierzono od prostej SC_1, czyli tak jakby mniejsze koło obracało się na jakimś mechanicznym ramieniu. To pierwsze koło łatwo było zastąpić kołem mimośrodowym – ekscentrykiem – w terminologii ówczesnych astronomów. Było jeszcze drugie koło o promieniu e_2 i ono obracało się tak, aby trapez C_2PEO pozostawał wciąż równoramienny. Ta konstrukcja zastępowała ekwant i wymyślona była przez Ibn aš-Šātira. Planeta zakreślała zamkniętą, nieco owalną linię (owal wybrzuszony był w złą stronę w porównaniu do keplerowskiej elipsy). François Viète zauważył pod koniec wieku XVI, że ruch po dwóch mniejszych kółkach można zastąpić jednym ruchem po elipsie, ale oczywiście Kopernikowi nie o to chodziło.

Wielu historyków nauki zastanawiało się nad genezą reformy Kopernika. Komentarzyk ukazuje nam gotowe rozwiązanie, w którym zmienić się miały już tylko szczegóły techniczne, nie mówi natomiast nic o tym, jak przyszła mu do głowy tak niezwykła myśl i dlaczego Kopernik zdecydował się prześledzić jej konsekwencje. Wiedział też Kopernik zastanawiając się nad swoim pomysłem, że z jednej strony ma tu pewne wsparcie w starożytnych tekstach – ruch Ziemi nie jest więc pomysłem aż tak absurdalnym, jakby się to mogło na pozór wydawać. Z drugiej zaś strony zauważył, niewątpliwie po skrupulatnym zbadaniu sprawy, że „argumenty, którymi filozofowie przyrody starają się udowodnić nieruchomość Ziemi, po większej części oparte są na zjawiskach i wszystkie zostaną tu obalone, gdy tylko wyjdziemy poza pozory” [O obrotach, ks. I] – argumenty te tracą swą moc dowodową, jeśli prawdą jest, że Ziemia się porusza; nie dowodzą więc one w istocie niczego, są przekonywaniem przekonanych, nie mogą więc przeszkodzić w rozważeniu hipotezy ruchu Ziemi. Stosuje się to np. do arystotelesowskiego utożsamienia środka ku któremu spadają ciała ze środkiem świata. Jeśli uznamy, jak Kopernik, że ciała spadają ku środkowi Ziemi, to tym samym stanie się możliwe, że Ziemia nie jest środkiem świata.

Istotą kopernikanizmu z punktu widzenia ruchów w świecie są dwa założenia (piąte i szóste w Komentarzyku): o nieruchomości gwiazd oraz nieruchomości Słońca. Pierwsze przerzuca na Ziemię ruch dobowy oraz długookresowy ruch precesyjny: Ziemia wiruje, oś jej obrotu zmienia położenie w przestrzeni. Drugie zastępuje widoczny roczny ruch Słońca rocznym ruchem orbitalnym Ziemi. Trudno też ustalić, który z dwóch pomysłów – nieruchomość gwiazd czy nieruchomość Słońca pojawił się jako pierwszy. Jasne jest bowiem, że jeśli uda nam się wyjaśnić jakiś ruch obserwowany na niebie odpowiednim ruchem Ziemi, to aż się prosi, aby podobną metodę rozciągnąć i na inne ruchy.

Być może punktem wyjścia był nawet nie obrót dobowy, choć ten akurat obrót najczęściej bywał wcześniej rozpatrywany. W którymś momencie Kopernik mógł zdać sobie sprawę, że zawiłe ruchy precesyjne gwiazd – ruchy ósmej sfery, wymagające wprowadzania kolejnych sfer dziewiątej i dziesiątej – prościej jest opisać zmianami położenia osi Ziemi, nie każąc gwiazdom wykonywać skomplikowanych obrotów i kołysań, które im niezbyt przystoją. Z chwilą gdy gwiazdy uznamy za nieruchome, przyjąć trzeba, że Ziemia wiruje. Za takim punktem wyjścia pracy Kopernika opowiadał się Jerome R. Ravetz.

Inną możliwością było zwrócenie uwagi na to, że Ptolemeuszowe epicykle planet górnych obracają się względem gwiazd w okresie rocznym: ich obrót jest ściśle ze sobą zsynchronizowany. Linie ZS i XM pozostają równoległe do siebie w każdej chwili. Jednocześnie koła w konstrukcji ptolemeuszowej można przestawiać, ponieważ dodawanie wektorów jest przemienne. Model Ptolemeuszowy można dowolnie przeskalowywać, ważne są w nim jedynie kąty. Dlatego wszystkie koła obracające się w okresie roku możemy zastąpić jednym wspólnym kołem i uznać je za orbitę Słońca wokół Ziemi. Powstaje wówczas konstrukcja, w której środki kół planet leżą w Słońcu. Schemat taki pozwalał zaoszczędzić po jednym kole dla każdej z pięciu planet, których dotyczył. W dodatku pewne regularności, które w teorii Ptolemeusza były dodatkowymi i niekoniecznymi założeniami (jak synchronizacja epicyklów), u Kopernika znajdowały naturalne wyjaśnienie. Struktura teorii astronomicznej wyraźnie zyskiwała na przejrzystości, można było zrozumieć fakty przedtem niepowiązane ze sobą. Otrzymywało się także znacznie lepiej wyglądający układ planet, bez dużych epicyklów.

Ostatecznie Komentarzyk nie jest przekonujący dla sceptyka, nie przedstawia bowiem żadnych rozstrzygających argumentów za rozwiązaniem Kopernikańskim. Argumentów takich nie było zresztą również długo po śmierci Kopernika. Można się było zgodzić, że na gruncie astronomii pomysł Kopernika miał pewne zalety i nie prowadził do natychmiastowej sprzeczności z faktami, nie był więc tak absurdalny, jakby mogło się na początku wydawać. Aby jednak serio potraktować propozycję Kopernika, należało najpierw przejść do porządku nad argumentami arystotelików przeciwko ruchowi Ziemi. Wprawdzie argumenty te istotnie były słabsze, niż się mogło wydawać – Kopernik miał tu trafne przeczucie, tym niemniej nie można było ich zbyć kilkoma zdaniami. Na szczęście dla rodzącej się teorii Kopernik nie poświęcał im wielkiej uwagi. Być może sprzyjającą okolicznością była tu naukowa izolacja Kopernika, obracając się na codzień wśród akademickich kolegów musiałby odpierać ich ataki, do czego nie był wtedy przygotowany merytorycznie, ani jak się zdaje psychicznie. Środowiska naukowe urabiają poglądy swoich członków, a w tym przypadku trudno byłoby oczekiwać przychylnych reakcji na nową ideę. Niejednokrotnie w historii nauki pewna izolacja badacza, przynajmniej w jakimś okresie, sprzyjała rozwijaniu oryginalnego punktu widzenia.

Nie wiadomo, jakie były reakcje na Komentarzyk, nie ma wszakże powodu przypuszczać, aby były zachęcające. Alexandre Koyré uważa, że Komentarzyk znała bardzo ograniczona liczba osób, w szczególności nie był zapewne pokazywany profesorom w Krakowie, ponieważ w przeciwnym razie mielibyśmy jakieś wiadomości o ich reakcjach. Według świadectwa jednego z późniejszych astronomów Caspara Peucera nazwisko Kopernika jako uczonego stało się głośne już około 1525 r.

Szczegółowe dowody matematyczne zostały „przeznaczone do większego dzieła.” Dopiero później nastąpić miało wieloletnie opracowywanie matematycznych szczegółów – szczegółów, które w astronomii są wszystkim. Najbardziej zadziwiające jest to, że owo większe dzieło istotnie powstało. Mieszkając z dala od ośrodków życia umysłowego, pochłonięty uciążliwymi codziennymi obowiązkami, Kopernik potrafił nie tylko zaproponować, lecz także i opracować we wszystkich matematycznych szczegółach nową teorię niebios, znaleźć czas i siły na niezbędne obserwacje i, przede wszystkim, obliczenia. Teorii takiej nie zaproponował ani żaden z astronomów islamskich, którzy przez wieki zastanawiali się nad dorobkiem Ptolemeusza, ani żaden z astronomów europejskich, sławnych poprzedników Kopernika, jak Georg Peurbach czy Regiomontanus. Dwaj ostatni żyli wprawdzie dość krótko, nic jednak nie wskazuje, aby mieli ideę równie wielkiego dzieła. Jeśli podziwiamy śmiałość Kolumba czy Vasco da Gamy, którzy potrafili zdobyć się na odszukanie nowych dróg i nie wahali się podejmować ryzyka, to należy także mieć podziw dla intelektualnej odwagi Kopernika, ktory podjął się opracowania nowego systemu astronomii, sprawdzenia do końca swojego odważnego pomysłu, mimo że wydawać on się mógł szalony. Oczywiście innego rodzaju odwagi wymaga morska podróż i astronomiczne obliczenia – w obu jednak wypadkach trzeba wierzyć w swoją szczęśliwą gwiazdę. Być może właśnie w odwadze zapuszczenia się w gąszcz rachunków i obserwacji niezbędnych do zbudowania nowej astronomii należy upatrywać wpływu epoki Odrodzenia, Kopernik jest człowiekem renesansu, człowiekem odważniejszym i podejmującym ryzyko.

Impulsem do opracowania traktatu stało się może zetknięcie z drukowanym wydaniem Almagestu (1515) Ptolemeusza, który ukazywał wyraźnie, czego potrzeba, aby zbudować kompletną teorię ruchu planet. Kopernik jako pierwszy nowożytny astronom podjął się tego zadania. Z tą myślą zaczął prowadzić obserwacje niezbędne, by wyznaczyć parametry ruchów planet. Jak się wydaje, to właśnie na potrzeby dzieła Kopernik zajął się poważniej obserwacjami astronomicznymi. Choć dokonywał ich także i wcześniej, i do książki weszła nawet jedna z obserwacji wykonanych jeszcze we Włoszech, to Kopernik nie był nigdy wielkim obserwatorem. Nie był też obserwatorem najdokładniejszym. Jego przyrządy były stosunkowo proste, by nie powiedzieć prymitywne i służyć miały jedynie uzyskaniu niezbędnych danych liczbowych. Ostateczna teoria nie była ani dokładniejsza, ani prostsza od Ptolemeuszowej. Istotny okazał się właściwie tylko heliocentryczny punkt wyjścia, cała reszta zestarzała się szybko. W 1609 r. Johannes Kepler wydał dzieło Astronomia nova i to ono stanowi początek nowożytnej astronomii.

(*) Przybysz z innego układu planetarnego mógłby się zdziwić, czemu tyle ulic i szkół w Polsce nosi imię Niemca z Prus Królewskich, który we Włoszech zapoznał się z astronomią Arabów i Persów rozwijaną w Azerbejdżanie irańskim oraz w Syrii i opracował alternatywę dla modelu aleksandryjskiego Greka Ptolemeusza, mieszkając całe życie na Warmii, która była oddzielnym księstwem, nie graniczącym z Polską.

Trochę rachunków na koniec. Wprowadźmy ruchomy układ współrzędnych x,y jak na rysunku. Mamy wtedy dla położenia planety w funkcji kąta M (proporcjonalnego do czasu):

\left\{\begin{array}{l} x=(e_1+e_2)\sin M \\[5pt] y=(e_1-e_2)\cos M.\end{array}\right.

Łatwo zauważyć, że tor jest elipsą o półosiach e_1+e_2,e_1-e_2 (wystarczy skorzystać z jedynki trygonometrycznej).

Można też obliczyć kąt M-v oraz odległość planety od Słońca r (przyjmujemy R=1:

\left\{\begin{array}{l} \mbox{tg}\, (M-v)=\dfrac{(e_1+e_2)\sin M}{1+(e_1-e_2) \cos M} \\[15pt] r^2=(1+y)^2+x^2.\end{array}\right.

Najlepsze dopasowanie do modelu Ptolemeusza uzyskamy, gdy

e_1=\frac{3}{2} e \ \ e_2=\frac{1}{2} e.

Ani Ibn aš-Šātir (który wymyślił ten podwójny epicykl), ani Kopernik, który go stosował, nie wiedzieli, jak dobrać optymalnie wartości e_1, e_2. Stosując rozwinięcia wzgledem e, otrzymujemy z dokładnością do wyrazów kwadratowych

\left\{\begin{array}{l}M-v=2e\sin M-e^2 \sin^2 2M \\[5pt] r=1+e^2+e\cos M-e^2 \cos 2M.\end{array}\right.

Błędy w stosunku do ruchu keplerowskiego są teraz równe

\left\{\begin{array}{l} \Delta v=-\frac{1}{4}e^2 \sin 2M \\[5pt] \Delta r=-\frac{1}{2}e^2 (1-\cos 2M).\end{array}\right.

Widzimy więc, że kąt v ma ten sam błąd co u Ptolemeusza, natomiast błędy odległości są dwa razy większe. Teoria Ptolemeusza była więc potencjalnie lepsza. Ideologia świata-boskiego zegara psuła astronomię.

 

 

Reklamy

Czemu Ptolemeusz był wielkim astronomem?

Klaudiusz Ptolemeusz – jak wskazuje rzymskie Klaudiusz i greckie Ptolemeusz – był Grekiem żyjącym w czasach imperium rzymskiego. Pracował w kosmopolitycznej, handlowej i uczonej Aleksandrii, jednym z wielu miast założonych przez Aleksandra Macedońskiego. Zdobywca światów umarł młodo, lecz poszerzył zasięg greckiej kultury. Egipska Aleksandria stała się głównym ośrodkiem nauki tworzonej w języku greckim: Muzeum albo Musejon, przybytek muz, był czymś w rodzaju instytutu naukowego ze słynną biblioteką, obserwatorium astronomicznym, ogrodami botanicznymi i zoologicznymi. Od Euklidesa przez Apoloniusza, Hipparcha do Ptolemeusza rozwijały się tam nauki matematyczne. Sam Ptolemeusz jest autorem Geografii, traktatów o muzyce, optyce i astrologii oraz podstawowego dzieła astronomicznego Mathēmatikē Syntaxis („Zbiór matematyczny”– bezbarwne tytuły nie są wynalazkiem współczesnych uczonych), znanego też jako Megiste („Największy”), co przeszło w arabskie al-majisṭī, z czego wzięła się używana od średniowiecza do dziś nazwa Almagest. Już sama historia tego tytułu pokazuje skomplikowane dzieje przekazywania wiedzy greckiej do nowożytnej Europy.

Mapa świata wg Geografii Ptolemeusza narysowana w XV wieku (Wikimedia Commons)

Mapka rozpowszechnienia Almagestu do czasów Kopernika (В.А. Бронштэн, Клавдий Птолемей, 1988)

Z czasem dzieło Ptolemeusza zawędrowało nawet dalej niż sięgały zdobycze Aleksandra Macedońskiego, bo aż do Indii i do Chin. Co było w nim tak niezwykłego, że tłumaczono je na różne języki, pracowicie kopiowano, a potem drukowano? Almagest i Elementy to najważniejsze dzieła greckie dotyczące nauk ścisłych. Elementy były popularne aż do końca XIX wieku, ponieważ zawierały podstawy geometrii i nadawały się do nauczania w szkołach. Jednak późniejsi uczeni greccy, jak Archimedes, Apoloniusz czy Pappus znacznie powiększyli wiedzę matematyczną. Inaczej w przypadku Almagestu: stanowił on szczyt osiągnięć greckich i można odpowiedzialnie powiedzieć, że dopiero Johannes Kepler posunął dalej sztukę rozumienia ruchów planet, przekraczając poziom osiągnięty przez Ptolemeusza. A więc od II w.n.e. aż do początku wieku XVII ludzkość nie miała lepszej astronomii niż Ptolemeuszowa. Zmieniały się mapy polityczne, wierzenia, religie, języki, kultury, a dzieło Ptolemeusza wciąż stanowiło punkt odniesienia, szczyt kiedyś już zdobyty, ale wciąż trudny do ponownego zdobycia.

Teorie wykładane w Almageście nie są autorstwa Ptolemeusza. Konstrukcje geometryczne zawierające złożenia ruchów po okręgach zastosował już Apoloniusz. Wiele ważnych obserwacji dokonał Hipparch. Do Ptolemeusza jednak należy synteza całej tradycji i sformułowanie jej w postaci pewnego systemu wiedzy. Korzystał z nagromadzonych obserwacji, sam był aktywnym obserwatorem, poprawił też zastane rozwiązania. Almagest pozwala dla danej daty i godziny znaleźć położenie na niebie Słońca, Księżyca, a także pięciu znanych wówczas planet. Sądzono, że położenia te mają wpływ na los człowieka – astrologia była głównym motywem badań astronomicznych. Można wszakże sądzić, że matematyczne umysły w rodzaju Apoloniusza czy Ptolemeusza tak czy owak zgłębiałyby ruchy planet. Są one bowiem powtarzalne, ale niezupełnie, ich usytuowanie nigdy się naprawdę nie powtarza, choć w oczywisty sposób zawiera pewne cykle. Sądzę, że i bez astrologii ruch planet byłby wyzwaniem. Astrologia była raczej koniecznym dopowiedzeniem: skoro świat jest tak urządzony, że owe boskie ciała krążą w zawiły sposób po niebie, to musi to w jakiś sposób dotyczyć także naszego losu. Oczywiście, przeskok od matematyki do cech charakteru czy obliczenia daty odpowiedniej  np. na ślub był logicznie i empirycznie wadliwy, ale i zrozumiały: ludzie zawsze starają się znaleźć w świecie przede wszystkim to, co może ich dotyczyć. Egocentryzm jest postawą jeszcze bardziej naturalną niż geocentryzm.

Podstawowa idea modeli planetarnych była prosta. Mamy dwa okręgi: większy o środku O (deferent) i mniejszy o środku C (epicykl). Wektor \overrightarrow{OC} obraca się, unosząc epicykl, planeta P znajduje się na jego obwodzie, na końcu wektora \overrightarrow{CP}. Ziemia spoczywa w punkcie Z. Ruch zachodzi tu w jednej płaszczyźnie. Planety znajdują się na niebie zawsze w pobliżu ekliptyki, czyli rzutu płaszczyzny orbity Ziemi na sferą niebieską. A więc w pierwszym przybliżeniu możemy ich ruchy rzutować na tę jedną płaszczyznę – dla nas jest to płaszczyzna orbity Ziemi, dla starożytnych była to płaszczyzna orbity Słońca. Dzięki temu model płaski może opisywać najważniejszą część ruchu planet. Odchyleniami od ekliptyki zajmowano się również, ale było to niejako drugie przybliżenie, którego szczegóły tutaj sobie darujemy. Warto pamietać, że dopiero Johannes Kepler wpadł na pomysł, iż orbity planet leżą w płaszczyznach, które przecinają się w Słońcu. Nie wiedzieli o tym starożytni ani Mikołaj Kopernik.

Zazwyczaj dominuje ruch po deferencie w lewo i planeta porusza się względem gwiazd z zachodu na wschód. Czasem jednak zatrzymuje się i zaczyna poruszać się ruchem wstecznym, ze wschodu na zachód. Potem znów wraca do ruchu prostego, tzn. z zachodu na wschód. Pętla w naszym przybliżeniu powinna być spłaszczona: zostaje tylko zmieniający się ruch w płaszczyźnie ekliptyki. Epicykl potrzebny był właśnie do tego, by odtwarzać ruch wsteczny planety.

 

Ptolemeusz ani jego koledzy nie wiedzieli prawie nic o odległościach planet. Wiadomo wprawdzie, że np. Mars jest najjaśniejszy w środku swego ruchu wstecznego, kiedy jest na niebie po przeciwnej stronie niż Słońce (jest w opozycji do Słońca, mówią astronomowie). Sugeruje to, że powinien wtedy być bliżej, ale epicykl ma taki, a nie inny kształt z przyczyn estetyczno-filozoficznych: co się porusza w cyklu, powinno się poruszać koliście. Kierunki przewidywane przez ten model są  opisane prawidłowo – tyle wiedział Ptolemeusz. Fakt, że również i odległości są opisane prawidłowo, jest dodatkową cechą modelu, z czego pierwszy zdał sobie sprawę Kopernik. Jeśli znamy kierunki obu wektorów \overrightarrow{OC}, \overrightarrow{CP}, to znamy i wektor położenia planety

\overrightarrow{ZP}=\overrightarrow{ZO}+\overrightarrow{OC}+\overrightarrow{CP}.

Pierwszy z wektorów po prawej stronie jest stały. Zauważył bowiem Hipparch, że Ziemię lepiej jest odsunąć nieco od środka deferentu O (dla każdej planety inaczej i w innym kierunku). Dwa ruchome wektory obracają się jednostajnie i ich kierunek dla danej chwili można zawsze obliczyć.

I w tym miejscu pojawia się z pozoru drobne ulepszenie autorstwa Ptolemeusza: ekwant. Miał on do dyspozycji więcej obserwacji niż Hipparch, minęły między nimi stulecia – postęp naukowy był wówczas niesłychanie powolny. Zresztą po Ptolemeuszu w zasadzie postępu nie było przez następne tysiąc pięćset lat. Piszę w zasadzie, ponieważ astronomowie islamscy i potem chrześcijańscy aż do Kopernika i do końca XVI wieku wprowadzali rozmaite udoskonalenia, które jednak niczego nie poprawiały. Na początku XVII wieku nadal najlepszą teorią była ta Ptolemeuszowa. Jej błędy dla Marsa zwykle nie przekraczały 1°.

Błędy w położeniach Marsa według efemeryd Origanusa (Ptolemeusz) i Keplera (źródło: O. Gingerich, Johannes Kepler and the Rudolphine Tables, „Sky and Telescope”, December, 1971, s. 328). Warto może dodać, że oprócz uczonych islamskich i Kopernika nikt nie dodawał epicykli do epicykli. Spotyka się czasem powiedzenie, że dalsze poprawianie jakiejś niezbyt udanej teorii to dodawanie kolejnych epicykli. Otóż takiego dodawania kolejnych epicykli w historii nie było. Teoria Ptolemeusza zestarzała się, by tak rzec moralnie (heliocentryzm itd.), ale matematycznie i pod względem zgodności z obserwacjami – wcale. Dalsze epicykle nie były potrzebne.

Gdy obserwuje się ruchy Marsa (w tym przypadku widać to najwyraźniej), okazuje się, że pętle ruchu wstecznego mają różne wielkości w różnych częściach nieba. Planeta w opozycji porusza się też raz szybciej, raz wolniej. Odsunięcie Ziemi od środka deferentu nie wystarczy. Dlatego Ptolemeusz wprowadził kontrowersyjne, ale znakomite rozwiązanie. Przyjął mianowicie, że punkt C  porusza się jednostajnie nie względem środka okręgu O, lecz względem pewnego innego punktu E (zwanego ekwantem) i położonego po drugiej stronie środka deferentu tak, że ZO=OE.

Teraz kąt M jest proporcjonalny do czasu, planeta nadal krąży jednostajnie po epicyklu (kąt \gamma=\angle{HCP} jest proporcjonalny do czasu). Teoria przewiduje następujące ruchy Marsa:

Z punktu widzenia obserwatora ziemskiego Mars zatacza skomplikowane spirale: ich pętle odpowiadają ruchowi wstecznemu. Widzimy, że ich wielkość zależy od miejsca, w którym planeta znajdzie się najbliżej Ziemi: opozycje bliskie ujemnemu kierunkowi osi x odpowiadają mniejszej odległości planety od Ziemi niż opozycje po przeciwnej stronie ekliptyki. Dobrą zgodność ilościową otrzymujemy, uwzględniając ekwant – kontrowersyjne, jako się rzekło, rozwiązanie Ptolemeusza. Popatrzmy jeszcze na pętle Wenus:

Na drugim wykresie widać, że tor planety podwaja się po ośmiu latach. Zjawisko to wynika ze szczególnej wartości stosunku okresów obiegu Ziemi i Wenus wokół Słońca i nie ma dotąd przekonującego wyjaśnienia.

Jak dobrym przybliżeniem rzeczywistości jest ekwant? W przypadku Marsa deferent odpowiada orbicie planety, epicykl – orbicie Ziemi. Ograniczmy się do deferentu.

Położenie punktu C, czyli heliocentrycznie rzecz biorąc, planety, dane jest odległością r i kątem v. Kąt M jest proporcjonalny do czasu. Można łatwo obliczyć, że w modelu Ptolemeusza dla R=1, otrzymujemy (pomijając wyrazy z potęgami e wyższymi niż druga):

\left\{\begin{array}{l}M-v=2e\sin M-e^2 \sin 2M\\[5pt] r=1+\frac{3}{4}e^2+e\cos M-\frac{3}{4}e^2\cos 2M.\end{array}\right.

Porównajmy to z wynikami dla ruchu keplerowskiego po elipsie z tą samą dokładnością:

\left\{ \begin{array}{l} M-v=2e\sin M-\frac{5}{4}e^2 \sin 2M \\[5pt] r=1+\frac{1}{2}e^2+e\cos M-\frac{1}{2}e^2 \cos 2M.\end{array}\right.

Zatem błędy równe są

\left\{\begin{array}{l}\Delta v=-\frac{1}{4}e^2 \sin 2M \\[5pt] \Delta r=-\frac{1}{4}e^2(1-\cos 2M).\end{array}\right.

Nawet dla Marsa, gdy e\approx 0,1, błędy są mniejsze niż \Delta v=0,0025 \mbox{ rd}=8,5', a \Delta r=0,0025. Teoria Ptolemeusza jest więc rewelacyjnie dokładna, biorąc pod uwagę ówczesny stan wiedzy i dokładność pomiarów. O takiej dokładności marzył Mikołaj Kopernik, ale jej nie osiągnął. Problemem była tu nie teoria, lecz dobór parametrów modelu na podstawie obserwacji.

Jeszcze na koniec powiedzmy, dlaczego pomysł z ekwantami był kontrowersyjny przez 1500 lat, zanim Kepler nie zrozumiał, jak świetne jest to przybliżenie rzeczywistych ruchów i nie poszedł dalej. Teoria geometryczna była znakomita, ale nie bardzo sobie wyobrażano, jak niebiosa realizują taki ruch. Planety były, jak wierzono, unoszone przez pewne sfery, rodzaj mechanizmu zegarowego. Można wyobrazić sobie, że ów mechanizm zawiera mniejsze i większe kółka. Można było nawet umieścić Ziemię ekscentrycznie. Jednak obrót, który nie jest jednostajny względem swego środka C, ale względem innego punktu E, wydawał się mechanicznie niewykonalny. Ludzie rozumieją zawsze tyle, ile potrafią wykonać albo przynajmniej wyobrazić sobie jako pewną idealną wersję tego, co działa tu na Ziemi. Ptolemeusz wykazał się niezwykłą odwagą, przedkładając zgodność z obserwacjami nad fizyczną realizację. Jego ekwant był ogniskiem elipsy w zarodku: w jednym ognisku mamy Słońce, wokół drugiego ogniska, które jest puste, prędkość kątowa jest niemal stała.

Pokażemy jeszcze, jak w dzisiejszym języku opisać można Ptolemeuszowe tory planet i jak wyznaczyć M-v,r w funkcji M, czyli czasu.

Z trójkąta COE i twierdzenia sinusów dostajemy

\dfrac{\sin (\beta-M)}{e}=\dfrac{\sin M}{R} \Rightarrow \beta=M+\arcsin (\frac{e}{R}\sin M).

Wektor położenia planety jest zatem równy:

\overrightarrow{ZP}=[e+R\cos\beta+\varrho \cos\alpha,R\sin\beta+\varrho\cos\alpha],

gdzie \alpha jest kątem CP z osią x. Oba kąty M, \alpha zmieniają się liniowo z czasem:

 M=\dfrac{2\pi}{T_1}+M_0,\; \alpha=\dfrac{2\pi}{T_2}+\alpha_0,

gdzie T_1,T_2 są okresami obiegu deferentu i epicyklu. Linie zakreślane przez P narysowane zostały wyżej dla przypadku Marsa i Wenus.

Z rysunku tego łatwo wyznaczyć M-v,r w funkcji M, czyli czasu.

Mamy bowiem kolejno:

\mbox{tg}\,(M-v)=\dfrac{ZE''}{CE''}=\dfrac{2e\sin M}{CE'+E'E''},

CE'=1^2-e^2\sin^2 M,\, E'E''=e\cos M.

Ostatecznie więc

\mbox{tg}\, (M-v)=\dfrac{2e\sin M}{\sqrt{1-e^2\sin^2 M}+e\cos M}.

Odległość r znajdujemy z tw. Pitagorasa. Wynik dla ruchu keplerowskiego znaleźć można w podręcznikach mechaniki niebios, np. klasycznej książce F.R. Moultona. Nasza konwencja jest zgodna z tradycją dawnej astronomii: mierzymy kąty od apogeum. Obecnie panuje zwyczaj mierzenia ich od perigeum/perihelium, różnią się więc o 180º, co daje nieco inne znaki.

Wieczny powrót od Retyka i Kopernika do Poincarégo

Niebo Greków składało się z wirujących z różną prędkością sfer. Jak pisał Platon w Timajosie:

…aby dać jasną miarę relatywnej powolności i szybkości, z którymi gwiazdy wykonują swoich osiem ruchów, Bóg umieścił na drugiej po Ziemi orbicie światło, które nazywamy teraz Słońcem, aby całe niebo było oświetlone, a jestestwa żyjące, wszelkie, jakie natura zamierzyła, mogły uczestniczyć w Liczbie, ucząc się arytmetyki przez obroty Tego Samego i podobnego. (…)  A na obieg innych gwiazd ludzie, z bardzo małymi wyjątkami, nie zwracają uwagi, nie nadają im nazw, nie porównują ich obiegów ilościowo, tak, że powiedzieć można, nie wiedzą, że czas to błędne wędrówki tych gwiazd nieprzeliczone i przedziwnie różnorodne. Mimo to można pojąć, że doskonała liczba czasu wypełnia rok doskonały wtedy, gdy wszystkie osiem obrotów, mających swoje względne stopnie szybkości, dokona się wspólnie i zakończy w tym samym czasie, mierzonym obrotem Tego Samego, które się porusza w sposób jednostajny. (39 c-39d)

Według Platona po 36 000 lat cykl kosmiczny się powtarza. W XVI w. Georg Joachim Retyk, jedyny uczeń Kopernika, powiązał epoki historyczne ze zmianami mimośrodu orbity Ziemi. Środek orbity Ziemi poruszał się bowiem u Kopernika po niewielkim kółku , a okres tego ruchu wynosił 3434 lat egipskich. Kiedy mimośród orbity Ziemi był największy Rzym stał się z republiki cesarstwem. Po ćwierci obiegu owego małego kółka powstał islam, a po następnej ćwierci ok. 1652 r. – upadnie, jak prorokował. Drugie przyjście Chrystusa miało nastąpić w roku 2510, gdy mimosród wróci po raz drugi do swej wartości w chwili stworzenia. W książce Kopernika nie znajdziemy rozważań tego typu. Nie ma jednak podstaw by sądzić, że ich nie aprobował. Astrologia była dziedziną respektowaną, głównym powodem badania położeń planet na niebie. Więc choć Kopernik nie był z pewnością entuzjastycznym astrologiem – nie zachowały się tworzone jego ręką horoskopy, to mógł wierzyć, że los Ziemi i jej mieszkańców jest powiązany ze zjawiskami niebieskimi. O obrotach było dziełem czysto astronomicznym i matematycznym, zatem umieszczanie w nim astrologicznych konkretów byłoby nie na miejscu.

Środek orbity Ziemi \bar{S} porusza się po małym kółku, rzeczywiste Słońce spoczywa sobie spokojnie obok, nie biorąc udziału w tych „rewolucjach”. Słowo użyte przez Kopernika w tytule De revolutionibus oznaczało obroty, a więc coś cyklicznego, z czasem zaczęło oznaczać wszelkie dramatyczne przemiany, na ogół już jednokierunkowe. Proporcje na rysunku są oczywiście przesadzone, inaczej niewiele byłoby widać.

Wraz z upadkiem idei sfer niebieskich znaczenie cyklów planetarnych zmalało, a czas zaczął wydawać się nieskończony niczym prosta euklidesowa: od minus do plus nieskończoności. Oczywiście, chrześcijanie obowiązani byli wierzyć w stworzenie świata i jego koniec, ale z braku dopływu nowych bodźców wiara ta wyraźnie słabła. Już w XVIII wieku niezbyt się buntowano, gdy Buffon obliczył wiek Ziemi na mniej więcej dziesięć razy dłuższy, niż wynikałby z Biblii. Potem Fourier, zajmując się stygnięciem Ziemi, jeszcze powiększył tę wartość. Mechanistyczny wszechświat najłatwiej było sobie wyobrażać jako trwający od zawsze i mający istnieć zawsze. Od połowy XIX w. do obrazu tego doszły dwie zasady termodynamiki. Według pierwszej – zasady zachowania energii – istnieje wielkość, która we wszystkich przemianach się nie zmienia, co przemawia za tym, że wszechświat nie ma końca. Według drugiej zasady energia rozkłada się z czasem coraz bardziej równomiernie, świat powinien stawać się jednolitym ośrodkiem o stałej gęstości i temperaturze. Tak więc choć istniałby zawsze, po pewnym czasie przechodziłby w postać mało interesującą i praktycznie martwą. Mówiło się o „śmierci cieplnej” wszechświata.

Pomysł wiecznego powrotu pojawił się w latach osiemdziesiątych XIX stulecia nie u uczonego, lecz u filozofa, Friedricha Nietzschego. Pisał on:

Jeśli wszechświat należy uważać za pewną ilość energii, za pewną liczbę ośrodków energii, a każda inna koncepcja pozostaje nieokreślona i przez to bezużyteczna, to wynika stąd, że wszechświat przejść musi przez obliczalną liczbę kombinacji w wielkiej grze losowej, którą jest jego istnienie. W nieskończoności, w takim albo innym momencie, zrealizowana musi zostać każda możliwa kombinacja; a nawet więcej: musi ona zostać zrealizowana nieskończenie wiele razy. (…) wszechświat ukazuje się więc jako ruch kolisty, który zdążył się już powtórzyć nieskończenie wiele razy i który toczy swą grę przez całą wieczność.

Nietzsche, pogrążający się już w szaleństwie, przekonany był, że rozumowanie takie przeczy mechanistycznej nauce, którą traktował pogardliwie. Jednak w roku 1889 Henri Poincaré udowodnił, że w newtonowskiej mechanice także mamy do czynienia z wiecznym powrotem. Jego rozprawa zatytułowana O problemie trzech ciał i równaniach dynamiki zawierała nowatorskie podejście do klasycznego tematu za pomocą metod topologii, czyli rozważań operujących ogólnymi pojęciami takimi jak ciągłość, które okazały się bardzo owocne. Poincaré stał się prekursorem teorii chaosu. A metody topologiczne wykazywały jeszcze nieraz swą przydatność: np. w badaniu osobliwości w ogólnej teorii względności (czarne dziury, początek wszechświata) czy w badaniach osobliwych stanów materii (Nobel 2016).

Poincaré udowodnił następujące twierdzenie: Jeśli dopuszczalne stany układu mechanicznego zawarte są w pewnym ograniczonym obszarze D, to w dowolnym otoczeniu U każdego punktu obszaru D znajdzie się punkt s, który powraca do otoczenia U.

Można to narysować. Przestrzeń stanów to zbiór punktów, których współrzędnymi są położenia i pędy x,p (same położenia nie wystarczą, bo nie precyzują, jak zachodzi ruch; jest to tzw. przestrzeń fazowa układu). Naszym obszarem D jest niebieska elipsa (obszar ograniczony odpowiada temu, że np. energia układu jest stała). Rozpatrujemy dowolnie mały obszar U (u nas ma postać czerwonego kółka). Stany z obszaru U po jakimś kroku czasowym przechodzą w stany g(U), niemające wspólnego punktu z U (gdyby tak nie było, to już mamy tezę twierdzenia). Po kolejnych krokach czasowych otrzymujemy g^2(U),\ldots g^n(U). Wiadomo z mechaniki, że objętości tych wszystkich obszarów U, g(U),\ldots g^n(U) są jednakowe (twierdzenie Liouville’a). Skoro tak, to któryś z obszarów ciągu g^n(U) musi przeciąć się z U, a tym samym istnieć będzie punkt s należący zarówno do U, jak i g^n(U) (*)

Oznacza to, że wybierając dowolny stan początkowy i czekając dostatecznie długo, doczekamy się powrotu naszego układu jeśli nie do punktu początkowego to dowolnie blisko tego punktu. Wynik jest zupełnie ogólny, nie musimy nic wiedzieć na temat działających sił, a nasz układ może być dowolnie duży. Twierdzenie Poincarégo pokazuje więc, że na gruncie mechaniki mamy do czynienia z wiecznym powrotem. Można pokazać, że powroty takie będą się powtarzać nieskończenie wiele razy. Idea powrotu nie przeczy więc mechanicznemu światu, choć niezgodna jest ze śmiercią cieplną wszechświata. Poincaré zauważył filozoficzne konsekwencje swego twierdzenia. Zauważył je także młody matematyk Ernst Zermelo, asystent Plancka, który wystąpił z polemiką przeciwko koncepcji entropii Boltzmanna. Zermelo dał się potem poznać jako wybitny specjalista od podstaw matematyki, jego aksjomaty teorii mnogości stosowane są dziś powszechnie.

(*) Idea dowodu twierdzenia Poincarégo opiera się na zachowaniu objętości w przestrzeni fazowej. Kolejne zbiory g^k(U) mają takie same objętości, nie mogą więc być parami rozłączne, gdyż wtedy suma ich objętości przekroczyłaby każdą zadaną liczbę, a wszystko musi się zmieścić w większym obszarze D. Jeśli zaś jakaś para tych obszarów nie jest rozłączna, np. g^k(U) \cap g^l(U)\neq \O przy pewnych k>l\geq 0, to g^{k-l}(U)\cap U \neq\O , co oznacza, że dla jakiegoś punktu s\in U mamy s=g^{k-l}y, gdzie y\in S.

Zachowanie objętości kolejnych obszarów wynika stąd, że gdybyśmy wyobrazili sobie punkty przestrzeni fazowej jako punkty w poruszającej się cieczy, to dywergencja pola prędkości owej cieczy równa się zeru, a to jest warunek dla cieczy nieściśliwej, czyli zachowującej objętość. Oznaczając wektor prędkości \vec{q}=(\dot{x}_i,\dot{p}_i) dla i=1,\ldots, 3N (gdzie N jest liczbą cząstek składających się na układ), mamy

\mbox{div } \vec{q}=\dfrac{\partial\dot{x}_i}{\partial x_i}+\dfrac{\partial\dot{p}_i}{\partial p_i}=\dfrac{\partial^2 H}{\partial x_i \partial p_i}-\dfrac{\partial^2 H}{\partial p_i \partial x_i}=0,

gdzie H=H(x,p) jest hamiltonianem układu, po wskaźniku i sumujemy.

Dodatek matematyczny, twierdzenie Poincarégo w nowoczesnym sformułowaniu. Ujęcie to zawdzięczamy Constantinowi Carathéodory’emu, matematykowi z Getyngi, był już rok 1919. Pojawiło się pojęcie miary, będące uogólnieniem zwykłej objętości. Twierdzenie Poincarégo można uściślić w ten sposób, że zbiór punktów przestrzeni fazowej, które nigdy nie powracają do wybranego otoczenia jest miary zero. Zbiory miary zero, czyli zerowej objętości, mogą mieć skomplikowaną strukturę, ale są rzadkie w tym sensie, że nie można im przypisać żadnej dodatniej objętości. Nowoczesne pojęcie miary zbioru rozszerza dodawanie miar na zbiory przeliczalne (dające się ponumerować liczbami naturalnymi, ciągi zbiorów). Miara spełnia więc warunek:

\mu(\bigcup\limits_{i=1}^{\infty} A_i)=\sum\limits_{i=1}^{\infty} \mu(A_i),

gdy zbiory są parami rozłączne: A_i\cap A_j=\O, dla różnych wskaźników i,j. Pokażemy, że jeśli odwzorowanie g zachowuje miarę, a miara obszaru D jest skończona, to miara zbioru tych punktów D, które nie mają własności powracania, jest równa zeru. W tym sensie prawie każdy stan ma własność powracania.

Dla dowodu pokrywamy obszar D przeliczalną liczbą kul U_1, U_2, \ldots, . Dla każdej kuli U_n definiujemy jej podzbiór B_n jako zbiór tych s\in U_n, dla których g^k(s)\in U_n tylko dla skończenie wielu wartości wskaźnika k. Zbiór B=\bigcup\limits_{i=1}^{\infty} B_i jest zbiorem punktów niepowracających. Ponieważ \mu(B)\leq \sum\limits_{i=1}^{\infty} \mu(B_i), wystarczy udowodnić, że każdy ze zbiorów B_n jest miary zero.

W tym celu wybierzmy dowolny wskaźnik i. Będziemy teraz pisać oznaczenia U_i bez indeksu dla  uproszczenia zapisu.

Rozpatrzmy zbiór C=U\setminus \bigcup\limits_{p=1}^{\infty}g^{-p}(U). Punkt s\in g^{-k}(U) wtedy i tylko wtedy, gdy g^k(s)\in U oraz g^m(s)\notin U przy m>k. Zbiory g^{-i}(C), g^{-j}(C) są parami rozłączne, gdy wskaźniki i, j są różne, przy czym dopuszczamy, aby któryś z nich równał się zeru (g^{-0}(C)=C). Zbiór B_i=\bigcup\limits_{p=0}^{\infty}g^{-p}(C). Zatem mamy

\mu(B_i)=\sum\limits_{p=0}^{\infty}\mu(g^{-p}(C)).

Miary wszystkich zbiorów po prawej stronie są takie same, bo nasze odwzorowanie zachowuje miarę. Gdyby miary te były dodatnie, suma byłaby nieskończona, co jest niemożliwe, gdyż B_i\subset U_i, więc jego miara musi być skończona. Zatem wszystkie miary po prawej stronie są zerowe i \mu(B_i)=0. Zbiór B jest przeliczalną sumą B_i, zatem i on musi być miary zero. Dowód ten pochodzi z artykułu R. Daniela Mouldina, Probability and Nonlinear Systems, „Los Alamos Science” nr poświęcony Stanisławowi Ulamowi.

Twierdzenie Poincarégo o powracaniu ilustruje tzw. kot Arnolda (chodzi o Vladimira Arnolda, wybitnego matematyka rosyjskiego). Mamy tu ograniczoną przestrzeń stanów i pewną grupę stanów początkowych, które ułożone są w kształt kociego pyszczka. Gdy puścimy w ruch tę animację, zobaczymy, że w pewnych chwilach kot powraca.

 

Fizyka dla mieszkańców Syriusza: stałe fizyczne (Max Planck, 1899-Matvei Bronstein, 1935)

Max Planck, profesor fizyki w Berlinie, najwybitniejszy niemiecki fizyk teoretyczny przełomu wieku XIX i XX, przez lata badał własności promieniowania termicznego. Idealnym obiektem badań jest tu tzw. ciało doskonale czarne, czyli takie, które pochłania całe padające nań promieniowanie. Można wykazać, że każde ciało doskonale czarne emituje promieniowanie o rozkładzie widmowym zależnym wyłącznie od temperatury. Np. Słońce jest w dobrym przybliżeniu ciałem doskonale czarnym.

Widzimy tu (szary) teoretyczny rozkład widmowy promieniowania ciała doskonale czarnego o temperaturze T=5777 K zestawiony z rzeczywistym promieniowaniem docierającym ze Słońca. Ciało doskonale czarne nie jest czarne, jego barwa zależy od temperatury. (obrazek: Wikimedia)

Znalezienie postaci krzywej widmowej tego promieniowania stało się największym osiągnięciem Maksa Plancka. Otrzymana przez niego zależność ma następującą postać

I(\lambda)=\dfrac{2hc^2}{\lambda^5}\,\dfrac{1}{\exp{(\frac{hc}{\lambda kT})}-1},

gdzie stałe k,c, h oznaczają odpowiednio stałą Boltzmanna (nazwa wprowadzona przez Plancka), prędkość światła w próżni i stałą Plancka. Mamy tu trzy stałe fizyczne, które ze względu na uniwersalność promieniowania powinny mieć fundamentalne znaczenie.

Max Planck zauważył (w roku 1899, zanim jeszcze wyprowadził swój słynny wzór), że stałe k, c,h w połączeniu ze stałą grawitacyjną G pozwalają wprowadzić jednostki niezależne od zaszłości ludzkiej historii czy w ogóle niezależne od naszych ludzkich parametrów: „pojawia się możliwość ustanowienia jednostek długości, masy, czasu i temperatury niezależnych od szczególnych ciał czy substancji, których znaczenie dla wszystkich czasów i wszystkich kultur, także pozaziemskich i pozaludzkich, pozostanie w konieczny sposób takie same”.

Stała Plancka to h=6,7\cdot 10^{-34} kg\cdot m^2/s , stała grawitacyjna to G=6,7\cdot 10^{-11} m^3/(kg\cdot s^2). Mamy więc dla ich iloczynu i ilorazu jednostki:

[hG]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{m}^3}{\mbox{kg}\cdot \mbox{s}^2}=\dfrac{\mbox{m}^3}{\mbox{s}^3}\mbox{m}^2=[c^3]\mbox{m}^2,

[h/G]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{kg}\cdot \mbox{s}^2}{\mbox{m}^3}=\mbox{kg}^2\cdot \dfrac{\mbox{s}}{\mbox{m}}=\mbox{kg}^2 [c^{-1}].

Zatem wielkości l_P, m_P będą nowymi „pozaziemskimi” jednostkami długości oraz masy:

l_P=\sqrt{\dfrac{hG}{c^3}}=4\cdot 10^{-35}\mbox{ m} ,

m_P=\sqrt{\dfrac{hc}{G}}=5,5\cdot 10^{-8}\mbox{ kg}.

Jednostkę czasu otrzymamy, dzieląc odległość przez prędkość światła:

t_P=\sqrt{\dfrac{hG}{c^5}}=1,3\cdot 10^{-43}\mbox { s}.

Te „pozaziemskie” jednostki Planck nazwał naturalnymi, a my dziś nazywamy układem jednostek Plancka. Podstawowe stałe fizyki mają w nim wartości równe 1: h=c=G=1. W roku 1899 interesująca wydawała się sama możliwość wprowadzenia jednostek, umożliwiających porozumiewanie się z fizykiem z Syriusza, który ma – jak to dobrze wiemy – postać  świecącego zielono dodekahedronu zanurzonego w inteligentnym oceanie (oni tam szybciej weszli w fazę AI).

Jednostki długości i czasu w układzie Plancka są skrajnie małe: nie tylko w porównaniu z nami, ale nawet z protonem i czasem potrzebnym światłu na przebycie jego wnętrza. Sens fizyczny tych jednostek stał się jasny znacznie później.

Najpierw powiedzmy, jak interpretuje się dziś stałe użyte przez Plancka.

Stała Boltzmanna jest w zasadzie przelicznikiem temperatury w kelwinach T na wartości energii kT – byłoby logiczniej z punktu widzenia fizyki mierzyć temperatury w jednostkach energii, a skoro tego nie robimy, potrzebujemy stałej Boltzmanna. Według najnowszych ustaleń od roku 2019 stała Boltzmanna równa jest dokładnie k=1,380649\cdot 10^{-13} J/K. Jest to tym samym nowa definicja kelwina (bo dżul zdefiniowany jest na podstawie kilograma, metra i sekundy).

Prędkość światła, czy ogólniej: każdego promieniowania elektromagnetycznego, w próżni wydawała się już około roku 1900 wielkością bardzo ważną. Dzięki teorii względności z roku 1905 wiemy, że jest to coś więcej niż pewna charakterystyczna prędkość w przyrodzie. Jest to bowiem naturalna granica prędkości ciał. Z punktu widzenia teorii względności prędkość światła jest właściwie przelicznikiem między odległościami a czasem. W fizyce poeinsteinowskiej odległości i czas należałoby mierzyć tymi samymi jednostkami. Inaczej mówiąc, stała c wyraża stosunek jednostek odległości do jednostek czasu. Jej wartość w dzisiejszej fizyce jest na mocy konwencji równa dokładnie c=299\,792\, 458 m/s$. Ta dziwna wartość wynika z potrzeby ciągłości dawnych i nowych jednostek.

Trzecia stałą, pojawiającą się we wzorze Plancka, jest oznaczana przez niego literą h wielkość, dziś zwana stałą Plancka. Pojawia się ona wszędzie tam, gdzie występują zjawiska kwantowe. Podstawowe równanie fizyki kwantowej, równanie Schrödingera, można zawsze zapisać w postaci

i\hbar \dfrac{\partial\psi}{\partial t}=H\psi,

gdzie i to jednostka urojona, a \hbar\equiv \dfrac{h}{2\pi}, \psi jest funkcją falową, a H – hamiltonianem, czyli matematycznym zapisem energii układu. Planck z początku nie wiedział, jak ogromne znaczenie ma jego stała wprowadzona dla promieniowania. Obecnie (od roku 2019) wartość stałej Plancka jest określona raz na zawsze jako h=6,67607015\cdot 10^{-34} J·s. W istocie, jest to nowa definicja kilograma, słynny wzorzec z Sèvres jest już niepotrzebny (kilogram pojawia się w jednostce energii: 1\mbox{J}=1 \mbox{kg}\cdot \dfrac{\mbox{m}^2}{\mbox{s}^2}.).

Stałe h,c,G określają możliwe teorie fundamentalne fizyki. Sytuację tę można przedstawić za pomocą sześcianu Bronsteina (sam obrazek jest późniejszy):

 

W początku układu mamy mechanikę klasyczną bez grawitacji. Odpowiada to wartościom \hbar=G=1/c=0. Szczególna teoria względności odpowiada przyjęciu 1/c<\infty, mechanika kwantowa przyjęciu niezerowej stałej Plancka \hbar\neq 0. Kwantowa teoria pola, czyli Model Standardowy cząstek odpowiada \hbar\neq 0 oraz c<\infty. Ogólna teoria względności zawiera stałą grawitacji G oraz prędkość światła c. Kwantowa teoria grawitacji byłaby „teorią wszystkiego” w tym sensie, że zawierałaby zarówno efekty kwantowe, jak i grawitacyjne. Wszystkie trzy stałe byłyby w niej niezerowe.

Matvei Bronstein, dwudziestoparolatek, już w roku 1933 zaczął się zastanawiać nad kwantowaniem grawitacji. Pięć lat później już nie żył, aresztowany i skazany na śmierć podczas wielkiego terroru w Związku Sowieckim. Także Lew Landau, największy rosyjski teoretyk, był wówczas aresztowany. W jego przypadku pomogła interwencja Piotra Kapicy.

Sześcian Bronsteina jest tylko prostą ilustracją jednego z aspektów poszukiwanej kwantowej teorii grawitacji: wszystkie trzy fundamentalne stałe miałyby w niej skończoną wartość. Wszystkie te stałe (wraz ze stałą Boltzmanna) pojawiają się w we wzorze Hawkinga na temperaturę czarnej dziury. Układ Plancka byłby w kwantowej grawitacji naturalnym układem jednostek. Znaczy to, że zjawisk kwantowych związanych z grawitacją należy oczekiwać w skali długości Plancka, czyli znacznie poniżej dostępnych dziś w badaniach. Masa Plancka jest niemal porównywalna z naszymi jednostkami. Znaczy to jednak, że odpowiadająca jej energia równa będzie E_P=m_P c^2=4,9\cdot 10^{9} J. W teorii fundamentalnej jest to energia olbrzymia, widać to, gdy wyrazimy ją w elektronowoltach:  E_P=3,07\cdot 10^{28} eV. Dla porównania najdroższy akcelerator w dziejach fizyki, LHC w CERN-ie, może maksymalnie osiągnąć energię 14 TeV, czyli 14\cdot 10^{12} eV – jest to piętnaście rzędów wielkości poniżej energii Plancka.

Wartości stałych fundamentalnych stanowią rodzaj przelicznika pomiędzy naszymi zwykłymi jednostkami, jak metry, sekundy, kilogramy, a jednostkami, jakich używa przyroda, zrozumiałymi dla kolegi z Syriusza. Nb. matematyka jest zapewne jedynym językiem, w którym moglibyśmy się z owym dodekaedrem porozumieć. Może należy zwrócić na to uwagę w dyskusji dotyczącej matury z matematyki: matematyka to jedyny język, w którym możemy się porozumiewać z mieszkańcami Syriusza czy szerzej: ze wszechświatem. Zastosowania są chyba oczywiste.

Niezależne od jednostek są stałe bezwymiarowe. Np. kwadrat ładunku elektronu można wyrazić następująco:

\alpha=\dfrac{q_e^2}{4\pi\varepsilon_0 \hbar c}=\dfrac{1}{137,036}.

Mając jeszcze do dyspozycji masę elektronu m_e, można wyrazić wszystkie wielkości atomowe. Energia wiązania elektronu w atomie wodoru to

E_j=\alpha^2 m_e c^2=13,6 \mbox{ eV},

a promień atomu (tzw. promień Bohra):

r=\dfrac{\hbar}{\alpha m_e c}=0,5\cdot 10^{-10}\mbox{ m}.

Wielkości te określają skalę zjawisk atomowych i cząsteczkowych. W  fundamentalnej teorii wszystkiego powinniśmy masę elektronu wyrazić w masach Plancka, a promień Bohra w długościach Plancka.

Ilu różnych bezwymiarowych stałych potrzebujemy do opisu świata? Używamy jednostek Plancka. Zatem grawitacja kwantowa nie zawiera żadnych dowolnych stałych. Model Standardowy potrzebuje trzech stałych określających siłę oddziaływań: oprócz \alpha dla oddziaływań elektromagnetycznych, potrzeba jeszcze stałych dla oddziaływań słabych i silnych. W sumie mamy 3 stałe. Dalej, potrzebujemy mas: sześciu kwarków, trzech leptonów i trzech neutrin oraz bozonu Higgsa (wszystko wyrażamy w masach Plancka, więc są to wielkości bezwymiarowe). Dotąd mamy 16 stałych. Potrzebna jest jeszcze wartość oczekiwana pola Higgsa: stała nr 17. Kolejnych 8 stałych bierze się z różnych macierzy mieszania. Daje to 25 parametrów, przy czym większość wynika z Modelu Standardowego. Wielkość ciemnej energii jest parametrem nr 26 (jeśli ciemna energia to stała kosmologiczna). Z jednej strony jest tych stałych za wiele jak na fundamentalną teorię, z drugiej strony jednak od czterdziestu lat nikt nie potrafi wskazać teorii bardziej ekonomicznej, a te stałe nie są jakimiś kaprysami teoretyków, lecz potwierdzane są w eksperymentach (tutaj LHC ma jak najbardziej zastosowanie).

Więcej szczegółów nt. stałych w artykule Johna Baeza.

 

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Po co człowiekowi w życiu logarytmy? Henry Briggs (1617)

Zanim przejdziemy do tytułowego pytania, zacznijmy od tego, jak należy wyobrażać sobie teorię oraz praktykę. Cesare Ripa daje następującą odpowiedź:

Słowo Theoria, oznaczające u Greków kontemplowanie, oglądanie, u nas zaczęło być stosowane na oznaczenie wszelkiego wywodu rozumowego opartego na przyczynach rzeczy stosownie do właściwych im porządków i z uwzględnieniem zasad zależących nie od rozsądku, lecz raczej od intelektu, gdyż zasady zawisłe od rozsądku określają Praktykę, przeciwstawną wszak Teorii. Ze względu na te okoliczności uważam, że Teorię całkiem trafnie przedstawić można w postaci młodej Niewiasty spoglądającej w górę, z dłońmi złączonymi, na głowie mającej cyrkiel o ramionach rozwartych i celujących w Niebo. Ma ona być odziana w dostojną błękitną suknię, i schodzić ze szczytu schodów. Wszystkie te szczegóły symbolizują wybitność, dostojność i wzniosłość. (przeł. I. Kania)

(…) Praktykę można przedstawić w postaci Staruchy z głową i rękami opuszczonymi w dół, ubranej nędznie w bure suknie, z wielkim rozwartym cyrklem, którego jedna nóżka wbita jest w ziemię; jedną ręką wspiera się na rzeczonym cyrklu, drugą – na liniale, w taki sposób, że druga nóżka cyrkla dotyka końca liniału układając się razem w kształt greckiej litery π, którą oni zwykli oznaczać Praktykę, podczas gdy Teorię oznaczali literą θ. (przekł. jw.)

Kto chodził do szkoły, ten wie, że Teoria ma przewagę nad Praktyką: ledwo zdążymy oswoić się z jednym pojęciem, a już mówi się o następnych i idzie dalej i dalej, nie pokazując zastosowań. W podobny sposób działały uniwersytety i szkoły także na przełomie XVI i XVII wieku. Dlatego znaczna część Rewolucji naukowej przebiegała niejako równolegle do systemu edukacji, który nawet owej rewolucji nie zauważył, nadal kształcąc na bazie Arystotelesa.

Logarytmy są wynalazkiem praktycznym, jednym z niewielu ważnych pojęć matematycznych, które powinno się wynosić ze szkoły. I nie chodzi o definicję czy dziwaczne równania z niewiadomymi pod logarytmem, ale o ideę zapisywania bardzo dużych albo bardzo małych liczb w krótki sposób. Logarytmy dziesiętne wprowadził Henry Briggs, profesor w londyńskim Gresham College. Była to szkoła o nastawieniu praktycznym, kształciła mierniczych, inżynierów i nawigatorów (żegluga oceaniczna zmusiła korzystania z astronomicznych metod wyznaczania położenia, a te wymagały obliczeń matematycznych). Pomysł należał do Szkota Johna Napiera, choć niezależnie od niego wpadł na podobną ideę Jost Bürgi, zegarmistrz i konstruktor przyrządów, zaprzyjaźniony z Johannesem Keplerem. Logarytmy pozwalały znacznie przyspieszyć obliczenia numeryczne, ponieważ mnożenie i dzielenie zastępują dodawaniem i odejmowaniem – działaniami znacznie mniej czasochłonnymi. Mówiono, że dzięki logarytmom życie astronomów wydłużyło się dwukrotnie, tak bardzo skracały one bowiem rachunki. Najważniejsze tablice astronomiczne czasów nowożytnych: Tablice Rudolfińskie (1627) Johannesa Keplera zostały obliczone przy wykorzystaniu logarytmów. Dzieło to zawierało frontispis przedstawiający świątynię astronomii, w której kilku sławnych uczonych minionych wieków prowadzi zaświatową debatę nad systemem planetarnym. Jedynie dwie kolumny oznaczone imionami Kopernika i Tychona Brahego są zdrowe i mocne, w suterenie widzimy Johannesa Keplera pochylonego nad swymi pracami.

Przyjrzyjmy się alegorycznym figurom na dachu świątyni. Cesarski orzeł zrzuca guldeny, co było raczej pobożnym życzeniem Keplera niż faktem, choć w sumie dzieło powstało dzięki patronatowi kolejnych cesarzy od Rudolfa II począwszy. Kobiece postaci od lewej strony począwszy to Physica lucis – fizyka światła, Optica – dzierżąca teleskop, Logarithmica – alegoria, niemal bogini logarytmów, Doctrina triangulorum – trygonometria, Stathmica – statyka przedstawiona z dźwignią (prawo dźwigni odgrywało zdaniem Keplera istotną rolę w ruchu planet) oraz Magnetica – alegoria nauki o magnetyzmie (uczony sądził, że jedną z sił poruszających planety jest specjalna siła magnetyczna). W aureoli wokół głowy Logarithmiki znajdują się cyfry 6931472, odpowiadające \ln(2)=0,6931472, dlatego pręty, które trzyma nasza bogini mają stosunek długości 1:2.

Johannes Kepler widział więc wagę logarytmów dla astronomii. Henry Briggs obliczył pierwsze praktyczne tablice logarytmów dziesiętnych. Poniżej wyjaśnimy, jak tego dokonał, najpierw jednak spróbujemy odpowiedzieć na pytanie, do czego w życiu przydają się logarytmy. Są one potrzebne szczególnie wtedy, gdy mamy do czynienia z procesami, w których jakaś wielkość zmienia się bardzo silnie. Np. ludność świata w milionach od czasów prehistorycznych do roku 2015. Widzimy, co znaczy określenie eksplozja demograficzna i dlaczego jest nas dziś więcej niż wszystkich ludzi razem wziętych w minionych epokach. W zaświatach spotkalibyśmy niemal wyłącznie współczesnych.

Drugi wykres ma skalę logarytmiczną na osi pionowej: znacznie lepiej widać zmiany szybkości eksplozji demograficznej: nachylenie krzywej (tangens kąta) mierzy wskaźnik przyrostu naturalnego. Stałe nachylenie to stały przyrost procentowy. Nadal widzimy eksplozję w ostatnich stuleciach, ale teraz widać znacznie więcej szczegółów zachowania krzywej. Spójrzmy jeszcze na wykres obejmujący tylko dwa ostatnie stulecia.

Widać na nim właściwie trzy odcinki prostoliniowe: 1800-1900, 1900-1950, 1950-2015. Zupełnie niewidoczne są obie wojny światowe. Skoki przyrostu naturalnego wiążą się najwyraźniej z postępem cywilizacyjnym: nawozy sztuczne, mniejsza umieralność niemowląt i dzieci, dłuższy średni czas życia.

Logarytm dziesiętny to w zasadzie liczba zer w zapisie: zamiast liczb 0,01;10;100000 piszemy -2,1,5. Oczywiście, musimy umieć obliczać logarytmy także innych liczb niż całkowite potęgi dziesiątki. Jeśli np. naszą liczbą jest a=3\cdot 10^4, to widać od razu, że jej logarytm musi być większy niż 4, lecz mniejszy niż 5 (bo 10^4<3\cdot 10^4<10^5). Trzeba znaleźć taki wykładnik, aby 10^{x}=3. Wiadomo, że x=0,477121, mamy więc

a=3\cdot 10^{4}=10^{0,477121}\cdot 10^{4}=10^{0,477121+4}=10^{4,477121}.

Zatem \log 3\cdot 10^4=4,477121.

Możemy powiedzieć (niestandardowo), że liczba 3\cdot 10^4=30000 ma 4,477121 zer. Logarytm jest więc uogólnieniem liczby zer, skonstruowanym w taki sposób, żeby zachować zwykłe reguły potęgowania, np. 10^{x}\cdot 10^{y}=10^{x+y}.

Jak można skonstruować tablice logarytmów, wiedząc tyle, ile Henry Briggs, to znaczy bez znajomości szeregów, pochodnych itd.? W zasadzie wystarczy umiejętność wyciągania pierwiastka kwadratowego – dawniej uczono, jak to się robi. Szybką metodę przybliżoną znano od czasów starożytnych. Przyjmijmy więc, że umiemy wyciągać pierwiastki kwadratowe. Możemy obliczyć teraz kolejne pierwiastki kwadratowe z 10 aż powstanie tabelka jak poniżej.

Zaczerpnęliśmy ją z rozdziału 22 tomu I wykładów Richarda Feynmana. Oczywiście, nietrudno ją obliczyć samemu, ale warto też spojrzeć na stronice Feynmana poświęcone temu zagadnieniu. Richard Feynman cenił matematykę praktyczną, metody uzyskiwania konkretnych liczbowych odpowiedzi. Pewnie dlatego zainteresował się Briggsem i sposobem konstruowania tablic. Gdybyśmy znaleźli się na bezludnej wyspie, będziemy wiedzieć, jak obliczyć tablice logarytmów. Ważniejszym powodem jest może ten, że wiedza powinna tworzyć powiązany system, a nie bezładne nagromadzenie faktów, i Feynman zawsze starał się poznać całe łańcuchy rozumowań od faktów doświadczalnych do teorii. (Nawiasem mówiąc, ta swoista niechęć do wykraczania poza fakty stała się chyba przyczyną, dla której nie podobały mu się kwarki, zaproponowane teoretycznie. Wprowadził nawet swoją nazwę: partony na części protonu, które obserwuje się w rozproszeniach przy dużych energiach. Uparcie nie chciał ich jednak uznać za kwarki.)

Z tabelki widać, że kolejne pierwiastki przejawiają prostą regularność:

10^{x}\approx 1+2,3025 x. \mbox{   (*)}

Także Briggs to zauważył: zamiast obliczać pierwiastki odpowiadające małym wykładnikom, można zastosować powyższe przybliżenie. Weźmy teraz jakąkolwiek liczbę z przedziału (1,10), np. 3. Szukamy w trzeciej kolumnie tabeli czynników, które przybliżą 3 z dołu:

10^{\frac{1}{4}}\cdot 10^{\frac{1}{8}}\cdot 10^{\frac{1}{16}}\cdot 10^{\frac{1}{32}}\cdot 10^{\frac{1}{128}}=10^{0,476563}\approx 2,996143.

Mamy już prawie 3. Brakujący czynnik to 3/2,996143=1,001287. Stosując przybliżenie (*) otrzymamy logarytm tego czynnika równy 0,000559. Liczbę tę należy dodać do wykładnika powyżej:

\log {3}=0,476563+0,000559=0,477121.

Metoda zastosowana przez Briggsa była nieco bardziej skomplikowana, ale w istocie sprowadzała się do tego samego. Zauważmy, że każdą liczbę z przedziału (0,1) możemy zapisać jako sumę potęg dwójkowych – będzie to po prostu owa liczba zapisana dwójkowo. Henry Briggs obliczył 54 kolejne pierwiastki z dokładnością 30 cyfr znaczących, co było pracą iście herkulesową (gdyby tylko Herkules pracował umysłowo, a nie fizycznie). W dodatku prawie wcale się przy tym nie mylił, drobne pomyłki nie wpłynęły na wyniki tablic. Zawierały one w pierwszej wersji logarytmy liczb od 1 do 1000 z dokładnością czternastu znaków. Po sześciu latach rozszerzył te tablice do liczb 1-20 000 oraz 90 000-100 000 z tą samą monstrualną dokładnością czternastu cyfr. Wydawca flamandzki Adriaan Vlacq zatrudnił mierniczego Ezechiela de Deckera, aby dokończyć tablice od 1 do 100 000. Miały one dokładność już tylko dziesięciu cyfr, de Decker stosował interpolację. Tablice Vlacqa ukazały się w 1627, trzy lata po niepełnych tablicach Briggsa.

Korzystałem m.in. z artykułu Iana Bruce’a, The agony and the ecstasy – the development of logarithms by Henry Briggs, „The Matematical Gazette”, t. 86 (2002), s. 216-227.

(*) Przybliżenie znalezione przez Briggsa łatwo uzasadnić rozwijając funkcję wykładniczą w szereg MacLaurina:

10^{x}=e^{x\ln 10}\approx 1+x\ln {10}.

 

 

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)