Fizyka dla mieszkańców Syriusza: stałe fizyczne (Max Planck, 1899-Matvei Bronstein, 1935)

Max Planck, profesor fizyki w Berlinie, najwybitniejszy niemiecki fizyk teoretyczny przełomu wieku XIX i XX, przez lata badał własności promieniowania termicznego. Idealnym obiektem badań jest tu tzw. ciało doskonale czarne, czyli takie, które pochłania całe padające nań promieniowanie. Można wykazać, że każde ciało doskonale czarne emituje promieniowanie o rozkładzie widmowym zależnym wyłącznie od temperatury. Np. Słońce jest w dobrym przybliżeniu ciałem doskonale czarnym.

Widzimy tu (szary) teoretyczny rozkład widmowy promieniowania ciała doskonale czarnego o temperaturze T=5777 K zestawiony z rzeczywistym promieniowaniem docierającym ze Słońca. Ciało doskonale czarne nie jest czarne, jego barwa zależy od temperatury. (obrazek: Wikimedia)

Znalezienie postaci krzywej widmowej tego promieniowania stało się największym osiągnięciem Maksa Plancka. Otrzymana przez niego zależność ma następującą postać

I(\lambda)=\dfrac{2hc^2}{\lambda^5}\,\dfrac{1}{\exp{(\frac{hc}{\lambda kT})}-1},

gdzie stałe k,c, h oznaczają odpowiednio stałą Boltzmanna (nazwa wprowadzona przez Plancka), prędkość światła w próżni i stałą Plancka. Mamy tu trzy stałe fizyczne, które ze względu na uniwersalność promieniowania powinny mieć fundamentalne znaczenie.

Max Planck zauważył (w roku 1899, zanim jeszcze wyprowadził swój słynny wzór), że stałe k, c,h w połączeniu ze stałą grawitacyjną G pozwalają wprowadzić jednostki niezależne od zaszłości ludzkiej historii czy w ogóle niezależne od naszych ludzkich parametrów: „pojawia się możliwość ustanowienia jednostek długości, masy, czasu i temperatury niezależnych od szczególnych ciał czy substancji, których znaczenie dla wszystkich czasów i wszystkich kultur, także pozaziemskich i pozaludzkich, pozostanie w konieczny sposób takie same”.

Stała Plancka to h=6,7\cdot 10^{-34} kg\cdot m^2/s , stała grawitacyjna to G=6,7\cdot 10^{-11} m^3/(kg\cdot s^2). Mamy więc dla ich iloczynu i ilorazu jednostki:

[hG]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{m}^3}{\mbox{kg}\cdot \mbox{s}^2}=\dfrac{\mbox{m}^3}{\mbox{s}^3}\mbox{m}^2=[c^3]\mbox{m}^2,

[h/G]=\dfrac{\mbox{kg}\cdot \mbox{m}^2}{\mbox{s}}\,\dfrac{\mbox{kg}\cdot \mbox{s}^2}{\mbox{m}^3}=\mbox{kg}^2\cdot \dfrac{\mbox{s}}{\mbox{m}}=\mbox{kg}^2 [c^{-1}].

Zatem wielkości l_P, m_P będą nowymi „pozaziemskimi” jednostkami długości oraz masy:

l_P=\sqrt{\dfrac{hG}{c^3}}=4\cdot 10^{-35}\mbox{ m} ,

m_P=\sqrt{\dfrac{hc}{G}}=5,5\cdot 10^{-8}\mbox{ kg}.

Jednostkę czasu otrzymamy, dzieląc odległość przez prędkość światła:

t_P=\sqrt{\dfrac{hG}{c^5}}=1,3\cdot 10^{-43}\mbox { s}.

Te „pozaziemskie” jednostki Planck nazwał naturalnymi, a my dziś nazywamy układem jednostek Plancka. Podstawowe stałe fizyki mają w nim wartości równe 1: h=c=G=1. W roku 1899 interesująca wydawała się sama możliwość wprowadzenia jednostek, umożliwiających porozumiewanie się z fizykiem z Syriusza, który ma – jak to dobrze wiemy – postać  świecącego zielono dodekahedronu zanurzonego w inteligentnym oceanie (oni tam szybciej weszli w fazę AI).

Jednostki długości i czasu w układzie Plancka są skrajnie małe: nie tylko w porównaniu z nami, ale nawet z protonem i czasem potrzebnym światłu na przebycie jego wnętrza. Sens fizyczny tych jednostek stał się jasny znacznie później.

Najpierw powiedzmy, jak interpretuje się dziś stałe użyte przez Plancka.

Stała Boltzmanna jest w zasadzie przelicznikiem temperatury w kelwinach T na wartości energii kT – byłoby logiczniej z punktu widzenia fizyki mierzyć temperatury w jednostkach energii, a skoro tego nie robimy, potrzebujemy stałej Boltzmanna. Według najnowszych ustaleń od roku 2019 stała Boltzmanna równa jest dokładnie k=1,380649\cdot 10^{-13} J/K. Jest to tym samym nowa definicja kelwina (bo dżul zdefiniowany jest na podstawie kilograma, metra i sekundy).

Prędkość światła, czy ogólniej: każdego promieniowania elektromagnetycznego, w próżni wydawała się już około roku 1900 wielkością bardzo ważną. Dzięki teorii względności z roku 1905 wiemy, że jest to coś więcej niż pewna charakterystyczna prędkość w przyrodzie. Jest to bowiem naturalna granica prędkości ciał. Z punktu widzenia teorii względności prędkość światła jest właściwie przelicznikiem między odległościami a czasem. W fizyce poeinsteinowskiej odległości i czas należałoby mierzyć tymi samymi jednostkami. Inaczej mówiąc, stała c wyraża stosunek jednostek odległości do jednostek czasu. Jej wartość w dzisiejszej fizyce jest na mocy konwencji równa dokładnie c=299\,792\, 458 m/s$. Ta dziwna wartość wynika z potrzeby ciągłości dawnych i nowych jednostek.

Trzecia stałą, pojawiającą się we wzorze Plancka, jest oznaczana przez niego literą h wielkość, dziś zwana stałą Plancka. Pojawia się ona wszędzie tam, gdzie występują zjawiska kwantowe. Podstawowe równanie fizyki kwantowej, równanie Schrödingera, można zawsze zapisać w postaci

i\hbar \dfrac{\partial\psi}{\partial t}=H\psi,

gdzie i to jednostka urojona, a \hbar\equiv \dfrac{h}{2\pi}, \psi jest funkcją falową, a H – hamiltonianem, czyli matematycznym zapisem energii układu. Planck z początku nie wiedział, jak ogromne znaczenie ma jego stała wprowadzona dla promieniowania. Obecnie (od roku 2019) wartość stałej Plancka jest określona raz na zawsze jako h=6,67607015\cdot 10^{-34} J·s. W istocie, jest to nowa definicja kilograma, słynny wzorzec z Sèvres jest już niepotrzebny (kilogram pojawia się w jednostce energii: 1\mbox{J}=1 \mbox{kg}\cdot \dfrac{\mbox{m}^2}{\mbox{s}^2}.).

Stałe h,c,G określają możliwe teorie fundamentalne fizyki. Sytuację tę można przedstawić za pomocą sześcianu Bronsteina (sam obrazek jest późniejszy):

 

W początku układu mamy mechanikę klasyczną bez grawitacji. Odpowiada to wartościom \hbar=G=1/c=0. Szczególna teoria względności odpowiada przyjęciu 1/c<\infty, mechanika kwantowa przyjęciu niezerowej stałej Plancka \hbar\neq 0. Kwantowa teoria pola, czyli Model Standardowy cząstek odpowiada \hbar\neq 0 oraz c<\infty. Ogólna teoria względności zawiera stałą grawitacji G oraz prędkość światła c. Kwantowa teoria grawitacji byłaby „teorią wszystkiego” w tym sensie, że zawierałaby zarówno efekty kwantowe, jak i grawitacyjne. Wszystkie trzy stałe byłyby w niej niezerowe.

Matvei Bronstein, dwudziestoparolatek, już w roku 1933 zaczął się zastanawiać nad kwantowaniem grawitacji. Pięć lat później już nie żył, aresztowany i skazany na śmierć podczas wielkiego terroru w Związku Sowieckim. Także Lew Landau, największy rosyjski teoretyk, był wówczas aresztowany. W jego przypadku pomogła interwencja Piotra Kapicy.

Sześcian Bronsteina jest tylko prostą ilustracją jednego z aspektów poszukiwanej kwantowej teorii grawitacji: wszystkie trzy fundamentalne stałe miałyby w niej skończoną wartość. Wszystkie te stałe (wraz ze stałą Boltzmanna) pojawiają się w we wzorze Hawkinga na temperaturę czarnej dziury. Układ Plancka byłby w kwantowej grawitacji naturalnym układem jednostek. Znaczy to, że zjawisk kwantowych związanych z grawitacją należy oczekiwać w skali długości Plancka, czyli znacznie poniżej dostępnych dziś w badaniach. Masa Plancka jest niemal porównywalna z naszymi jednostkami. Znaczy to jednak, że odpowiadająca jej energia równa będzie E_P=m_P c^2=4,9\cdot 10^{9} J. W teorii fundamentalnej jest to energia olbrzymia, widać to, gdy wyrazimy ją w elektronowoltach:  E_P=3,07\cdot 10^{28} eV. Dla porównania najdroższy akcelerator w dziejach fizyki, LHC w CERN-ie, może maksymalnie osiągnąć energię 14 TeV, czyli 14\cdot 10^{12} eV – jest to piętnaście rzędów wielkości poniżej energii Plancka.

Wartości stałych fundamentalnych stanowią rodzaj przelicznika pomiędzy naszymi zwykłymi jednostkami, jak metry, sekundy, kilogramy, a jednostkami, jakich używa przyroda, zrozumiałymi dla kolegi z Syriusza. Nb. matematyka jest zapewne jedynym językiem, w którym moglibyśmy się z owym dodekaedrem porozumieć. Może należy zwrócić na to uwagę w dyskusji dotyczącej matury z matematyki: matematyka to jedyny język, w którym możemy się porozumiewać z mieszkańcami Syriusza czy szerzej: ze wszechświatem. Zastosowania są chyba oczywiste.

Niezależne od jednostek są stałe bezwymiarowe. Np. kwadrat ładunku elektronu można wyrazić następująco:

\alpha=\dfrac{q_e^2}{4\pi\varepsilon_0 \hbar c}=\dfrac{1}{137,036}.

Mając jeszcze do dyspozycji masę elektronu m_e, można wyrazić wszystkie wielkości atomowe. Energia wiązania elektronu w atomie wodoru to

E_j=\alpha^2 m_e c^2=13,6 \mbox{ eV},

a promień atomu (tzw. promień Bohra):

r=\dfrac{\hbar}{\alpha m_e c}=0,5\cdot 10^{-10}\mbox{ m}.

Wielkości te określają skalę zjawisk atomowych i cząsteczkowych. W  fundamentalnej teorii wszystkiego powinniśmy masę elektronu wyrazić w masach Plancka, a promień Bohra w długościach Plancka.

Ilu różnych bezwymiarowych stałych potrzebujemy do opisu świata? Używamy jednostek Plancka. Zatem grawitacja kwantowa nie zawiera żadnych dowolnych stałych. Model Standardowy potrzebuje trzech stałych określających siłę oddziaływań: oprócz \alpha dla oddziaływań elektromagnetycznych, potrzeba jeszcze stałych dla oddziaływań słabych i silnych. W sumie mamy 3 stałe. Dalej, potrzebujemy mas: sześciu kwarków, trzech leptonów i trzech neutrin oraz bozonu Higgsa (wszystko wyrażamy w masach Plancka, więc są to wielkości bezwymiarowe). Dotąd mamy 16 stałych. Potrzebna jest jeszcze wartość oczekiwana pola Higgsa: stała nr 17. Kolejnych 8 stałych bierze się z różnych macierzy mieszania. Daje to 25 parametrów, przy czym większość wynika z Modelu Standardowego. Wielkość ciemnej energii jest parametrem nr 26 (jeśli ciemna energia to stała kosmologiczna). Z jednej strony jest tych stałych za wiele jak na fundamentalną teorię, z drugiej strony jednak od czterdziestu lat nikt nie potrafi wskazać teorii bardziej ekonomicznej, a te stałe nie są jakimiś kaprysami teoretyków, lecz potwierdzane są w eksperymentach (tutaj LHC ma jak najbardziej zastosowanie).

Więcej szczegółów nt. stałych w artykule Johna Baeza.

 

Reklamy

Czy to, co krąży, musi kiedyś spaść? Przypadek atomu i podwójnych obiektów astrofizycznych

Krążenie planet uchodziło od starożytności za kosmiczny miernik czasu. Dlatego właśnie Mikołaj Kopernik zdecydował się na radykalny krok i zamiast układu geocentrycznego wybrał heliocentryczny. Miał przy tym nadzieję, że teraz nie tylko całość kosmicznej konstrukcji nabierze sensu, ale że – i to przede wszystkim – ruchy planet staną się doskonale jednostajne (u Ptolemeusza tak nie było). Okazało się później, że tylko heliocentryzm przetrwał, ruch planet zachodzi po elipsach ze zmienną prędkością.

W 1913 r. Niels Bohr zaproponował planetarny model atomu. W najprostszym przypadku atomu wodoru mielibyśmy jeden elektron krążący po okręgu wokół niewielkiego jądra, dziś zwanego protonem. Dozwolone orbity spełniać miały specjalny warunek zawierający liczbę całkowitą n=1,2,3,\ldots. Wynikało z niego, że pierwsza z tych orbit miała promień r\approx 0,5\cdot 10^{-10} m. Wielkość tę nazywa się promieniem Bohra. W czym leżała rewolucyjność podejścia Bohra? Przyjął on, że krążąc po dozwolonych orbitach, elektron nie promieniuje, dzięki czemu atom jest trwały: elektron może skokowo zmieniać orbitę, ale gdy znajdzie się na najniższej, nie może już bardziej zbliżyć się do protonu i według duńskiego fizyka miał tak krążyć wiecznie, jeśli żadne oddziaływanie go z tego stanu nie wytrąci.

Można obliczyć, co powinno się stać z elektronem według fizyki klasycznej, czyli w tym przypadku elektrodynamiki Maxwella. Elektron krążący wokół protonu jest obracającym się dipolem elektrycznym. Dipol taki promieniuje moc daną  równaniem

P=\dfrac{q_e^2 r^2 \omega^2}{6\pi\varepsilon_0 c^3}.\mbox{ (*)}

We wzorze tym q_e jest ładunkiem elementarnym, \varepsilon_0 przenikalnością próżni, a c oznacza prędkość światła w próżni.

Wskutek unoszenia energii przez falę elektromagnetyczną elektron krąży po coraz niższych orbitach, zachowując się podobnie do satelity Ziemi, który wchodzi w atmosferę. Nietrudno obliczyć, że elektron spadnie na jądro po czasie równym

\tau=\dfrac{r^3}{4c r_0^2}\approx 1,3\cdot 10^{-11} s.

Zastosowaliśmy tu skrót r_0=\frac{q_e^2}{4\pi\varepsilon_0 mc^2}, wielkość tę nazywamy klasycznym promieniem elektronu (gdyby elektron był kulką tej mniej więcej wielkości, to jego pole elektrostatyczne miałoby energię mc^2, ale możemy to uważać jedynie za wygodny skrót). Częstość krążenia elektronu powinna stopniowo rosnąć w miarę jego zbliżania się do protonu. Znaczy to, że klasycznie rzecz biorąc, elektron promieniuje falę o coraz wyższej częstości, gdyż częstość jego wirowania równa jest częstości emitowanej fali. Mamy więc piękną katastrofę – nie tylko planetarnego atomu, ale w ogóle każdego modelu klasycznego –nie można zbudować modelu atomu, mając do dyspozycji jedynie klasyczną mechanikę Newtona i elektrodynamikę Maxwella. Każdy atom powinien bowiem przez krótką chwilę emitować falę o rosnącej częstości, a potem przestać istnieć jako układ, w którym ładunki ujemne i dodatnie są przestrzennie rozdzielone. Oczywiście, Bohr dobrze o tym wiedział, szukał jednak wyjścia z impasu, w jakim znalazła się fizyka i który został rozwiązany zadowalająco dopiero po kilkunastu latach, gdy stworzono mechanikę kwantową. Jego model był desperacką próbą nowego otwarcia, i pod tym względem spełnił swoją rolę. Ważnym elementem modelu Bohra i późniejszych teorii mikroświata było wprowadzenie nowej stałej fizycznej: stałej Plancka h. Pojawia się ona wszędzie, gdzie mamy do czynienia z mikroświatem (u nas ukryta jest w promieniu Bohra).

Teorię grawitacji Newtona Einstein zastąpił w 1915 r. ogólną teorią względności. Można się było spodziewać, że poruszające się ciała powinny promieniować fale grawitacyjne i w rezultacie tracić energię. W roku 1918 Einstein opublikował pracę, w której obliczył, jaką moc emituje ruchomy układ mas w postaci fal grawitacyjnych. Można więc oczekiwać, że również obiekty astrofizyczne krążące wokół środka masy z czasem będą się zbliżać, a nawet łączyć w większe ciała. W roku 1918 nie było szans na zmierzenie fal grawitacyjnych, sto lat później zaczęły one być jednak rejestrowane. Fale te wysyłane są tuż przed połączeniem się dwóch obiektów – czarnych dziur

Wyobraźmy sobie dwa ciała kosmiczne o jednakowych masach M (dla uproszczenia), krążące wokół wspólnego środka masy w odległości D od siebie. Całkowita moc wypromieniowywana w postaci fal grawitacyjnych równa jest

P=\dfrac{32}{5}\,\dfrac{G}{c^5}\, I^2 \omega^6, \mbox{ (**)}

We wzorze tym G jest stałą grawitacyjną, a I – momentem bezwładności, czyli wielkością mówiącą coś na temat rozkładu mas, \omega jest prędkością kątową. Analogicznie jak w przypadku atomu możemy obliczyć czas życia takiego układu podwójnego. Jest on równy

T=\dfrac{5}{64} \dfrac{R_s}{c} \left(\dfrac{c}{\pi f_0 R_s}\right)^{\frac{8}{3}}.

Wyraziliśmy tu czas przez wielkość promienia Schwarzschilda R_s\equiv \frac{2GM}{c^2} dla każdego z obiektów oraz częstość fali grawitacyjnej emitowanej w chwili początkowej f_0. Wzór ten możemy stosować, dopóki mamy do czynienia z dwoma wyraźnie rozgraniczonymi ciałami, najlepiej punktowymi (we wszechświecie najbliżej tego ideału są czarne dziury oraz gwiazdy neutronowe). Częstość fali grawitacyjnej jest dwa razy większa niż częstość krążenia ciał. Wynika to stąd, że po połowie okresu kwadraty współrzędnych wracają do tych samych wartości, czyli z punktu widzenia momentu bezwładności wracamy do punktu wyjścia. Gdyby dwie gwiazdy o masie Słońca krążyły w odległości takiej, jak dzisiejsza odległość Ziemia-Słońce, czas życia takiego układu byłby równy T=4\cdot10^{17} lat, czyli niezmiernie długo w porównaniu z wiekiem wszechświata 14\cdot 10^{10} lat. Widać jednak ze wzoru, że gdy częstość krążenia f_0 będzie znaczna, czas życia będzie znacznie krótszy i wtedy możliwe będzie doczekanie chwili, gdy oba ciała złączą się w jedną czarną dziurę. Eksperyment LIGO zmierzył kilka przypadków takiego właśnie łączenia się dwóch obiektów.

Widzimy tu falę o rosnącej częstości. W chwili t=0,35 s częstość f_0=42 Hz, w chwili t=0,43 s częstość ucieka w górę – jest to słynne „ćwierknięcie” – chirp. Zatem od f_0 do nieskończoności upływa czas T=0,08 s. Wstawiając taki czas oraz wartość f_0, wyznaczyć możemy promień Schwarzschilda, a stąd masę naszych obiektów. Jest ona równa około 40,6 mas Słońca. Obliczyliśmy to przy upraszczającym założeniu, że obie kosmiczne masy są jednakowe. Można wykonać dokładniejsze obliczenia bez tego założenia.

Najwyższa częstość równa jest około 300 Hz. Przyjmując, że obie czarne dziury zetknęły się wówczas swoimi horyzontami, można wyznaczyć sumę mas obu dziur z III prawa Keplera. Okazuje się ona równa 76 mas Słońca, a więc w zgodzie z tym, co powiedzieliśmy wyżej.

Z fizycznego punktu widzenia najciekawsze zjawiska zachodzą, gdy dziury zlewają się w jedną i potem nowopowstała dziura drga jeszcze przez chwilę. Modelowanie tej fazy możliwe jest wyrafinowanymi metodami numerycznymi.

(*) Zobaczmy, od czego zależy moc emitowana przez obracający się dipol złożony z dwóch ładunków elementarnych q_e odległych o r. Pole elektromagnetyczne będzie proporcjonalne do iloczynu q_e r (momentu dipolowego). Zatem natężenie fali musi być proporcjonalne do kwadratu tego iloczynu. Powinna też zależeć od prędkości kątowej \omega. Łatwo sprawdzić, że z wielkości (q_er)^2, \dfrac{1}{4\pi\varepsilon_0}, \omega oraz c można zbudować tylko następujące wyrażenie dające moc w watach:

P=\dfrac{(q_e r)^2 \omega^2}{4\pi\varepsilon_0 c^3}.

Dokładne rozważania dają jeszcze współczynnik liczbowy \frac{2}{3}. Łatwo sprawdzić, że w ruchu orbitalnym całkowita energia elektronu równa jest

E=-\dfrac{1}{2}\,\dfrac{q_e^2}{4\pi\varepsilon_{0} r}.

Dalej traktujemy r jako funkcję czasu. Różniczkując wyrażenie na energię, otrzymamy szybkość zmiany energii, która musi być równa wypromieniowywanej mocy. Całkując otrzymane równanie, otrzymamy wynik postaci r(t)^3=r(0)^3-4r_0^2 ct – trzecia potęga odległości maleje liniowo. Stąd łatwo znaleźć czas życia.

(**) Podobne postępowanie da się zastosować do pary krążących wokół środka mas ciał niebieskich. Natężenie fali emitowanej przez ten układ będzie zależeć od momentu bezwładności:

I=M\dfrac{D^2}{4}+M\dfrac{D^2}{4}=\dfrac{MD^2}{2},

gdzie M oznacza masy, D jest odległością obu mas od siebie (obie są więc odległe o D/2 od środka masy układu). Moc będzie zatem proporcjonalna do kwadratu momentu bezwładności. Będzie także zależeć od prędkości kątowej, stałej grawitacyjnej G oraz prędkości światła. Łatwo sprawdzić, że wielkości te dadzą moc, jeśli wyrażenie będzie następujące:

P=\dfrac{G}{c^5}I^2\,\omega^6.

Współczynnik liczbowy \frac{32}{5} wynika ze szczegółowych obliczeń. Analogicznie jak w poprzednim przypadku możemy zapisać energię w postaci

E=-\dfrac{1}{2}\,\dfrac{GM^2}{D}.

Zupełnie podobnie otrzymuje się równanie różniczkowe dla D(t). Teraz D^4 maleje liniowo z czasem. Korzystając z III prawa Keplera, możemy zamiast D obliczyć okres obiegu oraz częstość f.

Po co człowiekowi w życiu logarytmy? Henry Briggs (1617)

Zanim przejdziemy do tytułowego pytania, zacznijmy od tego, jak należy wyobrażać sobie teorię oraz praktykę. Cesare Ripa daje następującą odpowiedź:

Słowo Theoria, oznaczające u Greków kontemplowanie, oglądanie, u nas zaczęło być stosowane na oznaczenie wszelkiego wywodu rozumowego opartego na przyczynach rzeczy stosownie do właściwych im porządków i z uwzględnieniem zasad zależących nie od rozsądku, lecz raczej od intelektu, gdyż zasady zawisłe od rozsądku określają Praktykę, przeciwstawną wszak Teorii. Ze względu na te okoliczności uważam, że Teorię całkiem trafnie przedstawić można w postaci młodej Niewiasty spoglądającej w górę, z dłońmi złączonymi, na głowie mającej cyrkiel o ramionach rozwartych i celujących w Niebo. Ma ona być odziana w dostojną błękitną suknię, i schodzić ze szczytu schodów. Wszystkie te szczegóły symbolizują wybitność, dostojność i wzniosłość. (przeł. I. Kania)

(…) Praktykę można przedstawić w postaci Staruchy z głową i rękami opuszczonymi w dół, ubranej nędznie w bure suknie, z wielkim rozwartym cyrklem, którego jedna nóżka wbita jest w ziemię; jedną ręką wspiera się na rzeczonym cyrklu, drugą – na liniale, w taki sposób, że druga nóżka cyrkla dotyka końca liniału układając się razem w kształt greckiej litery π, którą oni zwykli oznaczać Praktykę, podczas gdy Teorię oznaczali literą θ. (przekł. jw.)

Kto chodził do szkoły, ten wie, że Teoria ma przewagę nad Praktyką: ledwo zdążymy oswoić się z jednym pojęciem, a już mówi się o następnych i idzie dalej i dalej, nie pokazując zastosowań. W podobny sposób działały uniwersytety i szkoły także na przełomie XVI i XVII wieku. Dlatego znaczna część Rewolucji naukowej przebiegała niejako równolegle do systemu edukacji, który nawet owej rewolucji nie zauważył, nadal kształcąc na bazie Arystotelesa.

Logarytmy są wynalazkiem praktycznym, jednym z niewielu ważnych pojęć matematycznych, które powinno się wynosić ze szkoły. I nie chodzi o definicję czy dziwaczne równania z niewiadomymi pod logarytmem, ale o ideę zapisywania bardzo dużych albo bardzo małych liczb w krótki sposób. Logarytmy dziesiętne wprowadził Henry Briggs, profesor w londyńskim Gresham College. Była to szkoła o nastawieniu praktycznym, kształciła mierniczych, inżynierów i nawigatorów (żegluga oceaniczna zmusiła korzystania z astronomicznych metod wyznaczania położenia, a te wymagały obliczeń matematycznych). Pomysł należał do Szkota Johna Napiera, choć niezależnie od niego wpadł na podobną ideę Jost Bürgi, zegarmistrz i konstruktor przyrządów, zaprzyjaźniony z Johannesem Keplerem. Logarytmy pozwalały znacznie przyspieszyć obliczenia numeryczne, ponieważ mnożenie i dzielenie zastępują dodawaniem i odejmowaniem – działaniami znacznie mniej czasochłonnymi. Mówiono, że dzięki logarytmom życie astronomów wydłużyło się dwukrotnie, tak bardzo skracały one bowiem rachunki. Najważniejsze tablice astronomiczne czasów nowożytnych: Tablice Rudolfińskie (1627) Johannesa Keplera zostały obliczone przy wykorzystaniu logarytmów. Dzieło to zawierało frontispis przedstawiający świątynię astronomii, w której kilku sławnych uczonych minionych wieków prowadzi zaświatową debatę nad systemem planetarnym. Jedynie dwie kolumny oznaczone imionami Kopernika i Tychona Brahego są zdrowe i mocne, w suterenie widzimy Johannesa Keplera pochylonego nad swymi pracami.

Przyjrzyjmy się alegorycznym figurom na dachu świątyni. Cesarski orzeł zrzuca guldeny, co było raczej pobożnym życzeniem Keplera niż faktem, choć w sumie dzieło powstało dzięki patronatowi kolejnych cesarzy od Rudolfa II począwszy. Kobiece postaci od lewej strony począwszy to Physica lucis – fizyka światła, Optica – dzierżąca teleskop, Logarithmica – alegoria, niemal bogini logarytmów, Doctrina triangulorum – trygonometria, Stathmica – statyka przedstawiona z dźwignią (prawo dźwigni odgrywało zdaniem Keplera istotną rolę w ruchu planet) oraz Magnetica – alegoria nauki o magnetyzmie (uczony sądził, że jedną z sił poruszających planety jest specjalna siła magnetyczna). W aureoli wokół głowy Logarithmiki znajdują się cyfry 6931472, odpowiadające \ln(2)=0,6931472, dlatego pręty, które trzyma nasza bogini mają stosunek długości 1:2.

Johannes Kepler widział więc wagę logarytmów dla astronomii. Henry Briggs obliczył pierwsze praktyczne tablice logarytmów dziesiętnych. Poniżej wyjaśnimy, jak tego dokonał, najpierw jednak spróbujemy odpowiedzieć na pytanie, do czego w życiu przydają się logarytmy. Są one potrzebne szczególnie wtedy, gdy mamy do czynienia z procesami, w których jakaś wielkość zmienia się bardzo silnie. Np. ludność świata w milionach od czasów prehistorycznych do roku 2015. Widzimy, co znaczy określenie eksplozja demograficzna i dlaczego jest nas dziś więcej niż wszystkich ludzi razem wziętych w minionych epokach. W zaświatach spotkalibyśmy niemal wyłącznie współczesnych.

Drugi wykres ma skalę logarytmiczną na osi pionowej: znacznie lepiej widać zmiany szybkości eksplozji demograficznej: nachylenie krzywej (tangens kąta) mierzy wskaźnik przyrostu naturalnego. Stałe nachylenie to stały przyrost procentowy. Nadal widzimy eksplozję w ostatnich stuleciach, ale teraz widać znacznie więcej szczegółów zachowania krzywej. Spójrzmy jeszcze na wykres obejmujący tylko dwa ostatnie stulecia.

Widać na nim właściwie trzy odcinki prostoliniowe: 1800-1900, 1900-1950, 1950-2015. Zupełnie niewidoczne są obie wojny światowe. Skoki przyrostu naturalnego wiążą się najwyraźniej z postępem cywilizacyjnym: nawozy sztuczne, mniejsza umieralność niemowląt i dzieci, dłuższy średni czas życia.

Logarytm dziesiętny to w zasadzie liczba zer w zapisie: zamiast liczb 0,01;10;100000 piszemy -2,1,5. Oczywiście, musimy umieć obliczać logarytmy także innych liczb niż całkowite potęgi dziesiątki. Jeśli np. naszą liczbą jest a=3\cdot 10^4, to widać od razu, że jej logarytm musi być większy niż 4, lecz mniejszy niż 5 (bo 10^4<3\cdot 10^4<10^5). Trzeba znaleźć taki wykładnik, aby 10^{x}=3. Wiadomo, że x=0,477121, mamy więc

a=3\cdot 10^{4}=10^{0,477121}\cdot 10^{4}=10^{0,477121+4}=10^{4,477121}.

Zatem \log 3\cdot 10^4=4,477121.

Możemy powiedzieć (niestandardowo), że liczba 3\cdot 10^4=30000 ma 4,477121 zer. Logarytm jest więc uogólnieniem liczby zer, skonstruowanym w taki sposób, żeby zachować zwykłe reguły potęgowania, np. 10^{x}\cdot 10^{y}=10^{x+y}.

Jak można skonstruować tablice logarytmów, wiedząc tyle, ile Henry Briggs, to znaczy bez znajomości szeregów, pochodnych itd.? W zasadzie wystarczy umiejętność wyciągania pierwiastka kwadratowego – dawniej uczono, jak to się robi. Szybką metodę przybliżoną znano od czasów starożytnych. Przyjmijmy więc, że umiemy wyciągać pierwiastki kwadratowe. Możemy obliczyć teraz kolejne pierwiastki kwadratowe z 10 aż powstanie tabelka jak poniżej.

Zaczerpnęliśmy ją z rozdziału 22 tomu I wykładów Richarda Feynmana. Oczywiście, nietrudno ją obliczyć samemu, ale warto też spojrzeć na stronice Feynmana poświęcone temu zagadnieniu. Richard Feynman cenił matematykę praktyczną, metody uzyskiwania konkretnych liczbowych odpowiedzi. Pewnie dlatego zainteresował się Briggsem i sposobem konstruowania tablic. Gdybyśmy znaleźli się na bezludnej wyspie, będziemy wiedzieć, jak obliczyć tablice logarytmów. Ważniejszym powodem jest może ten, że wiedza powinna tworzyć powiązany system, a nie bezładne nagromadzenie faktów, i Feynman zawsze starał się poznać całe łańcuchy rozumowań od faktów doświadczalnych do teorii. (Nawiasem mówiąc, ta swoista niechęć do wykraczania poza fakty stała się chyba przyczyną, dla której nie podobały mu się kwarki, zaproponowane teoretycznie. Wprowadził nawet swoją nazwę: partony na części protonu, które obserwuje się w rozproszeniach przy dużych energiach. Uparcie nie chciał ich jednak uznać za kwarki.)

Z tabelki widać, że kolejne pierwiastki przejawiają prostą regularność:

10^{x}\approx 1+2,3025 x. \mbox{   (*)}

Także Briggs to zauważył: zamiast obliczać pierwiastki odpowiadające małym wykładnikom, można zastosować powyższe przybliżenie. Weźmy teraz jakąkolwiek liczbę z przedziału (1,10), np. 3. Szukamy w trzeciej kolumnie tabeli czynników, które przybliżą 3 z dołu:

10^{\frac{1}{4}}\cdot 10^{\frac{1}{8}}\cdot 10^{\frac{1}{16}}\cdot 10^{\frac{1}{32}}\cdot 10^{\frac{1}{128}}=10^{0,476563}\approx 2,996143.

Mamy już prawie 3. Brakujący czynnik to 3/2,996143=1,001287. Stosując przybliżenie (*) otrzymamy logarytm tego czynnika równy 0,000559. Liczbę tę należy dodać do wykładnika powyżej:

\log {3}=0,476563+0,000559=0,477121.

Metoda zastosowana przez Briggsa była nieco bardziej skomplikowana, ale w istocie sprowadzała się do tego samego. Zauważmy, że każdą liczbę z przedziału (0,1) możemy zapisać jako sumę potęg dwójkowych – będzie to po prostu owa liczba zapisana dwójkowo. Henry Briggs obliczył 54 kolejne pierwiastki z dokładnością 30 cyfr znaczących, co było pracą iście herkulesową (gdyby tylko Herkules pracował umysłowo, a nie fizycznie). W dodatku prawie wcale się przy tym nie mylił, drobne pomyłki nie wpłynęły na wyniki tablic. Zawierały one w pierwszej wersji logarytmy liczb od 1 do 1000 z dokładnością czternastu znaków. Po sześciu latach rozszerzył te tablice do liczb 1-20 000 oraz 90 000-100 000 z tą samą monstrualną dokładnością czternastu cyfr. Wydawca flamandzki Adriaan Vlacq zatrudnił mierniczego Ezechiela de Deckera, aby dokończyć tablice od 1 do 100 000. Miały one dokładność już tylko dziesięciu cyfr, de Decker stosował interpolację. Tablice Vlacqa ukazały się w 1627, trzy lata po niepełnych tablicach Briggsa.

Korzystałem m.in. z artykułu Iana Bruce’a, The agony and the ecstasy – the development of logarithms by Henry Briggs, „The Matematical Gazette”, t. 86 (2002), s. 216-227.

(*) Przybliżenie znalezione przez Briggsa łatwo uzasadnić rozwijając funkcję wykładniczą w szereg MacLaurina:

10^{x}=e^{x\ln 10}\approx 1+x\ln {10}.

 

 

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)