William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.

 

 

 

Oliver Heaviside i głuchy telefon (1886-1891)

Heaviside był człowiekiem trudnym w kontaktach, nie bardzo też interesowała go kariera zawodowa. Rodzina była zbyt biedna, aby mógł zdobyć solidne wykształcenie, toteż zakończył swą szkolną edukację w wieku szesnastu lat. Przebyta w dzieciństwie szkarlatyna upośledziła jego słuch, izolując go od rówieśników. Choć z czasem odzyskał w znacznej mierze słuch, to pozostał autsajderem na resztę życia. Krótko pracował jako telegrafista i pracownik techniczny u boku starszego brata Arthura w firmie zarządzającej kablem pomiędzy Danią i Anglią, lecz zwolnił się w wieku dwudziestu czterech lat i już nigdy później nie pracował zawodowo. Mieszkając w pokoju u rodziców, zajmował się eksperymentalnie i teoretycznie elektrycznością, jedyne pieniądze zarabiał z publikacji artykułów w fachowym piśmie „The Electrician”. Był jednym z pierwszych kontynuatorów Jamesa Clerka Maxwella, udało mu się uprościć i przejrzyściej zapisać równania elektromagnetyzmu. Odkrył rachunek operatorowy ułatwiający rozwiązywanie równań różniczkowych (posługiwał się funkcją δ na długo przed Dirakiem). Zastosował też zapis wektorowy, bez którego trudno dziś sobie wyobrazić teorię Maxwella. Dzięki bratu, pracującemu jako inżynier, znał praktyczne problemy telefonii i podał metodę zbudowania linii przesyłowej w taki sposób, aby nie zniekształcała sygnałów. Problem był palący, ponieważ telefonia rozwijała się burzliwie i wraz ze wzrostem odległości sygnał nie tylko był słabszy, ale też ulegał zniekształceniu. Dalsza historia tego odkrycia Heaviside’a była zapewne do przewidzenia: z początku nie chciano mu wierzyć, a później to inni zarobili miliony na wcieleniu jego idei w życie.

Biografia Heaviside’a skłania do zastanowienia nad rolą autorytetów w różnych dziedzinach. Będąc jednym z najwybitniejszych uczonych swoich czasów, postrzegany był jako jakiś niedouczony telegrafista, a przy tym dziwak. Jego artykuły w „The Electrician” były trudne do zrozumienia, a może po prostu nikt nie przykładał się do ich zrozumienia, ponieważ były autorstwa jakiegoś urzędnika, nie wiadomo właściwie kogo. Tymczasem stanowiły one oryginalny wykład do teorii elektromagnetyzmu. Gdy Heinrich Hertz odkrył fale elektromagnetyczne, w pracach Heaviside’a znaleźć można było nowocześniejsze i prostsze ujęcie teorii, która tak wspaniale się potwierdziła. Nasz „telegrafista” wyprzedził tu znacznie większość uczonych brytyjskich i kontynentalnych. W szczególności jego podejście górowało nad konserwatywnym i sceptycznym nastawieniem Williama Thomsona, późniejszego lorda Kelvina. Ten ostatni nie potrafił się przekonać do teorii Maxwella, co miało znaczenie, ponieważ był najsławniejszym uczonym Wielkiej Brytanii, zasiadał we wszystkich możliwych radach i towarzystwach, a każde jego słowo prasa traktowała jak wyrocznię. Tak było, gdy w 1888 roku, po odkryciu Hertza, Thomson orzekł, iż jego zastrzeżenia wobec teorii Maxwella nieco się zmniejszyły (uznał bowiem, że prąd przesunięcia – najważniejszy element pojęciowy zaproponowany przez Maxwella – z „zupełnie nie do utrzymania” awansował w jego oczach do kategorii „niezupełnie do utrzymania”). Thomson miał swoją wizję idealnej teorii elektromagnetyzmu, prawdopodobnie zresztą dlatego nie osiągnął końcowego sukcesu. W każdym razie to młodszy od niego James Clerk Maxwell rozwiązał problem, choć sir William nie chciał się z tym pogodzić.

 

Baron Kelvin of Largs

William Thomson umiał jednak zachowywać się fair i dzięki temu Oliver Heaviside doczekał się nieco uznania za życia. Wcześniej, w roku 1887, przeszedł swe najgorsze chwile, gdy stracił możliwość publikowania, a zarazem też skromne dochody, jakie ta działalność zapewniała. Za 40 funtów rocznie redakcja otrzymywała ciągły strumień oryginalnych publikacji z dziedziny elektromagnetyzmu. Kryzys nastąpił wtedy, gdy Oliver Heaviside wszedł w konflikt z Williamem Henry’m Preece’em, ważnym ekspertem brytyjskiej poczty. Preece starał się przeforsować kosztowną decyzję budowy linii telefonicznych z kablem miedzianym w miejsce żelaznego. Argumentował, że dzięki temu wzrośnie zasięg rozmów, ponieważ kable żelazne wytwarzają pole magnetyczne, a to prowadzi do strat energii (zmienne pole magnetyczne indukuje dodatkowe napięcie, mówi się o indukcyjności kabla: miedziane zmniejszały wg Preece’a indukcyjność i na tym polegała ich wyższość). Mało tego, Preece twierdził, że wykazał fałszywość teorii Maxwella. W tym samym czasie Arthur i  Oliver próbowali opublikować pracę, która podważała poglądy Preece’a, a nawet im przeczyła: otóż pole magnetyczne wcale nie musi przeszkadzać w przesyłaniu rozmów telefonicznych, a nawet może pomagać. Pewny siebie Preece zakazał publikacji. Obaj bracia zareagowali na to rozmaicie: Arthur jako podwładny Preece’a przestał się zajmować tym tematem, Oliver natomiast zaczął z upodobaniem dowodzić niekompetencji Preece’a, którego określał m.in. jako „the eminent scienticulist” – czyli coś w rodzaju „wybitnego mędrka”. Racja naukowa była całkowicie po stronie Heaviside’a, znalazł on warunek, jaki spełniać powinna linia przesyłowa, aby nie zniekształcała rozmów (chodzi o to, by składowe o różnych częstościach tłumione były w jednakowym stopniu, w ten sposób daleki odbiorca otrzymuje sygnał słabszy, lecz podobny do wysłanego). Ów warunek Heaviside’a był kontrintuicyjny, lecz prawdziwy i oznaczał, że należy w praktyce zwiększać indukcyjność linii, czyli wytwarzane przez nie pole magnetyczne. Nacisk Preece’a sprawił, że zmienił się redaktor naczelny „The Electrician” i nowy już nie chciał publikować artykułów Heaviside’a.

Karykatura z 1888 r.: Preece pod sztandarem wieloletnich doświadczeń pokonuje Olivera Lodge’a (który podawał w wątpliwość skuteczność używanych piorunochronów i krytykował jego teoretyczne rozważania, stając po stronie Heaviside’a)

Atmosfera wokół niego poprawiła się dopiero wówczas, gdy publicznie docenił jego teorię William Thomson. Otworzyło to drogę do przyjęcia Heaviside’a w roku 1891 na członka Towarzystwa Królewskiego, ułatwiło też publikację kolejnych prac. Zadziwiająco mało zmieniło się w życiu uczonego, który przywiązywał chyba większą wagę do możliwości publikacji niż do zarobku. Nadal pozostał prywatnym uczonym, po śmierci rodziców jego środki do życia mocno się skurczyły. Dzięki dyskretnym staraniom paru wybitnych uczonych zaczął Heaviside otrzymywać skromną emeryturę (dyskretnych, ponieważ drażliwy Heaviside nie chciał jałmużny). Żył dość długo, by widzieć, jak jego idea zwiększenia indukcyjności kabli telefonicznych została wcielona w życie jako pupinizacja albo krarupizacja. Zarówno Amerykanin serbskiego pochodzenia Mihajlo Pupin, jak i Duńczyk Karl Emil Krarup, wyciągnęli praktyczne wnioski z teorii Heaviside’a. Pupin po długiej batalii prawnej z firmą AT&T zarobił na swoim patencie 450 000 $ (blisko 30 mln $ obecnie). Jego rozwiązanie polegało na umieszczaniu w stałych odległościach cewek zwiększających indukcyjność. Krarup zastosował żelazne druty (zwiększające pole magnetyczne) oplatające miedziany rdzeń. Dzięki temu w pierwszych latach XX wieku wzrósł zasięg linii telefonicznych, a ich układanie stało się tańsze. Także kariera Preece’a, który nigdy nie przyznał się do błędu, nie doznała żadnego uszczerbku i rozwijała się pomyślnie, z czasem doczekał się on tytułu szlacheckiego. Tylko Heaviside dziwaczał coraz bardziej, mieszkał sam, pod koniec życia zastąpił meble blokami granitu, zaniedbał się i cierpiał na rodzaj manii prześladowczej. Nie dowiemy się już, czy dziwaczał, ponieważ nie osiągnął pozycji w społeczeństwie odpowiadającej jego talentowi, czy też odwrotnie: nie udało mu się zdobyć pozycji w bardzo konkurencyjnym wiktoriańskim społeczeństwie, ponieważ zbytnio odbiegał od przyjętych standardów zachowania i nawet talent nie mógł tu pomóc.

Die Vermittlungszentrale im Berliner Fernspreschamt II
Original: Frankfurt am Main, Deutsches Postmuseum
Foto: Berlin, 1894

Centrala telefoniczna w Berlinie, 1894 r.

Technika telefoniczna rozwijała się szybko. Kolejnym krokiem było skonstruowanie wzmacniacza na triodach (regeneratora sygnałów), który zaczął być stosowany komercyjnie tuż przed pierwszą wojną światową. Heaviside zdążył jeszcze przewidzieć istnienie jonosfery, dzięki której fale radiowe rozchodzą się wzdłuż powierzchni Ziemi, umożliwiając np. międzykontynentalne przekazywanie sygnału radiowego.

Pokażemy na przykładzie, jak Heaviside potraktował kwestię przesyłania sygnałów bez zniekształceń. Linia przesyłowa to rozciągnięty bardzo obwód. Można uważać, że każdy jego fragment o długości \Delta x składa się z podstawowych elementów obwodu: oporu R\Delta x, indukcyjności L\Delta x oraz połączonych równolegle pojemności C\Delta x oraz przewodnictwa G\Delta x. Dla pierwszego i ostatniego elementu obowiązuje prawo Ohma (przewodnictwo jest odwrotnością oporu):

\dfrac{U}{I}=R.

Napięcie na końcach indukcyjności równe jest

U=L\dfrac{dI}{dt},

co Heaviside w swoim języku symbolicznym zapisywał jako U=LpI (p oznaczało branie pochodnej po czasie). Dla pojemności mamy natomiast

I=\dfrac{dQ}{dt}=C\dfrac{dU}{dt}=CpU.

gdzie Q jest ładunkiem.

Stosunki napięcia do natężenia są zastępczymi oporami, mamy więc dla indukcyjności Lp, a dla pojemności 1/pC. Ponieważ możemy podzielić naszą linię transmisyjną na dowolnie dużą liczbę powtarzających się segmentów o długości \Delta x, więc dodanie kolejnego segmentu nie powinno zmieniać zastępczego oporu. Opór zastępczy całej linii Z (wejściowy) musi w takim razie być tym samym, co połączenie równoległe elementów G\Delta x, C\Delta x oraz (R+Lp)\Delta x + Z na końcu. W połączeniu równoległym dodają się odwrotności oporów, mamy więc

\dfrac{1}{Z}=(G+pC)\Delta x+\dfrac{1}{(R+pL)\Delta x+Z}.

Po przekształceniach dostajemy równanie kwadratowe na opór zastępczy:

Z^2+(R+pL)\Delta x Z=\dfrac{R+pL}{G+pC}.

Jeśli teraz przyjmiemy, że \Delta x\rightarrow 0, to otrzymamy

Z^2=\dfrac{R+pL}{G+pC}.

Otrzymany wynik wygląda odrobinę dziwnie, jeśli przypomnimy sobie, że p to różniczkowanie. Nie jest jasne, jak powinniśmy dzielić przez p i jak wyciągać pierwiastek. Heaviside szedł za swoim formalizmem tak daleko, jak tylko się dało i rozpatrywał wyrażenia takie, jak np. p^{\frac{1}{2}}. Uważał on matematykę za naukę empiryczną i jak mówił: „Czy mam odmówić zjedzenia obiadu, ponieważ nie znam wszystkich szczegółów trawienia?” My nie musimy iść aż tak daleko. Widać z ostatniego wyrażenia, że gdy spełniony będzie warunek

\dfrac{R}{G}=\dfrac{L}{C},

nasz ułamek się skróci (cokolwiek to znaczy) i nie będzie zawierał p, w takiej sytuacji sygnał o dowolnym kształcie nie ulegnie zmianie. Jest to warunek Heaviside’a. W praktyce znaczył tyle, że indukcyjność L należy powiększyć, czego nie rozumiał Preece. Dodać należy, że Heaviside formułował tę swoją matematykę także w konwencjonalny sposób – był może dziwakiem, ale w kwestii technik matematycznych zachowywał się całkiem racjonalnie. Obecnie stosuje się transformaty Laplace’a albo można sobie wyobrażać, że zależność od czasu ma postać \exp(i\omega t) (gdzie \omega to częstość kołowa), wówczas różniczkowanie sprowadza się do mnożenia i mamy po prostu p=i\omega.

 

 

 

James Clerk Maxwell: Pole magnetyczne jako wiry materii (1862)

Mody intelektualne przychodzą i odchodzą podobnie jak wszelkie inne mody. W XVII wieku starano się wszystkie zjawiska fizyczne wyjaśniać za pomocą ruchu jakichś niewidzialnych cząstek, które miały się zderzać i przekazywać sobie ruch. Chodziło głównie o to, by wyeliminować z nauki wszelkie oddziaływanie na odległość: cząstki oddziaływały tylko podczas zderzeń i nie działały pomiędzy nimi żadne siły spójności. René Descartes, zwany u nas Kartezjuszem, tak sobie wyobrażał działanie magnesu.

(Principia Philosophiae, 1644)

Świat składał się u niego z krążących strumieni cząstek, a ponieważ przestrzeń miała być tym samym co rozciągłość, cząstki owe krążyły wśród drobniejszych cząstek tak, aby nie pozostawiać nigdzie pustego miejsca (tak mu bowiem wyszło z rozumowań: że nie ma próżni, pusta przestrzeń to oksymoron, jak czarny śnieg albo zimny wrzątek). Wiry cząstek objaśniały rzeczy wielkie, jak ruch planet, a także małe, jak przyciąganie magnesu i żelaza. W przypadku magnetycznym cząstki owe przypominały makaron świderki, były skręcone i mogły się albo wkręcać, albo wykręcać z nagwintowanych porów magnesu. Nie wiemy, jak bardzo Kartezjusz wierzył w słuszność tego wyjaśnienia. Na szczęście filozofowie i uczeni nie muszą (zazwyczaj) umierać za swoje teorie, wystarczy, że to one, wiodąc żywot niezależny od swych autorów, giną albo zwyciężają w ich imieniu.

Jednak do połowy XVIII wieku Kartezjusz panował we Francji i z tego powodu nawet Newtonowska grawitacja – przyciągająca i działająca na odległość – przyjmowała się z trudem. Większość uczonych akademików i prowincjonalnych amatorów z upodobaniem wymyślała coraz to nowe cząstki i wiry, np. objaśniające elektryczność. Inaczej do sprawy podchodził Benjamin Franklin, który nie lubił zbyt skomplikowanych teorii i uznał elektryczność za rodzaj fluidu zawartego w ciałach. W naładowanym kondensatorze inne miało być stężenie owego fluidu po obu stronach izolatora. Franklin zauważył, że naładowany kondensator można rozładować za pomocą wahadełka, które przenosi ładunek od okładki do okładki – zawarty jest w tym pewien obraz elektryczności jako czegoś, co może się przenosić od jednego ciała do drugiego, jak jakiś specjalny płyn, nieważki, lecz rzeczywisty.

Butelka lejdejska (czyli kondensator) rozładowywana za pomocą wahadełka z korka

Wariant tego urządzenia zamontowany był w domu Franklina w Filadelfii: między piorunochronem a uziemieniem biegnie drut przerwany dwoma dzwonkami. Wahadełko umieszczone pomiędzy obu dzwonkami poruszało się, gdy pojawiał się w układzie ładunek. Żona badacza, Deborah, w słusznym odruchu twierdziła, że boi się tego dzwonienia podczas burzy czy wtedy, gdy się ma na burzę. Małżonek, przebywający w Londynie, zezwolił jej wówczas na zdemontowanie dzwonków.

W XIX wieku wierzono już w świat wypełniony nie sypkim piaskiem, ale raczej galaretowatym eterem. Wiedziano, że światło to fale poprzeczne, a więc i ośrodek musiał wykazywać pewną sprężystość kształtu, nie mógł przelewać się jak ciecz albo gaz. Trzeba to było jakoś pogodzić np. z ruchem ciał niebieskich, które poruszają się, nie napotykając oporu eteru. Rozwinęły się w związku z tym techniki równań różniczkowych cząstkowych oraz rozmaite fantastyczne idee na temat eteru. Michael Faraday wprowadził do nauki pojęcie linii sił. Wyobrażał sobie, że owe linie się wzajemnie odpychają, dążąc zarazem do skrócenia się, jakby były z gumy, dając w efekcie siły przyciągania bądź odpychania. Jako niematematyk wyobrażał je sobie jako pewne dość konkretne, choć niewidoczne byty. Ładunki elektryczne były dla niego w zasadzie zakończeniami owych linii sił, a nie czymś istniejącym samodzielnie. Fluid Franklina i inne tego rodzaju pomysły trafiły do lamusa. Wahadełko Franklina miało być przyciągane właśnie tymi elastycznymi i odpychającymi się liniami sił (na obrazku kulka przyciągana jest do lewej okładki kondensatora; kulka naładowana jest tak, jak prawa okładka).

W styczniu roku 1862 James Clerk Maxwell opublikował trzecią część pracy On Physical Lines of Force, w której zajmował się m.in. wyjaśnieniem pola magnetycznego za pomocą wirów w eterze. Eter wypełniać miały wielościenne, zbliżone do kul elastyczne cząstki („wiry molekularne”), a pomiędzy nimi była jeszcze pojedyncza warstwa drobniejszych cząstek kulistych.

Pole magnetyczne polegać miało na wirowaniu cząstek wielościennych – im silniejsze ple, tym większa prędkość kątowa. Obraz tych „wirów molekularnych” wiązał się z obserwacją Faradaya, że płaszczyzna polaryzacji światła obraca się, gdy fala biegnie wzdłuż kierunku pola magnetycznego. Efekt Faradaya wskazywał na związek pola magnetycznego i fali świetlnej. Aby sąsiednie wiry mogły obracać się w tym samym kierunku, potrzebna była dodatkowa warstwa cząstek przekazujących ruch i obracających się bez tarcia, nieco podobnie jak w łożysku kulkowym.

Gdy prędkość sąsiednich wirów była taka sama, owe dodatkowe kulki jedynie się obracały (lewa część rysunku), gdy natomiast prędkości wirowania się różniły, kulki dodatkowe przemieszczały się, odpowiadając za prąd elektryczny. Jednak według Maxwella nie były one nośnikami ładunku, inaczej niż to wyobrażamy sobie dziś. Włączając do modelu sprężystość wirów molekularnych, które mogły nie tylko się obracać, ale i odkształcać, Maxwell wprowadził do swej teorii prąd przesunięcia i efekty elektrostatyczne. W tej samej pracy obliczył prędkość rozchodzenia się sprężystych fal poprzecznych w swoim modelu eteru. Okazała się ona równa prędkości światła. Tak naprawdę jego model nie był do końca ściśle określony i dokładna zgodność z prędkością światła była do jakiegoś stopnia przypadkowa. Maxwell uwierzył jednak, że ma ona znaczenie i zainteresował się pomiarami elektrycznymi i magnetycznymi, które mogły dostarczyć dokładniejszej wartości stałych do modelu. Fale poprzeczne w tym eterze nie były jeszcze falami elektromagnetycznymi: pola elektryczne i magnetyczne nie zmieniały się w nich tak, jak w fali elektromagnetycznej. Dalsze prace Maxwella stopniowo oddalały się od tego modelu. Spełnił on jednak ważną rolę heurystyczną. Większość uczonych XIX wieku wierzyła, że zjawiska elektromagnetyczne w taki czy inny sposób należy sprowadzić do ruchów eteru. Mechanika była ich sposobem myślenia, był to wiek pary i urządzeń mechanicznych: przekładni, tłoków, łożysk, regulatorów itd.
Pierre Duhem, ważny filozof nauki i znacznie słabszy uczony, dostrzegał te inżynierskie parantele i patrzył na nie z pewnym politowaniem. Pisał, rozróżniając fizykę angielską i niemiecko-francuską (było to przed I wojną światową, zanim Niemcy przestali być jego faworytami):

Fizyk francuski bądź niemiecki przyjmował w przestrzeni dzielącej dwa przewodniki abstrakcyjne linie sił bez grubości, bez realnego istnienia; fizyk angielski uzna te linie za materialne, przyda im grubości, by stały się rozmiarów rurki, którą wypełni zwulkanizowanym kauczukiem; w miejsce idealnych linii sił, możliwych do pojęcia jedynie rozumowo, pojawi się u niego wiązka elastycznych strun, widzialnych i dotykalnych, mocno przyklejonych swymi końcami do powierzchni obu przewodników, naciągniętych, dążących do skrócenia się i pogrubienia zarazem (…) Tak przedstawia się słynny model oddziaływań elektrostatycznych wyobrażony przez Faraday i podziwiany jako owoc geniuszu przez Maxwella oraz całą szkołę angielską.
(…) Oto książka, która ma na celu przedstawienie nowoczesnej teorii elektryczności, przedstawienie nowej teorii; a mowa w niej wyłącznie o sznurach poruszających kołami obracającymi się w bębnach, poruszających kulkami, podnoszącymi ciężary; o rurach pompujących wodę i rurach skracających się i poszerzających, kołach zębatych sprzęgniętych ze sobą i z zębatkami; sądziliśmy, że wkraczamy do spokojnego i starannie zaprojektowanego gmachu dedukcyjnego rozumu, a trafiliśmy do fabryki”. [La Théorie physique: Son objet et sa structure, Paris 1906, s. 110-111]

Duhem ma tu na myśli książkę Olivera Lodge’a Modern views of electricity, ale i całą brytyjską szkołę naukową. Zabawnie pomyśleć, że Francuz, potomek Kartezjusza, tak bardzo gorszył się wyjaśnieniami mechanicznymi. Filozof słabo rozumiał swoje czasy, był bardzo konserwatywnym katolikiem, który starał się wykazać, że Galileusz niezbyt się przyczynił do rozwoju nauki; mniej w każdym razie niż kardynał Bellarmine, który spalił Giordana Bruna i wciągnął Kopernika na Indeks ksiąg zakazanych. Prawdopodobnie główną winą Galileusza oczach Duhema był fakt, że naraził się Kościołowi, a ten z zasady jest nieomylny. Oliver Lodge rzeczywiście miał przesadne upodobanie do mechanicznych wynalazków ilustrujących elektryczność i magnetyzm. Takie upodobanie miał także i Boltzmann, najważniejszy fizyk europejski między Maxwellem a Einsteinem. Można przypuszczać, że James Clerk Maxwell nie wykonałby swej ogromnej wieloletniej pracy nad teorią elektromagnetyzmu, gdyby nie mechaniczne modele. Odegrały one ważną rolę, bo pomagały mu w myśleniu. Duhem, podobnie jak wielu filozofów i wielu katolików, obszczekiwał nie to drzewo.

Wiry molekularne Maxwella znalazły jakiś rodzaj kontynuacji we współczesnym opracowaniu matematycznym jego teorii. Pole magnetyczne okazuje się 2-formą, czymś, co w naturalny sposób daje się całkować po powierzchni. Obiekt taki geometrycznie przedstawia się jako rurkę z pewną skrętnością. Pole elektryczne jest 1-formą, czyli czymś, co daje się naturalnie całkować wzdłuż krzywej. Obiekt taki można przedstawić jako układ płaszczyzn czy powierzchni dwuwymiarowych, które przecinamy idąc w pewnym kierunku.

Rozważania Maxwella nie były więc tak bardzo od rzeczy, jak moglibyśmy dziś sądzić, słysząc o wirach molekularnych w eterze. Opisu świata dostarczają więc raczej obiekty matematyczne niż dziewiętnastowieczne przekładnie i zębatki.

Wydaje się, że ludzie najlepiej wyobrażają sobie to, co sami potrafią w danej epoce zbudować: dawniej były to mechanizmy zegarowe i urządzenia hydrauliczne, w wieku XIX różne pomysłowe maszyny, od końca wieku XX na wyobraźnię wpływają komputery. Wyobraźnia typu inżynierskiego, obrazowego, miała zawsze duże znaczenie w nauce: od Galileusza i Kartezjusza, przez Newtona aż do lorda Kelvina, Maxwella i Einsteina – wszyscy oni mieli spore kompetencje praktyczne. W tym sensie świat jednak bardziej jest fabryką niż świątynią dogmatycznego albo tylko matematycznego rozumu. Dziś co chwila pojawiają się „komputerowe” teorie świata, np. czy zamieszkujemy wszyscy jakiś program komputerowy, którego założenia poznajemy tylko przez obserwację? Jeden z największych sporów w fizyce dotyczy tego, co dzieje się z informacją wpadającą do czarnej dziury. Z jednej strony teoria grawitacji Einsteina mówi bowiem, że informacja ta ginie razem ze swym nośnikiem pod horyzontem dziury. Z drugiej strony teoria kwantów wymaga, aby informacja nigdy nie ginęła na dobre – może być praktycznie nie do odzyskania, ale co do zasady powinno być to możliwe. Promieniowanie Hawkinga nie rozwiązuje sprawy, ponieważ dziura nie jest wprawdzie absolutnie czarna, ale jej promieniowanie jest termiczne, a więc chaotyczne, nie zawierające informacji. Stworzono gigabajty prac na ten temat, lecz wciąż nie wiadomo, czy w którejś z nich zawarta jest poszukiwana informacja.

Dlaczego w nocy jest ciemno?


Nie wszystkie dane kosmologiczne pochodzą z wyspecjalizowanej aparatury wartej miliardy. Trywialna (z pozoru) obserwacja, że w nocy jest ciemno, ma pewną wartość naukową. Rzecz znana jest jako paradoks ciemnego nieba albo paradoks Olbersa, mimo że znana była wcześniej, a także rozpatrywana później.

Pierwszy zapewne zwrócił na tę kwestię uwagę Johannes Kepler. W jego czasach pojawiła się koncepcja nieskończonego wszechświata głoszona przez Giordana Bruna. utrzymywał on, że gwiazdy są odległymi słońcami i, jak wiemy, został spalony w roku 1600 na Campo de’ Fiori w Rzymie ku chwale chrześcijaństwa i heretykom ku przestrodze. Bruno nie był astronomem, raczej filozofem-wizjonerem, ale sądzimy dziś, że nawet filozofów nie powinno się palić. Keplerowi bardzo nie podobała się wizja Bruna, nieskończoność budziła w nim odrazę jako chaos. Jego kosmos miał kształt kuli, a gwiazdy ułożone były w cienkiej sferze. Słońce było od nich znacznie większe (na rysunku brakuje planet i nie są zachowane proporcje: układ planetarny wraz ze Słońcem znajdował się wewnątrz wielkiej powłoki kulistej z niewielkimi gwiazdami). Argument Keplera był taki: gdyby wszechświat był nieskończony, a gwiazdy były takie jak nasze Słońce, to niebo musiałoby być jasne. Ergo: kosmos jest skończony, gwiazd jest wiele, lecz liczba ich jest ograniczona i są znacznie mniejsze od Słońca.

stars_dark_kepler

Ściślejszą postać nadali temu paradoksowi Edmond Halley i Heinrich Olbers. Nie będziemy wchodzić w historyczne detale, ale z grubsza argument byłby taki: W nieskończonym wszechświecie wzrok nasz napotyka bliżej lub dalej powierzchnię jakiejś gwiazdy (chyba że jedne gwiazdy chowają się za innymi i ułożone są w jakiś szczególnie przemyślny sposób, np. fraktalnie).
To tak jakbyśmy rozglądali się wokół, znajdując się w nieskończonym lesie.

harrison_3

(Rysunek pochodzi z książki E. Harrisona, Cosmology)

Jasność powierzchniowa gwiazdy nie zależy od odległości: jej tarcza jest mniejsza, lecz na jednostkę powierzchni przypada tyle samo energii. Inaczej mówiąc, powinniśmy na całym niebie widzieć powierzchnie różnych gwiazd, a więc coś podobnego do tarczy Słońca. Niebo powinno całe oślepiająco świecić.

Dlaczego nie świeci?
Proste pomysły w rodzaju jakiejś pochłaniającej materii po drodze z dalekich gwiazd do nas niczego nie załatwiają, bowiem materia taka z czasem powinna się ogrzać i świecić równie jasno jak gwiazdy.

Lord Kelvin obliczył, jaki ułamek \alpha powierzchni nieba będą zajmowały gwiazdy, jeśli nasz zasięg wzroku jest równy R. Przyjmujemy, że w jednostce objętości wszechświata znajduje się n gwiazd, a każda z nich ma pole przekroju S. Mamy wówczas

\alpha=nSR. \mbox{ (*)}

Gdybyśmy zażądali \alpha=1 (całe niebo świeci), to odległość R okazuje się ogromnie wielka np. R=10^{22} lat świetlnych albo nawet R=10^{30} lat świetlnych.

Liczby te pozwalają dostrzec rozwiązanie paradoksu: tylko światło wysłane po Wielkim Wybuchu może dotrzeć do nas. Oznacza to, że R_{\star}\approx 10^{10} lat świetlnych (nie przejmujemy się ekspansją wszechświata, wskutek której widzimy kilkakrotnie dalej, co nie zmieni istotnie wyniku). Wobec tego co najwyżej

\alpha\approx\dfrac{R_{\star}}{R}=10^{-12}

powierzchni nieba zajmują gwiazdy. Niebo jest ciemne, ponieważ żyjemy w stosunkowo młodym wszechświecie.

Można ten wynik otrzymać inaczej: gdyby całkowitą energię wszechświata przypadającą na każdy cm^3 zamienić na energię promieniowania, to miałoby ono temperaturę około 30 K – a więc daleko do 6000 K, jakie ma powierzchnia Słońca.

W istocie istnieje coś w rodzaju tła nieba: jest to kosmologiczne promieniowanie tła. Ze wszystkich stron dociera do nas mniej więcej takie samo promieniowanie, odpowiadające temperaturze niecałych 3 K, przypada ono głównie na milimetrowe długości fal).

Planck_CMB_node_full_image_2

(Dane misji PLANCK)

Skala barw na wykresie odpowiada niewielkim odchyleniom od średniej. Są one niezmiernie ważne, gdyż informują, jaki był wszechświat, gdy owo promieniowanie powstało, tzn. ok 400 000 lat po Wielkim Wybuchu. Jest to najstarszy obraz wszechświata.

Nazywane ono bywa także promieniowaniem reliktowym, bo jest śladem po tamtej odległej epoce. Nietrudno zrozumieć jego pochodzenie. Wszechświat rozszerzał się i jednocześnie stygł. W pewnej chwili składał się głównie z protonów, elektronów i fotonów. Naładowane cząstki silnie reagują na promieniowanie: pod jego wpływem same wysyłają promieniowanie, energia jest więc rozpraszana na wszystkie strony. Ośrodek złożony z oddzielnych protonów i elektronów (tzw. plazma) jest nieprzezroczysty. Gdy temperatura jeszcze się obniżyła, elektrony i protony połączyły się w atomy wodoru. Gaz atomów jest przezroczysty – tak samo jak powietrze. Wobec tego fotony przestały się zderzać z atomami i te fotony możemy obserwować do dziś (z atomów powstała cała reszta). W momencie rozprzęgania fotonów i pozostałej materii temperatura wynosiła około 3000 K – niebo świeciło jak powierzchnia gwiazdy, nie miał jednak kto tego oglądać. Reszta jest bardzo prosta: wszechświat od tamtej chwili powiększył się liniowo 1000 razy w każdym kierunku. Fale świetlne o długościach rzędu 1 μm też się powiększyły 1000 razy i stały falami milimetrowymi, które obserwujemy. Z poświaty widzialnej zrobiła się więc mikrofalowa. I to jest drugi powód ciemnego nieba: gdyby nawet wszechświat nie miał początku, lecz się rozszerzał, niebo byłoby ciemne.

(*) Ułamek nieba zasłoniętego tarczami gwiazd można obliczyć następująco. Rozważmy powłokę kulistą o promieniu r i grubości \Delta r. Jej objętość równa się 4\pi r^2\Delta r (=pole powierzchni sfery razy grubość).

stars_dark

Mnożąc to przez n, otrzymamy liczbę gwiazd w naszej powłoce, a mnożąc jeszcze przez S – łączne pole powierzchni przesłanianej przez gwiazdy. Wobec tego wkład naszej powłoki do zakrycia nieba wynosi

\Delta\alpha=\dfrac{ 4\pi r^2\Delta rnS}{ 4\pi r^2}=nS\Delta r.

Sumując wkłady od powłok od zera aż do pewnego promienia R, otrzymujemy wynik (*). Łatwo go zrozumieć: n ma wymiar 1/m^3, S ma wymiar m^2, R ma wymiar m – tylko mnożąc te trzy wielkości, dostaniemy wynik bezwymiarowy (\alpha to ułamek powierzchni, więc jest bezwymiarowe); oczywiście \alpha powinna być proporcjonalna do wszystkich trzech wielkości.

John Perry, lord Kelvin i wiek Ziemi, czyli lepiej być sławnym i bogatym (1895)

Kim był John Perry? Pracował kiedyś jako asystent Thomsona (późn. Kelvina) na uniwersytecie w Glasgow, potem został profesorem mechaniki inżynierskiej. Perry polemizował z Kelvinem na temat wieku Ziemi i miał rację, ale niestety nic z tego nie wynikło. Kelvin zastosował fizykę matematyczną do tego zagadnienia: założył, iż na początku wewnątrz globu panowała pewna wysoka temperatura, która na powierzchni spadała do zera (z grubsza wszystko jedno w jakiej skali). Ponieważ skały przewodzą ciepło, więc profil temperatury powinien się stopniowo pochylać, jak na obrazku. Kelvin Można zmierzyć, jak szybko rośnie temperatura w miarę zagłębiania się w Ziemi, a stąd nietrudno obliczyć ile lat ma Ziemia. Wyszło mu, że pewnie kilkadziesiąt milionów lat. Wynik był bardzo ważny, bo zadawał kłam geologom, którzy wyobrażali sobie na podstawie różnych niepewnych rozumowań, że chodzi przynajmniej o setki milionów lat – a więc co najmniej dziesięć razy dłużej. Wynik Kelvina stanowił też kłopot dla Darwina i jego zwolenników, bo ewolucja w ciągu, powiedzmy 20 milionów lat, musiałaby przejść wszystkie etapy od organizmów jednokomórkowych do królowej Wiktorii (dziś wiemy, że trwało to 200 razy dłużej). Geologowie nie mieli ilościowych argumentów, wydawało się, że rozumowaniu Kelvina nic nie można przeciwstawić, trudno się sprzeczać z matematyką. I tu na scenę wkracza John Perry. Gdyby przyjąć, że tylko cienka warstwa powierzchniowa skorupy ziemskiej jest w stałym stanie skupienia, wnętrze zaś płynne, to temperatura owego wnętrza mogłaby się szybciej wyrównywać dzięki prądom konwekcyjnym (korzystają z nich szybownicy w pogodne dni). Nikt nie umiał obliczyć, jak zmienią się wyniki, gdyby uwzględnić konwekcję. Perry przyjął, że przewodzenie ciepła zachodzi tylko przy powierzchni Ziemi, w cienkiej warstwie o grubości L. Strumień ciepła w W/m2 jest proporcjonalny do gradientu temperatury (deg/m):

\dfrac{P}{4\pi R^2}=K\dfrac{T}{L},

gdzie P jest mocą przekazywaną przez całą Ziemię na zewnątrz, R jej promieniem, K współczynnikiem przewodnictwa, zależnym od materiału, a T temperaturą wewnątrz Ziemi (na zewnątrz przyjmujemy zero). Jest to prawo przewodnictwa Fouriera, Kelvin też je stosował, tyle że do całego globu, a nie tylko do warstwy powierzchniowej. Moc to ilość ciepła \Delta Q przepływającego na zewnątrz podzielona przez czas \Delta t, można ją zapisać przez zmianę temperatury \Delta T (duże T – temperatura, małe t – czas), masę Ziemi M oraz jej ciepło właściwe c – to zwykła kalorymetria:

P=\dfrac{\Delta Q}{\Delta t}=-\dfrac{Mc\Delta T}{\Delta t}.

Minus w ostatnim równaniu informuje, że gdy ciepło wypływa, temperatura maleje. Łącząc oba równania, otrzymamy szybkość zmian temperatury (ściśle biorąc chodzi o pochodną, ale jeśli ktoś nie zna tego pojęcia, to nic nie szkodzi):

\dfrac{\Delta T}{\Delta t}=-\left(\dfrac{3K}{\varrho c LR}\right)T\equiv -\dfrac{T}{t_0}.

Wielkość \varrho to średnia gęstość Ziemi. Wszystkie współczynniki przed temperaturą dają się zapisać w jedną stałą t_0 o wymiarze czasu. Im niższa jest temperatura, tym wolniej spada. Równanie takie opisuje wykładniczy zanik temperatury (Takie samo prawo obowiązuje np. w rozpadzie promieniotwórczym). Okazuje się jednak, że proces ten jest znacznie wolniejszy niż w modelu Kelvina. Na rysunku zaznaczone są górna i dolna granica strumienia ciepła, możliwe do przyjęcia (trudno wyliczyć średnią dla całej powierzchni Ziemi). Dane wchodzące do obliczeń nie zmieniły się istotne od czasów Kelvina i Perry’ego. perry Parametry liczbowe są dla obu modeli takie same. Jak widać model Perry’ego dla L=50\mbox{ km} pozwala wydłużyć wiek Ziemi do dwóch miliardów lat. Nasz wykres kończy się na prawdziwym wieku Ziemi. Jak na prościutki model, wyniki są zupełnie dobre. Dziś wiemy, że rację miał Perry, a nie jego idol Kelvin. Ani Kelvin, ani Peter Guthrie Tait – inna ówczesna znakomitość, nie wzięli poważnie pod uwagę modelu Perry’ego. Sprawę wieku Ziemi przesądzono na niekorzyść Kelvina dziesięć lat później. Zrobił to Ernest Rutherford, który zwrócił uwagę, że zgodnie z odkryciem Pierre’a Curie i André Laborde’a, pierwiastki radioaktywne wewnątrz Ziemi wydzielają ciepło, co zmienia bilans. Rutherford wspominał swój wykład z roku 1904:

Wszedłem do na wpół zaciemnionej sali i po chwili zauważyłem wśród publiczności lorda Kelvina, co oznaczało dla mnie kłopoty, bo ostatnia część prelekcji dotyczyła wieku Ziemi i moje poglądy w tej sprawie nie zgadzały się z jego opinią. Na szczęście zapadł on w mocną drzemkę, kiedy jednak doszedłem do tego ważnego punktu, zobaczyłem, że stary ptak siada prosto i rzuca mi spod brwi srogie spojrzenie! Wtedy spłynęło na mnie nagłe natchnienie i powiedziałem, że lord Kelvin ograniczył wiek Ziemi przy założeniu, że nie zostanie odkryte żadne nowe źródło ciepła. To prorocze stwierdzenie odnosi się do tego, o czym dziś mówimy – do radu. I proszę, staruszek się do mnie promiennie uśmiechnął.

Najzabawniejsze jest jednak to, że Rutherford też nie miał racji, pierwiastki promieniotwórcze nie zmieniają bilansu cieplnego Ziemi wystarczająco, by obalić rozumowanie Kelvina. Kiedy pisałem o wieku Ziemi, też tego nie wiedziałem – podręczniki powtarzają tę mądrość o pierwiastkach radioaktywnych, a za podręcznikami ludzie. Model Perry’ego jest znacznie bliższy prawdy niż model Kelvina. Wnętrze Ziemi jest płynne, dziś modeluje się komputerowo procesy przepływu ciepła i wiadomo na ten temat znacznie więcej. Od początku problem leżał nie w przybliżonym charakterze modeli, bo to można poprawić, lecz w odmiennych założeniach. Kelvin i ówczesny establishment nie chcieli przyjąć „dziwnego” założenia o płynnym wnętrzu Ziemi. Gdyby je przyjęli, dużo wcześniej zgodzono by się na ruch płyt tektonicznych – jeszcze jedną heretycką hipotezę. Kelvin wielkim uczonym był i sam Perry to rozumiał. Toteż wszyscy posłuchali Kelvina zamiast myśleć na własny rachunek. Oczywiście, oprócz stadnego myślenia wchodziła też w grę niechęć do arbitralnych, jak się mogło wydawać, założeń Perry’ego: bo dlaczego tylko taka warstwa miałaby podlegać prawu przewodnictwa? Kelvin wykazał, że przewodnictwo cieplne w wysokich temperaturach się nie zmienia oraz uznał, że konwekcją można się nie przejmować, głównie dlatego, że nikt nie potrafił uwzględnić jej w obliczeniach.

Korzystałem z artykułu, P. England, P. Molnar, F. Richter, John Perry’s neglected critique of Kelvin’s age for the Earth:A missed opportunity in geodynamics, „GSA Today”, t. 17, nr. 1 (2007), s. 4-9. Jest też jego popularna wersja na stronie internetowej „American Scientist”.

Czy ludzie epoki wiktoriańskiej byli od nas inteligentniejsi?

Niezwykle długie panowanie królowej Wiktorii: od 1837 do 1901 roku było wyjątkowe także z powodu niezwykłego postępu, jaki się w tym czasie dokonał. To prawda, że Anglia miała do dyspozycji zasoby całego swego imperium, ale była też krajem, który umiał z nich korzystać, przodował w przemyśle, handlu, wynalazkach, organizacji państwa, jak też w naukach podstawowych. Jeśli chodzi o naukę, wystarczy wyliczyć największe osiągnięcia naukowe stulecia: James Clerk Maxwell stworzył jednolitą teorię elektryczności, magnetyzmu i optyki, James Joule i William Thomson (późn. lord Kelvin) mieli wielki wkład w powstanie termodynamiki, a Charles Darwin przekształcił biologię z bezładnej opowieści o cudach stworzenia w spójną narrację dotyczącą dziejów życia na Ziemi. Były to czasy, gdy życie gentlemana było zdecydowanie komfortowe, ale także szerokie masy mogły wreszcie utrzymać się przyzwoicie ze swej pracy, nie głodując. W Anglii już od dawna nie było analfabetów, dużą popularnością cieszyły się popularne wykłady i książki naukowe (w Polsce międzywojennej wciąż około 20% ludności nie znało liter, a nauka nie była popularna właściwie nigdy).

Francis Galton był kuzynem Charlesa Darwina, mieli wspólnego przodka w osobie Erasmusa Darwina, wizjonera ewolucjonizmu. Galton, który sam był cudownym dzieckiem w wieku sześciu lat czytającym Shakespeare’a dla przyjemności, gdy chciał odpocząć od poważniejszych lektur, interesował się dziedziczeniem inteligencji i przeprowadził badania empiryczne czasu reakcji. Współcześni psychologowie uważają, że czas reakcji człowieka jest miarą sprawności jego aparatu poznawczego, jednym słowem, gdy potocznie mówimy, że ktoś jest bystry i rozumiemy przez to szybsze przetwarzanie danych w umyśle, nie jesteśmy daleko od istoty inteligencji. Współcześni badacze porównali dane Galtona dotyczące czasu reakcji z danymi uzyskiwanymi później. Wyniki nie są niestety korzystne dla współczesnego społeczeństwa.

1-s2.0-S0160289613000470-gr1

Czas reakcji w milisekundach. Wykres z pracy: Woodley, M.A., et al.,Were the Victorians cleverer than us? The decline in general intelligence estimated from a meta-analysis of the slowing of simple reaction time, „Intelligence” (2013), http://dx.doi.org/10.1016/j.intell.2013.04.006

Oczywiście można dyskutować nad statystyką i metodologią tej pracy, zainteresowani mogą sami się jej przyjrzeć. Załóżmy jednak, że wyniki są prawdziwe. Jest możliwe, że taka jest właśnie cena cywilizacyjnego postępu: szerszy dostęp do medycyny, kalorycznej żywności i higieny owocuje większym przyrostem naturalnym, także czy może przede wszystkim wśród osób o mniejszych zdolnościach poznawczych.

W ten sposób postęp cywilizacyjny, budowany przez stosunkowo nielicznych, byłby wykorzystywany przez innych, którzy wyłącznie go konsumują. Pomyślmy np. o imigracji. Każdy bogaty kraj zalewany jest falą imigracji i jedynie niewielką jej część stanowią ludzie, którzy chcą się rozwijać i mają autentyczne aspiracje, jak powiedzmy Chińczycy w USA. Polityczna poprawność każe uciekać od tematów tego rodzaju, jednak ludzie nie są równi i nic na to nie poradzimy, podobnie jak nie każda praca naukowa jest tyle samo warta, a nie każdy profesor jest wybitnym uczonym. (Nie znaczy to jednak, że ludzie nie powinni być równi wobec prawa – to zupełnie inna sprawa – albo że nie trzeba tworzyć im równych szans, nie opowiadam się tu za żadną dyskryminacją, nie jestem zwolennikiem wybranej rasy ani wybranego narodu!).

Wyniki tego badania są ciekawe także dlatego, że przeczą naszemu odruchowemu przekonaniu o postępie. A przecież kiedy się chwilę zastanowić, nie wszystko i nie zawsze zmienia się na lepsze. Np. wykształcenie Polaków bardzo się poprawiło, jeśli mierzyć je liczbą wydanych dyplomów, a pogorszyło się, jeśli mierzyć je liczbą czytanych książek (filmiki czy memy w internecie nie nauczą nas intelektualnego wysiłku, pokonywania trudności, książki dla umysłu są tym co siłownia czy sport dla mięśni). Nie chcę przez to powiedzieć, że dzisiejsi Polacy są mniej inteligentni, chodzi mi tylko o to, żeby uświadamiać sobie ukryte założenia w naszym myśleniu. To jedna z najtrudniejszych kwestii w życiu umysłowym i naukowym. Wiele razy w historii ludzie nie wyciągali wniosków z tego, co mieli przed nosem, tylko dlatego, że stały im na drodze jakieś niewidzialne przeszkody. Wielkość wybitnych uczonych, powiedzmy Galileusza czy Einsteina, polegała w znacznej mierze na umiejętności uwalniania się od takich oczywistych założeń. Galileusz znał cały zestaw argumentów przeciwko ruchowi Ziemi i wykazał, że można je wszystkie skutecznie rozbroić i że ruch Ziemi nie oznacza żadnej katastrofy dla jej mieszkańców. Einstein potrafił zakwestionować coś tak oczywistego jak wspólny dla wszystkich absolutny czas.

Telegraf

Coraz mniej ludzi pamięta czasy, kiedy na urzędach pocztowych widniały trzy słowa: poczta, telefon i telegraf. Telegraf był pierwszym na świecie globalnym medium pozwalającym na wymianę informacji, zwykle krótkich (płaciło się za każde dodatkowe słowo ponad 10) – stąd pochodzi określenie „w telegraficznym skrócie”.

William Thomson otrzymał tytuł szlachecki nie za swe osiągnięcia naukowe (nawet tak wielkie jak II zasada termodynamiki), lecz za udział w projekcie ułożenia kabla przez Atlantyk. Opracował on i opatentował w tym celu różne urządzenia m.in. galwanometr zwierciadłowy – przyrząd mierzący słabe prądy, w którym rolę wskazówki pełnił promień światła odbity od ruchomego zwierciadła. W roku 1858 kabel został ułożony.

Atlantic_cable_Map

Królowa Wiktoria i prezydent James Buchanan wymienili depesze (co trwało po kilkanaście godzin w jedną stronę). W Nowym Jorku oddano salut ze stu dział, na ulicach wywieszono flagi, dzwoniły dzwony kościołów, a w nocy urządzono iluminację. To Stany Zjednoczone odczuwały wówczas dumę, że zostały połączone z centrum cywilizacji – Europą.

Pierwszy telegraf transatlantycki prawie natychmiast się popsuł, jednak po kilku latach ułożono drugi kabel i stopniowo sieć telegraficzna stała się nieodzowna w interesach. Z Londynu do Kalkuty depeszę przekazywano w pół godziny, co trzeba porównać z czasem podróży morskiej. Było to niezwykłe osiągnięcie, choć nie zawsze działało bez zarzutu, jak widzimy na rysunku z „Puncha” z 1863 roku.

Victorian-Cartoons-Punch-1863-01-10-20

Telegraf firmy London District Telegraph, nieoceniony dla człowieka interesu. „Pomyśl tylko, w jakich to czasach przyszło nam żyć. Weźmy na przykład parę albo gaz! Albo ułatwienia, jakie mamy dzięki elektryczności. Teraz jest godzina szósta i jesteśmy na Fleet Street, a ta depesza została wysłana z Oxford Street wczoraj o trzeciej po południu!”

Telegraf znalazł zastosowanie przede wszystkim w interesach, giełdy na całym świecie zaczęły odtąd pracować w zgodnym rytmie. Zwykłym ludziom służył do zawiadamiania o śmierci krewnych czy nagłym przyjeździe dawno niewidzianej cioci. Rabin Goldstein, jak pamiętamy, nie wzdragał się go użyć w fundamentalnej kwestii religijnej. Oto mapa połączeń telegraficznych w 1901 roku.

1901-eastern-telegraph-world-cable-map

Ciekawe, że dzisiejsza mapa połączeń internetowych w znacznej mierze powtarza strukturę dawnych połączeń telegraficznych. W ciągu ostatnich stu lat centrum przeniosło się wprawdzie na drugą stronę Atlantyku, cywilizacja globalna objęła swym zasięgiem Japonię, ale Chiny i Indie wciąż nie są ważnymi węzłami na tej mapie.

global-internet-map-2012-lW pełnej rozdzielczości mapę tę można obejrzeć na stronie http://www.telegeography.com/telecom-resources/map-gallery/global-internet-map-2012/index.html

Rok 1859, inne wydarzenia

Na przełomie każdego roku zdajemy sobie sprawę z umowności określenia początku roku: każdy punkt orbity Ziemi byłby tak samo dobrym początkiem, choć przecież sama długość roku nie jest arbitralna, lecz związana ze Słońcem – źródłem naszej niskiej entropii.

Każdy rok wnosi coś do historii, pełni rolę kolejnego słoja odłożonego w krzywym drzewie człowieczeństwa. Rok 1859 jest w historii nauki (i w historii ludzkości) jedną z najważniejszych dat, jak 1687, gdy ukazały się Matematyczne zasady filozofii przyrody, jak 1953, gdy ostatecznie rozszyfrowano strukturę DNA, otwierając nową epokę w biologii i medycynie. Warto może jednak przyjrzeć się bliżej innym wydarzeniom, jakie przyniósł ów rok 1859, już choćby po to, by zdać sobie sprawę, ile w tamtym czasie znaczył jeden roczny słój w drzewie historii.

Oprócz O powstawaniu gatunków Darwina ukazała się wtedy fundamentalna książka Johna Stuarta Milla O wolności. Klasyk liberalizmu pragnął lepszego społeczeństwa ludzi wolnych, korzystających nieograniczenie z wolności słowa, ale przy tym odpowiedzialnych: niepłacenie podatków czy niestawienie się w charakterze świadka w sądzie było dla niego równie oburzające jak nieuratowanie tonącego dziecka. Przebywający na przymusowej emigracji w Londynie Karol Marks wydał Przyczynek do krytyki ekonomii politycznej, zapowiadający już myśli rozwinięte w pierwszym tomie Kapitału. Żyjący w nędzy i znający nędzę milionów ludzi w Europie, pełen gniewu i goryczy, Marks starał się dowieść na podstawie statystyk rządu brytyjskiego i własnych analiz, że burżuazyjne społeczeństwo skazane jest na gwałtowny kres i musi ustąpić lepszemu proletariackiemu światu.

Jak na złość rewolucjonistom była to epoka stabilizacji i długowiecznych monarchów, królowej Wiktorii i cesarza Franciszka Józefa. W roku 1859 stoczono krwawą bitwę pod Solferino. Dziś pamiętają o niej już chyba tylko miłośnicy historii wojskowej. Szczególnie tragiczny był wówczas los rannych, którzy masowo ginęli, pozostawieni samym sobie. Szwajcar, Henri Dunant, który znalazł się przypadkowo na pobojowisku pod Solferino, wstrząśnięty tym, co zobaczył, zaczął organizować miejscową ludność do pomocy rannym, za własne pieniądze kupował potrzebne środki opatrunkowe. Z jego inicjatywy powstał Międzynarodowy Czerwony Krzyż. Solferino wrosło w pamięć Austro-Węgier, czytelnicy Marsza Radetzky’ego, najbardziej przejmującej książki o zmierzchu i upadku wielonarodowego cesarstwa, pamiętają, że ród Trottów wywodził się od dziadka, który uratował pod Solferino młodego cesarza i w nagrodę zyskał tytuł szlachecki.

Książka O powstawaniu gatunków była naukowym bestsellerem, 1250 egzemplarzy pierwszego wydania rozeszło się tak szybko, że dwa miesiące później potrzebne już było drugie wydanie. Pojawiło się w nim słowo „Stwórca”, lecz nadal nie było słowa „ewolucja”, jedynie w ostatnim zdaniu wystąpił czasownik „evolve”. Do sukcesu pierwszego wydania przyczynił się fakt, że 500 egzemplarzy zakupiła Mudie’s Library rozprowadzająca książki wśród subskrybentów, a także prowadząca wypożyczalnie. Idee Darwina nie wydawały się szerszej publiczności tak szokujące, ponieważ piętnaście lat wcześniej dość podobne myśli pojawiły się w druku w anonimowym bestsellerze Vestiges of the Natural History of Creation, który czytała nawet para królewska i który do 1859 roku rozszedł się w ponad 20 000 egzemplarzy. Książka ta niezbyt podobała się samemu Darwinowi, jako zbyt słabo udokumentowana; wywarła jednak wpływ na Alfreda Russella Wallace’a, inspirując go do poszukiwania śladów tworzenia się nowych gatunków.

Opinię publiczną kształtują nie tylko wybitne idee naukowe czy dzieła sztuki, wpływają na nią także różne mody i pseudonauki. W wieku XIX niezwykle popularna była frenologia, głosząca, że z kształtu czaszki odczytać można budowę mózgu człowieka, a ta z kolei świadczyć miała o stopniu rozwoju różnych aspektów umysłu – każdy obszar mózgu skojarzony był bowiem z jakąś konkretną zdolnością bądź cechą charakteru. Darwin nie cenił frenologii, lecz poświęcona jej książka George’a Combe’a rozeszła się od 1828 do 1859 roku w 300 000 egzemplarzy. Toteż nic dziwnego, że ślady wpływu frenologii znaleźć możemy u pisarzy najrozmaitszej rangi od Conan Doyle’a do Hardy’ego, Dickensa i Flauberta.

PhrenologyPix

Latem 1859 roku na uniwersytecie w Heidelbergu zaczęła się współpraca fizyka Gustava Kirchhoffa z chemikiem Robertem Bunsenem (do dziś każda pracownia chemiczna posiada palniki Bunsena). Uczeni ci skonstruowali pierwszy spektroskop, pozwalający badać światło wysyłane przez różne pierwiastki w wysokich temperaturach. Okazało się, że na podstawie widma można jednoznacznie zidentyfikować pierwiastek. Zauważyli też zbieżność położenia jasnych linii widmowych z laboratorium z ciemnymi liniami w widmie Słońca.

Kirchhoffs_first_spectroscopespectra

Widmo Słońca i zestawione z nim widma laboratoryjne sodu, potasu, litu, strontu, wapnia i baru (z pracy Kirchhoffa i Bunsena z roku 1860)

W ten sposób powstała analiza widmowa, dzięki której odkryli oni w następnych latach cez i rubid. Później odkryto za pomocą analizy widmowej jeszcze kilka pierwiastków, w tym hel, jednak największe zastosowanie znalazła w astrofizyce. Wydawało się bowiem zupełnie niemożliwe, aby ludzie mogli kiedykolwiek poznać skład chemiczny odległych ciał niebieskich, metody chemiczne wymagają próbki odpowiedniej substancji. Tymczasem dzięki badaniu widm znamy nie tylko skład chemiczny, ale także poznajemy wiele faktów dotyczących warunków panujących tam, skąd wysyłane jest światło. Widma umożliwiły także odkrycie rozszerzania wszechświata.
Kirchhoff i Bunsen stwierdzili, że każdy pierwiastek ma charakterystyczne widmo. Z czasem wielkim wyzwaniem stało się wyjaśnienie tego faktu. Wymagało ono wiedzy o budowie atomu. Najprostsze widmo wodoru udało się wyjaśnić Nielsowi Bohrowi w roku 1913, inne dopiero po powstaniu mechaniki kwantowej, a więc po roku 1926.

W latach pięćdziesiątych XIX wieku powstała termodynamika. Zrozumiano, że świecenie Słońca wymaga jakiegoś wydajnego źródła energii. Nie mogła to być energia chemiczna, bo tej wystarczyłoby na jakieś 10 000 lat. Hermann von Helmholtz zasugerował kurczenie się grawitacyjne. Gdyby Słońce kurczyło się o 80 m rocznie, jego wiek można by szacować na jakieś 20 mln. lat. Siłą rzeczy znaczyło to, że Ziemia nie może istnieć od setek milionów lat, jak chcieli geologowie i Charles Darwin. Inną możliwością było zasilanie Słońca przez ciepło spadających na nie meteorytów. Oczywiście, musiało ich być dostatecznie dużo, no i trzeba było wyjaśnić, czemu dotąd nikt ich nie zaobserwował. Meteoryty są ciemne i jeśli są niewielkie, trudno je zauważyć. Jednak nawet wówczas znaczna ilość tej ciemnej materii musiałaby znajdować się w pobliżu Słońca, a ponadto masa naszej gwiazdy powinna rosnąć z czasem. Zachodziło pytanie, czy taka zmiana masy byłaby możliwa do zauważenia. William Thomson (późniejszy lord Kelvin) doszedł do wniosku, że hipoteza meteorytowa jest nie do utrzymania. Najbardziej prawdopodobne wydawało mu się kurczenie Słońca. Jego wiek nie powinien przekraczać 60 mln. lat. Rozważania te były wcześniejsze niż obliczenia wieku Ziemi. Widzimy, że Thomson miał dwa poważne powody, by podawać w wątpliwość dane geologów i Darwina. Jak to już jednak pisaliśmy, mylił się w tej sprawie.

Duże znaczenie dla rozumowań Thomsona miały obliczenia, ogłoszone we wrześniu 1859 roku przez Urbaina Le Verriera, niedawnego odkrywcę Neptuna. Przeanalizował on obserwacje przejść Merkurego przed tarczą słoneczną od roku 1697. Pozwalały one, przy dobrej znajomości położeń Słońca, na dokładne ustalenie położeń tej kłopotliwej w obserwacji planety. Le Verrier zauważył przy tym, że wszystkie te obserwacje dają się uzgodnić z teorią, jeśli przyjąć, że orbita Merkurego obraca się o dodatkowe 38” (mniej więcej 0,01 stopnia) na stulecie. Efekt był niewielki, ale teoria i obserwacje stanowiły już na tyle potwierdzony system wzajemnych powiązań, że nie było w nim miejsca na taki błąd. Należało więc zastanowić się nad przyczynami owego dodatkowego obrotu orbity Merkurego. Mógł on być wywołany przez grawitację dodatkowej nieznanej planety. Gdyby była ona wielkości Merkurego, powinna być o połowę bliższa Słońca. W zasadzie nie można było wykluczyć, że w pobliżu Słońca istnieje nowa planeta: byłaby ona zawsze w pobliżu naszej gwiazdy, a więc trudna do zauważenia (nawet Merkurego widziało stosunkowo niewielu ludzi, zastanawiano się np. czy kiedykolwiek widział go Mikołaj Kopernik). W grudniu 1859 roku Le Verrier otrzymał list od prowincjonalnego lekarza, pasjonata astronomii, Edmonda Modeste’a Lescarbaulta, który twierdził, że zaobserwował przejście takiej planety przed tarczą Słońca. Nic dziwnego, że zaintrygowany Le Verrier wybrał się do autora owej rewelacji osobiście. Na pierwszym posiedzeniu Akademii nauk w roku 1860 odczytano list doktora i komentarz Le Verriera, który w zasadzie uwiarygadniał jego obserwacje. Le Verrier obliczył nawet orbitę nowoodkrytej planety, nazwano ją Wulkan i miała zawsze znajdować się nie dalej niż 8º od Słońca. Lescarbault otrzymał Legię Honorową. „Odkrycie” się nie potwierdziło i sprawa umarła śmiercią naturalną. Jednak obliczona przez Le Verriera niezgodność o 38” była jak najbardziej prawdziwa. Uczony, sam o tym nie wiedząc, dotarł do granicy dokładności prawa ciążenia. Teoria Newtona była wspaniała, lecz tego efektu nie potrafiła wyjaśnić – zrobił to dopiero Albert Einstein w 1915 roku.

Robiąc przegląd wydarzeń roku 1859 nie można też pominąć pracy Bernharda Riemanna dotyczącej teorii liczb. Miało się okazać, że praca ta, zajmująca w rękopisie sześć stron, jest jedną z ważniejszych publikacji w historii teorii liczb, o czym jednak napiszę osobno.

Czy można wierzyć fizyce matematycznej? Darwin i Kelvin o wieku Ziemi

Darwin

W 1859 roku ukazało się dzieło Charlesa Darwina O pochodzeniu gatunków. Przyrodnik pisał: „Liczba przejściowych i wymarłych ogniw między żyjącymi i wygasłymi gatunkami musiała być olbrzymio wielką. (…) można by mi dalej zarzucić, że nie starczyłoby czasu na tak wielkie przemiany organiczne, które tylko bardzo powoli odbywać się mogą” (przeł. Sz. Dickstein i J. Nusbaum). Zmiany ewolucyjne są przypadkowe, nieukierunkowane, więc aby powstało np. zwierzę tak skomplikowane jak gepard albo człowiek, niezbędny jest bardzo długi czas.

Darwin szedł w ślady geologa Charlesa Leyella, który sądził, że przeszłość naszej planety przypominała stan dzisiejszy. Doktryna ta, zwana uniformitarianizmem, odsuwała początek Ziemi w jakąś daleką i nieokreśloną przeszłość. Na podstawie obserwowanej dziś szybkości działania różnych procesów geologicznych typu wietrzenia czy osadzania się kolejnych warstw można było wnioskować o wieku rozmaitych formacji. Otrzymywało się w ten sposób bardzo długie czasy, Darwin w I wydaniu swej książki podaje przykład denudacji Weald w Kencie, której wiek oblicza na 300 milionów lat. Jasne jest, że Ziemia musi być starsza od tej formacji geologicznej.

William Thomson (lord Kelvin)

Piętnaście lat młodszy od Darwina William Thomson był w tych latach jednym z najwybitniejszych fizyków brytyjskich, niebawem miał otrzymać tytuł szlachecki, a z czasem i tytuł barona, przybrał wtedy nazwisko Kelvin, pod jakim jest powszechnie znany. Thomson był jednym z odkrywców II zasady termodynamiki, opisującej nieodwracalność procesów w przyrodzie, tytuł szlachecki zawdzięczał jednak nie swoim odkryciom, lecz talentom inżyniersko-organizacyjnym, które wykazał przy układaniu podmorskiego kabla telegraficznego między Stanami Zjednoczonymi a Anglią. Darwin nigdy nie otrzymał tytułu szlacheckiego, ponieważ jego prace uważano za zbyt wywrotowe.

Niedługo po ukazaniu się dzieła Darwina Thomson przedstawił swoją pracę na temat wieku Ziemi. Uważano wówczas, że Ziemia była niegdyś bardzo gorąca i stopniowo wystygła. Proces takiego stygnięcia opisany jest równaniem kiedyś wprowadzonym przez Josepha Fouriera (przy okazji tych rozważań wprowadził on szeregi dziś zwane od jego nazwiska, stosowane dziś powszechnie w fizyce i technice). Można było obliczyć, jak szybko rosnąć powinna temperatura, gdy przesuwamy się w głąb Ziemi (od dawna było wiadomo, że w głębi Ziemi panują wyższe temperatury). Na początku Ziemia była kulą o temperaturze 4000 ºC, tylko tuż przy powierzchni jej temperatura była mniej więcej równa 0 ºC. Z czasem strome zbocze wykresu ulega rozmyciu.

Kelvin

Linie przedstawiają profil temperatury po 1, 10 i 100 milionach lat. Nachylenie krzywej temperatury na wykresie szybko maleje z czasem (podlega ono prostemu prawu skalowania \propto t^{-\frac{1}{2}}). Znając z pomiarów dzisiejsze nachylenie wykresu, można było obliczyć wiek Ziemi. Thomson uzyskał 100 mln. lat. Należało przypuszczać, że we wczesnych okresach zjawiska cieplne były bardziej gwałtowne. Wnioski Thomsona poparte były także rozważaniami na temat świecenia Słońca, wydawało się bowiem, że może ono świecić najwyżej przez kilkadziesiąt milionów lat.

Obliczenia Thomsona wynikały z modelu matematycznego, jego dane liczbowe były starannie zmierzone i bliskie są dzisiejszym. Przez następne czterdzieści lat, aż do początku wieku XX, wnioski szkockiego uczonego mogły wydawać się nieodparte, geologowie i przyrodnicy wierzący w ewolucję nie mogli mu przeciwstawić nic podobnie ścisłego. Darwin w kolejnych wydaniach swego dzieła szacował ostrożniej wiek denudacji Weald jako leżący gdzieś w przedziale 100 do 300 mln. lat. Jeśli Thomson miał rację, teoria Darwina miała kłopoty. A jednak Thomson się mylił.

Czy należy wierzyć modelom matematycznym?

Przypomina to sytuację z Dzienników gwiazdowych Stanisława Lema, gdzie uczony Flament występuje gwałtownie przeciw możliwości istnienia dwunożnych istot: „Jak gdybym jeszcze dwadzieścia pięć Płomieni temu nie udowodnił, że istota dwunożna, ledwo byś ją postawił, natychmiast wywróciłaby się jak długa! Sporządziłem nawet odpowiedni model i wykres, ale cóż wy, leniuchy, możecie o tym wiedzieć?”

Ostatecznie okazało się, że model jest prawidłowy, ale Thomson się mylił. Założenia modelu nie są spełnione w przyrodzie. W roku 1902 Pierre Curie i A. Laborde zmierzyli ciepło wydzielane przez promieniotwórczy rad. Istnienie izotopów promieniotwórczych wewnątrz Ziemi zmienia zasadniczo jej bilans energetyczny.

Obecnie dość dokładnie znamy wiek naszej planety, który jest równy 4,5 mld. lat. Intuicje Darwina szły w dobrym kierunku, Ziemia jest stara, ewolucja miała dużo czasu na wytworzenie geparda i człowieka. Zabawne, że Darwin też się pomylił. Denudacja Weald nie jest bowiem taka stara, jak przypuszczał.