Jak Albert Einstein wymyślił ruchy Browna (1905)

Albert Einstein kojarzy się głównie z teorią względności: szczególną i potem ogólną. Jego zainteresowania obejmowały jednak całość gmachu fizyki, jak nikt bowiem troszczył się o logiczną spójność i prostotę całości, wiele jego prac brało początek nie tyle z konkretnych problemów, ile raczej z potrzeby uzgodnienia różnych punktów widzenia. Tematyka teorii względności nie pochłaniała też większości jego czasu i uwagi. W pierwszym, najbardziej twórczym, ćwierćwieczu swej działalności był Einstein jednym z pionierów i mistrzów fizyki statystycznej. Dziedzina ta wyrosła z kinetycznej teorii gazów w sposób prawie niezauważalny w pierwszych latach XX wieku. Metody statystyczne zastosowane do gazów i rozwinięte przez Ludwiga Boltzmanna uogólnił Einstein w latach 1902-1904 na dowolne układy składające się z wielu cząstek. Nie wiedział wówczas, że dobiegający kresu życia Josiah Willard Gibbs sformułował tę samą teorię w książce Elementary Principles in Statistical Mechanics wydanej w Stanach Zjednoczonych w roku 1902. Gibbs, który spędził niemal całe życie w New Haven w Connecticut jako profesor uniwersytetu Yale, był pierwszym i aż do lat trzydziestych jedynym wybitnym teoretykiem amerykańskim. Jego prace znane były w Europie, lecz Einstein zapoznał się z książką Gibbsa dopiero po ukazaniu się jej niemieckiego przekładu i stwierdził, że gdyby znał ją wcześniej, to nie napisałby swoich trzech wczesnych prac dotyczących podstaw fizyki statystycznej. Bez wątpienia przyczyniły się one wszakże do jego naukowego rozwoju, technikami statystycznymi posługiwał się bowiem później z wielkim wyczuciem i pewnością.

Lata 1896-1905 są w rozwoju naukowym Einsteina okresem bodaj najciekawszym, wtedy właśnie ukształtował się uczony, który w roku 1905 ogłosił cztery przełomowe prace stawiające w nowym świetle kilka naraz dziedzin fizyki. Pierwsza z nich dotyczyła cząstkowej natury światła i była najbardziej może rewolucyjna. Czwarta dotyczyła teorii względności, czyli jak to wtedy mówiono, elektrodynamiki ciał w ruchu. Do swego przyjaciela Conrada Habichta Einstein pisał wtedy:

Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast dowodzi, iż z założeń molekularnej [kinetycznej] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy]; w rzeczy samej, fizjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna.

Robert Brown, wybitny botanik, zaobserwował to zjawisko w roku 1827, badając pod mikroskopem pyłki klarkii nadobnej i wydzielane przez nie drobne cząstki (amyloplasty i sferosomy). Otóż cząstki te wykonywały nieustający zygzakowaty ruch. Brown sumiennie i metodycznie podszedł do swego odkrycia, stwierdzając, że podobne ruchy obserwuje się także w przypadku drobnych cząstek nieorganicznych, nie mają więc one nic wspólnego z życiem. Do końca wieku XIX zjawiskiem ruchów Browna zajmowali się od czasu do czasu fizycy, nie zaowocowało to jednak żadnymi charakterystykami ilościowymi. Mimo że rozwinęła się wówczas kinetyczna teoria gazów i powtarzano od czasu do czasu wyjaśnienie zjawiska za pomocą zderzeń z cząsteczkami cieczy, nikomu nie udało się wyjść poza ogólniki. Charakterystyczne są tu uwagi Henri Poincarégo w książce Nauka i hipoteza. Matematyk pisze tu o zjawiskach nieodwracalnych, podlegają one prawu wzrostu entropii, trudno więc uzgodnić je z zasadami mechaniki, które są odwracalne:

Przez długi czas termodynamika ograniczała się do badań nad rozszerzaniem się ciał i zmian w ich stanie. Od pewnego czasu stała się ona zuchwalszą i znacznie rozszerzyła swój zakres. Zawdzięczamy jej teorię stosu, teorię zjawisk termoelektrycznych; nie ma w całej fizyce kąta, który by nie był objęty jej badaniami; zaatakowała ona nawet chemię. Wszędzie panują te same prawa; wszędzie pod rozmaitością pozorów odnajdujemy zasadę Carnota [tj. drugą zasadę termodynamiki], wszędzie również owo tak niesłychanie abstrakcyjne pojęcie entropii, równie powszechne jak pojęcie energii i jak ono posiadające cechy czegoś realnego. Ciepło promieniste zdawało się jej nie podlegać; przekonano się niedawno, że i ono znajduje się pod panowaniem tych samych praw. (…)

Usiłowano również znaleźć wytłumaczenie mechaniczne tych zjawisk [nieodwracalnych] we właściwym znaczeniu. Nie nadawały się one jednak do tego. Aby wytłumaczenie to znaleźć, należało np. przypuścić, że nieodwracalność jest tylko pozorna, że zjawiska elementarne są odwracalne i ulegają znanym prawom dynamiki. Lecz elementy są nadzwyczaj liczne i mieszają się ze sobą coraz bardziej, tak iż dla tępych naszych oczu wszystko zdaje się zdążać do jednostajności, czyli wszystko zdaje się postępować w jednym kierunku, bez nadziei powrotu. Pozorna nieodwracalność jest tedy po prostu przejawem prawa wielkich liczb. Jedynie istota o zmysłach nieskończenie subtelnych, w rodzaju urojonego demona Maxwella, potrafiłaby rozwikłać tę poplątaną sieć i zawrócić świat wstecz.

Koncepcja ta, związana z teorią kinetyczną gazów, powstała kosztem wielkich wysiłków i ostatecznie okazała się mało płodną, może się stać nią jednak. Nie tutaj miejsce rozpatrywać, czy nie prowadzi ona do sprzeczności, i czy odpowiada ściśle rzeczywistej naturze rzeczy.

Wspomnijmy przecież o oryginalnych pomysłach fizyka Gouy’ego, dotyczących ruchu brownowskiego. Według tego badacza osobliwy ten rodzaj ruchu uchyla się od zasady Carnota. Cząstki, które wprawia on we wstrząśnienie, mają być mniejsze niż oka tej tak gęsto zasnutej sieci; mogą one przeto oka te rozwikłać i w ten sposób kazać światu postępować wstecz. [Nauka i hypoteza, przeł. M.H. Horwitza pod red. L. Silbersteina, Warszawa-Lwów 1908, pisownia uwspółcześniona]

Zaprezentowaliśmy ten cytat nie tylko dla zobrazowania poglądów panujących w pierwszych latach XX wieku, ale i dlatego, że książkę Poincarégo czytał Einstein z przyjaciółmi, Conradem Habichtem (adresatem listu powyżej) i Mauricem Solovine. Utworzyli oni nieformalną grupę samokształceniową, którą nazywali żartobliwie Akademią Olympia – wszyscy trzej byli raczej bez grosza i postrzegali siebie jako outsiderów wobec rozmaitych szacownych ciał oficjalnych. Niewykluczone, że Einstein wiedział na temat ruchów Browna tyle albo niewiele więcej niż można znaleźć u Poincarégo. 

Akademia Olympia w pełnym składzie, pierwszy z lewej Conrad Habicht.

W odróżnieniu od franuskiego luminarza nauki młody Einstein nie miał wątpliwości, że metody statystyczne Boltzmanna, czyli mechanika statystyczna, mogą objaśnić także zjawiska nieodwracalne (np. zamianę pracy na ciepło pod wpływem tarcia albo oporu ośrodka). Na poziomie molekularnym nie widać zresztą, w którą stronę płynie czas. Nie widać tego także w ruchach Browna. Drobna, lecz ogromna w skali molekularnej, cząstka pod mikroskopem porusza się pod wpływem chaotycznych zderzeń z cząsteczkami cieczy bądź gazu. Zderzenia te przekazują obserwowanej cząstce pewien pęd, ruch wypadkowy jest tu skutkiem nierównomierności tych zderzeń: czasem przekazują one pęd w jednym kierunku, czasem w innym. W rezultacie cząstka porusza się osobliwym zygzakowatym ruchem. Uczeni badający to zjawisko przed Einsteinem starali się np. zmierzyć prędkość ruchów Browna, otrzymywali jednak wyniki niespójne i nie dające się ująć w żadne prawidłowości. W ruchach Browna decydujące znaczenie mają odchylenia od średnich – fluktuacje statystyczne, a nie same średnie. Badanie fluktuacji metodami fizyki statystycznej stało się ulubionym podejściem Einsteina w wielu zagadnieniach. Nastawienie to odróżniało go nie tylko od konserwatystów w rodzaju Poincarégo, ale także od pionierów: Boltzmanna i Gibbsa, którzy koncentrowali się raczej na tym, jak metodami statystycznymi powtórzyć wyniki termodynamiczne. Młody uczony, którego na razie nikt nie traktował na tyle serio, by dać mu posadę na uczelni, szedł więc tutaj zupełnie samodzielną drogą. Można powiedzieć, że był prekursorem stosowania prawdopodobieństw w fizyce. Metody probabilistyczne odróżniają zdecydowanie fizykę XX wieku od szukającej wszędzie absolutnej pewności fizyki dziewiętnastowiecznej. Choć Einstein nigdy nie pogodził się z brakiem determinizmu na poziomie zjawisk podstawowych (słynne „Bóg nie gra w kości!”), to sam przyczynił się w znacznym stopniu do zmiany podejścia uczonych i wprowadzenia metod statystycznych. 

W pracy z 1905 roku Einstein nie był pewien, czy to, co opisuje to owe słynne ruchy Browna. Pisze:

Niewykluczone, że omawiane tu ruchy są identyczne z tak zwanymi molekularnymi ruchami Browna, ale dostępne mi dane na ich temat są tak nieprecyzyjne, iż nie mogłem w tej sprawie sformułować opinii. (przeł. P. Amsterdamski)

Warto zauważyć, że sto lat temu dostęp do informacji naukowej był zgoła niełatwy, zwłaszcza dla kogoś, kto pracował przez cały dzień w biurze i w godzinach pracy nie mógł chodzić do biblioteki naukowej. Oczywiście Einsteinowi chodzi tu o coś więcej niż samą kwestię ruchów Browna:

Jeżeli ruchy, które tu omówimy, rzeczywiście można zaobserwować i jeżeli spełnione są prawa, którym powinny podlegać, to nie sposób dalej utrzymywać, że termodynamika klasyczna zachowuje ważność w sytuacji, gdy poszczególne obiekty dają się odróżnić nawet za pomocą mikroskopu, i ścisłe wyznaczenie rzeczywistych rozmiarów atomowych staje się możliwe. Z drugiej strony, jeżeli przewidywania dotyczące tych ruchów okażą się błędne, fakt ten stanowiłby bardzo poważny argument przeci molekularno-kinetycznej teorii ciepła. (przekł. jw.)

Einstein stosuje do opisu ruchu cząstki brownowskiej rachunek prawdopodobieństwa. W jednym wymiarze rozkład prawdopodobieństwa zależny od położenia x i czasu t opisany jest funkcją p(x,t). Zakładamy, że położenia cząstki w chwili późniejszej t+\tau są statystycznie niezależne od położeń w chwili t. Mamy wtedy równanie:

p(x,t+\tau)={\displaystyle \int_{-\infty}^{\infty} p(x+\Delta, t)\phi(\Delta)d\Delta},

gdzie \phi(\Delta) jest pewnym symetrycznym rozkładem prawdopodobieństwa. Czytelnik zechce zauważyć podobieństwo do podejścia Louisa Bacheliera, o którym Einstein nic nie wiedział wtedy ani zresztą także i później, ich trajektorie naukowe nigdy się nie przecięły. Einstein rozwija w szereg Taylora funkcję po lewej stronie względem czasu, a po prawej względem położenia, ograniczając się do najniższych pochodnych dających nietrywialny wynik:

p(x,t+\tau)=p(x,t)+\tau\dfrac{\partial p}{\partial t}=p(x,t)+\dfrac{1}{2}{\displaystyle \dfrac{\partial^2 p}{\partial x^2} \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Po uproszczeniu otrzymujemy równanie dyfuzji:

\dfrac{\partial p}{\partial t}=D \dfrac{\partial^2 p}{\partial x^2}, \mbox{  gdzie  } D=\dfrac{1}{2\tau} {\displaystyle \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Jest to równanie opisujące rozkład prawdopodobieństwa położeń pojedynczej cząstki (jeśli cząstek jest niewiele, to ich ruchy powinny być niezależne). Rozwiązanie znane było powszechnie i można je zapisać następująco:

{\displaystyle p(x,t)=\dfrac{1}{\sqrt{4\pi Dt}}\exp{\left(-\dfrac{x^2}{4Dt}\right)}.}

 

Mamy więc mały cud: bardzo nieregularne ruchy odpowiadają gładkiemu rozkładowi gaussowskiemu, który rozpływa się z czasem. Wygląda to jakoś tak.

Biorąc pewną próbkę błądzących cząstek, otrzymamy histogram częstości, który dla wielu prób zbieżny będzie do rozkładu Gaussa. Jest to zagadnienie błądzenia przypadkowego, o którym pisaliśmy niedawno. Z punktu widzenia Einsteina najważniejsza była wartość średnia x^2, czyli dyspersja rozkładu (kwadrat odchylenia standardowego):

\langle x^2\rangle=2Dt.

Einstein powiązał współczynnik D z lepkością ośrodka \eta i promieniem cząstek brownowskich r oraz temperaturą T, otrzymując

\langle x^2\rangle=\dfrac{kT}{3\pi \eta r}t.

Zależność tę przetestował później Jean Perrin, potwierdzając wyniki Einsteina i Mariana Smoluchowskiego, który trochę później ogłosił równoważną teorię ruchów Browna. Dzięki temu potwierdzono istnienie atomów, a także słuszność fizyki statystycznej jako metody badania obiektów makro− i mezoskopowych. 

 

 

 

 

György Pólya i jego losowe przechadzki (1921)

György (a potem George) Pólya należał do wyjątkowej konstelacji wybitnych matematyków i fizyków pochodzących z Węgier początku XX wieku. Matematyka nie była jego wczesną pasją, zajął się nią poważniej dopiero po kilku latach studiów, wcześniej interesował się literaturą, zdobył uprawnienia do nauczania łaciny i wegierskiego w gimnazjum, zajmował się filozofią. Podsumował to kiedyś żartobliwie: „Uważałem, że nie jestem dość dobry na fizykę, a zbyt dobry na filozofię. Matematyka leży gdzieś pomiędzy”. Podróżował w poszukiwaniu wiedzy, jak tylu studentów przed pierwszą wojną światową, zwłaszcza Żydów. Uczył się matematyki w Budapeszcie, Wiedniu, Getyndze i Paryżu, w 1914 r., dwa lata po doktoracie, otrzymał posadę Privatdozenta w ETH w Zurychu. Minął się w ten sposób z Albertem Einsteinem, który właśnie w roku 1914 wyjechał z ETH, aby objąć posadę w Berlinie. Obu uczonych łączy jednak postać Adolfa Hurwitza, matematyka z ETH. Był on najpierw nauczycielem leniwego studenta Einsteina, a po latach, kiedy fizyk na krótko wrócił do Zurychu, zaprzyjaźnili się i wspólnie muzykowali. Dla Pólyi Hurwitz był mentorem i mistrzem.

Hurwitz „dyryguje” Einsteinem i swoją córką Lisi

Pólya był matematykiem myślącym w kategoriach problemów do rozwiązania, mniej energii wkładał w rozbudowywanie teorii i narzędzi. Słynny problem, który postawił i rozwiązał, dotyczył błądzenia przypadkowego. Wyobraźmy sobie punktową cząstkę, poruszającą się skokami po nieskończonej sieci krystalicznej w taki sposób, że w każdym kroku skacze ona do najbliższego sąsiada w sieci. Przyjmujemy, że prawdopodobieństwo skoku do każdego z sąsiadów jest jednakowe, a poszczególne kroki są niezależne. Dla dwuwymiarowej sieci kwadratowej, prawdopodobieństwo skoku do każdego z sąsiadów jest równe \frac{1}{4}.

Pięć różnych przypadków błądzenia złożonego z ośmiu kroków (Wikimedia)

Można oczywiście rozpatrywać ten proces w sieci d-wymiarowej. Pólya zadał sobie pytanie: Jakie jest prawdopodobieństwo, że błądzący przypadkowo punkt wróci do punktu wyjścia? Podobno problem ten nasunał mu się podczas spaceru po parku, podczas którego aż trzy razy spotkał tego samego studenta z narzeczoną i zaczęło to wygladać niezręcznie, tak jakby śledził młodą parę.

Twierdzenie, które udowodnił Pólya mówi, że cząstka powraca do punktu wyjścia z prawdopodobieństwem równym 1, jeśli wymiar d=1 albo d=2. Natomiast w przypadku wyższych wymiarów powrót jest niepewny i zachodzi z pewnym zależnym od wymiaru prawdopodobieństwem mniejszym niż 1.

Zagadnienie błądzenia przypadkowego bywa formułowane jako problem pijaka, który stawia losowo kroki. Shizuo Kakutani wynik Pólyi sformułował następująco: „Pijany człowiek odnajdzie drogę do domu, lecz pijany ptak może zabłądzić na zawsze”.

Oznaczmy prawdopodobieństwo powrotu przynajmniej raz przez s. Można je powiązać z prawdopodobieństwami P_{2n} znalezienia się cząstki w punkcie wyjścia po zrobieniu 2n kroków (po zrobieniu nieparzystej liczby kroków nie może ona znaleźć się w punkcie wyjścia). Okazuje się, że

s<1 \Leftrightarrow \displaystyle \sum_{n=1}^{\infty} P_{2n}<\infty.

(Dowód przedstawiamy na końcu wpisu.) Zbadajmy więc, jak zachowuje się ciąg P_{2n}. W przypadku d=1 każdy krok ma długość 1 i z prawdopodobieństwem \frac{1}{2} cząstka robi krok w lewo bądź w prawo. Powrót do punktu wyjścia po 2n krokach oznacza, że cząstka wykonała n kroków w prawo i tyle samo w lewo. Liczba możliwości wynosi tu {2n \choose n}. Prawdopodobieństwo jest więc równe

\displaystyle P_{2n}={2n \choose n}\dfrac{1}{2^n}\sim \dfrac{1}{\sqrt{\pi n}}.

Ostatnie oszacowanie słuszne jest dla dużych wartości n (Por. Skąd się wzięła liczba pi… albo Czemu rozkład Gaussa…). Szereg o wyrazie ogólnym 1/\sqrt{n} jest rozbieżny (podobnie jak całka \displaystyle \int_{1}^{\infty} \!\!\frac{dx}{\sqrt{x}} ).

Zobaczmy, jak to wygląda w przypadku d=2. Kroki wykonywane przez naszą cząstkę to (0,1), (0,-1), (1,0), (-1,0). Jeśli obrócić układ współrzędnych o 45^{\circ}, możemy doprowadzić do sytuacji, w której kroki równe są (1,1), (-1,-1), (1,-1), (-1,1) (długość kroków jest i tak umowna). Teraz widać, że mamy do czynienia z dwoma niezależnymi błądzeniami przypadkowymi w pierwszej i w drugiej współrzędnej. Obie współrzędne powinny wrócić do zera, aby cząstka wróciła do początku współrzędnych. Prawdopodobieństwo, że jedna oraz druga wrócą po 2n krokach jest teraz równe iloczynowi prawdopodobieństw dla każdej ze współrzędnych:

\displaystyle P_{2n}=\left({2n \choose n}\dfrac{1}{2^n}\right)^2 \sim \dfrac{1}{\pi n}.

Szereg o wyrazie ogólnym 1/n jest także rozbieżny; choć niewiele mu brakuje do zbieżności: wystarczyłoby żeby  potęga n była tylko odrobinę większa od 1 (całka jest teraz rozbieżna tylko logarytmicznie). Ostatnia uwaga wskazuje, że zapewne w przypadku d=3 suma P_{2n} okaże się już zbieżna.

Rzeczywiście, można prawdopodobieństwo powrotu zapisać teraz w postaci

P_{2n}=\dfrac{1}{6^{2n}}\displaystyle\sum_{j,k\ge 0, j+k\le n}\dfrac{(2n)!}{(j!k!(n-j-k)!)^2}\le Cn^{-\frac{3}{2}}.

Pokażemy jeszcze związek miedzy prawdopodobieństwem powrotu s, a sumą P_{2n}. Jeśli błądzenie wróciło do początku, to wszystko zaczyna się od nowa. Mamy zatem prawdopodobieństwo s^2, że co najmniej dwa razy błądzenie wróciło do początku i ogólnie s^k, że wróciło co najmniej k razy. Wartość oczekiwana liczby powrotów to \sum_{k=1}^{\infty} s^k. Ta sama wartość oczekiwana jest także równa \sum_{k=1}^{\infty} P_{2n}. Jeśli s<1, obie sumy są skończone; przy s=1 obie są rozbieżne.

Korzystałem m.in. z książek: R. Durretta, Probability. Theory and Examples oraz Joela Spencera, Asymptopia.

William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.

 

 

 

René Descartes (Kartezjusz), tęcza i uczeni jezuici (1637)

Dopóki jeszcze wolno, powtarzam swój dawny wpis na temat tęczy.

Pisze się często z uznaniem o uczonych jezuitach, zwłaszcza w XVII wieku, bo w następnym stuleciu zakon zaczął chylić się ku upadkowi i w końcu uległ kasacie papieskiej. Nauka stanowiła jakąś cząstkę szerokiej działalności pedagogicznej ojców i rzeczywiście, niektórzy z nich zasłużyli się różnymi odkryciami: np. plam słonecznych czy dyfrakcji światła. Dopóty, dopóki chodziło o badania czysto eksperymentalne albo obserwacyjne, ich osiągnięcia były niewątpliwe. Gorzej było z interpretacją wyników: ojcowie obowiązani byli trzymać się Arystotelesa, który był beznadziejnie przestarzały. W latach trzydziestych wieku XVII wieku doszedł jeszcze jeden kłopot: nie wolno im było głosić także kopernikanizmu. Skazanie Galileusza wpłynęło zastraszająco na wielu uczonych, również poza Italią. Taki zresztą był zamiar papieża Urbana VIII, który ubrdał sobie, że ruch Ziemi podważa prawdy wiary (w jakimś sensie miał zresztą rację: jedynie kosmologia geocentryczna wydaje się logiczna z religijnego punktu widzenia).
René Descartes, dawny uczeń jezuitów w La Flèche, wolał przezornie zamieszkać w Holandii. Wierzący katolik, spędził resztę życia na emigracji w krajach protestanckich. Nie opublikował też swego pierwszego dzieła Świat albo traktat o świetle, obawiając się, że jest zbyt kopernikańskie. Zadebiutował w druku dopiero w 1637 roku jako filozof, matematyk, a także fizyk. W tej ostatniej dziedzinie z jego śmiałych teorii, obejmujących właściwie cały wszechświat, ocalało ostatecznie jedynie wyjaśnienie zjawiska tęczy, podane w rozprawie Les météores.
Mimo zainteresowania tym zjawiskiem, ustalono niezbyt wiele. Jak pisał uczony jezuita, Jean Leurechon: „Jeśli mnie zapytacie o sposób wytwarzania, układ i formę tych kolorów [tęczy], to odpowiem, iż pochodzą one z odbicia oraz załamania światła, i to wszystko. Platon dobrze powiedział, że Iryda jest córą podziwu, a nie objaśnienia (…) wszyscy bowiem filozofowie i matematycy, którzy przez tak wiele lat zajmowali się poszukiwaniem i wyjaśnianiem ich przyczyn, a także spekulacjami, dowiedzieli się tylko, iż nic nie wiedzą i że dostępne są im jedynie pozory prawdy”. Ojciec Leurechon trochę przesadzał, ale czynił to w zbożnym i wychowawczym celu. Galileusz rozprawiający o ruchu Ziemi w Rzymie też wydawał się tamtejszym monsignorom nieledwie bezczelny: cóż on mógł wiedzieć o dekretach Stwórcy i urządzeniu wszechświata! Uczonym przystoi pokora.
Wiemy, że książkę Leurechona czytał Descartes i zapewne postanowił wykazać, że można jednak coś ustalić na temat świata i nie musimy w kółko powtarzać frazesów o własnej niewiedzy.
Powstawanie dwóch łuków tęczy przedstawia rysunek. Wewnętrzny łuk powstaje wskutek jednokrotnego odbicia światła wewnątrz kropli wody, zewnętrzny – wskutek dwukrotnego odbicia. W przypadku łuku wewnętrznego promień biegnie do oka obserwatora po drodze ABCDE, w przypadku łuku zewnętrznego biegnie po drodze FGHIKE.

fcarc-february2009-descartes-medium-original

descartes3

Tęcza nie jest żadnym realnym obiektem, ale każdy z nas widzi niejako własną tęczę, która przemieszcza się wraz z obserwatorem, jeśli tylko w powietrzu znajdują się w odpowiednim miejscu krople wody. Łuk wewnętrzny tworzy kąt 42º z kierunkiem promieni słonecznych, łuk zewnętrzny – kąt 52º. Descartes wyjaśnił, skąd biorą się oba kąty. Trudność polegała na tym, że promienie wpadające do kropli pod różnymi kątami wychodzą z niej także pod różnymi kątami. Nie od razu widać, co wyróżnia te dwie wartości: 42º oraz 52º.

descartes1

Kąt między promieniem Słońca a promieniem biegnącym po jednokrotnym odbiciu równy jest

\theta=4\beta-2\alpha.

Kąty \alpha oraz \beta związane są prawem załamania. Descartes ułożył tabelkę liczbowych wartości kątów odchylenia dla promienia odbitego raz i dwa razy. My przedstawimy to za pomocą wykresu.

descartes arc-en-ciel

Wykres interaktywny

Wewnętrzny łuk tęczy odpowiada maksymalnemu kątowi około 42º. W okolicy maksimum wykres funkcji staje się płaski, a to oznacza, iż znaczna część promieni będzie biegła w zbliżonym kierunku. W rezultacie dotrze do nas najwięcej promieni z okolic 42º. Łuk tęczy powinien mieć zewnętrzną krawędź ostrzejszą, a wewnętrzną bardziej rozmytą. Dla zewnętrznego łuku tęczy (powstającego przez dwukrotne odbicie) będzie na odwrót: minimalny kąt równa się ok. 51º i należy się spodziewać, że z tego kierunku dobiegać będzie najwięcej promieni. Pomiędzy tymi dwoma łukami niebo powinno być ciemniejsze. Tak więc kąty obserwowane w zjawisku tęczy odpowiadają ekstremalnym odchyleniom promienia od kierunku początkowego.

descartes2

W wyjaśnieniu Descartes’a pojawił się ilościowy aspekt zjawiska: jeśli natężenie światła z pewnego kierunku będzie zbyt małe, nie będziemy nic widzieć. Trochę promieni biegnie pod niemal każdym kątem, ale liczą się tylko te kierunki, w których biegnie dużo promieni. Tęcza nie ma wyraźnych granic zewnętrznych, gdybyśmy mogli rejestrować słabsze światło, oba pasy byłyby szersze. W czasach Descartes’a dzięki teleskopowi zrozumiano już, że nie zawsze widzimy światło dobiegające do naszych oczu: jego natężenie musi przekroczyć pewną progową wartość.

Full_featured_double_rainbow_at_Savonlinna_1000px

Zdjęcie: Laurie Kosonen

Wyjaśnienie tęczy podane przez Descartes’a było na tyle nowatorskie, że wielu uczonych nadal próbowało rozwiązać ten problem, nie dostrzegając, iż został już rozwiązany. To wcale nierzadka sytuacja, po teorii względności zaczęły się np. pojawiać prace, w których usiłowano inaczej rozwiązać problemy postawione przez Einsteina. Descartes przesłał swoją pracę o tęczy do ojca Étienne’a Noëla, jezuity, który uczył go niegdyś i z którym korespondował. Miał nadzieję, że jego rozprawa stanie się podręcznikiem używanym w kolegiach jezuickich. Stało się inaczej, nie doczekał się żadnej reakcji. Kilku innych uczonych zajmowało się później zagadnieniem tęczy tak, jakby nie istniała praca Descartes’a, m.in. teolog z Louvain, Libert Froidmont, który nie widział potrzeby uwzględnienia rozwiązania Descartes’a, gdy kilkakrotnie w późniejszym czasie wznawiał własną książkę na ten sam temat. Przyczyną niechęci Froidmonta i jezuitów mogło być to, co najmocniej przemawia do nas dzisiaj: poddanie zjawisk przyrody matematycznej konieczności. Bo jeśli światem rządzą matematyczne konieczności, to niepotrzebny staje się Stwórca. Descartes wcale tak zresztą nie myślał, ale inni zarzucali mu szerzenie bezbożnictwa naukowego. Isaac Newton, biblijny fundamentalista, z tego właśnie powodu zwalczał poglądy Descartes’a (jezuitów też zresztą nie cierpiał). Musiał w tym celu wymyślić własną wersję Boga-Ojca, który samorządnie i samowładnie realizuje swe matematyczne dekrety i obecny jest w każdym punkcie przestrzeni. Do Newtona należało wyjaśnienie kolorów tęczy: różne barwy mają rozmaity współczynnik załamania, toteż łuki różnych barw widzimy w nieco innych miejscach. Także Newton zastąpił numeryczną analizę Descartes’a twierdzeniem o ekstremum funkcji, matematyka była już znacznie bardziej zaawansowana.

Po czym poznaje się wielkiego uczonego: Galileusz i inni na temat spadku swobodnego (pierwsza połowa XVII wieku)

Prawdziwa wielkość w nauce jest równie rzadka jak w sztuce czy literaturze. Tylko nieliczni zmieniają nasz sposób widzenia świata w taki sposób, że nie da się tego cofnąć ani zapomnieć. Galileusz odkrył paraboliczny kształt krzywej balistycznej. Co więcej, potrafił zrozumieć, skąd się ten kształt bierze i umieścić tę kwestię w nowym systemie pojęć. Jak ważny był kontekst tego odkrycia, świadczyć mogą słowa Isaaca Newtona. W 1687 r.  w Matematycznych zasadach filozofii przyrody formułuje on „Aksjomaty, czyli prawa ruchu”:

Prawo I Każde ciało pozostaje w swym stanie spoczynku lub ruchu jednostajnego po linii prostej, dopóki siły przyłożone nie zmuszą go do zmiany tego stanu.
Prawo II Zmiana ruchu jest proporcjonalna do przyłożonej siły poruszającej i następuje w kierunku prostej, wzdłuż której siła ta jest przyłożona.

Są to oczywiście zasady dynamiki, których naucza się po dziś dzień (nie przytaczamy treści III prawa, ponieważ nie będzie nam tu potrzebne). Ciekawy jest komentarz angielskiego uczonego (urodzonego w roku śmierci Galileusza) do tych praw zamieszczony w dalszym ciągu tekstu:

Zasady, które przyjmuję, zaakceptowane są przez matematyków i potwierdzone przez wielorakie eksperymenty. Za pomocą dwóch pierwszych praw Galileusz stwierdził, że spadek ciał ciężkich zachodzi w proporcji do kwadratu czasu, a ruch ciał wystrzelonych przebiega po paraboli, jak potwierdza to eksperyment, jeśli uwzględnić fakt, że ruchy te są nieco opóźniane przez opór powietrza. Gdy ciało spada, stała siła grawitacji, działając jednakowo w poszczególnych jednakowych odcinkach czasu, nadaje ciału jednakowe wartości siły i generuje jednakowe prędkości; a w całym czasie nadaje całkowitą siłę i generuje całkowitą prędkość proporcjonalną do czasu. A odległości przebywane w odcinkach czasu są proporcjonalne do prędkości i czasów jednocześnie, tzn. są jak kwadraty czasów. (…) A kiedy ciało zostanie wystrzelone wzdłuż dowolnej linii prostej, jego ruch nadany w chwili początkowej składa się z ruchem wynikającym z grawitacji.

Ostatnie zdanie ilustruje rysunek: położenie wypadkowe ciała jest sumą wektorów \vec{v}t, czyli prostoliniowego ruchu nadanego w chwili wystrzału, oraz spadku swobodnego \frac{1}{2}\vec{g}t^2. Zapisywanie ruchów za pomocą wzorów algebraicznych i pojęcie wektora są późniejsze niż Newton. Algebry zaczął używać w tym kontekście dopiero Leonhard Euler, a wektory to osiągnięcie późniego wieku XIX.

Newton nie był zbyt dobrze poinformowany historycznie, z książek Galileusza znał tylko Dialog o dwóch układach świata, w 1687 r. nie było wątpliwości, jak przebiega ruch kuli armatniej albo spadającego swobodnie ciała, jeśli pominąć opór powietrza. Newton zajmował się już innymi problemami, takimi jak wpływ oporu powietrza na tor wystrzelonego ciała albo ciłą ciężkości zmieniającą się od punktu do punktu. Z jego perspektywy dwa pierwsze prawa były właściwie oczywiste i jak widzimy wcale sobie do nich nie rościł pierwszeństwa, przypisując je, do pewnego stopnia błędnie, Galileuszowi.

Do jakiego miejsca dotarł rzeczywiście Galileusz? Otóż sądził, że bez oporu powietrza rzut jest złożeniem jednostajnego ruchu poziomego i pionowego spadku. Bez problemu opisywał rzut poziomy, przypadek rzutu ukośnego, taki jak na rysunku, opisali już inni. Spadek swobodny nie był dla niego skutkiem siły grawitacji, w ogóle u Galileusza nie znajdziemy dynamiki, lecz tylko kinematykę ruchów. Z jakiegoś powodu ruch poziomy jest jednostajny, o ile nic mu nie przeszkadza. Natomiast spadek swobodny przebiega w ten sposób, że prędkość chwilowa jest proporcjonalna do czasu. Widzimy, że Newton przypisał mu swoje własne prawa i swoje rozumienie sytuacji fizycznej. Z pewnością nieświadomie, ponieważ raczej nie był nadmiernie skłonny do dzielenia się chwałą z innymi, po prostu nie wiedział, jak wyglądała historia. Przypominał w tym dzisiejszych uczonych, którzy, zainteresowani rozwiązywaniem stojących przed nimi problemów, niezbyt interesują się meandrami historii.

Zasługą Galileusza było odrzucenie obowiązującej wówczas fizyki arystotelesowskiej. Spostrzegł on, że bez oporu powietrza ruchy ciał stają się prostsze. Musimy pamiętać, że dopiero po jego śmierci nauczono się wytwarzać próżnię, za życia Galileusza odkrycie praw ruchu (kinematycznych) oznaczało postawienie na głowie całej nauki, która przecież powinna zajmować się „prawdziwymi” ruchami i „prawdziwymi przyczynami” zjawisk. Zamiast tego Galileusz proponował teorię matematyczną, która stosuje się ściśle tylko do świata, jakiego nie ma. Była to, co się zowie, księżycowa teoria – na Księżycu zresztą byłoby ją najłatwiej testować, bo nie ma tam atmosfery. Teoria ta nic nie mówiła na temat przyczyn takich ruchów. Zresztą dynamika Newtona też wiele nie wyjaśniała: wprowadziła pojęcie siły, lecz siła była abstraktem matematycznym, który można wprawdzie badać ilościowo, ale nic o nim w gruncie rzeczy nie wiemy. Był to kolejny krok w budowaniu świata platońsko-pitagorejskiego, gdzie abstrakcyjna matematyka przydaje się w praktycznej pracy inżyniera, stąd wszystkie politechniki wymagają od studentów pewnej wiedzy matematycznej.

Galileusz nie był pewien, jakie jest najprostsze matematycznie prawo spadku swobodnego (sądził, że właśnie najprostsze prawo powinno obowiązywać w przyrodzie). Wahał się między prędkością proporcjonalną do czasu i prędkością proporcjonalną do drogi. Ostatecznie wybrał pierwszą ewentualność. Że nie był to wybór łatwy, świadczą jego wahania utrwalone w różnych tekstach, a także reakcja innych uczonych na prace Galileusza. Wielu z nich nie potrafiło się zgodzić na prędkość proporcjonalną do czasu. Jezuici, którzy z urzędu musieli demonstrować swą niechęć do heretyka nawet w sprawach dalekich od kopernikanizmu, optowali za różnymi dziwacznymi wersjami prawa swobodnego spadku. Drogi w kolejnych jednostkach czasu miały być np. w proporcjach 1:2:3:4… albo 1:2:4:8… Prędkość miała rosnąć proporcjonalnie do drogi albo skokowo w czasie. Niewiele lepiej wyglądało to wśród zwolenników, którzy także chętnie „poprawiali” Galileuszowe prawo spadku. Eksperymenty także nie wkazywały jednoznacznie, bo spadek swobodny zachodzi szybko, a nie potrafiono mierzyć czasów tak krótkich. Ponadto opór powietrza zniekształcał wyniki. Wielkość Galileusza jako uczonego przejawia się m.in. w tym, że umiał w warunkach niepewności eksperymentalnej i trudności pojęciowych wybrać właściwe rozwiązanie. Jest w tym lekkość i poczucie smaku, intuicja i długie przemyślenia. Galileusz jest wielkim uczonym także dlatego, że nie stworzył wszechogarniającego systemu, skoncentrował się na zagadnieniach, o których mógł coś powiedzieć, czasem spekulował, ale nie rościł sobie prawa do wiedzy absolutnej. Tylko ignoranci i Kościół katolicki znają wszystkie odpowiedzi. Galileusz ich nie znał. Nie wiedział np., czy wszechświat jest skończony, a jeśli tak, to gdzie leży jego środek. Wiedział, że nie jest nim Ziemia, już prędzej Słońce, ale też niekoniecznie. Jest pewna ironia w fakcie, że skazano go za głoszenie tez, które on sam uważał za nieprawdziwe. Nie chodziło jednak o to, kto ma rację, ale o to, kto ma władzę.

Teksty Galileusza i innych ówczesnych uczonych pokazują, jak wiele trudności pojęciowych musieli oni pokonać. Np. co to jest prędkość chwilowa (nie bardzo można ją zmierzyć). Galileusz posługiwał się następującym rysunkiem.

Linia AB oznacza czas. Linie poziome są prędkościami. AG i równoległe do niego odcinki odpowiadają ruchowi jednostajnemu. AIE to linia ograniczająca odcinki prędkości chwilowej rosnącej proporcjonalnie do czasu. Uczony dowodził, że suma jednakowych odcinków GA=FB jest taka sama, jak suma odcinków rosnących z czasem. Wobec czego można cały ruch przyspieszony zastąpić ruchem jednostajnym o prędkości równej połowie prędkości końcowej. Inaczej mówiąc prostokąt GABF jest równoważny trójkątowi AEB. Galileusz nie zrobił kroku, który nam wydaje się oczywisty, i nie utożsamił drogi przebywanej w obu ruchach z polem odpowiednich figur. Mówił o sumach odcinków. Iloczyn prędkości i czasu nie miał dla niego żadnego sensu, ponieważ chodzi o wielkości fundamentalnie różne. My przedstawilibyśmy to tak.

 

W drugiej połowie wieku XVII stało się jasne, że procedurę taką można uogólnić. Pole pod wykresem prędkości to droga i można ją zapisać jako całkę. Z kolei pochodna drogi po czasie daje prędkość chwilową. To podstawowa para operacji w rachunku różniczkowym i całkowym.

 

Gdyby prędkość była proporcjonalna do drogi, mielibyśmy do czynienia z wykładniczym wzrostem, jest to funkcja opisująca eksplozję (np. demograficzną albo jądrową)

\dfrac{ds}{dt}=ks\Rightarrow s=s_{0}\,e^{kt}.

Prędkość opisana jest taką samą funkcją (bo pochodna funkcji wykładniczej jest też funkcją wykładniczą).

Z obu tych wykresów widać, że funkcja taka niezbt nadaje się do opisania ruchu, który zaczyna się w określonej chwili bez żadnej prędkości początkowej, ponieważ nigdy nie jest równa zeru. Spadek od s=0 do dowolnego punktu musiałby trwać nieskończenie długo. Zatem prędkość w spadku nie może być proporcjonalna do drogi, bo przeczy to elementarnej wiedzy na temat spadku ciał. Oczywiście, można by spekulować, czy spadek nie może się od razu zaczynać z prędkością różną od zera. Rozwiązanie przyjęte przez Galileusza też było kontrowersyjne w oczach jego współczesnych: wymagało bowiem, aby ciało na początku poruszało się przez chwilę z dowolnie bliską zeru prędkością. Przywodziło to na myśl od razu paradoksy Zenona z Elei przeciwko ruchowi. Wiemy jednak, że spadające ciało się porusza, choć chwilę przedtem spoczywało. Eppur si muove.

Intuicja Galileusza pozwoliła mu też pozbyć się balastu niepotrzebnych pytań dodatkowych: o przyczyny spadku, o opór powietrza itd. Nauka rozwija się zawsze przez pracę nad konkretnymi zagadnieniami i trzeba umieć oddzielić to, czego nie da się w danym momencie rozstrzygnąć albo co nie ma znaczenia. Pouczająca jest tu reakcja Kartezjusza na dzieło Galileusza. Francuski filozof, młodszy o trzydzieści lat, z dużą pewnością siebie odrzucił rozwiązanie Galileusza. Zarzucił mu, że buduje bez podstaw, nie wiedząc nawet, skąd bierze się ciężar ciała (Kartezjusz był pewien, że to skutek popychania ciała przez niewidzialne cząstki materii subtelnej!). Jako dobry matematyk i do tego znacznie później urodzony stwierdził, że pod względem matematycznym praca florentyńczyka jest raczej słaba, jego dowody zaś niezbyt eleganckie. Zarzuty były do pewnego stopnia uzasadnione, ale to toskański uczony miał rację, o tyle, o ile można mieć w nauce rację: jego teoria zgodna była z eksperymentem i pozwalała pójść dalej.

Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.

Czemu rozkład Gaussa jest ,,normalny”? De Moivre, wzór Stirlinga i Laplace

Skąd się bierze wszechobecność rozkładu Gaussa? Jednym z powodów jest rozkład dwumianowy. Rozpatrzmy prościutki model. Przyjmijmy, że wzrost dorosłego mężczyzny warunkowany jest czterdziestoma genami w taki sposób, że każdy z nich może zwiększyć wzrost o 2 cm ponad pewne minimum albo nie zwiększyć. Zygota, z której powstaliśmy, wylosowała 40 genów i każdy z nich z prawdopodobieństwem p=\frac{1}{2} mógł dodać nam 2 cm wzrostu. Jeśli za minimum fizjologiczne uznamy 140 cm, to możliwy jest każdy wynik z przedziału (140, 220). Oczywiście, nie należy traktować tego przykładu dosłownie. Matematycznie oznaczałoby to 40 niezależnych losowań z prawdopodobieństwem sukcesu p. Rozkład liczby sukcesów wygląda wówczas następująco:

Dyskretny rozkład dwumianowy został tu przedstawiony z przybliżającym go rozkładem Gaussa. Naszym celem będzie zrozumienie, czemu takie przybliżenie działa, gdy mamy do czynienia z dużą liczbą prób.

Zacznijmy od samego rozkładu dwumianowego. Dla dwóch prób sytuacja wygląda tak (p – prawdopodobieństwo sukcesu, q=1-p – prawdopodobieństwo porażki):

Każda droga z lewa na prawo oznacza konkretny wynik. Wzdłuż drogi prawdopodobieństwa się mnożą, ponieważ są to niezależne próby (definicja zdarzeń niezależnych). Zeru sukcesów odpowiada prawdopodobieństwo q^2, dwóm sukcesom p^2. Jeden sukces możemy osiągnąć na dwa sposoby: sukces-porażka albo porażka-sukces, prawdopodobieństwa należy dodać, jeśli interesuje nas wyłącznie całkowita liczba sukcesów, a nie jej konkretna realizacja. Łatwo zauważyć związek z dwumianem Newtona

(p+q)^n=(p+q)(p+q)\ldots (p+q),

gdzie mamy n czynników. Każdy wynik to wybór jednego z dwóch składników nawiasu: p albo q. Mnożymy je kolejno przez siebie, co odpowiada losowaniom, a następnie dodajemy. Oczywiście suma wszystkich prawdopodobieństw równa jest 1. Składniki zawierające k sukcesów mają czynnik p^k. Wzór Newtona (znany zresztą przed Newtonem) daje nam

(p+q)^n=\displaystyle \sum_{k=0}^{n}{n\choose k}p^k q^{n-k}.

Prawdopodobieństwo k sukcesów jest równe

P(k)=\displaystyle {n\choose k}p^k q^{n-k}.

Jest to nasz punkt wyjścia. Przy dużych wartościach n obliczanie symboli Newtona było w XVIII wieku trudne, ponieważ występują tam silnie dużych liczb. Zwłaszcza w rejonie środka rozkładu obliczenia takie były kłopotliwe, ponieważ zostaje wiele czynników, które się nie skracają. Abraham de Moivre, francuski protestant zmuszony do emigracji z ojczyzny z przyczyn religijnych, spędził życie w Londynie, ucząc matematyki. Podobno jeździł po Londynie od ucznia do ucznia z kolejnymi kartkami wyrwanymi z Matematycznych zasad Newtona i w wolnym czasie zgłębiał treść tej masywnej księgi. De Moivre podał sposób przybliżania P(k) oraz wartości silni – to drugie przybliżenie nazywamy dziś wzorem Stirlinga od nazwiska drugiego matematyka, który w tym czasie zajmował się tym zagadnieniem.

Zaczniemy od P(k). Jeśli spojrzeć na histogram z obrazka rzuca się w oczy ogromna dysproporcja miedzy prawdopodobieństwami różnych wyników. Dlatego będziemy szukać przybliżenia nie dla P(k), lecz dla \ln P(k).

Wykres przedstawia histogram \ln P(k), a także przybliżającą go parabolę. Każdą przyzwoitą funkcję możemy przybliżyć rozwinięciem Taylora:

f(k)=f(k_0)+(k-k_0)f'(k_0)+\dfrac{1}{2!}(k-k_0)^2 f''(k_0)+\ldots.

W maksimum znika pierwsza pochodna, mamy więc

f(k)=f(k_0)+\dfrac{ (k-k_0)^2 f''(k_0)}{2}+\ldots.

Naszą funkcją jest

f(k)=\ln P(k)=\ln n!-\ln k!-\ln (n-k)! +k \ln p+(n-k) \ln q.

Potrzebujemy pochodnej z silni dla dużych wartości k oraz (n-k). Pochodna to przyrost funkcji odpowiadający jednostkowemu przyrostowi argumentu. Ponieważ

\ln k!=\ln 1+\ln 2+\ldots \ln k,

powinna ona być równa

\dfrac{d\ln k!}{dk}=\ln k.

Poniżej uzasadnimy to precyzyjnie, choć ostatni wzór powinien być zrozumiały intuicyjnie: nachylenie funkcji logarytmicznej stopniowo maleje, więc sumę można coraz lepiej przybliżać za pomocą pola pod krzywą.

Odpowiada to przybliżeniu

\ln k! \approx \displaystyle \int_{1}^{k} \ln t \, dt \Rightarrow \dfrac{d\ln k!}{dk}=\ln k.

Warunek na maksimum funkcji przybiera postać

\dfrac{d\ln P(k)}{dk}=-\ln k+\ln (n-k)+\ln p -\ln q =0 \Rightarrow k_0=np.

Druga pochodna równa jest

\dfrac{d^2 \ln P(k)}{dk^2}=-\dfrac{1}{k}-\dfrac{1}{n-k}=-\dfrac{1}{npq}.

Ostatnia równość daje wartość pochodnej w punkcie k=np. Nasze przybliżenie przybiera więc postać

P(k)=P(0) \exp\left(-\dfrac{(k-np)^2}{2npq}\right)+\ldots.

Jest to rozkład Gaussa o wartości średniej np oraz szerokości (odchyleniu standardowym) npq. Wartość P(0) można wyznaczyć z warunku normalizacji: pole pod naszą krzywą powinno być równe 1. Można ściśle pokazać, że przy dużych wartościach n wyrazy wyższych rzędów są do pominięcia przy obliczaniu prawdopodobieństw: różnice między parabolą a histogramem na wykresie dotyczą sytuacji, gdy prawdopodobieństwa są bardzo małe.

Przyjrzymy się teraz bliżej obliczaniu silni z dużych liczb. Zacznijmy od następującej funkcji zdefiniowanej jako całka:

g(t):=\displaystyle \int_{0}^{\infty}\exp(-\alpha t)\, dt,\alpha>0.

Różniczkując ją kolejno n razy po \alpha i kładąc na koniec \alpha=1, otrzymamy

n!=\displaystyle \int_{0}^{\infty} t^{n}\exp(- t)\, dx\equiv \Gamma (t+1).

Otrzymaliśmy funkcję gamma Eulera, która jest uogólnieniem silni, ponieważ zdefiniowana jest nie tylko dla wartości całkowitych n, lecz może być uogólniona na płaszczyznę zespoloną i określona wszędzie oprócz argumentów całkowitych ujemnych. Nam wystarczą tutaj wartości rzeczywiste dodatnie, szukamy przybliżenia dla dużych n. Zapiszmy funkcję podcałkową w postaci wykładniczej i zastosujmy rozwinięcie Taylora wokół maksimum, dokładnie tak jak powyżej dla funkcji P(k):

n!=\displaystyle \int_{0}^{\infty} \exp(n\ln t- t)\, dx\approx \exp(n\ln n-n)\int_{0}^{\infty} \exp\left(-\frac{(t-n)^2}{2n}\right) dt.

Wykres przedstawia przybliżenie gaussowskie oraz (na czerwono) wartości funkcji po wyłączeniu czynnika \exp (n\ln n-n). W przybliżeniu gaussowskim możemy rozszerzyć dolną granicę całkowania do -\infty, co nawet zmniejsza błąd przy niedużych wartościach n, a niczego nie psuje przy dużych wartościach n. Jeśli przeskalujemy funkcję gaussowską tak, aby miała jednostkową szerokość, porównanie wypadnie jeszcze lepiej.

 

Widzimy więc, że można ostatnią całkę wziąć po całej prostej. Jej wartość jest równa \sqrt{2\pi n}. Otrzymujemy wzór Stirlinga:

\ln n!\approx n\ln-n +\ln\sqrt{2\pi n}+O(1/12n).

Zaznaczyliśmy też wielkość następnego wyrazu w szeregu malejących potęg n. W wielu zastosowaniach można pominąć zupełnie całkę gaussowską i wnoszony przez nią wyraz \sqrt{2\pi n}. Jak się trochę popracuje nad dalszymi wyrazami rozwinięcia Taylora, można otrzymać i tę poprawkę 1/12n.

Pierre Simon Laplace rozwinął techniki szacowania wartości asymptotycznych całek. Jego wyprowadzenie wzoru Stirlinga było elegantsze, lecz rachunkowo trudniejsze (wymagało odwrócenia rozwinięcia w szereg). Laplace wykazał także, iż sumy zmiennych losowych zachowują się jak zmienne gaussowskie także w ogólniejszych sytuacjach niż ta przez nas rozpatrywana. Innymi słowy pierwszy zauważył, że zachodzi tzw. centralne twierdzenie graniczne. Ścisły dowód pojawił się znacznie później.

Skąd się wzięła liczba pi w rozkładzie Gaussa, czyli o niepojętej skuteczności matematyki w naukach przyrodniczych

Eugene Wigner, należał do „Marsjan”, jak nazywano w Stanach Zjednoczonych grupę niezwykle wybitnych uczonych z Węgier. Na pytanie Enrica Fermiego, dlaczego wysoce rozwinięte cywilizacje z kosmosu nie odwiedziły do tej pory Ziemi, Leo Szilard odpowiedział, że owszem, już tutaj są, ale sami siebie nazywają Węgrami. Była to niezwykła konstelacja talentów: Paul Erdős, Paul Halmos, Theodore von Kármán, John G. Kemeny, John von Neumann, George Pólya, Leó Szilárd, Edward Teller. Ukształtowały ich naukowo Niemcy, zwłaszcza Getynga i Berlin. Po dojściu nazistów do władzy uczeni ci z racji żydowskiego pochodzenia zmuszeni zostali do emigracji i w Stanach Zjednoczonych pracowali nad aerodynamiką, budową bomby atomowej i wodorowej, budową pierwszych komputerów, jak też dokonywali odkryć w matematyce czystej, jak najdalszych od zastosowań. Wigner był ekspertem w zastosowaniach teorii grup w mechanice kwantowej, laureatem Nagrody Nobla, a więc kimś, kto na co dzień stykał się z tym, że abstrakcyjna z pozoru matematyka znajduje wciąż nowe eksperymentalne potwierdzenia.

Słynny jest esej Wignera pt. Niepojęta skuteczność matematyki w naukach przyrodniczych. Zaczyna się on następująco:

Istnieje opowiadanie o dwóch ludziach, którzy przyjaźnili się ze sobą w czasie wyższych studiów, a którzy spotkawszy się, opowiadają sobie o swojej pracy. Jeden z nich zajął się statystyką i badał trendy społeczne. Pokazał on dawnemu koledze jeden ze swych artykułów. Artykuł rozpoczynał się, jak zwykle, uwagami na temat rozkładu Gaussa i autor wyjaśnił swemu rozmówcy znaczenie poszczególnych symboli dla sytuacji aktualnego społeczeństwa, dla przeciętnego społeczeństwa i tak dalej. Jego kolega okazał pewne niedowierzanie i nie był zupełnie pewny, czy przyjaciel nie żartuje sobie z niego. „Skąd ta twoja wiedza?” brzmiało jego pytanie. „I czym jest ten tu symbol?”. „Och”, odpowiedział statystyk, „to jest \pi”. „Co to jest?” „Stosunek obwodu koła do jego średnicy”. „No, teraz już twoje dowcipy zaszły za daleko”, rzekł na to kolega, „z całą pewnością społeczeństwo nie ma nic wspólnego z obwodem koła”. (przeł. J. Dembek)

Matematyka jest sztuką wyprowadzania wniosków, najlepiej nieoczywistych, z pewnych przyjętych założeń. W zasadzie nie możemy więc za jej pomocą otrzymać niczego istotnie nowego, co nie tkwiłoby niejako w tych założeniach. Jednak droga od np. podstawowych praw arytmetyki i definicji liczb pierwszych do sformułowania Wielkiego Twierdzenia Fermata i jego dowodu zajęła zajęła ludzkości parę tysięcy lat i przez ostatnie stulecia wielu wybitnych uczonych straciło całe lata na bezowocne próby. Jednak najbardziej zdumiewającym aspektem matematyki są jej zastosowania w innych naukach. Nie rozstrzygniemy tu pytania, czy kryje się w tym głęboka tajemnica, czy też w zasadzie rzecz jest trywialna (bo np. matematyka w gruncie rzeczy pochodzi z doświadczenia albo, jak wierzył Platon, świat zmysłowy stanowi jedynie niedoskonałą kopię świata idei, gdzie linie nie mają grubości, a sfery są zbiorami punktów równooddalonych od swego środka).

W zastosowaniach matematyki, takich jak statystyka albo fizyka, musimy przyjąć wiele dodatkowych założeń, które często są trudne do bezpośredniego zweryfikowania. Mimo to wiemy np., że rozkład Gaussa, krzywa dzwonowa, stosuje się nie tylko do rozkładu prędkości cząsteczek w gazie, ale i np. cen akcji albo wzrostu grupy ludzi (w dwóch ostatnich przypadkach lepsze wyniki daje rozpatrywanie logarytmu tych wielkości). Istnieją matematyczne powody wszędobylskości rozkładu Gaussa: jeśli dana wielkość jest sumą zmiennych losowych, to można oczekiwać, iż bedzie dążyć do rozkładu Gaussa, gdy liczba tych zmiennych staje się coraz większa i gdy są one od siebie niezależne.

Wróćmy teraz do anegdoty Wignera. Skąd wzięła się liczba \pi w rozkładzie Gaussa? Rozkład ten ma postać

p(x)=\dfrac{1}{\sqrt{2\pi}\sigma}e^{-\frac{x^2}{2\sigma^2}},

gdzie \sigma jest parametrem opisującym szerokość krzywej: może ona być bardziej albo mniej rozłożysta. Poniważ opisuje prawdopodobieństwa, pole powierzchni pod krzywą musi być równe 1. Na wykresie \sigma=1.

Wartość p(0)  jest więc związana z \pi:

p(0)=0,39894\approx \dfrac{1}{\sqrt{2\pi}}.

Liczba \pi pojawia się tu dlatego, że pole powierzchni pod krzywą musi być równe 1. Inaczej mówiąc chodzi o wartość następującej całki (gdzie dla wygody pzbyliśmy się dwójki):

\displaystyle \int_{-\infty}^{\infty} e^{-x^{2}} dx=\sqrt{\pi}.

Całka nieoznaczona w tym wypadku nie wyraża się przez funkcje elementarne i obliczenie tej wartości wymaga pomysłu. Prawdopodobnie całkę tę pierwszy obliczył Pierre Simon Laplace (i to co najmniej na dwa sposoby). Prostszą metodę podał Denis Poisson, a my przedstawimy współczesne wariacje tej metody. Należy rozpatrzyć całkę dwuwymiarową po całej płaszczyżnie xy:

I^2= \displaystyle \iint e^{-x^2-y^2} dx dy=\left( \int e^{-x^2} dx\right)^2.

Zadanie sprowadza się do obliczenia objętości pod powierzchnią przypominającą (nieskończony) kapelusz z=e^{-x^2-y^2}.

Narysowaliśmy tylko jego środkową część. Inaczej mówiąc, jest to bryła powstająca z obrotu krzywej z=e^{-r^2} wokół osi z.

Objętość tej bryły możemy obliczyć dzieląc ją na walce o grubości dz i promieniu r^2=-\ln z:

I^2=-\displaystyle \int_0^1 \pi \ln z dz=\pi.

Możemy też podzielić naszą bryłę na wydrążone walce o grubości dr, promieniu r i wysokości z:

I^2=\displaystyle \int_0^{\infty} 2\pi r e^{-r^2}=\pi.

Ostatnią całkę oblicza się przez oczywiste podstawienie t=r^2.

Oba te rozwiązania sugerowałyby, że „nasze” \pi z rozkładu Gaussa ma jednak coś wspólnego z okręgami. W matematyce związki arytmetyki z geometrią są wszakże nieoczywiste: pokazywaliśmy przykłady szeregów Leibniza i Newtona prowadzących do liczby \pi (por. też tutaj). Także w naszym przypadku możemy sprowadzić problem do arytmetyki.

Rozkład Gaussa jest granicą rozkładu dwumianowego, czyli np. rozkładu liczby orłów (ktoś mniej patriotyczny niż ja mógłby rozważać liczbę reszek, ale my odrzucamy takie podejście) w serii rzutów monetą. Prawdopodobieństwa wyglądają wówczas następujaco:

Na histogramie przedstawiliśmy przypadek n=20 rzutów oraz stosowny rozkład Gaussa, który jest, jak widać całkiem dobrym przybliżeniem histogramu. Obliczmy prawdopodobieństwo, że w połowie rzutów otrzymamy orła – co odpowiada maksimum histogramu i krzywej Gaussa. Ponieważ prawdopodobieństwa wyrzucenia orła i reszki są równe, więc prawdopodobieństwo każdej serii jest równe iloczynowi: (\frac{1}{2})^n. Można przy tym tę połowę orłów uzyskać w rozmaitej kolejności – każdy konkretny wynik będzie wybraniem spośród zbioru n elementów podzbioru n/2 orłów. Można to zrobić na {n}\choose{n/2} sposobów (liczba kombinacji). Prawdopodobieństwo w środku naszego rozkładu będzie zatem równe (wzięliśmy n=2m):

P_m= \displaystyle {{2m}\choose{m}} \dfrac{1}{2^{2m}}.

Gdzie jak gdzie, ale w tym wyrażeniu nie ma chyba liczby \pi? Oczywiście, jest. Okazuje się, że

\displaystyle \lim_{m\rightarrow\infty} \sqrt{m}P_m=\dfrac{1}{\sqrt{\pi}}.

Inaczej mówiąc dla dużych wartości m mamy P_m\sim \frac{1}{\sqrt{\pi m}} – pojawia się pierwiastek z \pi, zmodyfikowany dodatkowym czynnikiem, który łatwo zrozumieć: rozkład dwumianowy przy rosnącym m coraz bardziej przypomina rozkład Gaussa, ale też staje się coraz szerszy, co skutkuje mniejszą wysokością, i tę właśnie zależność opisuje powyższy wzór.

W jaki sposób otrzymać ten wynik? Leonhard Euler w 1736 r. uzyskał przedstawienie funkcji sinus za pomocą nieskończonego iloczynu. Pomysł jest prosty. Każdy wielomian możemy przedstawić za pomocą iloczynu

f(x))=a(x-x_1)(x-x_2)\ldots (x-x_n),

gdzie x_1,x_2,\ldots, x_n to pierwiastki tego wielomianu, a jest stałą. Funkcja sinus jest też czymś w rodzaju wielomianu, tyle że ma nieskończenie wiele pierwiastków: 0, \pm\pi,\pm 2\pi,\ldots. Możemy zatem spróbować przedstawić ją następująco:

\sin x=x(1-\frac{x}{\pi}) (1+\frac{x}{\pi}) (1-\frac{x}{2\pi}) (1+\frac{x}{2 \pi}) \ldots.

Czynniki w nawiasach zapisane są tak, by dążyły do 1 wraz ze wzrostem numeru. Intuicja Eulera była trafna, przyglądając się temu rozwinięciu można uzyskać ciekawe wyniki, jak np.

\displaystyle \dfrac{\pi^2}{6}=1+\dfrac{1}{4}+\dfrac{1}{9}+\ldots.

Gdy podstawimy do tego iloczynu x=\pi/2, otrzymamy przedstawienie liczby \pi za pomocą nieskończonego iloczynu, tzw. wzór Wallisa. Nieco go przekształcając, można uzyskać naszą granicę \sqrt{m}P_m.

Kolejność historyczna była taka: najpierw John Wallis w roku 1655 odgadł swój wzór. Później w roku 1733 Abraham de Moivre udowodnił naszą równość. Jeszcze później, w 1736 r. Euler odkrył iloczyn nieskończony dla sinusa, w wieku XIX Karl Weierstrass pokazał, że pewna grupa wyjątkowo regularnych funkcji (funkcje całkowite) mają w istocie postać iloczynów.

Szczegół dotyczący P_m. Rozkład dwumianowy ma szerokość \sigma=\sqrt{m/2}, zatem związek de Moivre’a daje to samo co współczynnik \frac{1}{\sqrt{2\pi}\sigma} .

 

 

 

Adolphe Quetelet, krzywa dzwonowa i statystyczny człowiek (1835)

Był z wykształcenia matematykiem, z temperamentu organizatorem, lecz do historii przeszedł głównie dzięki swej niepohamowanej namiętności do stosowania metod statystycznych. Pragnął stworzyć statystyczną naukę o człowieku, opartą na rozmaitych szczegółowych spisach dotyczących narodzin, rozwoju, zdolności, karalności, chorób i zgonów ludnosci różnych obszarów czy grup. Jego dwutomowe dzieło z roku 1835 zatytułowane Sur l’homme et le développement de ses facultés, ou Essai de physique sociale („O człowieku i rozwoju jego zdolności, czyli zarys fizyki społecznej”) stało się szybko klasyczne. Quetelet wprowadził pojęcie statystycznego czy też przeciętnego człowieka (l’homme moyen), wyobrażając sobie, iż istnieje pewien idealny wzór, od którego poszczególni ludzie odchylają się za sprawą wielu różnych przyczyn. Pojęcie rozkładu statystycznego, który mieści całe spektrum badanej cechy, dopiero się kształtowało. Wcześniej  uczeni stosowali rozkłady statystyczne takie, jak rozkład Gaussa, do analizy błędów pomiarowych, gdy wiadomo, że mierzona wielkość przyjmuje pewną określoną wartość, a problemem jest jej ustalenie na podstawie obarczonych błędami pomiarów. Równolegle przebiegał społeczny proces uznania różnic między ludźmi za coś naturalnego, a nawet potrzebnego, nie za błąd w rozwoju czy niedostatek.

Jak to zwykle bywa w przypadku badań pionierskich, wiele wyników zostało potem zrewidowanych, niektóre stwierdzenia rażą dziś naiwnością. W swojej epoce był jednak Quetelet powszechnie uznawany za postać ważną, jego prace czytali uczeni tak różni, jak James Clerk Maxwell (który idee statystyczne zastosował do gazów) i Charles Darwin. Kontynuatorem prac Queteleta stał się kuzyn Darwina Francis Galton (to on ochrzcił rozkład Gaussa mianem rozkładu normalnego).

Znany powszechnie indeks masy ciała BMI (iloraz masy i kwadratu wzrostu) jest wynikiem obserwacji Queteleta, iż objętość ciała człowieka dorosłego nie jest proporcjonalna do sześcianu, lecz raczej do kwadratu wzrostu:

Gdyby człowiek rósł jednakowo we wszystkich wymiarach, ciężar w różnym wieku byłby proporcjonalny do sześcianu wzrostu. Obserwuje się jednak co innego. Wzrost masy jest mniej gwałtowny, z wyjątkiem pierwszego roku po urodzeniu, kiedy rzeczywiście na ogół obserwuje się powyższą proporcję. Potem jednak aż do okresu pokwitania ciężar ciała rośnie mniej więcej jak kwadrat wzrostu. (Sur l’homme, t. 2, s. 52)

Quetelet nie interesował się wszakże różnicami między ludźmi, starał się raczej odnaleźć typ idealny. Wskaźnik BMI zaczął być stosowany dopiero w drugiej połowie wieku XX, gdy problemem medycznym i ubezpieczeniowym w społeczeństwach zachodnich stały się nadwaga i otyłość.

W swym traktacie podał też Quetelet zaskakujący wzór na skłonność do przestępstwa y (mierzoną statystycznie) jako funcję wieku w latach x:

y=(1-\sin x)\,\dfrac{1}{1+2^{18-x}},

gdzie argument funkcji sinus podany jest w gradach: 100 gradów odpowiada kątowi prostemu. Wykres obserwowanej skłonności do przestępstwa wygląda u Qeteleta następująco:

źródło ilustracji: gallica.bnf.fr

Drugi wykres z płaskim obszarem szczytowym między trzydziestym a czterdziestym piątym rokiem życia dotyczy zdolności literackich. Wróćmy jeszcze do owej skłonności do przestępstwa.

Zależność Queteleta jest iloczynem dwóch funkcji: malejącej funkcji 1-\sin x w pierwszej ćwiartce (czyli czegoś zbliżonego do paraboli) oraz funkcji logistycznej, która opisuje szybki wzrost w okolicy x=18. Nb. krzywa logistyczna zastosowana została kilka lat później przez Pierre’a François Verhulsta, ucznia Quteleta, do modelowania ograniczonego wzrostu populacji, który zaczyna się wykładniczo (nieograniczone rozmnażanie), lecz osiąga naturalną barierę (np. brak pożywienia). Tutaj, w pracy Queteleta, krzywa logistyczna zdaje sprawę z osiągania dojrzałości przez człowieka, na dobre i złe. Oczywiście, nie powinniśmy zbyt serio traktować tego wzoru. Sam Quetelet w późniejszych latach ograniczał się do opisu danych statystycznych, nie upierając się przy żadnym wyrażeniu.

Wykres skłonności do przestępstw wg płci. Widzimy, że kobiety wkraczają później na ścieżkę kryminalną, lecz dłużej są aktywne.

Trwałym dorobkiem Queteleta okazało się stosowanie krzwej dzwonowej do opisu rozkładu statystycznego. Sam po raz pierwszy zastosował ją do statystyki obwodu w piersiach szkockich rekrutów. Jego dane wyglądały następująco:

Obwód w klatce piersiowej wyrażony jest w calach. Quetelet starał się dopasować do tych danych krzywą Gaussa, lecz w praktyce użył rozkładu dwumianowego z prawdopodobieństwami sukcesu/porażki 1/2 oraz liczbą prób równą 999 (tak, żeby mieć 1000 różnych wyników). Inaczej mówiąc, są to prawdopodobieństwa uzyskania k orłów w 999 rzutach monetą.

Jako uczeń Fouriera i Laplace’a wiedział dobrze, że rozkład dwumianowy dąży przy dużych wartościach liczby prób do rozkładu Gaussa. W ten sposób zaczęła się oszałamiająca kariera krzywej Gaussa w zastosowaniach statystycznych. W latach późniejszych przesadne stosowanie rozkładu Gaussa do wszelkich możliwych danych zaczęto nawet nazywać „quetelizmem” – bo, oczywiście, istnieją też inne rozkłady, choć w wielu sytuacjach właśnie rozkład Gaussa prawidłowo opisuje stan faktyczny.

Eudoksos i jego hippopede: początki greckiej astronomii matematycznej (pierwsza poł. IV w. p.n.e.)

Urodzony w Knidos, w Azji Mniejszej (dzisiejsza Turcja), Eudoksos syn Aischinesa był lekarzem, astronomem, geometrą i prawodawcą we własnym mieście – zestaw umiejętności zbliżony do tych, z których niemal dwa tysiące lat później słynął, choć w innych proporcjach, także Mikołaj Kopernik. Spośród wszystkich rozrzuconych po Śródziemnomorzu kolonii greckich w polityce, sztuce, filozofii nadal przodowały Ateny, które jednak wchodziły w fazę zmierzchu po złotym wieku. Na zewnątrz murów miejskich Platon, uczeń Sokratesa, założył swoją słynną Akademię. Jednym z jego uczniów był Eudoksos. Pisze Diogenes Laertios:

Kiedy miał bowiem dwadzieścia trzy lata i żył w trudnych warunkach materialnych, znęcony sławą sokratyków udał się do Aten wraz z lekarzem Teomedontem, na którego utrzymaniu pozostawał (a jak twierdzili niektórzy był jego kochankiem). Gdy wylądowali w Pireusie, zamieszkał tam i co dzień udawał się do Aten, gdzie słuchał wykładów sofistów, po czym wracał do swego mieszkania. Po upływie dwóch miesięcy wrócił do ojczyzny… (przeł. B. Kupis)

Był to początek licznych podróży Eudoksosa: spędził jakiś czas w Egipcie, w Kyzikos, na Sycylii, a także na dworze Mauzolosa (to na jego cześć wzniesiono pierwsze Mauzoleum) i znowu w Atenach. Był wybitnym matematykiem, jego teoria proporcji pozwoliła w sposób ścisły włączyć do matematyki liczby niewymierne, wskazuje się nieraz na jej podobieństwo z pracami Richarda Dedekinda i Karla Weierstrassa w drugiej połowie XIX wieku, kiedy także stanął przed matematykami problem umocnienia podstaw ich dyscypliny. Wiele wyników Eudoksosa trafiło później do Elementów Euklidesa.

Nas interesuje tutaj jedno konkretne odkrycie, a właściwie pewien błyskotliwy pomysł geometryczny Eudoksosa. Pamiętajmy, jesteśmy w IV w. p.n.e., nieznana jest jeszcze spora część geometrii, obserwacje astronomiczne rzadko bywają ścisłe, nie ma zresztą dokładnych zegarów, co w astronomii jest konieczne. Znamy natomiast wygląd nocnego nieba, znają go wszyscy. Wiemy, że gwiazdy krążą wokół obserwatora w rytmie doby gwiazdowej (nieco krótszej niż słoneczna). Łatwo to wyjaśnić: przymocowane są do sztywnej sfery, która wiruje w rytmie dobowym wokół Ziemi. Nietrudno też wyjaśnić roczny ruch Słońca na niebie: najwyraźniej okrąża ono w ciągu roku koło nachylone względem równika sfery niebieskiej. Punkt O to Ziemia, mała w porównaniu z kosmosem.

Podobny krok można uczynić i dla planet. Pojawia się tu wszakże komplikacja: otóż zazwyczaj poruszają się one z zachodu na wschód względem gwiazd, lecz od czasu do czasu zawracają na jakiś czas i w efekcie zakreślają na niebie pętlę albo zygzak.

Eudoksos wpadł na pomysł, jak taki ruch wsteczny, jak nazywają go astronomowie, dodać do „zwykłego” ruchu prostego. Potrzebne są dwie dodatkowe sfery poruszające się z taką samą prędkością kątową, lecz niemal przeciwnie. Tzn. gdyby osie obrotu obu tych sfer się pokrywały, oba obroty znosiłyby się wzajemnie. Gdy jednak osie te będą nachylone do siebie pod pewnym kątem, punkt na sferze – nasza planeta – zakreśli leżącą ósemkę, znak podobny do \infty. Mamy więc pewien ruch średni plus zakreślanie ósemki, którą starożytni nazywali hippopede – pęta końskie. Pętlę tego rodzaju zakładano koniom, aby nie oddaliły się samowolnie z miejsca parkowania.

Jako znakomity matematyk Eudoksos z pewnością potrafił udowodnić, że hippopede jest przecięciem sfery z wewnętrznie do niej stycznym walcem.

Możemy śmiało uznać, że tak narodziła się astronomia matematyczna, jak też i matematyczna fizyka, bo z czasem metody matematyki przeniknęły także do badań ziemskiej rzeczywistości. Eudoksos zainspirowany był naukami Platona, który sądził, że geometria ujmuje pewną rzeczywistość idealną, dostępną umysłowi i doskonalszą niż ta zmysłowa. Nie znamy reakcji Platona na pomysł Eudoksosa, znamy jednak reakcję jego ucznia Arystotelesa. Uznał on, że należy włączyć osiągnięcia Eudoksosa do wizji świata. Postąpił trochę tak, jak współczesny filozof, który zastanawia się nad sensem Wielkiego Wybuchu albo Standardowego Modelu Cząstek. Tę filozoficzną wersję modelu Eudoksosa znamy wszyscy jako zestaw koncentrycznych sfer: obraz panujący przez następne dwa tysiące lat.

 

Rysunek z Cosmographii Petera Apiana z XVI wieku, a więc książki współczesnej Kopernikowi. Tutaj można obejrzeć większe obrazki. W średniowieczu dodano do tego obrazka dodatkowe sfery: wody firmamentu ponad gwiazdami (zgodnie z Biblią, gdzie wody znajdowały się ponad niebem, aby mógł padać deszcz), a także zlokalizowano niebo teologiczne jako obszar na zewnątrz fizycznych sfer (Arystoteles sądził, że cały kosmos jest kulą i nie ma sensu mówić o obszarze na zewnątrz). U Apiana mamy: „Niebo empirejskie, siedzibę Boga oraz wszystkich zbawionych”.

W samej astronomii żywot hippopede i modelu kosmosu złożonego z koncentrycznych sfer był znacznie krótszy. Mimo całej błyskotliwości, hippopede nie wystarcza do opisania tego, co widzimy. Np. Mars jest wyraźnie znacznie jaśniejszy podczas ruchu wstecznego niż podczas ruchu prostego, co sugeruje zmiany odległości od Ziemi. Ponadto tory planet nie powtarzają się, więc nieuchronnie należy ten model skomplikować. Zrobili to Apoloniusz i Ptolemeusz. Najtrwalsza okazała się jednak idea matematycznego objaśnienia wszechświata. W tym sensie dzisiejsi badacze tacy, jak Roger Penrose czy Stephen Hawking, a wcześniej Johannes Kepler czy Isaac Newton, są kontynuatorami idei Eudoksosa, że za pomocą matematyki zrozumieć można wszechświat.

Na koniec przyjrzymy się geometrii modelu. Planeta obraca się najpierw o kąt \alpha od A do P_1 wokół osi z_1, a potem o taki sam kąt wokół osi z od P_1 do P.

Zrzutujmy ten ruch na płaszczyznę xy.

Otrzymujemy następującą sytuację: Okrąg, po którym porusza się P_1 zrzutowany na płaszczyznę xy jest elipsą. Punkt P'_1 możemy skonstruować jako rzut punktu P_0 na większym okręgu prostopadle do osi x na tę elipsę.  Trójkąt QP_1'P_0 jest prostokątny i obrót o kąt \alpha wokół osi z przeprowadza go w trójkąt RP'A. Punkt P' leży więc na okręgu przechodzącym przez punkty R,P',A, a kąt P'HA jest jako kąt środkowy równy 2\alpha. Ponieważ P' jest rzutem P na płaszczyznę xy, więc P leży na powierzchni bocznej walca o promieniu HA. Punkt P leży też oczywiście na sferze.