Jak Albert Einstein wymyślił ruchy Browna (1905)

Albert Einstein kojarzy się głównie z teorią względności: szczególną i potem ogólną. Jego zainteresowania obejmowały jednak całość gmachu fizyki, jak nikt bowiem troszczył się o logiczną spójność i prostotę całości, wiele jego prac brało początek nie tyle z konkretnych problemów, ile raczej z potrzeby uzgodnienia różnych punktów widzenia. Tematyka teorii względności nie pochłaniała też większości jego czasu i uwagi. W pierwszym, najbardziej twórczym, ćwierćwieczu swej działalności był Einstein jednym z pionierów i mistrzów fizyki statystycznej. Dziedzina ta wyrosła z kinetycznej teorii gazów w sposób prawie niezauważalny w pierwszych latach XX wieku. Metody statystyczne zastosowane do gazów i rozwinięte przez Ludwiga Boltzmanna uogólnił Einstein w latach 1902-1904 na dowolne układy składające się z wielu cząstek. Nie wiedział wówczas, że dobiegający kresu życia Josiah Willard Gibbs sformułował tę samą teorię w książce Elementary Principles in Statistical Mechanics wydanej w Stanach Zjednoczonych w roku 1902. Gibbs, który spędził niemal całe życie w New Haven w Connecticut jako profesor uniwersytetu Yale, był pierwszym i aż do lat trzydziestych jedynym wybitnym teoretykiem amerykańskim. Jego prace znane były w Europie, lecz Einstein zapoznał się z książką Gibbsa dopiero po ukazaniu się jej niemieckiego przekładu i stwierdził, że gdyby znał ją wcześniej, to nie napisałby swoich trzech wczesnych prac dotyczących podstaw fizyki statystycznej. Bez wątpienia przyczyniły się one wszakże do jego naukowego rozwoju, technikami statystycznymi posługiwał się bowiem później z wielkim wyczuciem i pewnością.

Lata 1896-1905 są w rozwoju naukowym Einsteina okresem bodaj najciekawszym, wtedy właśnie ukształtował się uczony, który w roku 1905 ogłosił cztery przełomowe prace stawiające w nowym świetle kilka naraz dziedzin fizyki. Pierwsza z nich dotyczyła cząstkowej natury światła i była najbardziej może rewolucyjna. Czwarta dotyczyła teorii względności, czyli jak to wtedy mówiono, elektrodynamiki ciał w ruchu. Do swego przyjaciela Conrada Habichta Einstein pisał wtedy:

Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast dowodzi, iż z założeń molekularnej [kinetycznej] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy]; w rzeczy samej, fizjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna.

Robert Brown, wybitny botanik, zaobserwował to zjawisko w roku 1827, badając pod mikroskopem pyłki klarkii nadobnej i wydzielane przez nie drobne cząstki (amyloplasty i sferosomy). Otóż cząstki te wykonywały nieustający zygzakowaty ruch. Brown sumiennie i metodycznie podszedł do swego odkrycia, stwierdzając, że podobne ruchy obserwuje się także w przypadku drobnych cząstek nieorganicznych, nie mają więc one nic wspólnego z życiem. Do końca wieku XIX zjawiskiem ruchów Browna zajmowali się od czasu do czasu fizycy, nie zaowocowało to jednak żadnymi charakterystykami ilościowymi. Mimo że rozwinęła się wówczas kinetyczna teoria gazów i powtarzano od czasu do czasu wyjaśnienie zjawiska za pomocą zderzeń z cząsteczkami cieczy, nikomu nie udało się wyjść poza ogólniki. Charakterystyczne są tu uwagi Henri Poincarégo w książce Nauka i hipoteza. Matematyk pisze tu o zjawiskach nieodwracalnych, podlegają one prawu wzrostu entropii, trudno więc uzgodnić je z zasadami mechaniki, które są odwracalne:

Przez długi czas termodynamika ograniczała się do badań nad rozszerzaniem się ciał i zmian w ich stanie. Od pewnego czasu stała się ona zuchwalszą i znacznie rozszerzyła swój zakres. Zawdzięczamy jej teorię stosu, teorię zjawisk termoelektrycznych; nie ma w całej fizyce kąta, który by nie był objęty jej badaniami; zaatakowała ona nawet chemię. Wszędzie panują te same prawa; wszędzie pod rozmaitością pozorów odnajdujemy zasadę Carnota [tj. drugą zasadę termodynamiki], wszędzie również owo tak niesłychanie abstrakcyjne pojęcie entropii, równie powszechne jak pojęcie energii i jak ono posiadające cechy czegoś realnego. Ciepło promieniste zdawało się jej nie podlegać; przekonano się niedawno, że i ono znajduje się pod panowaniem tych samych praw. (…)

Usiłowano również znaleźć wytłumaczenie mechaniczne tych zjawisk [nieodwracalnych] we właściwym znaczeniu. Nie nadawały się one jednak do tego. Aby wytłumaczenie to znaleźć, należało np. przypuścić, że nieodwracalność jest tylko pozorna, że zjawiska elementarne są odwracalne i ulegają znanym prawom dynamiki. Lecz elementy są nadzwyczaj liczne i mieszają się ze sobą coraz bardziej, tak iż dla tępych naszych oczu wszystko zdaje się zdążać do jednostajności, czyli wszystko zdaje się postępować w jednym kierunku, bez nadziei powrotu. Pozorna nieodwracalność jest tedy po prostu przejawem prawa wielkich liczb. Jedynie istota o zmysłach nieskończenie subtelnych, w rodzaju urojonego demona Maxwella, potrafiłaby rozwikłać tę poplątaną sieć i zawrócić świat wstecz.

Koncepcja ta, związana z teorią kinetyczną gazów, powstała kosztem wielkich wysiłków i ostatecznie okazała się mało płodną, może się stać nią jednak. Nie tutaj miejsce rozpatrywać, czy nie prowadzi ona do sprzeczności, i czy odpowiada ściśle rzeczywistej naturze rzeczy.

Wspomnijmy przecież o oryginalnych pomysłach fizyka Gouy’ego, dotyczących ruchu brownowskiego. Według tego badacza osobliwy ten rodzaj ruchu uchyla się od zasady Carnota. Cząstki, które wprawia on we wstrząśnienie, mają być mniejsze niż oka tej tak gęsto zasnutej sieci; mogą one przeto oka te rozwikłać i w ten sposób kazać światu postępować wstecz. [Nauka i hypoteza, przeł. M.H. Horwitza pod red. L. Silbersteina, Warszawa-Lwów 1908, pisownia uwspółcześniona]

Zaprezentowaliśmy ten cytat nie tylko dla zobrazowania poglądów panujących w pierwszych latach XX wieku, ale i dlatego, że książkę Poincarégo czytał Einstein z przyjaciółmi, Conradem Habichtem (adresatem listu powyżej) i Mauricem Solovine. Utworzyli oni nieformalną grupę samokształceniową, którą nazywali żartobliwie Akademią Olympia – wszyscy trzej byli raczej bez grosza i postrzegali siebie jako outsiderów wobec rozmaitych szacownych ciał oficjalnych. Niewykluczone, że Einstein wiedział na temat ruchów Browna tyle albo niewiele więcej niż można znaleźć u Poincarégo. 

Akademia Olympia w pełnym składzie, pierwszy z lewej Conrad Habicht.

W odróżnieniu od franuskiego luminarza nauki młody Einstein nie miał wątpliwości, że metody statystyczne Boltzmanna, czyli mechanika statystyczna, mogą objaśnić także zjawiska nieodwracalne (np. zamianę pracy na ciepło pod wpływem tarcia albo oporu ośrodka). Na poziomie molekularnym nie widać zresztą, w którą stronę płynie czas. Nie widać tego także w ruchach Browna. Drobna, lecz ogromna w skali molekularnej, cząstka pod mikroskopem porusza się pod wpływem chaotycznych zderzeń z cząsteczkami cieczy bądź gazu. Zderzenia te przekazują obserwowanej cząstce pewien pęd, ruch wypadkowy jest tu skutkiem nierównomierności tych zderzeń: czasem przekazują one pęd w jednym kierunku, czasem w innym. W rezultacie cząstka porusza się osobliwym zygzakowatym ruchem. Uczeni badający to zjawisko przed Einsteinem starali się np. zmierzyć prędkość ruchów Browna, otrzymywali jednak wyniki niespójne i nie dające się ująć w żadne prawidłowości. W ruchach Browna decydujące znaczenie mają odchylenia od średnich – fluktuacje statystyczne, a nie same średnie. Badanie fluktuacji metodami fizyki statystycznej stało się ulubionym podejściem Einsteina w wielu zagadnieniach. Nastawienie to odróżniało go nie tylko od konserwatystów w rodzaju Poincarégo, ale także od pionierów: Boltzmanna i Gibbsa, którzy koncentrowali się raczej na tym, jak metodami statystycznymi powtórzyć wyniki termodynamiczne. Młody uczony, którego na razie nikt nie traktował na tyle serio, by dać mu posadę na uczelni, szedł więc tutaj zupełnie samodzielną drogą. Można powiedzieć, że był prekursorem stosowania prawdopodobieństw w fizyce. Metody probabilistyczne odróżniają zdecydowanie fizykę XX wieku od szukającej wszędzie absolutnej pewności fizyki dziewiętnastowiecznej. Choć Einstein nigdy nie pogodził się z brakiem determinizmu na poziomie zjawisk podstawowych (słynne „Bóg nie gra w kości!”), to sam przyczynił się w znacznym stopniu do zmiany podejścia uczonych i wprowadzenia metod statystycznych. 

W pracy z 1905 roku Einstein nie był pewien, czy to, co opisuje to owe słynne ruchy Browna. Pisze:

Niewykluczone, że omawiane tu ruchy są identyczne z tak zwanymi molekularnymi ruchami Browna, ale dostępne mi dane na ich temat są tak nieprecyzyjne, iż nie mogłem w tej sprawie sformułować opinii. (przeł. P. Amsterdamski)

Warto zauważyć, że sto lat temu dostęp do informacji naukowej był zgoła niełatwy, zwłaszcza dla kogoś, kto pracował przez cały dzień w biurze i w godzinach pracy nie mógł chodzić do biblioteki naukowej. Oczywiście Einsteinowi chodzi tu o coś więcej niż samą kwestię ruchów Browna:

Jeżeli ruchy, które tu omówimy, rzeczywiście można zaobserwować i jeżeli spełnione są prawa, którym powinny podlegać, to nie sposób dalej utrzymywać, że termodynamika klasyczna zachowuje ważność w sytuacji, gdy poszczególne obiekty dają się odróżnić nawet za pomocą mikroskopu, i ścisłe wyznaczenie rzeczywistych rozmiarów atomowych staje się możliwe. Z drugiej strony, jeżeli przewidywania dotyczące tych ruchów okażą się błędne, fakt ten stanowiłby bardzo poważny argument przeci molekularno-kinetycznej teorii ciepła. (przekł. jw.)

Einstein stosuje do opisu ruchu cząstki brownowskiej rachunek prawdopodobieństwa. W jednym wymiarze rozkład prawdopodobieństwa zależny od położenia x i czasu t opisany jest funkcją p(x,t). Zakładamy, że położenia cząstki w chwili późniejszej t+\tau są statystycznie niezależne od położeń w chwili t. Mamy wtedy równanie:

p(x,t+\tau)={\displaystyle \int_{-\infty}^{\infty} p(x+\Delta, t)\phi(\Delta)d\Delta},

gdzie \phi(\Delta) jest pewnym symetrycznym rozkładem prawdopodobieństwa. Czytelnik zechce zauważyć podobieństwo do podejścia Louisa Bacheliera, o którym Einstein nic nie wiedział wtedy ani zresztą także i później, ich trajektorie naukowe nigdy się nie przecięły. Einstein rozwija w szereg Taylora funkcję po lewej stronie względem czasu, a po prawej względem położenia, ograniczając się do najniższych pochodnych dających nietrywialny wynik:

p(x,t+\tau)=p(x,t)+\tau\dfrac{\partial p}{\partial t}=p(x,t)+\dfrac{1}{2}{\displaystyle \dfrac{\partial^2 p}{\partial x^2} \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Po uproszczeniu otrzymujemy równanie dyfuzji:

\dfrac{\partial p}{\partial t}=D \dfrac{\partial^2 p}{\partial x^2}, \mbox{  gdzie  } D=\dfrac{1}{2\tau} {\displaystyle \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Jest to równanie opisujące rozkład prawdopodobieństwa położeń pojedynczej cząstki (jeśli cząstek jest niewiele, to ich ruchy powinny być niezależne). Rozwiązanie znane było powszechnie i można je zapisać następująco:

{\displaystyle p(x,t)=\dfrac{1}{\sqrt{4\pi Dt}}\exp{\left(-\dfrac{x^2}{4Dt}\right)}.}

 

Mamy więc mały cud: bardzo nieregularne ruchy odpowiadają gładkiemu rozkładowi gaussowskiemu, który rozpływa się z czasem. Wygląda to jakoś tak.

Biorąc pewną próbkę błądzących cząstek, otrzymamy histogram częstości, który dla wielu prób zbieżny będzie do rozkładu Gaussa. Jest to zagadnienie błądzenia przypadkowego, o którym pisaliśmy niedawno. Z punktu widzenia Einsteina najważniejsza była wartość średnia x^2, czyli dyspersja rozkładu (kwadrat odchylenia standardowego):

\langle x^2\rangle=2Dt.

Einstein powiązał współczynnik D z lepkością ośrodka \eta i promieniem cząstek brownowskich r oraz temperaturą T, otrzymując

\langle x^2\rangle=\dfrac{kT}{3\pi \eta r}t.

Zależność tę przetestował później Jean Perrin, potwierdzając wyniki Einsteina i Mariana Smoluchowskiego, który trochę później ogłosił równoważną teorię ruchów Browna. Dzięki temu potwierdzono istnienie atomów, a także słuszność fizyki statystycznej jako metody badania obiektów makro− i mezoskopowych. 

 

 

 

 

Czarne dziury – największy błąd Einsteina?

Ogłoszono dziś przyznanie Nagród Nobla z fizyki za czarne dziury. Roger Penrose jest matematykiem, który wykazał w latach sześćdziesiątych XX w., że obiekty takie są nieuchronnym wnioskiem z Einstenowskiej teorii względności. Drugą połowę nagrody otrzymali astronomowie, którzy wykazali, iż w centrum Galaktyki znajduje się ogromna czarna dziura. Poniżej piszę o paradoksalnej prehistorii tego problemu. Rozwiązanie równań Einsteina opisujące czarną dziurę otrzymał Karl Schwarzschild parę tygodni po ogłoszeniu teorii Einsteina. Wiemy dziś, że rozwiązanie to całkiem dobrze opisuje czarne dziury występujące we wszechświecie. Zatem równania znane były od roku 1915, w roku 1939 Robert Oppenheimer opisał, jak czarna dziura może powstać wskutek zapadania grawitacyjnego. Uczeni starali się jednak wyprzeć taką możliwość i nawet sam Oppenheimer nie traktował swej pracy poważnie. Sądzono powszechnie, że równania Oppenheimera i Snydera są tylko ciekawostką matematyczną. Zakładali oni w obliczeniach, że podczas zapadania się gwiazda ma idealną symetrię sferyczną. Był to słaby punkt, bo trudno sobie wyobrazić implozję, która zachowuje się aż tak idealnie. Przełom nastąpił ćwierć wieku później, gdy Roger Penrose wykazał, że czarne dziury pojawiają się bez względu na symetrię. Grawitacja jest siłą przyciągającą i działa tym silniej, im bliżej siebie znajdują się cząstki materii. Może dojść do sytuacji, że siły grawitacyjne pokonają nawet siły jądrowe wewnątrz materii i nasze zbiorowisko cząstek zamieni się w czystą energię grawitacyjną, najprostszy obiekt w przyrodzie, opisany ponad sto lat temu. Swoją drogą szkoda, że Komitet Noblowski nie pospieszył się bardziej, bo w rozwijanie koncepcji czarnych dziur wniósł też wkład zmarły przed dwoma laty Stephen Hawking. Być może uznali, że prace Hawkinga były zbyt spekulatywne. Choć prawdą jest, że to krótka praca Penrose’a z „Physical Review Letters” uruchomiła lawinę.

Nauka postępuje, robiąc błędy. Szczerze mówiąc, niewiele jest prac pionierów, które byłyby z dzisiejszego punktu widzenia prawidłowe. M.in. dlatego tak trudno być odkrywcą: trzeba dostrzec zarysy ładu w ogólnym chaosie i mętliku, zanim kurz opadnie i zanim sytuacja się wyklaruje (wtedy już wszyscy są mądrzy). Nic dziwnego, że w takich okolicznościach często widzi się nie to, co trzeba, albo odnajduje zarysy innego gmachu, niż ten, który ostatecznie zostanie zbudowany. Pionierzy są zwykle ludźmi twardymi, którzy mają jasną wizję świata, i jeśli ten prawdziwy nie przystaje do ich wizji, tym gorzej dla rzeczywistego świata.

Mówi się nieraz o błędach, popełnianych przez wielkich uczonych. Są one rzekomo przydatne, otwierają bowiem drogę do postępu. Nie wiem, czy to prawda. Znam z bliska wiele różnych sytuacji z historii nauki i moje wrażenie jest raczej takie, że pionierzy gotowi są iść za swoją wizją bez względu na koszty. I przeważnie mają w nosie, co inni sądzą na ten temat. Gdyby pozwalali się terroryzować przyjętym poglądom, do niczego by nie doszli. W skrytości ducha uważają opinię powszechną za głos durniów, choć zwykle są na tyle dobrze wychowani, by nie mówić tego głośno. Gotowi są iść za swoją wizją (najpierw trzeba ją oczywiście mieć: na tym etapie odpadają zwykli wyrobnicy), ryzykując wielką przegraną. W nauce (i to jest w niej piękne) powiedzenia Audaces fortuna iuvat nie trzeba tłumaczyć jako „szczęście sprzyja łajdakom”.

Mówi się czasem, że Albert Einstein za największy błąd swego naukowego życia uznał wprowadzenie stałej kosmologicznej. Rzecz jest o tyle zabawna, że obecnie, po latach, stała kosmologiczna pojawiła się znowu – teraz mówi się na nią ciemna energia. Szczerze mówiąc, stała kosmologiczna nie mogła być ani błędem, ani zasługą Einsteina. Wyraz taki można wprowadzić do równań jego teorii grawitacji (tzw. ogólnej teorii względności), ale na gruncie fizyki klasycznej nie ma poważnych powodów, aby to zrobić. Zatem brzytwa Ockhama nakazuje raczej odciąć zbędne narośla niż je pielęgnować. Zawsze lepsza jest teoria oszczędniejsza: np. heliocentryczna w porównaniu do geocentrycznej.

Z czarnymi dziurami jest nieco inaczej. Stosowne rozwiązanie równań Einsteina uzyskał Karl Schwarzschild w roku 1915. Była to jedna z pierwszych prac badających konsekwencje nowej teorii grawitacji. Zastosowanie dość oczywiste z punktu widzenia astrofizyka: gwiazdy są sferyczne, ciekawe więc, co nowa teoria ma do powiedzenia na temat sytuacji, gdy panuje symetria sferyczna. Schwarzschild przesłał swoją pracę z frontu rosyjskiego, kilka miesięcy później nabawił się rzadkiej choroby zakaźnej, pęcherzycy, i umarł. Jego syn, Martin, mający wówczas równo cztery lata, został z czasem wybitnym specjalistą od ewolucji gwiazd. Piękny przykład, jak ojciec, nawet zmarły, może wpłynąć na los dziecka.

Rozwiązanie Schwarzschilda zachowywało się dziwnie w dwóch punktach: r=0 oraz r=rs, gdzie r oznacza odległość od środka; wielkość rs jest dziś nazywana promieniem Schwarzchilda, gdyby całą rozważaną masę M skupić w kuli o promieniu rs , to prędkość ucieczki z jej powierzchni byłaby równa prędkości światła, inaczej mówiąc światło nie mogłoby uciec z tak silnego pola grawitacyjnego. Zastanawiano się już w XVIII wieku nad możliwością istnienia takich ciemnych gwiazd. Promień Schwarzschilda dla Słońca równy jest tylko 3 km – a więc należałoby upchnąć całą jego masę w tak małej kuli, co wydawało się niemożliwe. Sądzono więc, że mamy do czynienia z tzw. zagadnieniem akademickim, czyli nieinteresującym nikogo.

Albert Einstein nie lubił osobliwości w równaniach i w 1939 roku opublikował pracę, w której dowodził, że promień Schwarzschilda nie może zostać osiągnięty przez zapadanie się masy pod wpływem własnej grawitacji. W podsumowaniu pisał: „Osobliwość Schwarzschilda nie może się pojawić, ponieważ materii nie można dowolnie zgęścić. A nie można, ponieważ cząstki wchodzące w jej skład musiałyby osiągnąć prędkość światła”.

Einstein nie miał racji, wykazali to w tym samym roku Robert J. Oppenheimer i jego student Hartland Snyder. Punktem wyjścia Oppenheimera była astrofizyka. Gwiazdy nie zapadają się do wewnątrz, ponieważ wytwarzają energię i ciśnienie gazu (które jest energią ruchu cząstek) przeciwdziała grawitacyjnemu zapadaniu. Jednak gdy paliwo jądrowe się wyczerpie, grawitacja wygrywa i gwiazda staje się znacznie mniejsza niż na początku. Gwiazda może zostać tzw. białym karłem, znano przykłady takich supergęstych gwiazd. Jednak Subrahmanyan Chandrasekhar udowodnił, że białe karły nie mogą być stabilne przy masie powyżej 1,4 masy Słońca. Oznacza to, że Słońce może zostać kiedyś białym karłem. Co jednak z gwiazdami masywniejszymi? Oppenheimer ze współpracownikami wykazali, że inną możliwością jest powstanie tzw. gwiazdy neutronowej: czegoś w rodzaju gigantycznego jądra atomowego zbudowanego z samych neutronów i związanego grawitacją. Jednak i w tym przypadku istniała górna granica masy takiego tworu. Co się stanie, jeśli masa gwiazdy jest tak duża, że ani biały karzeł, ani gwiazda neutronowa nie będą możliwe? Tym właśnie zajęli się Oppenheimer i Snyder. Dowodzili, że kolaps – zapadanie się grawitacyjne – jest nieuniknione przy odpowiednio dużej masie obiektu. Opisali też, co się dzieje, gdy obserwujemy taki grawitacyjny kolaps. Z punktu widzenia obserwatora oddalonego od gwiazdy szybkość tego kolapsu staje się coraz mniejsza, a światło do niego dochodzące jest coraz mocniej przesunięte w stronę czerwieni.

Schwarzschilddiagram

(Rysunek 32.1 C.W. Misner, K.S. Thorne, J.A. Wheeler, Gravitation, t. 3)

Na wykresie czas jest na osi pionowej, odległość od centrum na osi poziomej. Wielkość r/M=2 odpowiada promieniowi Schwarzschilda, obszar zakreskowany to wnętrze gwiazdy. Gruba czarna linia odpowiada ruchowi powierzchni gwiazdy, dąży ona asymptotycznie do prostej r/M=2, co oznacza, że ruch staje się coraz wolniejszy i powierzchnia nigdy nie zapadnie się pod promień Schwarzschilda. I rzeczywiście tak jest, ale tylko z punktu widzenia odległego obserwatora. Gdybyśmy poruszali się razem z tą powierzchnią gwiazdy, nasz zegar wskazywałby czas zaznaczony na rysunku jako τ. Dla nas spadanie trwałoby pewien skończony czas i po przekroczeniu promienia Schwarzschilda spadalibyśmy dalej, osiągając w skończonym czasie punkt centralny r=0. Wnioski te (choć nie rysunek) znalazły się w pracy Oppenheimera i Snydera. Pisali oni: „Kiedy wszystkie źródła energii termojądrowej zostaną wyczerpane, gwiazda o dostatecznie dużej masie skolapsuje (zapadnie się) (…) Całkowity czas kolapsu dla obserwatora poruszającego się razem z materią gwiazdy jest skończony i dla wyidealizowanego przypadku oraz typowej masy gwiazdy jest rzędu jednej doby. Obserwator zewnętrzny widzi gwiazdę asymptotycznie kurczącą się do promienia grawitacyjnego [tzn. promienia Schwarzschilda]”.

Musiało minąć trzydzieści lat, zanim zrozumiano, że praca Oppenheimera i Snydera jest prawidłowa. Wiemy dziś, że po przekroczeniu promienia Schwarzschilda nie mamy już żadnej możliwości: musimy spaść na punkt r=0. Widać to na wykresie dzięki stożkom świetlnym. Każdy obserwator musi poruszać się wolniej niż prędkość światła, a to oznacza geometrycznie, że jego przyszłość leży wewnątrz stożka. Poniżej promienia Schwarzschilda stożki przyszłości zwrócone są ku r=0: jeśli nawet nic nie będziemy robić spadniemy do środka. Zresztą jeśli będziemy coś robić, też spadniemy: osobliwość w r=0 jest naszą przyszłością. I nawet nikomu nie będziemy się mogli poskarżyć, ponieważ promienie świetlne leżą na powierzchni stożka przyszłości, a więc i one spadną na r=0.

Ani Einstein, ani znacznie młodszy Oppenheimer nie dożyli momentu, gdy zrozumiano, czym są czarne dziury. Gdyby Oppenheimer żył dłużej, dostałby niewątpliwie Nagrodę Nobla za swoje prace związane z astrofizyką, pamiętamy go dziś raczej z powodu projektu Manhattan – prac nad budową bomb atomowych. Nie wiadomo, czy Einstein i Oppenheimer kiedykolwiek rozmawiali o tych swoich wzajemnie sprzecznych pracach z roku 1939. Po II wojnie światowej Oppenheimer był dyrektorem Instytutu Badań Zaawansowanych w Princeton, a więc formalnie „szefem” Einsteina i choćby dlatego spotykali się wiele razy. Nie sądzę jednak, aby Einstein gotów był się zgodzić z Oppenheimerem w kwestii kolapsu. Pewnie więc do niczego by taka dyskusja nie doprowadziła.

004

Fotografia Alfreda Eisenstaedta dla czasopisma „Life”, rok 1947. Poniżej inne zdjęcie tego samego autora.

005

György Pólya i jego losowe przechadzki (1921)

György (a potem George) Pólya należał do wyjątkowej konstelacji wybitnych matematyków i fizyków pochodzących z Węgier początku XX wieku. Matematyka nie była jego wczesną pasją, zajął się nią poważniej dopiero po kilku latach studiów, wcześniej interesował się literaturą, zdobył uprawnienia do nauczania łaciny i wegierskiego w gimnazjum, zajmował się filozofią. Podsumował to kiedyś żartobliwie: „Uważałem, że nie jestem dość dobry na fizykę, a zbyt dobry na filozofię. Matematyka leży gdzieś pomiędzy”. Podróżował w poszukiwaniu wiedzy, jak tylu studentów przed pierwszą wojną światową, zwłaszcza Żydów. Uczył się matematyki w Budapeszcie, Wiedniu, Getyndze i Paryżu, w 1914 r., dwa lata po doktoracie, otrzymał posadę Privatdozenta w ETH w Zurychu. Minął się w ten sposób z Albertem Einsteinem, który właśnie w roku 1914 wyjechał z ETH, aby objąć posadę w Berlinie. Obu uczonych łączy jednak postać Adolfa Hurwitza, matematyka z ETH. Był on najpierw nauczycielem leniwego studenta Einsteina, a po latach, kiedy fizyk na krótko wrócił do Zurychu, zaprzyjaźnili się i wspólnie muzykowali. Dla Pólyi Hurwitz był mentorem i mistrzem.

Hurwitz „dyryguje” Einsteinem i swoją córką Lisi

Pólya był matematykiem myślącym w kategoriach problemów do rozwiązania, mniej energii wkładał w rozbudowywanie teorii i narzędzi. Słynny problem, który postawił i rozwiązał, dotyczył błądzenia przypadkowego. Wyobraźmy sobie punktową cząstkę, poruszającą się skokami po nieskończonej sieci krystalicznej w taki sposób, że w każdym kroku skacze ona do najbliższego sąsiada w sieci. Przyjmujemy, że prawdopodobieństwo skoku do każdego z sąsiadów jest jednakowe, a poszczególne kroki są niezależne. Dla dwuwymiarowej sieci kwadratowej, prawdopodobieństwo skoku do każdego z sąsiadów jest równe \frac{1}{4}.

Pięć różnych przypadków błądzenia złożonego z ośmiu kroków (Wikimedia)

Można oczywiście rozpatrywać ten proces w sieci d-wymiarowej. Pólya zadał sobie pytanie: Jakie jest prawdopodobieństwo, że błądzący przypadkowo punkt wróci do punktu wyjścia? Podobno problem ten nasunał mu się podczas spaceru po parku, podczas którego aż trzy razy spotkał tego samego studenta z narzeczoną i zaczęło to wygladać niezręcznie, tak jakby śledził młodą parę.

Twierdzenie, które udowodnił Pólya mówi, że cząstka powraca do punktu wyjścia z prawdopodobieństwem równym 1, jeśli wymiar d=1 albo d=2. Natomiast w przypadku wyższych wymiarów powrót jest niepewny i zachodzi z pewnym zależnym od wymiaru prawdopodobieństwem mniejszym niż 1.

Zagadnienie błądzenia przypadkowego bywa formułowane jako problem pijaka, który stawia losowo kroki. Shizuo Kakutani wynik Pólyi sformułował następująco: „Pijany człowiek odnajdzie drogę do domu, lecz pijany ptak może zabłądzić na zawsze”.

Oznaczmy prawdopodobieństwo powrotu przynajmniej raz przez s. Można je powiązać z prawdopodobieństwami P_{2n} znalezienia się cząstki w punkcie wyjścia po zrobieniu 2n kroków (po zrobieniu nieparzystej liczby kroków nie może ona znaleźć się w punkcie wyjścia). Okazuje się, że

s<1 \Leftrightarrow \displaystyle \sum_{n=1}^{\infty} P_{2n}<\infty.

(Dowód przedstawiamy na końcu wpisu.) Zbadajmy więc, jak zachowuje się ciąg P_{2n}. W przypadku d=1 każdy krok ma długość 1 i z prawdopodobieństwem \frac{1}{2} cząstka robi krok w lewo bądź w prawo. Powrót do punktu wyjścia po 2n krokach oznacza, że cząstka wykonała n kroków w prawo i tyle samo w lewo. Liczba możliwości wynosi tu {2n \choose n}. Prawdopodobieństwo jest więc równe

\displaystyle P_{2n}={2n \choose n}\dfrac{1}{2^n}\sim \dfrac{1}{\sqrt{\pi n}}.

Ostatnie oszacowanie słuszne jest dla dużych wartości n (Por. Skąd się wzięła liczba pi… albo Czemu rozkład Gaussa…). Szereg o wyrazie ogólnym 1/\sqrt{n} jest rozbieżny (podobnie jak całka \displaystyle \int_{1}^{\infty} \!\!\frac{dx}{\sqrt{x}} ).

Zobaczmy, jak to wygląda w przypadku d=2. Kroki wykonywane przez naszą cząstkę to (0,1), (0,-1), (1,0), (-1,0). Jeśli obrócić układ współrzędnych o 45^{\circ}, możemy doprowadzić do sytuacji, w której kroki równe są (1,1), (-1,-1), (1,-1), (-1,1) (długość kroków jest i tak umowna). Teraz widać, że mamy do czynienia z dwoma niezależnymi błądzeniami przypadkowymi w pierwszej i w drugiej współrzędnej. Obie współrzędne powinny wrócić do zera, aby cząstka wróciła do początku współrzędnych. Prawdopodobieństwo, że jedna oraz druga wrócą po 2n krokach jest teraz równe iloczynowi prawdopodobieństw dla każdej ze współrzędnych:

\displaystyle P_{2n}=\left({2n \choose n}\dfrac{1}{2^n}\right)^2 \sim \dfrac{1}{\pi n}.

Szereg o wyrazie ogólnym 1/n jest także rozbieżny; choć niewiele mu brakuje do zbieżności: wystarczyłoby żeby  potęga n była tylko odrobinę większa od 1 (całka jest teraz rozbieżna tylko logarytmicznie). Ostatnia uwaga wskazuje, że zapewne w przypadku d=3 suma P_{2n} okaże się już zbieżna.

Rzeczywiście, można prawdopodobieństwo powrotu zapisać teraz w postaci

P_{2n}=\dfrac{1}{6^{2n}}\displaystyle\sum_{j,k\ge 0, j+k\le n}\dfrac{(2n)!}{(j!k!(n-j-k)!)^2}\le Cn^{-\frac{3}{2}}.

Pokażemy jeszcze związek miedzy prawdopodobieństwem powrotu s, a sumą P_{2n}. Jeśli błądzenie wróciło do początku, to wszystko zaczyna się od nowa. Mamy zatem prawdopodobieństwo s^2, że co najmniej dwa razy błądzenie wróciło do początku i ogólnie s^k, że wróciło co najmniej k razy. Wartość oczekiwana liczby powrotów to \sum_{k=1}^{\infty} s^k. Ta sama wartość oczekiwana jest także równa \sum_{k=1}^{\infty} P_{2n}. Jeśli s<1, obie sumy są skończone; przy s=1 obie są rozbieżne.

Korzystałem m.in. z książek: R. Durretta, Probability. Theory and Examples oraz Joela Spencera, Asymptopia.

Lord Rayleigh i błękit nieba, 1871

John William Strutt, pierworodny syn barona Rayleigha i dziedzic tytułu, był słabego zdrowia. Nie chodził z tego powodu regularnie do żadnej szkoły, uczył się prywatnie, co chyba mu wyszło na dobre. Studiował w Trinity College w Cambridge i tam w ciągu kilku lat okazało się, że ma talent do matematyki. Z czasem został jednym z najwszechstronniejszych fizyków swoich czasów. Zajmował się wieloma dziedzinami, szczególnie upodobał sobie zjawiska związane z falami różnego rodzaju. Prowadził też eksperymenty, jego największym osiągnięciem było odkrycie argonu, za które uzyskał Nagrodę Nobla w roku 1904, rok po małżonkach Curie. Skromnie opisuje to odkrycie jako rezultat dokładności swoich eksperymentów: azot uzyskany z powietrza i azot uzyskany drogą chemiczną różniły się nieco gęstością. Rayleigh zaczął badać wszystkie możliwe powody tej różnicy i odkrył nowy składnik powietrza, którego istnienia nikt nie podejrzewał.
Prace Rayleigha są znakomicie i przejrzyście napisane, w zbiorowym wydaniu zajmują sześć tomów z pewnością nie dlatego, by autor mnożył je ponad potrzebę, jak to często zdarza się dzisiaj. Zajmiemy się tu tylko jednym tematem badanym przez Rayleigha: rozpraszaniem światła w atmosferze. Bezchmurne niebo jest głęboko błękitne, mimo że powietrze jest przecież oświetlone białym światłem słonecznym. Z punktu widzenia fizyka oznacza to, że światło niebieskie łatwiej jest rozpraszane niż inne barwy. Z tego samego powodu zachodzące słońce jest czerwone: bo światło przechodzi wówczas przez grubszą warstwę atmosfery i światło niebieskie zostało rozproszone na boki – dociera do nas czerwone. Całe piękno wschodów i zachodów słońca sprowadza się więc do zrozumienia, czemu jedne barwy są łatwiej rozpraszane niż inne.

widok z gierlacha
Rozpraszanie światła polega na tym, że padająca fala pobudza do drgań elektrony w cząsteczkach powietrza. Drganiom cząstek naładowanych towarzyszy zawsze powstawanie fali elektromagnetycznej (elektrony drgają w antenie i obwodach naszego telefonu komórkowego, gdy pracuje). Fala ta rozchodzi się we wszystkich kierunkach: w rezultacie część energii fali padającej jest rozpraszana na boki. Gdyby takiego rozproszenia nie było, widzielibyśmy oślepiające słońce na tle czarnego nieba. Dlaczego rozpraszanie zależy od barwy? Barwy światła związane są z długością fali. Fiolet i błękit mają najmniejszą długość fali, pomarańczowy i czerwień – największą. Wyobraźmy sobie falę elektromagnetyczną biegnącą w ośrodku, którego cząstki są znacznie mniejsze niż długość fali. Sytuację przedstawia rysunek: mamy tu falę świetlną wysłaną przez słońce przedstawioną w różnych punktach przestrzeni w jakiejś jednej chwili.

fala

Dwie „cząsteczki powietrza” są mniejsze niż długość fali. Oznacza to, że w każdej z nich pole elektryczne padającej fali jest praktycznie jednakowe. Wobec tego elektrony w naszych „cząsteczkach powietrza” będą drgać zgodnie – a więc wytwarzane przez nie fale będą się dodawać. Gdybyśmy obserwowali falę wytworzoną przez jedną „cząsteczkę powietrza” w pewnej odległości r od tej cząsteczki, to amplituda fali wytworzonej powinna być proporcjonalna do amplitudy fali padającej: dwa razy większa fala wywoła dwa razy większe drgania elektronów. Powinna także maleć odwrotnie proporcjonalnie do r (wszystkie fale w trójwymiarowej przestrzeni tak się zachowują). Amplituda ta powinna też być proporcjonalna do objętości V naszej cząstki powietrza: bo przy dwa razy większej objętości, będzie tam dwa razy więcej elektronów. Mamy jeszcze trzecią wielkość o wymiarze odległości: długość fali λ. Ponieważ stosunek obu amplitud musi być bezwymiarowy, więc jedyną możliwą kombinacją tych wielkości jest

\dfrac{A_{rozpr}}{A_{pad}}\sim \dfrac{V}{\lambda^2 r}.

Natężenie fali, czyli np. przenoszona przez nią energia, jest proporcjonalne do kwadratu amplitudy, zatem natężenia będą odwrotnie proporcjonalne do czwartej potęgi długości fali – jest to bardzo silna zależność i to właśnie widzimy na niebie. Na wykresie widzimy zależność natężenia światła słonecznego od długości fali (krzywa niebieska) i tę samą zależność przefiltrowaną przez rozpraszanie Rayleigha (krzywa czerwona, jednostki na skali pionowej nie mają znaczenia, długości fal są w nm).

rayleigh

Widzimy, że światło o krótkich falach (niebieskie) jest rozpraszane znacznie silniej. Wrażenie barwne zależy jeszcze od wrażliwości oka na różne barwy i mechanizmu samego widzenia barwnego. Na siatkówce mamy trzy rodzaje pręcików wrażliwych na trzy różne obszary widma. To, co widzimy, jest wynikiem współdziałania tych trzech rodzajów pręcików. Nasze oczy nie są dobrym spektrometrem, ponieważ różne rozkłady natężeń mogą prowadzić do tego samego wrażenia – a więc koloru, jaki widzimy. Doświadczenia takie prowadził zresztą lord Rayleigh, który pokazał, że ustalona proporcja światła czerwonego i zielonego daje to samo wrażenie co światło żółte. W przypadku nieba wrażenie barwne jest takie samo, jak dla mieszanki monochromatycznego błękitu o długości fali 475 nm z bielą widmową.

Okazało się zresztą, że z dwóch krzywych na wykresie trudniej zrozumieć tę niebieską, czyli widmo słoneczne – jest to bowiem promieniowanie termiczne, zależne jedynie od temperatury. Zgodnie z fizyką klasyczną każdy rodzaj drgań pola elektromagnetycznego powinien mieć taką samą energię proporcjonalną do temperatury (kT). A ponieważ im krótsza fala, tym więcej rodzajów drgań, więc promieniowanie termiczne powinno „wybuchać” dla krótkich długości fali, co jest jawnym nonsensem. Trudność tę zauważył lord Rayleigh w roku 1900 i próbował zaproponować jakieś rozwiązanie ad hoc. Prawidłowym rozwiązaniem był wzór Plancka, i szerzej cała fizyka kwantowa.

Dodatek dla wymagających

Trochę inne uzasadnienie zależności \lambda^{-4} wygląda następująco: elektrony w ośrodku w każdej chwili znajdują się w chwilowym położeniu równowagi, tzn. ich wychylenie z położenia równowagi jest w każdej chwili proporcjonalne do chwilowej wartości pola elektrycznego E (przybliżenie adiabatyczne: drgania elektromagnetyczne są stosunkowo powolne). Amplituda emitowanej fali jest proporcjonalna do przyspieszenia elektronu, zatem w ruchu harmonicznym o częstości kołowej \omega jest proporcjonalna do \omega^2 E. Natężenie zaś jest kwadratem amplitudy.

Lord Rayleigh nie ograniczył się oczywiście do argumentu wymiarowego, lecz w roku 1899 podał niezwykle elegancki wzór na współczynnik tłumienia światła h (na odległości 1/h natężenie maleje e razy), gdy mamy N cząsteczek chaotycznie rozmieszczonych w jednostce objętości:

h=\dfrac{32\pi^3 (n-1)^2}{3N\lambda^4},

gdzie n jest współczynnikiem załamania gazu. Wzór ten można wyprowadzić nawet w teorii sprężystego eteru. Wynika on także z rozważań w Wykładach Feynmana (t. I cz. II, równania 31.19 oraz 32.19). Wynik jest zbyt prosty, aby zależał od konkretnego modelu (choć Feynman woli raczej trzymać się konkretu). Rzeczywiście, można go uzyskać w sposób fenomenologiczny, co robią różne podręczniki elektrodynamiki. Interesujący współczynnik z trzecią potęgą \pi bierze się częściowo z sumowania natężenia po kącie bryłowym, a częściowo z przeliczania drogi optycznej na fazę, w którym każde \lambda odpowiada zmianie fazy o 2\pi.

William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.

 

 

 

Sen Wolfganga Pauliego (1938)

Pauli urodził się w tym samym roku, gdy Max Planck zapoczątkował niechcący fizykę kwantową. Z racji późnego urodzenia niezbyt przejmował się dylematami uczonych pierwszego pokolenia zmagającego się z pojęciami kwantowymi. Jego pokolenie – do którego należeli Heisenberg, Jordan, Dirac – stworzyło mechanikę kwantową i jej relatywistyczną wersję, czyli elektrodynamikę kwantową, dziedzinę w pełni rozwiniętą już po drugiej wojnie światowej (Schwinger, Tomonaga, Feynman, Bethe i in.). Pauli nie tylko obserwował z bliska rozwój fizyki kwantowej, ale także sam się do niego mocno przyczynił. M.in. sformułowaniem zakazu Pauliego: w danym stanie orbitalnym mogą znajdować się maksymalnie dwa elektrony. Zasada ta wyjaśnia ułożenie powłok i podpowłok elektronowych, czyli w konsekwencji układ okresowy pierwiastków i chemię. Pauli także zrozumiał, czemu cząstki kwantowe dzielą się na dwie grupy: fermionów (jak elektrony) i bozonów (jak bozon Higgsa). Zależy to od spinu cząstki. Spin połówkowy mają fermiony, całkowity – bozony. Podział ten określa w znacznej mierze zachowanie się cząstek kwantowych. Fermiony unikają się wzajemnie, jak elektrony w atomie albo białym karle. Bozony chętnie przebywają w tym samym stanie, dzięki czemu możliwy jest laser albo kondensacja Bosego-Einsteina. Twierdzenie o związku spinu ze statystyką stało się jednym z kamieni węgielnych kwantowej teorii pola.

Wiedeńczyk, syn profesora chemii, który przyjął katolicyzm dla ułatwienia kariery, miał za ojca chrzestnego wybitnego filozofa Ernsta Macha. Pisał o tym do Carla Junga:

Wśród moich książek znajduje się nieco zakurzona skrzyneczka zawierająca secesyjny srebrny kielich z kartą wizytową w środku. Z kielicha zdaje się unosić spokojny, dobroczynny i radosny duch z niegdysiejszej epoki. Wyobrażam sobie, jak przyjaźnie ściska on pańską dłoń, zadowolony z pańskiej osobistej definicji fizyki jako sympatycznej oznaki nieco może spóźnionego zrozumienia. (…) Wyraża on satysfakcję z faktu, iż sądy metafizyczne w  ogólności, zostały, jak zwykł był mówić, „zesłane do królestwa cieni prymitywnej postaci animizmu”. Kielich ów służył do chrztu i na karcie wpisano z ozdobnymi zakrętasami: „Dr E. Mach, profesor Uniwersytetu Wiedeńskiego”. Tak się zdarzyło, że ojciec mój bardzo był zaprzyjaźniony z jego rodziną i znajdował się w tamtym czasie całkowicie pod jego wpływem umysłowym, a on (Mach) zgodził się uprzejmie przyjąć rolę mego ojca chrzestnego. Musiał mieć znacznie silniejszą osobowość od księdza katolickiego, z takim namacalnym skutkiem, że byłem ochrzczony bardziej w obrządku antymetafizycznym niż katolickim. Jakkolwiek zresztą było, karta pozostała w kielichu i mimo wielkich przemian umysłowych, jakie potem przeszedłem, pozostaje nadal etykietką, którą noszę, a mianowicie „antymetafizycznego pochodzenia”. I w gruncie rzeczy, upraszczając to może zbytnio, Mach uważał metafizykę za korzeń zła na tym świecie – czyli w języku psychologicznym samego Diabła – i kielich wraz z kartą pozostają symbolem aqua permanens [termin alchemiczny, dosł. trwała woda], która chroni od złych metafizycznych duchów.

Nie potrzebuję opisywać bardziej szczegółowo Macha. Aby go poznać, wystarczy, by odczytał pan swój własny opis typu ekstrawertycznego. Był mistrzem eksperymentu i w jego mieszkaniu pełno było przeróżnych pryzmatów, spektroskopów, stroboskopów, generatorów elektrostatycznych i innych urządzeń. Zawsze gdy przychodziłem z wizytą, pokazywał jakieś ładne doświadczenie pomyślane tak, by weyeliminować bądź poprawić jakiś błąd w myśleniu. Uważając swoje własne nastawienie psychologiczne za coś powszechnego, radził każdemu praktykować ekonomię myślenia, stosując tę niższą dodatkową zdolność tak, oszczędnie, jak można. Jego własne myślenie ściśle i z bliska podążało za obserwacjami zmysłów i odczytami przyrządów laboratoryjnych. (…)

Chciałbym przytoczyć anegdotę, które może rozbawić szczególnie pana. Otóż Mach, daleki od pruderii i interesujący się zawsze wszelkimi prądami umysłowymi, wygłosił kiedyś opinię na temat psychoanalizy Freuda i jego szkoły. „Ludzie ci – stwierdził – chcą użyć waginy jako teleskopu, przez który ogląda się świat; nie jest to jednak jej funkcja naturalna, jest ona na to zbyt ciasna”. Przez jakiś czas słowa te powtarzali wszyscy na Uniwersytecie Wiedeńskim. To bardzo charakterystyczne dla instrumentalistycznego sposobu myślenia Macha. Psychoanaliza wywołała u niego natychmiast żywy konkretny obraz niewłaściwie użytego instrumentu – owego kobiecego narządu zestawionego w niewłaściwy sposób z okiem. [List z 31 marca 1953 roku]

Filozofia Macha odegrała sporą rolę w rozwoju Alberta Einsteina, zachęcając go do krytycznego spojrzenia na pojęcia czasu i przestrzeni w fizyce Newtonowskiej. Mach był nieprzejednanym krytykiem atomów w fizyce, uważając je za konstrukt metafizyczny i spierając się na ten temat z Ludwigiem Boltzmannem. Pozytywistyczne nastawienie Pauliego wyrażało się zupełnie inaczej. Słynął on wśród kolegów jako „bicz boży”, bezwględny krytyk nie dość umotywowanych koncepcji. Nie oszczędzał także wielkich uczonych, np. Einsteina, który go niezwykle cenił i przyczynił się do przyznania mu Nagrody Nobla. Czasem krytyki Pauliego tłumiły także dobrze rokujące pomysły, jak stało się w przypadku spinu elektronu. Hans Kronig pod wpływem Pauliego i Bohra wycofał się z publikacji pomysłu, co sprawiło, że to Samuel Goudsmit i Georg Uhlenbeck zapisali się jako ci, którzy wprowadzili pojęcie spinu. Można sądzić, że samemu Pauliemu nie służył jego własny hiperkrytycyzm, choć szczycił się tym, iż nie ogłosił nigdy błędnej pracy.

Niezwykle wcześnie rozwinięty intelektualnie Pauli miał przez większość życia kłopoty natury psychicznej. W latach dwudziestych prowadził właściwie podwójne życie. W dzień (zaczynający się raczej dość późno) był znakomitym uczonym, istotą racjonalną aż do szpiku kości. Jego ataki na prace kolegów traktowane były raczej wyrozumiale, choć mniej odporni psychicznie znosili taką agresję źle. Ale Pauli dzienny był jak dr Jekyll w zestawieniu ze swym nocnym wcieleniem Mr. Hyde’em. Ulubionym jego sposobem spędzania czasu było picie w rozmaitych lokalach nienajwyższej reputacji. W swej wersji nocnej Pauli wszczynał burdy, popełniał występki, których wstydził się w dzień.

Nie panując nad własnym życiem, zdecydował się spróbować psychoanalizy pod kierunkiem Carla Junga. Zajęli się m.in. interpretacją snów, które Pauli zaczął notować z dużą skrupulatnością. Dla Junga materiał około tysiąca snów jednego z najwybitniejszych uczonych był znakomitą okazją do studiów. Powoływał się na nie wielokrotnie bez podania nazwiska pacjenta.

Jung cieszył się, gdy jego pacjent śnił koliste struktury, mandale, uznając to za krok w kierunku zintegrowania nieświadomej i świadomej części psychiki pacjenta. Przytoczymy jeden z takich snów, z roku 1938. Był to kosmiczny zegar unoszony przez wielkiego ptaka. Pionowa tarcza, podzielona na 32 części, zaopatrzona była we wskazówkę. Po jednym obrocie wskazówki, koło środkowe obracało się o 1/32 obrotu. Złoty pierścień obracał się z kolei 32 razy wolniej niż koło środkowe. Na środkowym kole znajdowały się cztery postacie z wahadłami. Sen ten przyniósł Pauliemu poczucie „najbardziej wzniosłej harmonii”, towarzyszyły temu szczęście i spokój.

Rysunek ze strony poświęconej książce Arthura Millera, Deciphering the Cosmic Numbers.

Jung starał się odczytać w snach Pauliego archetypiczne postaci i symbole znane z alchemii, rozmaitych religii, astrologii. Wizja wspólnego dziedzictwa ludzkości, do którego mamy nieświadomy dostęp, jest niewątpliwie fascynująca. Każdej nocy śniąc, doświadczamy innej rzeczywistości, osobnej dla każdego, ale przecież niepokojąco wspólnej. Czy kryje się w tym coś więcej niż tylko kaprysy mózgu zmęczonego nieustannym uładzaniem i próbami zrozumienia dookolnej rzeczywistości? Teleskop Junga, obejmujący całą ezoteryczną tradycję ludzkości, jest niewątpliwie szerszy niż Freudowskie dostrzeganie seksualności na każdym kroku, choć nie bardzo wiemy, co tu jest szersze, a co węższe. Pojawia się też pytanie, czy te wszystkie biblioteki zapełnione setkami dzieł alchemicznych, teologicznych, astrologicznych są jedynie umysłowym folklorem, czy też mają jakąś wartość poznawczą? Owe tysiące profesorów od Trójcy Świętej, jak też i mniej licznych przeciwników tej doktryny, trudziły się nadaremnie? Sam Isaac Newton był ukrytym antytrynitarzem (w Trinity College!), gromadzącym argumenty przeciwko tej doktrynie, którą uważał za skażenie pierwotnego chrześcijaństwa. Na każde naukowe dzieło Newtona przypadała setka albo i tysiąc rozmaitych spekulacji platońskich, rozważań moralnych i teologicznych, objaśnień Pisma, nauk dla mędrców, alchemicznych przepisów. Zresztą sam Isaac Newton studiował Apokalipsę, konstrukcję świątyni Salomona, zajmował się czynnie alchemią. Czy cała ta nocna część ludzkości powinna się co najwyżej, z braku lepszych pomysłów, pomieścić w rubryce osobliwości?

Swoją drogą wizja zegara ze wskazówkami jest niezmiernie konserwatywna dla fizyka kwantowego. Matematyczne abstrakcje marnie przenoszą się do świata snów. Choć może są matematycy, którym śnią się funktory i kategorie, całe  skąpane w błękicie. Ciekawe, co śniło się Grothendieckowi.

Feynman w Cornell i latający talerz (1945-1946)

Nauki przyrodnicze dostarczają jedynej w swoim rodzaju przyjemności, związanej ze zrozumieniem mechanizmów świata. Pomagają nam go odczarować, jak twierdził Max Weber. Oto znane fakty układają się w nowej konfiguracji, czujemy, że dotknęliśmy absolutu, ukazały nam się na chwilę surowe i pozaludzkie kontury rzeczywistości. Zwłaszcza fizyka teoretyczna dostarcza epifanii tego rodzaju. Okazuje się, że można stworzyć matematyczny model prawdziwego świata i model ten działa. Filozofowie mogą się spierać, czy nauka dostarcza nam rzeczywistej wiedzy, jednak równania fizyki prowadzą do jak najbardziej sprawdzalnych wniosków. Przykładem może być Projekt Manhattan, w którym powstała bomba atomowa. Duże zespoły uczonych i inżynierów zbudowały coś, co najpierw zaistniało jedynie jako model matematyczny. I to coś wybuchło na poligonie w Alamogordo, a potem jeszcze w kilku innych miejscach ze znanym skutkiem.

Jesienią 1945 roku uczeni z Projektu Manhattan wracali do życia cywilnego. Richard Feynman jeszcze w Los Alamos został skaperowany na uniwersytet Cornella przez Hansa Bethego. Bethe, jeden z uczonych młodszego pokolenia zmuszonych do emigracji z Niemiec, był teoretykiem uniwersalnym, znającym różne dziedziny fizyki i do tego legendarnie sprawnym w obliczeniach wszelkiego rodzaju: od skomplikowanej matematyki aż do oszacowań liczbowych w pamięci. Feynmanowi, który też był mistrzem metod obliczeniowych, Bethe niewątpliwie imponował. Oczywiście, nie tylko Bethe dostrzegł wyjątkowy talent Feynmana, Los Alamos było wtedy światowym centrum fizyki i przewinęli się przez ten ośrodek najwybitniejsi fizycy wolnego świata. Także Robert Oppenheimer usiłował zwerbować Feynmana. Skutek praktyczny był taki, że zanim jeszcze młody uczony podjął pracę, Cornell kilkukrotnie podnosiło mu przyszłą pensję, aby dorównać konkurencji. Sam Feynman niezbyt na ten ruch zwracał uwagę, bo wybrał Bethego i Cornell (uniwersytet ten stał się zresztą dzięki Bethemu znakomitym ośrodkiem fizyki teoretycznej, Amerykanie wielce tu skorzystali na irracjonalnej polityce nazistów). Dwudziestoośmioletni Feynman czuł się wtedy wypalony i bezużyteczny, wygórowane oczekiwania działały na niego deprymująco, aż w końcu jeden ze starszych kolegów przekonał go, że jeśli prowadzi zajęcia ze studentami, to uniwersytet nie powinien narzekać. Feynman od początku traktował nauczanie bardzo poważnie, sądził w młodzieńczej naiwności, że powinien uczyć rzeczy, które trudno znaleźć w książkach. Taki charakter miał jego wykład z metod matematycznych fizyki. Była to kolekcja sztuczek przydatnych fizykom, zachowały się zresztą notatki jednego ze słuchaczy. Po hektycznej pracy w Los Alamos, gdzie wszystko należało robić natychmiast i jak najszybciej, przejście do pokojowego życia akademickiego nie było łatwe. W dodatku Feynman wciąż myślał o Arline, choć nie widać było po nim depresji. Bethe zauważył, że Feynman w depresji jest tylko trochę bardziej ożywiony niż inni w swoim najlepszym nastroju. We wspomnieniach Feynmana przełomowym momentem, kiedy jego samopoczucie zaczęło się zmieniać, była pewna sytuacja w stołówce uniwersyteckiej. Ktoś wygłupiał się, rzucając do góry obracający się talerz z herbem uczelni. Feynman przyglądał się tej scenie: talerz w locie kołysał się i obracał jednocześnie. Zaintrygowało go, że stosunek częstości kołysania i obrotu wynosi 2:1. Zaczął się nad tym zastanawiać, aż znalazł rozwiązanie. Ponieważ prosty wynik powinien być odzwierciedleniem jakiejś prawidłowości, postarał się go uzyskać w inny sposób, aż w końcu uznał, że zgłębił to niepotrzebne nikomu zagadnienie. Opowiedział o tym Bethemu, który nie był zachwycony – zwerbował młodego geniusza, a ten traci czas na bezużyteczne ćwiczenia. Nie ma jednak zupełnie bezużytecznych ćwiczeń w nauce. Zagadnienie wirującego talerza przywróciło Feynmanowi radość z rozwiązywania zagadek. Obiecał sobie zajmować się odtąd fizyką wyłącznie dla zabawy. Jak to się skończyło, wszyscy wiemy. Jeśli wykłady Feynmana do dziś mają taką siłę przekonywania, to m.in. dlatego, że czujemy, iż autor dobrze się bawi, opowiadając o fizyce, czujemy, jak cieszy go myślenie, proponowanie nowych sposobów podejścia, szukanie powiązań między różnymi zagadnieniami.

Pokażemy niżej, jak można opisać ruch obrotowy talerza w powietrzu. Zagadnienie jest w istocie proste i można znaleźć jego rozwiązanie w wielu podręcznikach. Nieoceniony okazuje się tu kurs Lwa Landaua i Ewgenija Lifszyca, w którym nigdy nie ma zbędnych słów ani wzorów, a fizyka jest niebywale elegancka i zdyscyplinowana. Feynman niewątpliwie rozwiązał to zagadnienie po swojemu bez zaglądania gdziekolwiek. My korzystamy z jednego akapitu Mechaniki Landaua i Lifszyca.

Pomijamy opór powietrza. Ruch talerza jest sumą ruchu postępowego jego środka masy oraz ruchu obrotowego względem środka masy. Środek masy lecącego swobodnie talerza zakreśli parabolę. Jeśli talerzowi nadamy ruch obrotowy, to jego moment pędu w trakcie lotu nie bedzie się zmieniać. Co to oznacza? Każda bryła, np. jajo albo kartofel, ma trzy wzajemnie prostopadłe osie obrotu (osie główne), dla których moment pędu i prędkość kątowa są proporcjonalne (na rysunkach zaznaczono dwie osie):

M_i=I_i\omega_i,\,i=1,2,3.

Współczynniki proporcjonalności nazywają się momentami bezwładności i zależą od kształtu ciała oraz położenia osi. Np. na rysunku widać, że łatwiej będzie nadać bryle ruch obrotowy wokół osi x_1 niż x_2, bo masy, z których ciało się składa, w pierwszym przypadku położone są bliżej osi obrotu niż w drugim. To samo ciało ma różną bezwładność w różnych kierunkach. Jeśli ciało obraca się ruchem bardziej skomplikowanym, to składowe prędkości kątowej oraz momentu pędu należy do siebie dodać, np. w przypadku dwóch składowych:

\vec{\omega}=\vec{\omega}_1+\vec{\omega}_2,

\vec{M}=I_1\vec{\omega}_1+I_2\vec{\omega}_2,

widzimy, że na ogół kierunki wektorów wypadkowych będą różne, ponieważ prędkości kątowe mnożymy przez różne (zazwyczaj) momenty bezwładności.

Przechodzimy do przypadku wirującego talerza. Technicznie określa się taki przypadek mianem bąka symetrycznego (bo dwa momenty bezwładności I_1=I_2 są równe, a trzeci I_3 jest inny. Moment pędu jest stały, możemy więc zrobić następujący rysunek.

Wektor \vec{\Omega} jest prędkością katową, oś x_3 jest osią symetrii naszego bąka-talerza, x_1 jest do niej prostopadła, x_2 jest prostopadła do rysunku i celuje w widza. Ponieważ M_2=0=I_2\omega_2, więc \omega_2=0. Nasza bryła nie obraca się wokół x_2, kąt \vartheta=\mbox{const} . Prędkości chwilowe punktów osi bryły, leżących na x_3 są prostopadłe do rysunku. Inaczej mówiąc, całość rysunku obraca się wokół stałego wektora \vec{M}. Prędkość kątową naszej bryły rozkładamy na dwie składowe: wzdłuż \vec{M} oraz wzdłuż x_3. Tylko ta pierwsza zmienia położenie osi x_3 ciała (druga dotyczy ruchu bryły wokół osi, nie wpływa więc na jej położenie) i ona jest poszukiwaną przez nas prędkością kątową \vec{\Omega}_{pr} precesji ciała wokół stałego wektora \vec{M}.

\vec{\Omega}=\vec{\Omega}_{pr}+\vec{\Omega}_3.

Rzutując \vec{\Omega}_{pr} na kierunek x_1, otrzymujemy

{\Omega}_{pr}\sin\vartheta=\dfrac{M_1}{I_1}=\dfrac{M\sin\theta}{I_1} \Rightarrow {\Omega}_{pr}=\dfrac{M}{I_1}.

Rzutując \vec{M} na oś x_3, otrzymujemy

M\cos\vartheta=I_3\omega_3 \Rightarrow \omega_3=\dfrac{M\cos\vartheta}{I_3}.

Łącząc oba ostatnie równania, dostajemy

{\Omega}_{pr}=\omega_3 \dfrac{I_3}{I_1 \cos\vartheta}\approx 2\omega_3.

Ostatnia równość zachodzi dla przypadku \vartheta\approx 0, czyli dla precesji pod niewielkim kątem, oraz I_3=2I_1, co jest słuszne dla wirującego dysku. Szczegóły niżej.

Otrzymaliśmy więc proporcję 2:1, która się pojawia wskutek szczególnego stosunku momentów bezwładności. W przypadku ciała spłaszczonego jak talerz rysunek powinien wyglądać nieco inaczej, ale wynik się nie zmienia.

Nie jest to żadne wiekopomne osiągnięcie, podręczniki przed Feynmanem znały i przedstawiały taką sytuację. Pokolenie Feynmana słabiej już znało detale klasycznej mechaniki, on sam był bardzo szczególnym studentem, który zarazem wiedział bardzo dużo i miał ogromne luki. Np. uczniowie Lwa Landaua musieli zdawać egzaminy po kolei ze wszystkich tomów fizyki teoretycznej, nazywało się to u nich „teoreticzeskij minimum” i trwało zazwyczaj kilka lat. Tak czy owak problem był łatwy i jego znaczenie raczej psychologiczne: dzięki niemu uczony przełamał blokadę psychiczną i z powrotem zajął się pracą, tj. tworzeniem na nowo, po swojemu, mechaniki i elektrodynamiki kwantowej.

Została nam jeszcze kwestia momentów bezwładności dysku wokół różnych osi. Przyjrzyjmy się pierścieniowi.

Jego moment bezwładności względem osi x_3 prostopadłej do rysunku jest równy I_3=mR^2, gdzie m, R to odpowiednio masa i promień pierścienia. Momenty bezwładności względem x_1 oraz x_2 muszą być jednakowe i ich suma równa jest I_3, stąd i z faktu, że dysk składa się z pierścieni, wynika równość Feynmana.

René Descartes (Kartezjusz), tęcza i uczeni jezuici (1637)

Dopóki jeszcze wolno, powtarzam swój dawny wpis na temat tęczy.

Pisze się często z uznaniem o uczonych jezuitach, zwłaszcza w XVII wieku, bo w następnym stuleciu zakon zaczął chylić się ku upadkowi i w końcu uległ kasacie papieskiej. Nauka stanowiła jakąś cząstkę szerokiej działalności pedagogicznej ojców i rzeczywiście, niektórzy z nich zasłużyli się różnymi odkryciami: np. plam słonecznych czy dyfrakcji światła. Dopóty, dopóki chodziło o badania czysto eksperymentalne albo obserwacyjne, ich osiągnięcia były niewątpliwe. Gorzej było z interpretacją wyników: ojcowie obowiązani byli trzymać się Arystotelesa, który był beznadziejnie przestarzały. W latach trzydziestych wieku XVII wieku doszedł jeszcze jeden kłopot: nie wolno im było głosić także kopernikanizmu. Skazanie Galileusza wpłynęło zastraszająco na wielu uczonych, również poza Italią. Taki zresztą był zamiar papieża Urbana VIII, który ubrdał sobie, że ruch Ziemi podważa prawdy wiary (w jakimś sensie miał zresztą rację: jedynie kosmologia geocentryczna wydaje się logiczna z religijnego punktu widzenia).
René Descartes, dawny uczeń jezuitów w La Flèche, wolał przezornie zamieszkać w Holandii. Wierzący katolik, spędził resztę życia na emigracji w krajach protestanckich. Nie opublikował też swego pierwszego dzieła Świat albo traktat o świetle, obawiając się, że jest zbyt kopernikańskie. Zadebiutował w druku dopiero w 1637 roku jako filozof, matematyk, a także fizyk. W tej ostatniej dziedzinie z jego śmiałych teorii, obejmujących właściwie cały wszechświat, ocalało ostatecznie jedynie wyjaśnienie zjawiska tęczy, podane w rozprawie Les météores.
Mimo zainteresowania tym zjawiskiem, ustalono niezbyt wiele. Jak pisał uczony jezuita, Jean Leurechon: „Jeśli mnie zapytacie o sposób wytwarzania, układ i formę tych kolorów [tęczy], to odpowiem, iż pochodzą one z odbicia oraz załamania światła, i to wszystko. Platon dobrze powiedział, że Iryda jest córą podziwu, a nie objaśnienia (…) wszyscy bowiem filozofowie i matematycy, którzy przez tak wiele lat zajmowali się poszukiwaniem i wyjaśnianiem ich przyczyn, a także spekulacjami, dowiedzieli się tylko, iż nic nie wiedzą i że dostępne są im jedynie pozory prawdy”. Ojciec Leurechon trochę przesadzał, ale czynił to w zbożnym i wychowawczym celu. Galileusz rozprawiający o ruchu Ziemi w Rzymie też wydawał się tamtejszym monsignorom nieledwie bezczelny: cóż on mógł wiedzieć o dekretach Stwórcy i urządzeniu wszechświata! Uczonym przystoi pokora.
Wiemy, że książkę Leurechona czytał Descartes i zapewne postanowił wykazać, że można jednak coś ustalić na temat świata i nie musimy w kółko powtarzać frazesów o własnej niewiedzy.
Powstawanie dwóch łuków tęczy przedstawia rysunek. Wewnętrzny łuk powstaje wskutek jednokrotnego odbicia światła wewnątrz kropli wody, zewnętrzny – wskutek dwukrotnego odbicia. W przypadku łuku wewnętrznego promień biegnie do oka obserwatora po drodze ABCDE, w przypadku łuku zewnętrznego biegnie po drodze FGHIKE.

fcarc-february2009-descartes-medium-original

descartes3

Tęcza nie jest żadnym realnym obiektem, ale każdy z nas widzi niejako własną tęczę, która przemieszcza się wraz z obserwatorem, jeśli tylko w powietrzu znajdują się w odpowiednim miejscu krople wody. Łuk wewnętrzny tworzy kąt 42º z kierunkiem promieni słonecznych, łuk zewnętrzny – kąt 52º. Descartes wyjaśnił, skąd biorą się oba kąty. Trudność polegała na tym, że promienie wpadające do kropli pod różnymi kątami wychodzą z niej także pod różnymi kątami. Nie od razu widać, co wyróżnia te dwie wartości: 42º oraz 52º.

descartes1

Kąt między promieniem Słońca a promieniem biegnącym po jednokrotnym odbiciu równy jest

\theta=4\beta-2\alpha.

Kąty \alpha oraz \beta związane są prawem załamania. Descartes ułożył tabelkę liczbowych wartości kątów odchylenia dla promienia odbitego raz i dwa razy. My przedstawimy to za pomocą wykresu.

descartes arc-en-ciel

Wykres interaktywny

Wewnętrzny łuk tęczy odpowiada maksymalnemu kątowi około 42º. W okolicy maksimum wykres funkcji staje się płaski, a to oznacza, iż znaczna część promieni będzie biegła w zbliżonym kierunku. W rezultacie dotrze do nas najwięcej promieni z okolic 42º. Łuk tęczy powinien mieć zewnętrzną krawędź ostrzejszą, a wewnętrzną bardziej rozmytą. Dla zewnętrznego łuku tęczy (powstającego przez dwukrotne odbicie) będzie na odwrót: minimalny kąt równa się ok. 51º i należy się spodziewać, że z tego kierunku dobiegać będzie najwięcej promieni. Pomiędzy tymi dwoma łukami niebo powinno być ciemniejsze. Tak więc kąty obserwowane w zjawisku tęczy odpowiadają ekstremalnym odchyleniom promienia od kierunku początkowego.

descartes2

W wyjaśnieniu Descartes’a pojawił się ilościowy aspekt zjawiska: jeśli natężenie światła z pewnego kierunku będzie zbyt małe, nie będziemy nic widzieć. Trochę promieni biegnie pod niemal każdym kątem, ale liczą się tylko te kierunki, w których biegnie dużo promieni. Tęcza nie ma wyraźnych granic zewnętrznych, gdybyśmy mogli rejestrować słabsze światło, oba pasy byłyby szersze. W czasach Descartes’a dzięki teleskopowi zrozumiano już, że nie zawsze widzimy światło dobiegające do naszych oczu: jego natężenie musi przekroczyć pewną progową wartość.

Full_featured_double_rainbow_at_Savonlinna_1000px

Zdjęcie: Laurie Kosonen

Wyjaśnienie tęczy podane przez Descartes’a było na tyle nowatorskie, że wielu uczonych nadal próbowało rozwiązać ten problem, nie dostrzegając, iż został już rozwiązany. To wcale nierzadka sytuacja, po teorii względności zaczęły się np. pojawiać prace, w których usiłowano inaczej rozwiązać problemy postawione przez Einsteina. Descartes przesłał swoją pracę o tęczy do ojca Étienne’a Noëla, jezuity, który uczył go niegdyś i z którym korespondował. Miał nadzieję, że jego rozprawa stanie się podręcznikiem używanym w kolegiach jezuickich. Stało się inaczej, nie doczekał się żadnej reakcji. Kilku innych uczonych zajmowało się później zagadnieniem tęczy tak, jakby nie istniała praca Descartes’a, m.in. teolog z Louvain, Libert Froidmont, który nie widział potrzeby uwzględnienia rozwiązania Descartes’a, gdy kilkakrotnie w późniejszym czasie wznawiał własną książkę na ten sam temat. Przyczyną niechęci Froidmonta i jezuitów mogło być to, co najmocniej przemawia do nas dzisiaj: poddanie zjawisk przyrody matematycznej konieczności. Bo jeśli światem rządzą matematyczne konieczności, to niepotrzebny staje się Stwórca. Descartes wcale tak zresztą nie myślał, ale inni zarzucali mu szerzenie bezbożnictwa naukowego. Isaac Newton, biblijny fundamentalista, z tego właśnie powodu zwalczał poglądy Descartes’a (jezuitów też zresztą nie cierpiał). Musiał w tym celu wymyślić własną wersję Boga-Ojca, który samorządnie i samowładnie realizuje swe matematyczne dekrety i obecny jest w każdym punkcie przestrzeni. Do Newtona należało wyjaśnienie kolorów tęczy: różne barwy mają rozmaity współczynnik załamania, toteż łuki różnych barw widzimy w nieco innych miejscach. Także Newton zastąpił numeryczną analizę Descartes’a twierdzeniem o ekstremum funkcji, matematyka była już znacznie bardziej zaawansowana.

Po czym poznaje się wielkiego uczonego: Galileusz i inni na temat spadku swobodnego (pierwsza połowa XVII wieku)

Prawdziwa wielkość w nauce jest równie rzadka jak w sztuce czy literaturze. Tylko nieliczni zmieniają nasz sposób widzenia świata w taki sposób, że nie da się tego cofnąć ani zapomnieć. Galileusz odkrył paraboliczny kształt krzywej balistycznej. Co więcej, potrafił zrozumieć, skąd się ten kształt bierze i umieścić tę kwestię w nowym systemie pojęć. Jak ważny był kontekst tego odkrycia, świadczyć mogą słowa Isaaca Newtona. W 1687 r.  w Matematycznych zasadach filozofii przyrody formułuje on „Aksjomaty, czyli prawa ruchu”:

Prawo I Każde ciało pozostaje w swym stanie spoczynku lub ruchu jednostajnego po linii prostej, dopóki siły przyłożone nie zmuszą go do zmiany tego stanu.
Prawo II Zmiana ruchu jest proporcjonalna do przyłożonej siły poruszającej i następuje w kierunku prostej, wzdłuż której siła ta jest przyłożona.

Są to oczywiście zasady dynamiki, których naucza się po dziś dzień (nie przytaczamy treści III prawa, ponieważ nie będzie nam tu potrzebne). Ciekawy jest komentarz angielskiego uczonego (urodzonego w roku śmierci Galileusza) do tych praw zamieszczony w dalszym ciągu tekstu:

Zasady, które przyjmuję, zaakceptowane są przez matematyków i potwierdzone przez wielorakie eksperymenty. Za pomocą dwóch pierwszych praw Galileusz stwierdził, że spadek ciał ciężkich zachodzi w proporcji do kwadratu czasu, a ruch ciał wystrzelonych przebiega po paraboli, jak potwierdza to eksperyment, jeśli uwzględnić fakt, że ruchy te są nieco opóźniane przez opór powietrza. Gdy ciało spada, stała siła grawitacji, działając jednakowo w poszczególnych jednakowych odcinkach czasu, nadaje ciału jednakowe wartości siły i generuje jednakowe prędkości; a w całym czasie nadaje całkowitą siłę i generuje całkowitą prędkość proporcjonalną do czasu. A odległości przebywane w odcinkach czasu są proporcjonalne do prędkości i czasów jednocześnie, tzn. są jak kwadraty czasów. (…) A kiedy ciało zostanie wystrzelone wzdłuż dowolnej linii prostej, jego ruch nadany w chwili początkowej składa się z ruchem wynikającym z grawitacji.

Ostatnie zdanie ilustruje rysunek: położenie wypadkowe ciała jest sumą wektorów \vec{v}t, czyli prostoliniowego ruchu nadanego w chwili wystrzału, oraz spadku swobodnego \frac{1}{2}\vec{g}t^2. Zapisywanie ruchów za pomocą wzorów algebraicznych i pojęcie wektora są późniejsze niż Newton. Algebry zaczął używać w tym kontekście dopiero Leonhard Euler, a wektory to osiągnięcie późniego wieku XIX.

Newton nie był zbyt dobrze poinformowany historycznie, z książek Galileusza znał tylko Dialog o dwóch układach świata, w 1687 r. nie było wątpliwości, jak przebiega ruch kuli armatniej albo spadającego swobodnie ciała, jeśli pominąć opór powietrza. Newton zajmował się już innymi problemami, takimi jak wpływ oporu powietrza na tor wystrzelonego ciała albo ciłą ciężkości zmieniającą się od punktu do punktu. Z jego perspektywy dwa pierwsze prawa były właściwie oczywiste i jak widzimy wcale sobie do nich nie rościł pierwszeństwa, przypisując je, do pewnego stopnia błędnie, Galileuszowi.

Do jakiego miejsca dotarł rzeczywiście Galileusz? Otóż sądził, że bez oporu powietrza rzut jest złożeniem jednostajnego ruchu poziomego i pionowego spadku. Bez problemu opisywał rzut poziomy, przypadek rzutu ukośnego, taki jak na rysunku, opisali już inni. Spadek swobodny nie był dla niego skutkiem siły grawitacji, w ogóle u Galileusza nie znajdziemy dynamiki, lecz tylko kinematykę ruchów. Z jakiegoś powodu ruch poziomy jest jednostajny, o ile nic mu nie przeszkadza. Natomiast spadek swobodny przebiega w ten sposób, że prędkość chwilowa jest proporcjonalna do czasu. Widzimy, że Newton przypisał mu swoje własne prawa i swoje rozumienie sytuacji fizycznej. Z pewnością nieświadomie, ponieważ raczej nie był nadmiernie skłonny do dzielenia się chwałą z innymi, po prostu nie wiedział, jak wyglądała historia. Przypominał w tym dzisiejszych uczonych, którzy, zainteresowani rozwiązywaniem stojących przed nimi problemów, niezbyt interesują się meandrami historii.

Zasługą Galileusza było odrzucenie obowiązującej wówczas fizyki arystotelesowskiej. Spostrzegł on, że bez oporu powietrza ruchy ciał stają się prostsze. Musimy pamiętać, że dopiero po jego śmierci nauczono się wytwarzać próżnię, za życia Galileusza odkrycie praw ruchu (kinematycznych) oznaczało postawienie na głowie całej nauki, która przecież powinna zajmować się „prawdziwymi” ruchami i „prawdziwymi przyczynami” zjawisk. Zamiast tego Galileusz proponował teorię matematyczną, która stosuje się ściśle tylko do świata, jakiego nie ma. Była to, co się zowie, księżycowa teoria – na Księżycu zresztą byłoby ją najłatwiej testować, bo nie ma tam atmosfery. Teoria ta nic nie mówiła na temat przyczyn takich ruchów. Zresztą dynamika Newtona też wiele nie wyjaśniała: wprowadziła pojęcie siły, lecz siła była abstraktem matematycznym, który można wprawdzie badać ilościowo, ale nic o nim w gruncie rzeczy nie wiemy. Był to kolejny krok w budowaniu świata platońsko-pitagorejskiego, gdzie abstrakcyjna matematyka przydaje się w praktycznej pracy inżyniera, stąd wszystkie politechniki wymagają od studentów pewnej wiedzy matematycznej.

Galileusz nie był pewien, jakie jest najprostsze matematycznie prawo spadku swobodnego (sądził, że właśnie najprostsze prawo powinno obowiązywać w przyrodzie). Wahał się między prędkością proporcjonalną do czasu i prędkością proporcjonalną do drogi. Ostatecznie wybrał pierwszą ewentualność. Że nie był to wybór łatwy, świadczą jego wahania utrwalone w różnych tekstach, a także reakcja innych uczonych na prace Galileusza. Wielu z nich nie potrafiło się zgodzić na prędkość proporcjonalną do czasu. Jezuici, którzy z urzędu musieli demonstrować swą niechęć do heretyka nawet w sprawach dalekich od kopernikanizmu, optowali za różnymi dziwacznymi wersjami prawa swobodnego spadku. Drogi w kolejnych jednostkach czasu miały być np. w proporcjach 1:2:3:4… albo 1:2:4:8… Prędkość miała rosnąć proporcjonalnie do drogi albo skokowo w czasie. Niewiele lepiej wyglądało to wśród zwolenników, którzy także chętnie „poprawiali” Galileuszowe prawo spadku. Eksperymenty także nie wkazywały jednoznacznie, bo spadek swobodny zachodzi szybko, a nie potrafiono mierzyć czasów tak krótkich. Ponadto opór powietrza zniekształcał wyniki. Wielkość Galileusza jako uczonego przejawia się m.in. w tym, że umiał w warunkach niepewności eksperymentalnej i trudności pojęciowych wybrać właściwe rozwiązanie. Jest w tym lekkość i poczucie smaku, intuicja i długie przemyślenia. Galileusz jest wielkim uczonym także dlatego, że nie stworzył wszechogarniającego systemu, skoncentrował się na zagadnieniach, o których mógł coś powiedzieć, czasem spekulował, ale nie rościł sobie prawa do wiedzy absolutnej. Tylko ignoranci i Kościół katolicki znają wszystkie odpowiedzi. Galileusz ich nie znał. Nie wiedział np., czy wszechświat jest skończony, a jeśli tak, to gdzie leży jego środek. Wiedział, że nie jest nim Ziemia, już prędzej Słońce, ale też niekoniecznie. Jest pewna ironia w fakcie, że skazano go za głoszenie tez, które on sam uważał za nieprawdziwe. Nie chodziło jednak o to, kto ma rację, ale o to, kto ma władzę.

Teksty Galileusza i innych ówczesnych uczonych pokazują, jak wiele trudności pojęciowych musieli oni pokonać. Np. co to jest prędkość chwilowa (nie bardzo można ją zmierzyć). Galileusz posługiwał się następującym rysunkiem.

Linia AB oznacza czas. Linie poziome są prędkościami. AG i równoległe do niego odcinki odpowiadają ruchowi jednostajnemu. AIE to linia ograniczająca odcinki prędkości chwilowej rosnącej proporcjonalnie do czasu. Uczony dowodził, że suma jednakowych odcinków GA=FB jest taka sama, jak suma odcinków rosnących z czasem. Wobec czego można cały ruch przyspieszony zastąpić ruchem jednostajnym o prędkości równej połowie prędkości końcowej. Inaczej mówiąc prostokąt GABF jest równoważny trójkątowi AEB. Galileusz nie zrobił kroku, który nam wydaje się oczywisty, i nie utożsamił drogi przebywanej w obu ruchach z polem odpowiednich figur. Mówił o sumach odcinków. Iloczyn prędkości i czasu nie miał dla niego żadnego sensu, ponieważ chodzi o wielkości fundamentalnie różne. My przedstawilibyśmy to tak.

 

W drugiej połowie wieku XVII stało się jasne, że procedurę taką można uogólnić. Pole pod wykresem prędkości to droga i można ją zapisać jako całkę. Z kolei pochodna drogi po czasie daje prędkość chwilową. To podstawowa para operacji w rachunku różniczkowym i całkowym.

 

Gdyby prędkość była proporcjonalna do drogi, mielibyśmy do czynienia z wykładniczym wzrostem, jest to funkcja opisująca eksplozję (np. demograficzną albo jądrową)

\dfrac{ds}{dt}=ks\Rightarrow s=s_{0}\,e^{kt}.

Prędkość opisana jest taką samą funkcją (bo pochodna funkcji wykładniczej jest też funkcją wykładniczą).

Z obu tych wykresów widać, że funkcja taka niezbt nadaje się do opisania ruchu, który zaczyna się w określonej chwili bez żadnej prędkości początkowej, ponieważ nigdy nie jest równa zeru. Spadek od s=0 do dowolnego punktu musiałby trwać nieskończenie długo. Zatem prędkość w spadku nie może być proporcjonalna do drogi, bo przeczy to elementarnej wiedzy na temat spadku ciał. Oczywiście, można by spekulować, czy spadek nie może się od razu zaczynać z prędkością różną od zera. Rozwiązanie przyjęte przez Galileusza też było kontrowersyjne w oczach jego współczesnych: wymagało bowiem, aby ciało na początku poruszało się przez chwilę z dowolnie bliską zeru prędkością. Przywodziło to na myśl od razu paradoksy Zenona z Elei przeciwko ruchowi. Wiemy jednak, że spadające ciało się porusza, choć chwilę przedtem spoczywało. Eppur si muove.

Intuicja Galileusza pozwoliła mu też pozbyć się balastu niepotrzebnych pytań dodatkowych: o przyczyny spadku, o opór powietrza itd. Nauka rozwija się zawsze przez pracę nad konkretnymi zagadnieniami i trzeba umieć oddzielić to, czego nie da się w danym momencie rozstrzygnąć albo co nie ma znaczenia. Pouczająca jest tu reakcja Kartezjusza na dzieło Galileusza. Francuski filozof, młodszy o trzydzieści lat, z dużą pewnością siebie odrzucił rozwiązanie Galileusza. Zarzucił mu, że buduje bez podstaw, nie wiedząc nawet, skąd bierze się ciężar ciała (Kartezjusz był pewien, że to skutek popychania ciała przez niewidzialne cząstki materii subtelnej!). Jako dobry matematyk i do tego znacznie później urodzony stwierdził, że pod względem matematycznym praca florentyńczyka jest raczej słaba, jego dowody zaś niezbyt eleganckie. Zarzuty były do pewnego stopnia uzasadnione, ale to toskański uczony miał rację, o tyle, o ile można mieć w nauce rację: jego teoria zgodna była z eksperymentem i pozwalała pójść dalej.

Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.