George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop? (1834)

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi\, \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \, \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta= \dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \, \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.

Ojciec Gregor Mendel, 1865

Johann Mendel urodził się w chłopskiej rodzinie na Śląsku, był jednym z tych, których miano nazywać później Niemcami Sudeckimi. Chłopiec miał nieco szczęścia: w jego rodzinnej wsi była szkoła, gdyż lokalna właścicielka, hrabina Walpurga Truchsess-Zeil, dbała edukację poddanych. Ponieważ okazał się zdolny, poszedł do następnej szkoły, a później do gimnazjum w Opawie. Przypominało to chyba edukację Jędrzeja Radka z Syzyfowych prac, rodzice z trudem łożyli na utrzymanie syna w mieście. Niewątpliwie pragnęli też zostawić mu gospodarstwo – był bowiem jedynym chłopcem. Po ukończeniu gimnazjum Johann przeniósł się na studia do Ołomuńca, wciąż brakowało mu pieniędzy, sporo chorował. Jego pilność i talent zwróciły uwagę jednego z wykładowców i młodzieniec został przyjęty do augustianów w Brnie. Przyjął zakonne imię Gregor.

Ojciec Gregor był zbyt delikatny i nieśmiały, aby dobrze czuć się w roli duszpasterza. Pasjonowała go natomiast przyroda, zajmował się klasztornym ogrodem, uczył w różnych szkołach, był jednym z założycieli lokalnego towarzystwa naukowego w Brnie. W lutym i marcu 1865 roku zreferował na kolejnych posiedzeniach owego Towarzystwa swoje badania dotyczące krzyżowania grochu. Nie było to zapewne gremium, które mogłoby docenić wyniki ojca Mendla. Być może zresztą jego wyniki na tyle odbiegały od ówczesnego rozumienia dziedziczności, że nawet gdyby ich autor nie był prowincjonalnym nauczycielem przyrody, i tak nikt by na nie nie zwrócił większej uwagi. Bywają prace, których w momencie powstania nikt nie czyta, a które później stają się początkiem nowej dziedziny. Tak było z pracą Mendla, około roku 1900 zrozumiano, że kładzie ona podwaliny pod nową dziedzinę wiedzy: genetykę.

Co w pracy Mendla tak bardzo odbiegało od tego, co uczeni pragnęli usłyszeć? Były to lata Charlesa Darwina, niewątpliwie ewolucja była tematem nr 1. Nawet w Brnie miesiąc przed referatem Mendla jeden z członków Towarzystwa omawiał właśnie ewolucję. Wiemy także, że Mendel przeczytał O powstawaniu gatunków. Darwin jednak niewiele miał do powiedzenia na temat zmienności i na temat mechanizmu dziedziczenia, a to, co mówił było zwykle bałamutne.

Mendel_seven_characters-ger.svg

Ojciec Gregor cierpliwie prowadził doświadczenia nad pewnymi określonymi wyraźnie cechami grochu: mogły one występować w jednej albo drugiej wersji: kwiaty mają jeden albo drugi kolor, łodyga jest niska albo wysoka itp. Prace Mendla dowodziły, że dziedziczenie ma charakter losowy i w dodatku dyskretny, cyfrowy: są pewne jednostki dziedziczenia, które łączą się w organizmie potomnym i określają jednoznacznie, która z ewentualności wystąpi: np. czy nasiona będą gładkie, czy pomarszczone. W dodatku Mendel założył, że gdy w roślinie zawarte są obie „skłonności”, to uwidacznia się tylko jedna z nich, a druga może być ukryta i ujawnić się dopiero w potomstwie. Wierzono wtedy raczej w jakieś mieszanie się cech, podobne do mieszania barw na palecie, a nie w coś tak zero-jedynkowego.

Także przypadkowość procesu dziedziczenia trudna była do przyjęcia. Często zarzucano Darwinowi, że Opatrzność chciałby zastąpić przypadkiem, ślepym losem. Prawdopodobnie nie było to prawdą w odniesieniu do poglądów samego Darwina, ale pokazuje, jak broniono się przed uznaniem roli losowości w świecie przyrody ożywionej.

Dopiero wiek dwudziesty wprowadził losowość i przypadkowość na naukowe salony. Zakrawa na ironię, że w 1936 roku Ronald Fisher, jeden z pionierów genetyki i statystyki matematycznej, zakwestionował wyniki liczbowe Mendla jako właśnie zbyt regularne jak na dzieło przypadku. Fisher zastosował do wyników Mendla test chi kwadrat i wykazał, że uzyskanie tak regularnych wyników jest niezwykle mało prawdopodobne. Wywołało to dyskusję, której echa do dziś przewijają się w literaturze dotyczącej genetyki oraz statystyki.

Co maszyny parowe mówią nam o czarnych dziurach? (Carnot, 1824, Hawking 1974)

Termodynamika jest dziedziną zdumiewającą. Wyprowadzone z niej zależności pojawiają się w najróżniejszych dziedzinach fizyki. Pokażemy tu mały przykład: rozumowanie Sadiego Carnota dotyczące sprawności maszyn parowych i pewien eksperyment myślowy zaproponowany przez Roberta Gerocha w 1971 r., który doprowadził do odkrycia niezerowej temperatury czarnych dziur. Pracowało nad tym zagadnieniem kilku uczonych, najważniejszy wkład wnieśli Jacob Beckenstein i Stephen Hawking. Ten ostatni końcową formułę uznał za tak ważną, że pragnął, by mu ją wyryto na nagrobku. Odkrycie to oznaczało, że czarne dziury nie są zupełnie czarne, wysyłają bowiem promieniowanie cieplne i kiedyś, po bardzo długim czasie, wyparują.

Angielski napis: Tu spoczywa to, co było śmiertelne w Stephenie Hawkingu. Słowa powtarzają po angielsku to, co wyryto kiedyś na nagrobku Isaaca Newtona nieopodal: Hic depositum est quod mortale fuit Isaaci Newtoni.

Zaczniemy od Carnota. Sadi, był synem Lazare’a Carnota, generała-matematyka, polityka i organizatora, dzięki któremu armia rewolucyjna odnosiła sukcesy i który później służył Napoleonowi Bonaparte, póki ten nie zdradził ideałów rewolucji dla osobistej władzy. Lazare Carnot napisał znany podręcznik mechaniki maszyn. Jego syn, Sadi, absolwent École Polytechnique, także został inżynierem wojskowym. Nie mógł raczej liczyć na karierę we Francji w czasach restauracji monarchii Burbonów, zajmował więc jakieś niewiele znaczące stanowiska w Sztabie Generalnym i rozwijał się intelektualnie. Mając 27 lat, w 1824 roku opublikował niewielką książeczkę Réflexions sur la Puissance Motrice du Feu (Rozważania o sile poruszającej ognia). Nie została ona doceniona przez współczesnych, a kilka lat później Carnot zmarł na cholerę. Pracę Carnota odkryło dopiero następne pokolenie fizyków, w tym William Thomson, późniejszy lord Kelvin.

Carnot rozumiał, jak ogromną rolę odgrywają maszyny parowe: w jego czasach znajdowały one wciąż nowe zastosowania, zwłaszcza Anglia korzystała na rozpowszechnieniu nowych technologii, bez nich nie byłoby Imperium Brytyjskiego. Toteż Carnot spróbował zbudować naukową teorię wydajności maszyn cieplnych. Posługiwał się zresztą teorią cieplika, nieznana była bowiem jeszcze zasada zachowania energii, lecz rozumowania Carnota można było łatwo zmodyfikować, tak też poniżej zrobimy. Odkrycie Carnota jest równoważne temu, co później stało się II zasadą termodynamiki

Rozumiano oczywiście, że nie może istnieć maszyna, która wiecznie będzie się poruszać: perpetuum mobile. Paryska Akademia nauk w roku 1775 uchwaliła, że zaprzestaje analizowania nadsyłanych wciąż rozwiązań problemu podwojenia sześcianu, kwadratury koła i trysekcji kąta, a także wynalazków umożliwiających wieczny ruch bez napędu z zewnątrz. Problemy geometryczne znane były od starożytności i coraz bardziej się przekonywano, że są nierozwiązalne jako konstrukcje za pomocą liniału i cyrkla. Maszyny parowe (oraz wszelkie silniki cieplne, a także zwierzęta) zamieniają ciepło na pracę. Z dzisiejszego punktu widzenia rzec można, iż zamieniają nieuporządkowany ruch cząsteczek i atomów na uporządkowany ruch tłoka. Tutaj także obowiązuje pewien zakaz: nie można zamienić bez strat ciepła na energię mechaniczną. Czasem mówi się, że niemożliwe jest perpetuum mobile drugiego rodzaju, czyli urządzenie, które pobierałoby ciepło wyłącznie z jednego źródła, a następnie zamieniało je w całości na pracę. Jest to istota II zasady termodynamiki. Gdyby możliwe było np. pobranie z oceanów światowych ilości ciepła odpowiadającej zmianie temperatury o 1 K i zamiana go w całości na pracę, uzyskalibyśmy około 1025 J, czyli mniej więcej sto tysięcy razy więcej, niż roczna produkcja energii elektrycznej na świecie w 2013 roku. Zasada zachowania energii byłaby przy tym spełniona, naruszałoby to jedynie II zasadę termodynamiki.

Carnot podszedł do zagadnienia w duchu kartezjańskim i matematycznym. Pominął wszelkie szczegóły konstrukcyjne, sprowadzając maszynę parową do takiego działania cyklicznego, w którym pobieramy najpierw pewną ilość ciepła Q w wyższej temperaturze, a następnie oddajemy mniejszą ilość ciepła q w temperaturze niższej.

Konieczne są tu obiekty o dwóch różnych temperaturach: źródło ciepła i chłodnica. Intuicyjnie jasne jest, że gdy ciepło przepływa wprost z ciała o wyższej temperaturze do ciała o niższej temperaturze, to tracimy możliwość wykonania użytecznej pracy – mamy do czynienia z procesem nieodwracalnym. Maszyna cieplna o największej wydajności, to taka, w której ciepło przepływa zawsze między ciałami o praktycznie tej samej temperaturze: wystarczy wówczas nieznacznie zmienić jedną z temperatur, by odwrócić kierunek przepływu ciepła. W przypadku silnika cieplnego najpierw należy mu dostarczyć ciepła w sytuacji, gdy substancja robocza (np. para wodna) ma temperaturę nieznacznie mniejszą od temperatury źródła ciepła T_1, następnie wykonuje ona pracę, a potem oddaje pewną ilość ciepła do chłodnicy, przy czym substancja robocza powinna mieć temperaturę nieznacznie tylko wyższą niż T_2. Łatwo wyobrazić sobie odwrócenie takiego cyklu, nasza maszyna pracowałaby wówczas jak lodówka.

Carnot udowodnił, że maszyna odwracalna nie może mieć mniejszej wydajności niż nieodwracalna. Gdyby tak było, moglibyśmy obie maszyny sprząc ze sobą: pierwszą w kierunku normalnym, a drugą działającą odwrotnie (lodówka) i jeszcze uzyskalibyśmy pewną dodatkową pracę zewnętrzną.

Widać z obrazka, że takie urządzenie (niebieski prostokąt) wykonuje cykl, w którym zamienia na pracę ciepło pobrane z chłodnicy, a to jest niemożliwe. Musi więc zachodzić nierówność W\le W', a więc także i wydajność silnika cieplnego

\eta=\dfrac{W}{Q}\le\dfrac{W'}{Q}=\eta_{odwr}.

Ponieważ dwie maszyny odwracalne pracujące między danymi temperaturami muszą spełnić takie nierówności w obie strony, więc muszą mieć jednakową wydajność. Wydajność maszyny odwracalnej jest wyłącznie funkcją obu temperatur. Sprawność takiej maszyny odwracalnej jest granicą teoretyczną wydajności maszyn rzeczywistych i równa jest

\eta_{odwr}=\dfrac{W'}{Q}=1-\dfrac{q'}{Q}=1-\dfrac{T_2}{T_1}.

Ostatnia równość jest zarazem definicją skali temperatur absolutnych. Wprowadził ją Thomson w 1848 roku. Jego oraz Rudolfa Clausiusa uważa się za odkrywców II zasady termodynamiki, odkryli oni na nowo fakty znane Carnotowi, a także rozwinęli tę dziedzinę. II zasadę można sformułować także w ten sposób, że całkowita suma entropii świata rośnie.

Przenosimy się teraz o 150 lat w przód. Wiadomo, że zasady termodynamiki mają zastosowanie powszechne, niezależnie od tego, z jakim obszarem zjawisk mamy do czynienia: elektromagnetyzm, reakcje chemiczne, grawitacja – fizyka nie jest zbiorem niezależnych poddziedzin, lecz spójną całością. W latach szęśćdziesiątych ubiegłego wieku fizycy zrozumieli, że we wszechświecie powinny w pewnych warunkach tworzyć się czarne dziury. Jedną z najważniejszych postaci w tej nowej astrofizyce był John Wheeler, autor określenia „czarne dziury“ i mentor całej plejady wybitnych relatywistów. Jego doktorantem był Ja’akow Beckenstein. Kiedyś Wheeler w niezobowiązującej pogawędce zauważył, że zawsze czuje się jak przestępca, kiedy stawia filiżankę gorącej herbaty obok filiżanki mrożonej herbaty i pozwala im wyrównać temperatury.

Moja zbrodnia zostawia ślad aż po kres czasu i nie ma sposobu, by ją zatrzeć albo odwrócić. Wystarczy jednak, by w pobliżu przepływała akurat jakaś czarna dziura i żebym wrzucił do niej gorącą herbatę i tę mrożoną, a dowody mojej zbrodni zostałyby zatarte na zawsze.

Należy przy tym wyobrazić sobie Johna Wheelera, ubranego w nienaganny garnitur, konserwatystę z przekonań, który rzeczywiście mógłby odczuwać moralny dyskomfort z powodu beztroskiego powiększania entropii świata. Oczywiście treść fizyczna tej wypowiedzi była jak najbardziej serio: znikanie różnych obiektów za horyzontem zdarzeń sprawia, że z bilansu entropii wszechświata znika to, co wpadło do dziury. W ten sposób II zasada termodynamiki traci ważność, bo nie możemy sporządzić pełnego bilansu entropii świata. Wiadomo było, że czarne dziury zacierają jakikolwiek ślad tego, co do nich wpada i jedynym śladem jest zmiana masy, momentu pędu i ładunku dziury. Czy obiekty tak proste mogą być obdarzone entropią, która jest miarą liczby mikrostanów danego obiektu? Wiadomo było dzięki Stephenowi Hawkingowi, że pole powierzchni horyzontu czarnej dziury zawsze rośnie, przypominając pod tym względem entropię. Ale tylko przypominając – nikt bowiem nie chciał uwierzyć, że dziury naprawdę mają entropię. Gdyby miały, powinny też mieć niezerową temperaturę, a każdy obiekt o niezerowej temperaturze wysyła promieniowanie cieplne. Tymczasem dziura ma jedynie pochłaniać cząstki i promieniowanie. 

Robert Geroch przedstawił tę sytuację za pomocą silnika cieplnego. Wyglądałoby to jakoś tak:

Rysunek Louisa Fulgoniego

Napełniamy pudło promieniowaniem o pewnej temperaturze T z dala od dziury tak, że energia promieniowania równa się E. Pudło ma masę m=E/c^2. Następnie powoli opuszczamy na lince nasze pudło. Opuszczaniu masy w polu grawitacyjnym towarzyszy wykonanie pewnej pracy i np. wygenerowanie prądu zasilającego żarówkę, jak na rysunku. Jeśli opuścimy pudło aż do horyzontu zdarzeń, jego energia całkowita stanie się równa zero (jakby do energii spoczynkowej mc^2 doszła energia potencjalna grawitacji równa -mc^2).  Znaczy to, że całą energię E udało nam się zamienić na pracę. Otwieramy teraz pudło, pozwalając promieniowaniu wpaść do dziury i podnosimy z powrotem puste, lekkie pudło. Cykl się zamyka. Stworzyliśmy idealny silnik cieplny.

Jacob Beckenstein, analizując sytuacje takie jak powyższa, pierwszy zasugerował, że czarna dziura powinna mieć entropię i ustalił, jaki wzór powinien ją opisywać. Był wtedy młodym uczonym tuż po doktoracie i musiał wytrzymać ciśnienie zmasowanej krytyki uznanych ekspertów, w tym Stephena Hawkinga. W końcu to Hawking rozstrzygnął problem, wykazując, ku własnemu zdumieniu, że czarne dziury promieniują i obliczył stosowną temperaturę. Praca ta powstała na gruncie kwantowej teorii pola, rozszerzając jej zastosowanie na zakrzywioną czasoprzestrzeń. 

Silnik Gerocha nie ma stuprocentowej sprawności. Jeśli promieniowanie ma temperaturę T, to samo pudło musi mieć rozmiar przynajmniej typowej długości fali L. Najniższe możliwe położenie pudła osiągniemy, gdy jego dolna ścianka dotknie horyzontu zdarzeń. Środek masy pudła znajduje się wtedy na pewnej wysokości L/2 i energia całkowita pudła równa się mgL/2 (g jest natężeniem pola grawitacyjnego na powierzchni horyzontu). 

Toteż praca uzyskana podczas opuszczania pudła równa jest

W=mc^2-mg\dfrac{L}{2},

a sprawność maszyny wynosi

\eta=\dfrac{W}{mc^2}=1-\dfrac{gL}{2c^2}.

Typową długość fali odpowiadającą temperaturze T możemy znaleźć jako warunek równości energii cieplnej k_{B}T (k_B jest stałą Boltzmanna – czyli w zasadzie przelicznikiem energii na temperaturę i odwrotnie) i energii fotonu (jest to też treść tzw. prawa Wiena dla promieniowania cieplnego):

k_{B}T=\dfrac{\hbar c}{L}.

Sprawność silnika przyjmuje więc postać

\eta=1-\dfrac{g\hbar }{2ck_B T}\equiv 1-\dfrac{T_{BH}}{T}.

Z porównania otrzymujemy oszacowanie temperatury Hawkinga

T_{BH}=\dfrac{g\hbar}{2k_B c}.

Oczywiście niezbyt przejmowaliśmy się stałymi liczbowymi, toteż nie należy się spodziewać, że wynik ten będzie dokładny. Wartość dokładna okazuje się mniejsza o czynnik \pi:

T_{BH}=\dfrac{g\hbar}{2\pi k_B c}.

William Unruh udowodnił, że jeśli poruszamy się z przyspieszeniem g w pustej przestrzeni, to zaobserwujemy w naszym układzie odniesienia promieniowanie o takiej temperaturze jak we wzorze Hawkinga. Jest to tzw. efekt Unruh. Zgodnie z zasadą równoważności pole grawitacyjne i przyspieszenie są lokalnie równoważne.

Temperatura Hawkinga w przypadku czarnych dziur o masach astrofizycznych jest skrajnie mała i zdecydowanie poza zasięgiem obserwacji. Osiągnięciem Hawkinga było pokazanie, że i w tym przypadku obowiązuje II zasada termodynamiki. Fakt, że czarna dziura promieniuje, i to tym silniej, im mniejszą ma masę, oznacza, że po bardzo długim czasie czarne dziury wyparują i wszechświat wypełniony będzie samym promieniowaniem. Taki kres wszechświata, według ulubionej hipotezy Rogera Penrose’a, byłby możliwym początkiem następnego wszechświata. 

Żeby otrzymać temperaturę w postaci z nagrobka w Westminster Abbey, należy wstawić za g wartość 

g=\dfrac{GM}{r_S^2},

gdzie r_S to promień Schwarzschilda:

r_S=\dfrac{2GM}{c^2},

a G\, M oznaczają odpowiednio stałą grawitacyjną i masę dziury. Wzór opisujący g jest (przypadkowo) taki sam jak w teorii klasycznej dla grawitacji na powierzchni kuli o promieniu r_S

O temperaturze Hawkinga pisałem już wcześniej.

Sofia Kovalevskaya – pożytki z własnego pokoju

W znanym eseju zatytułowanym Własny pokój Virginia Woolf zastanawia się nad późnym pojawieniem się kobiet w literaturze. Gdyby Shakespeare miał siostrę, równie jak on utalentowaną, nie udałoby się jej niczego osiągnąć w ówczesnym świecie. Nawet w XIX wieku literacka kariera kobiet nie była łatwa, Jane Austen, pisała swe książki we wspólnej bawialni, gdzie zawsze coś się działo, nie miała bowiem pokoju dla siebie, w którym mogłaby się zamknąć i pisać.
Sofia Kovalevskaya była córką generała Korwin-Krukowskiego, na poły Polaka, który jednak służył całe życie w carskiej armii i czuł się Rosjaninem. W okresie powstania styczniowego rodzina mieszkała na Litwie i choć generał nie brał żadnego udziału w tłumieniu powstania, znalazł się w trudnej sytuacji zarówno wobec okolicznych Polaków, którzy musieli z nim utrzymywać stosunki towarzyskie, jak i wobec swoich przełożonych, którzy nie byli pewni jego lojalności. Jego nastoletnia córka, Sofia, była nad wiek rozwiniętą osóbką, po uszy zakochaną w pewnym dorosłym sąsiedzie panu Bujnickim. Bujnicki poszedł do powstania i ślad po nim zaginął, a jego majątek został zlicytowany. Sofia roiła sobie, że go pomści albo odszuka gdzieś na Syberii za kilka lat, kiedy tylko dorośnie i wyrwie się spod opieki guwernantki. Stłumienie polskiego powstania i późniejsze represje nie podobały się zresztą wielu Rosjanom i oficerowie, którzy brali w tym udział, niekoniecznie byli dobrze widziani przez swoich kolegów.
Generalska córka miała oczywiście własny pokój. Także w domu na wsi, w Palibino, gdzie rodzina spędzała sporo czasu. Nie oznaczało to chyba szczególnego komfortu, gdyż pokój Sofii zamiast tapetą oklejony został wykładami akademika Ostrogradskiego dotyczącymi rachunku różniczkowego i całkowego. Sofia, już wcześniej słyszała coś niecoś o matematyce od swego stryja: o kwadraturze koła, o asymptotach, co zbliżają się do prostej, nigdy jej nie osiągając. Długie godziny spędzała na odczytywaniu tajemnych symboli matematycznych. Nic z tego nie rozumiała, ale dużo zapamiętała na całe życie. Uczono ją w domu i matematyka nie była w tej edukacji traktowana serio, ojciec nie lubił zresztą uczonych kobiet. Kiedyś wpadł Sofii w ręce elementarny podręcznik fizyki, napisany przez ich sąsiada, profesora Tyrtowa. Dziewczynka przeczytała książkę, usiłując z kontekstu odgadnąć sens takich pojęć jak sinus. Widząc to Tyrtow przekonał generała, że warto córkę uczyć matematyki.

kovalevszkaja2

Sofia bardzo wcześnie wyszła za mąż za Vladimira Kovalevskiego. Było to małżeństwo fikcyjne, pozwalające jednak dziewczynie na wyjazd za granicę bez opieki rodziców. Pojechała do Heidelbergu i do Berlina studiować, co nie było łatwe, ponieważ uniwersytety nie przyjmowały kobiet. Wszędzie musiała się specjalnie starać o prawo słuchania wykładów, bez formalnej immatrykulacji. I nawet to nie zawsze udawało się uzyskać. Jak sama twierdzi, najwięcej nauczyła się w trakcie prywatnych lekcji u Karla Weierstrassa, który nie szczędził swego czasu, kiedy przekonał się o jej matematycznym talencie. Zamiast pracy doktorskiej na jeden temat Kovalevskaya przedstawiła trzy, na podstawie których uniwersytet w Getyndze nadał jej doktorat cum summa laude [z najwyższym wyróżnieniem]. Nie odbyła się jednak publiczna obrona i całość została przeprowadzona tak, by nie burzyć spokoju męskiego grona profesorskiego.
Młoda osoba interesowała się nie tylko matematyką, sporo podróżowała, znała kilka języków, zetknęła się z wieloma wybitnymi postaciami, jak Thomas Huxley, Charles Darwin, czy George Eliot. Przyjaźniła się z rodzeństwem Göstą Mittag-Lefflerem (wybitnym matematykiem, też studentem Weierstrassa) i jego siostrą, pisarką, Anne Charlotte Leffler, z którą razem zajmowały się pracą literacką. W 1888 roku trzydziestoośmioletnia Sofia wygrała konkurs paryskiej Akademii nauk. Chodziło o ścisłe rozwiązanie równań ruchu bryły sztywnej. Znane były rozwiązania Eulera i Lagrange’a, rozwiązanie Kovalevskiej jest do tej pory trzecim i ostatnim takim przypadkiem (por. E.T. Whittaker, Dynamika analityczna). Ścisłe rozwiązania odgrywają w nauce wyjątkowo istotną rolę, stanowiąc coś w rodzaju teoretycznego laboratorium, w którym można badać własności rozwiązań niedostępne w innych przypadkach. Odkrycie Kovalevskiej aż po dzień dzisiejszy inspiruje specjalistów z fizyki matematycznej. Praca naukowa kobiety w Rosji była w tamtych czasach niemożliwa i cały dorobek Kovalevskiej powstał za granicą. W 1889 roku została profesorem zwyczajnym na stosunkowo młodym uniwersytecie w Sztokholmie. Była pierwszą kobietą, która osiągnęła ten klasyczny szczyt naukowej kariery. Niedługo później zmarła niespodziewanie na grypę.

Tren dla Annie Darwin

W marcu 1838 roku Charles Darwin poszedł obejrzeć młodą samicę orangutana w londyńskim ZOO. Do tej pory nie widziano tam stworzenia tak bardzo podobnego do człowieka. Małpę nazwano Jenny, ubrano w dziecięce stroje i umieszczono w ogrzewanym pomieszczeniu razem z żyrafą – wiadomo było, że zwierzęta te są niezwykle delikatne i źle znoszą niewolę. Często zapadały na suchoty, jak nazywano wówczas gruźlicę, o której bardzo niewiele było wówczas wiadomo. Nie wiedziano nawet, czy jest chorobą zakaźną.

jenny-web-3933
Darwin zapisał w swoim notatniku: „Człowiek powinien zobaczyć oswojonego orangutana, posłuchać jak ekspresyjnie płacze, przyjrzeć się, jak rozumnie spogląda, gdy się do niego zwrócić – jakby rozumiał każde wypowiedziane słowo, ujrzeć jakim uczuciem darzy znane sobie osoby, przyjrzeć się, jak szaleje z wściekłości, dąsa się i okazuje rozpacz (…) i dopiero wtedy niech się spróbuje pochwalić swoją dumną wyższością (…) Człowiek uważa się w swej arogancji za coś tak wielkiego, że aż godnego boskiej interwencji. Z większą pokorą i, jak sądzę, prawdziwie, jest uważać go za stworzonego ze zwierząt”.

Dziesięć lat później zmarł ojciec przyrodnika, Robert Darwin, lekarz i religijny sceptyk. Sam Charles w młodości omal nie został pastorem, choć jak się zdaje, pociągała go nie tyle posługa duchowa, co perspektywa zamieszkania na wsi, blisko natury, i możliwość oddawania się przyrodniczej pasji. W każdym razie teraz, pod koniec lat czterdziestych, oddalił się już znacznie od wiary religijnej. Jego motywy nie były wyłącznie naukowe czy racjonalne, myślał jak przyrodnik, ale był też pełnym empatii człowiekiem, dla którego wielkie znaczenie miały moralne skrupuły. Dżentelmeni z jego sfery bardzo poważnie i uczciwie zastanawiali się nad swoimi poglądami. Wiele lat później napisał w Autobiografii:

„Trudno mi doprawdy pojąć, że ktokolwiek mógłby sobie życzyć, aby wiara chrześcijańska była prawdziwa. Bo gdyby tak było, to bezpośrednia wymowa tego tekstu [tekstu Ewangelii – tłum.] jest jak się zdaje taka, iż ludzie, którzy nie wierzą – a do nich należy zaliczyć mego Ojca, Brata i prawie wszystkich moich najlepszych przyjaciół – są skazani na wieczne potępienie.
A to jest wszak okropna doktryna.
Chociaż o istnieniu Boga osobowego dużo myślałem dopiero w znacznie późniejszym okresie życia, podam tu ogólne wnioski, do których doszedłem. Stary, przytaczany przez Paleya, argument o celowości w przyrodzie, który dawniej wydawał mi się tak przekonywający, upada obecnie z chwilą odkrycia prawa doboru naturalnego. Nie możemy już dłużej utrzymywać, że np. piękne zawiasy skorupy małży musiały być wykonane przez istotę rozumną, tak jak zawiasy drzwi – przez człowieka. Nie więcej jest, zdaje się, celowości w zmienności istot żywych i w działaniu doboru naturalnego niż w kierunku, w którym wieje wiatr” (przeł. S. Skowron).

W 1851 roku umarła ukochana córeczka Darwina, dziesięcioletnia Annie. Dziecko zachorowało najprawdopodobniej na gruźlicę, nie mówiono o tym jednak głośno, ponieważ diagnoza taka oznaczała wyrok śmierci, chorych na nią nie przyjmowano nawet do szpitali. Ojciec miał nadzieję, że małej pomoże hydroterapia w zakładzie w Malvern, gdzie sam leczył wcześniej własne niedomagania. Miał może nadzieję, że Annie pomoże to samo, co pomogło jemu, ponieważ stale podejrzewał, iż jej choroba może być dziedziczna. Darwin spędził w Malvern przy Annie ostatnie dni jej życia, szalejąc z rozpaczy. Tydzień po pogrzebie napisał o niej wspomnienie, najbardziej emocjonalny tekst człowieka, który zawsze starał się zachować obiektywizm, ale i zrozpaczonego ojca, który czuł się winny śmierci córki. Annie była idealnym wiktoriańskim dzieckiem: łagodna, kochająca, posłuszna, niewinna, wesoła, pełna życia, lecz nigdy nie rozkapryszona, bardzo wrażliwa na każdy przejaw dezaprobaty ze strony rodziców, którzy nie musieli jej nawet karcić, wystarczyło trochę surowsze spojrzenie, by natychmiast odczuła niewłaściwość swego postępowania. I nie tylko cechy charakteru dziewczynki miały znaczenie, Darwin starał się zapamiętać także jej wygląd zewnętrzny. „Jej wzrok się iskrzył, często się uśmiechała. Chodziła elastycznie i pewnie, trzymała się prosto i często odrzucała nieco głowę w tył, jakby rzucając żartobliwe wyzwanie światu. (…) Dagerotyp jest bardzo do niej podobny, lecz zupełnie nie oddaje jej wyrazu: zrobiony został dwa lata temu, jej twarz się od tamtej pory wyciągnęła i nabrała urody. Ruchy miała żywe, energiczne i zazwyczaj pełne wdzięku, kiedy chodziła ze mną na spacer ścieżką dookoła domu, to mimo iż chodzę szybko, często wyprzedzała mnie, kręcąc piruety w najbardziej elegancki sposób i uśmiechając się słodko”.

Annie_Darwin

Dzieci na ówczesnych dagerotypach miały często nienaturalny wygląd, ponieważ musiały wytrwać bez ruchu przez całą minutę – tyle bowiem trwało naświetlanie zdjęcia. Widać, że dłonie Annie są nieostre, dziewczynka się poruszyła.

Śmierć dziecka była w tamtej epoce zjawiskiem częstym, ludzie pobożni pocieszali się mówiąc o lepszym życiu, do którego zostało przeniesione zgodnie z nieprzeniknionymi zamysłami Stwórcy. Charles Darwin nie próbował szukać pociechy tego rodzaju, jak się wydaje, śmierć niewinnej istoty była w jego oczach całkowicie sprzeczna z jakąkolwiek wizją dobrego Boga. Prawdopodobnie sądził też, że jakaś cząstka naszego współczucia należy się również istotom mniej od nas uprzywilejowanym – jak Jenny z ZOO, ofiara tej samej co Annie choroby.

Korzystałem z książki Randala Keynesa, Annie’s Box: Charles Darwin, His Daughter, and Human Evolution, London 2001. Na książce tej oparto scenariusz filmu BBC z roku 2009 pt. Creation.

Lord Rayleigh i błękit nieba, 1871

John William Strutt, pierworodny syn barona Rayleigha i dziedzic tytułu, był słabego zdrowia. Nie chodził z tego powodu regularnie do żadnej szkoły, uczył się prywatnie, co chyba mu wyszło na dobre. Studiował w Trinity College w Cambridge i tam w ciągu kilku lat okazało się, że ma talent do matematyki. Z czasem został jednym z najwszechstronniejszych fizyków swoich czasów. Zajmował się wieloma dziedzinami, szczególnie upodobał sobie zjawiska związane z falami różnego rodzaju. Prowadził też eksperymenty, jego największym osiągnięciem było odkrycie argonu, za które uzyskał Nagrodę Nobla w roku 1904, rok po małżonkach Curie. Skromnie opisuje to odkrycie jako rezultat dokładności swoich eksperymentów: azot uzyskany z powietrza i azot uzyskany drogą chemiczną różniły się nieco gęstością. Rayleigh zaczął badać wszystkie możliwe powody tej różnicy i odkrył nowy składnik powietrza, którego istnienia nikt nie podejrzewał.
Prace Rayleigha są znakomicie i przejrzyście napisane, w zbiorowym wydaniu zajmują sześć tomów z pewnością nie dlatego, by autor mnożył je ponad potrzebę, jak to często zdarza się dzisiaj. Zajmiemy się tu tylko jednym tematem badanym przez Rayleigha: rozpraszaniem światła w atmosferze. Bezchmurne niebo jest głęboko błękitne, mimo że powietrze jest przecież oświetlone białym światłem słonecznym. Z punktu widzenia fizyka oznacza to, że światło niebieskie łatwiej jest rozpraszane niż inne barwy. Z tego samego powodu zachodzące słońce jest czerwone: bo światło przechodzi wówczas przez grubszą warstwę atmosfery i światło niebieskie zostało rozproszone na boki – dociera do nas czerwone. Całe piękno wschodów i zachodów słońca sprowadza się więc do zrozumienia, czemu jedne barwy są łatwiej rozpraszane niż inne.

widok z gierlacha
Rozpraszanie światła polega na tym, że padająca fala pobudza do drgań elektrony w cząsteczkach powietrza. Drganiom cząstek naładowanych towarzyszy zawsze powstawanie fali elektromagnetycznej (elektrony drgają w antenie i obwodach naszego telefonu komórkowego, gdy pracuje). Fala ta rozchodzi się we wszystkich kierunkach: w rezultacie część energii fali padającej jest rozpraszana na boki. Gdyby takiego rozproszenia nie było, widzielibyśmy oślepiające słońce na tle czarnego nieba. Dlaczego rozpraszanie zależy od barwy? Barwy światła związane są z długością fali. Fiolet i błękit mają najmniejszą długość fali, pomarańczowy i czerwień – największą. Wyobraźmy sobie falę elektromagnetyczną biegnącą w ośrodku, którego cząstki są znacznie mniejsze niż długość fali. Sytuację przedstawia rysunek: mamy tu falę świetlną wysłaną przez słońce przedstawioną w różnych punktach przestrzeni w jakiejś jednej chwili.

fala

Dwie „cząsteczki powietrza” są mniejsze niż długość fali. Oznacza to, że w każdej z nich pole elektryczne padającej fali jest praktycznie jednakowe. Wobec tego elektrony w naszych „cząsteczkach powietrza” będą drgać zgodnie – a więc wytwarzane przez nie fale będą się dodawać. Gdybyśmy obserwowali falę wytworzoną przez jedną „cząsteczkę powietrza” w pewnej odległości r od tej cząsteczki, to amplituda fali wytworzonej powinna być proporcjonalna do amplitudy fali padającej: dwa razy większa fala wywoła dwa razy większe drgania elektronów. Powinna także maleć odwrotnie proporcjonalnie do r (wszystkie fale w trójwymiarowej przestrzeni tak się zachowują). Amplituda ta powinna też być proporcjonalna do objętości V naszej cząstki powietrza: bo przy dwa razy większej objętości, będzie tam dwa razy więcej elektronów. Mamy jeszcze trzecią wielkość o wymiarze odległości: długość fali λ. Ponieważ stosunek obu amplitud musi być bezwymiarowy, więc jedyną możliwą kombinacją tych wielkości jest

\dfrac{A_{rozpr}}{A_{pad}}\sim \dfrac{V}{\lambda^2 r}.

Natężenie fali, czyli np. przenoszona przez nią energia, jest proporcjonalne do kwadratu amplitudy, zatem natężenia będą odwrotnie proporcjonalne do czwartej potęgi długości fali – jest to bardzo silna zależność i to właśnie widzimy na niebie. Na wykresie widzimy zależność natężenia światła słonecznego od długości fali (krzywa niebieska) i tę samą zależność przefiltrowaną przez rozpraszanie Rayleigha (krzywa czerwona, jednostki na skali pionowej nie mają znaczenia, długości fal są w nm).

rayleigh

Widzimy, że światło o krótkich falach (niebieskie) jest rozpraszane znacznie silniej. Wrażenie barwne zależy jeszcze od wrażliwości oka na różne barwy i mechanizmu samego widzenia barwnego. Na siatkówce mamy trzy rodzaje pręcików wrażliwych na trzy różne obszary widma. To, co widzimy, jest wynikiem współdziałania tych trzech rodzajów pręcików. Nasze oczy nie są dobrym spektrometrem, ponieważ różne rozkłady natężeń mogą prowadzić do tego samego wrażenia – a więc koloru, jaki widzimy. Doświadczenia takie prowadził zresztą lord Rayleigh, który pokazał, że ustalona proporcja światła czerwonego i zielonego daje to samo wrażenie co światło żółte. W przypadku nieba wrażenie barwne jest takie samo, jak dla mieszanki monochromatycznego błękitu o długości fali 475 nm z bielą widmową.

Okazało się zresztą, że z dwóch krzywych na wykresie trudniej zrozumieć tę niebieską, czyli widmo słoneczne – jest to bowiem promieniowanie termiczne, zależne jedynie od temperatury. Zgodnie z fizyką klasyczną każdy rodzaj drgań pola elektromagnetycznego powinien mieć taką samą energię proporcjonalną do temperatury (kT). A ponieważ im krótsza fala, tym więcej rodzajów drgań, więc promieniowanie termiczne powinno „wybuchać” dla krótkich długości fali, co jest jawnym nonsensem. Trudność tę zauważył lord Rayleigh w roku 1900 i próbował zaproponować jakieś rozwiązanie ad hoc. Prawidłowym rozwiązaniem był wzór Plancka, i szerzej cała fizyka kwantowa.

Dodatek dla wymagających

Trochę inne uzasadnienie zależności \lambda^{-4} wygląda następująco: elektrony w ośrodku w każdej chwili znajdują się w chwilowym położeniu równowagi, tzn. ich wychylenie z położenia równowagi jest w każdej chwili proporcjonalne do chwilowej wartości pola elektrycznego E (przybliżenie adiabatyczne: drgania elektromagnetyczne są stosunkowo powolne). Amplituda emitowanej fali jest proporcjonalna do przyspieszenia elektronu, zatem w ruchu harmonicznym o częstości kołowej \omega jest proporcjonalna do \omega^2 E. Natężenie zaś jest kwadratem amplitudy.

Lord Rayleigh nie ograniczył się oczywiście do argumentu wymiarowego, lecz w roku 1899 podał niezwykle elegancki wzór na współczynnik tłumienia światła h (na odległości 1/h natężenie maleje e razy), gdy mamy N cząsteczek chaotycznie rozmieszczonych w jednostce objętości:

h=\dfrac{32\pi^3 (n-1)^2}{3N\lambda^4},

gdzie n jest współczynnikiem załamania gazu. Wzór ten można wyprowadzić nawet w teorii sprężystego eteru. Wynika on także z rozważań w Wykładach Feynmana (t. I cz. II, równania 31.19 oraz 32.19). Wynik jest zbyt prosty, aby zależał od konkretnego modelu (choć Feynman woli raczej trzymać się konkretu). Rzeczywiście, można go uzyskać w sposób fenomenologiczny, co robią różne podręczniki elektrodynamiki. Interesujący współczynnik z trzecią potęgą \pi bierze się częściowo z sumowania natężenia po kącie bryłowym, a częściowo z przeliczania drogi optycznej na fazę, w którym każde \lambda odpowiada zmianie fazy o 2\pi.

William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.

 

 

 

Adolphe Quetelet, krzywa dzwonowa i statystyczny człowiek (1835)

Był z wykształcenia matematykiem, z temperamentu organizatorem, lecz do historii przeszedł głównie dzięki swej niepohamowanej namiętności do stosowania metod statystycznych. Pragnął stworzyć statystyczną naukę o człowieku, opartą na rozmaitych szczegółowych spisach dotyczących narodzin, rozwoju, zdolności, karalności, chorób i zgonów ludnosci różnych obszarów czy grup. Jego dwutomowe dzieło z roku 1835 zatytułowane Sur l’homme et le développement de ses facultés, ou Essai de physique sociale („O człowieku i rozwoju jego zdolności, czyli zarys fizyki społecznej”) stało się szybko klasyczne. Quetelet wprowadził pojęcie statystycznego czy też przeciętnego człowieka (l’homme moyen), wyobrażając sobie, iż istnieje pewien idealny wzór, od którego poszczególni ludzie odchylają się za sprawą wielu różnych przyczyn. Pojęcie rozkładu statystycznego, który mieści całe spektrum badanej cechy, dopiero się kształtowało. Wcześniej  uczeni stosowali rozkłady statystyczne takie, jak rozkład Gaussa, do analizy błędów pomiarowych, gdy wiadomo, że mierzona wielkość przyjmuje pewną określoną wartość, a problemem jest jej ustalenie na podstawie obarczonych błędami pomiarów. Równolegle przebiegał społeczny proces uznania różnic między ludźmi za coś naturalnego, a nawet potrzebnego, nie za błąd w rozwoju czy niedostatek.

Jak to zwykle bywa w przypadku badań pionierskich, wiele wyników zostało potem zrewidowanych, niektóre stwierdzenia rażą dziś naiwnością. W swojej epoce był jednak Quetelet powszechnie uznawany za postać ważną, jego prace czytali uczeni tak różni, jak James Clerk Maxwell (który idee statystyczne zastosował do gazów) i Charles Darwin. Kontynuatorem prac Queteleta stał się kuzyn Darwina Francis Galton (to on ochrzcił rozkład Gaussa mianem rozkładu normalnego).

Znany powszechnie indeks masy ciała BMI (iloraz masy i kwadratu wzrostu) jest wynikiem obserwacji Queteleta, iż objętość ciała człowieka dorosłego nie jest proporcjonalna do sześcianu, lecz raczej do kwadratu wzrostu:

Gdyby człowiek rósł jednakowo we wszystkich wymiarach, ciężar w różnym wieku byłby proporcjonalny do sześcianu wzrostu. Obserwuje się jednak co innego. Wzrost masy jest mniej gwałtowny, z wyjątkiem pierwszego roku po urodzeniu, kiedy rzeczywiście na ogół obserwuje się powyższą proporcję. Potem jednak aż do okresu pokwitania ciężar ciała rośnie mniej więcej jak kwadrat wzrostu. (Sur l’homme, t. 2, s. 52)

Quetelet nie interesował się wszakże różnicami między ludźmi, starał się raczej odnaleźć typ idealny. Wskaźnik BMI zaczął być stosowany dopiero w drugiej połowie wieku XX, gdy problemem medycznym i ubezpieczeniowym w społeczeństwach zachodnich stały się nadwaga i otyłość.

W swym traktacie podał też Quetelet zaskakujący wzór na skłonność do przestępstwa y (mierzoną statystycznie) jako funcję wieku w latach x:

y=(1-\sin x)\,\dfrac{1}{1+2^{18-x}},

gdzie argument funkcji sinus podany jest w gradach: 100 gradów odpowiada kątowi prostemu. Wykres obserwowanej skłonności do przestępstwa wygląda u Qeteleta następująco:

źródło ilustracji: gallica.bnf.fr

Drugi wykres z płaskim obszarem szczytowym między trzydziestym a czterdziestym piątym rokiem życia dotyczy zdolności literackich. Wróćmy jeszcze do owej skłonności do przestępstwa.

Zależność Queteleta jest iloczynem dwóch funkcji: malejącej funkcji 1-\sin x w pierwszej ćwiartce (czyli czegoś zbliżonego do paraboli) oraz funkcji logistycznej, która opisuje szybki wzrost w okolicy x=18. Nb. krzywa logistyczna zastosowana została kilka lat później przez Pierre’a François Verhulsta, ucznia Quteleta, do modelowania ograniczonego wzrostu populacji, który zaczyna się wykładniczo (nieograniczone rozmnażanie), lecz osiąga naturalną barierę (np. brak pożywienia). Tutaj, w pracy Queteleta, krzywa logistyczna zdaje sprawę z osiągania dojrzałości przez człowieka, na dobre i złe. Oczywiście, nie powinniśmy zbyt serio traktować tego wzoru. Sam Quetelet w późniejszych latach ograniczał się do opisu danych statystycznych, nie upierając się przy żadnym wyrażeniu.

Wykres skłonności do przestępstw wg płci. Widzimy, że kobiety wkraczają później na ścieżkę kryminalną, lecz dłużej są aktywne.

Trwałym dorobkiem Queteleta okazało się stosowanie krzwej dzwonowej do opisu rozkładu statystycznego. Sam po raz pierwszy zastosował ją do statystyki obwodu w piersiach szkockich rekrutów. Jego dane wyglądały następująco:

Obwód w klatce piersiowej wyrażony jest w calach. Quetelet starał się dopasować do tych danych krzywą Gaussa, lecz w praktyce użył rozkładu dwumianowego z prawdopodobieństwami sukcesu/porażki 1/2 oraz liczbą prób równą 999 (tak, żeby mieć 1000 różnych wyników). Inaczej mówiąc, są to prawdopodobieństwa uzyskania k orłów w 999 rzutach monetą.

Jako uczeń Fouriera i Laplace’a wiedział dobrze, że rozkład dwumianowy dąży przy dużych wartościach liczby prób do rozkładu Gaussa. W ten sposób zaczęła się oszałamiająca kariera krzywej Gaussa w zastosowaniach statystycznych. W latach późniejszych przesadne stosowanie rozkładu Gaussa do wszelkich możliwych danych zaczęto nawet nazywać „quetelizmem” – bo, oczywiście, istnieją też inne rozkłady, choć w wielu sytuacjach właśnie rozkład Gaussa prawidłowo opisuje stan faktyczny.

Einstein w Aarau: czyli co mówią równania Maxwella? (1896)

Aarau

Do szkoły w Aarau trafił Einstein po oblanych egzaminach na Politechnikę w Zurychu. Szesnastolatek zdawał tam jako młodzieniec nad wiek rozwinięty, lecz bez matury. Politechnika dopuszczała takich kandydatów, ponieważ sito stanowiły egzaminy wstępne z wielu przedmiotów. Einstein okazał się zbyt słaby z przedmiotów innych niż fizyka i matematyka, toteż poradzono mu, aby zdał jednak maturę.
Szkoła w Aarau, dobrze wyposażona i liberalna, wolna od wojskowego drylu, który tak obrzydł Albertowi w Monachium, zostawiła mu miłe wspomnienia na resztę życia. Uczył się tam niemieckiego, francuskiego, włoskiego, historii, geografii, matematyki, chemii, rysunku technicznego i artystycznego, śpiewu i gry na skrzypcach. Otrzymywał dobre albo bardzo dobre oceny niemal ze wszystkich przedmiotów, słabo wypadał tylko z francuskiego. Zasłużył nawet na pochwałę inspektora na egzaminie z muzyki: „Jeden z uczniów, o nazwisku Einstein, wyróżnił się wykonaniem z głębokim zrozumieniem adagia z jednej z sonat Beethovena”.

Szkolny kolega, Hans Byland, opisywał Alberta z owego okresu jako „zuchwałego Szwaba”: „Pewny siebie, z kapeluszem zsuniętym zawadiacko na tył głowy okrytej grubymi czarnymi włosami. Przechadzał się w tę i z powrotem szybkimi krokami. W ogóle poruszał się w jakimś szalonym tempie, właściwym niespokojnym duchom, które noszą w sobie cały świat. Nic nie mogło umknąć przenikliwemu spojrzeniu jego dużych brązowych oczu. Każdy, kto go poznał, był pod wrażeniem jego dominującej osobowości. Kpiący uśmieszek jego pełnych warg, z których dolna była wyraźnie wysunięta, nie zachęcał filistrów do prób fraternizacji z tym młodzieńcem”.

Górny rząd od lewej: Adolf Lüthy (1878), Hans Frösch (1877), Karl Walter (1876),  Ernst  Hunziker (1876), Eduard Haury (1877), Emil Ott (1877). Dolny rząd od lewej: , Albert Einstein (1879), Cäsar Hofer (1878), Oskar Schmidt (1876), Guido Müller (1877)

Atmosfera Aarau służyła Einsteinowi. Mógł swobodnie myśleć, a to było dla niego zawsze najważniejsze. Toteż nic dziwnego, że właśnie tam zaczął się zastanawiać nad problemami, które miały go z czasem doprowadzić do teorii względności. „Podczas tego roku w Aarau przyszło mi do głowy następujące pytanie: gdyby poruszać się razem z falą świetlną z prędkością światła, to widziałoby się pofalowane pole niezależne od czasu. Wydaje się jednak, że coś takiego nie istnieje! To był pierwszy, młodzieńczy eksperyment myślowy mający związek z teorią względności. Pomysł nie jest wytworem logicznego myślenia, nawet jeśli produkt końcowy związany jest z jakąś strukturą logiczną”.
Idea poruszania się razem z falą świetlną, a nawet szybciej od niej, pojawiała się wcześniej u różnych pisarzy popularnonaukowych, takich jak Camille Flammarion albo Felix Eberty. W powieści Flammariona jej bohater, Lumen, potrafił po śmierci, jako dusza, wyprzedzić światło i obserwować rozmaite wydarzenia z przeszłości: siebie na pierwszej randce albo w wieku sześciu lat, a nawet „władcze i zamyślone czoło” Napoleona podczas rewii wojsk na Placu Marsowym. Gdy uważamy światło za falę w pewnym ośrodku – tak jak dźwięk – nic nie stoi na przeszkodzie wyobrażaniu sobie, że podróżujemy razem z falą. Wiadomo jednak z fizyki, że nie ma takich fal elektromagnetycznych, które zmieniałyby się w przestrzeni, a były niezmienne w czasie, i Albert Einstein czuł to wówczas intuicyjnie. Później, już w trakcie studiów, musiał zdać sobie sprawę, że takie „zamrożone” fale nie mogą być rozwiązaniami równań Maxwella, to znaczy sprzeczne są z naszą wiedzą o przyrodzie.

Co mówią równania Maxwella?

W każdym punkcie przestrzeni możemy określić dwa wektory: jeden opisujący pole elektryczne \vec{E}, drugi – pole magnetyczne \vec{B}. Aby je zmierzyć, należałoby zaobserwować, jakie siły działają w tym punkcie przestrzeni na umieszczony tu ładunek elektryczny: pierwsze z pól działa niezależnie od tego, czy ładunek się porusza, drugie – tylko na ładunki w ruchu.
Zajmiemy się przypadkiem przestrzeni wolnej od ładunków, czyli polem elektromagnetycznym w próżni. Zmienne pole magnetyczne generuje pole elektryczne – jest to zjawisko indukcji elektromagnetycznej odkryte przez Michaela Faradaya i będące fizyczną zasadą działania generatorów prądu. Z kolei zmienne pole elektryczne generuje pole magnetyczne, co odkrył James Clerk Maxwell. W ten sposób powstaje fala elektromagnetyczna, w której oba pola podtrzymują się nawzajem.
Sformułujmy matematycznie prawo indukcji Faradaya. Wyobraźmy sobie krzywą zamkniętą i rozpiętą na niej powierzchnię. Przez powierzchnię tę przechodzi pewien strumień pola magnetycznego, równy iloczynowi składowej pola normalnej do powierzchni B_n i pola powierzchni \Delta S:

\Phi_B=B_n\Delta S.

Gdyby wektor \vec{B} był prędkością cieczy, strumień byłby objętością owej cieczy przecinającą w jednostce czasu powierzchnię. Mówi się czasem, że strumień to liczba linii sił przecinających powierzchnię (linie sił biegną blisko siebie tam, gdzie pole jest duże i rozrzedzają się tam, gdzie pole maleje).


Potrzebujemy jeszcze drugiego obok strumienia pojęcia związanego z polami wektorowymi, a mianowicie krążenia. W przypadku pola elektrycznego jest to suma iloczynów składowej stycznej wektora pola E_t pomnożonych przez długości boków prostokąta na naszym obrazku

{\displaystyle \oint E_t dl=\sum E_t \Delta l.}

Prawo indukcji Faradaya mówi, że krążenie pola elektrycznego wzdłuż krzywej jest równe szybkości zmian strumienia pola magnetycznego w czasie ze znakiem minus:

{\displaystyle \oint E_t dl=\sum E_t \Delta l=-\dfrac{\Delta \Phi_B}{ dt}.}

Dodatni kierunek obiegania krzywej i dodatni strumień związane są regułą śruby prawoskrętnej: gdyby śruba taka obracała się, jak na obrazku, dodatni byłby strumień z dołu do góry. Znak minus w tym prawie fizycznie oznacza tzw. regułę Lenza: gdyby zamiast krzywej ułożyć pętlę z drutu, to pole elektryczne wywołałoby przepływ prądu. Prąd ten wytworzyłby własne pole magnetyczne i byłoby ono takie, żeby zmniejszać zmiany strumienia: gdy strumień rośnie z czasem, pole to powinno go zmniejszać. Sens tej zasady tkwi w tym, że prąd indukcyjny nie może nasilać zjawiska indukcji, które generuje jeszcze większy prąd: mielibyśmy elektrownię dostarczającą prądu za darmo, co jest niemożliwe.
Drugie potrzebne nam równanie Maxwella jest bardzo podobne, zamienione są jedynie rolami oba pola:

{\displaystyle \oint B_t dl=\sum B_t \Delta l=\mu_0\varepsilon_0 \dfrac{\Delta \Phi_E}{d t}.}

Stałe \mu_0,\,\varepsilon_0 są to przenikalności magnetyczna i elektryczna próżni, wielkości znane z pomiarów pola wytwarzanego przez ładunki i prądy. Nie ma znaku minus. Zamienione są miejscami pola elektryczne i magnetyczne.
Dla porządku dodajmy, że istnieją jeszcze dwa równania Maxwella. W przypadku próżniowym mówią one, że strumienie pola elektrycznego i magnetycznego wypływające z każdej zamkniętej powierzchni równe są zeru. W takiej postaci zapisał te równania dopiero Oliver Heaviside.

Najprostsza fala elektromagnetyczna

Obliczmy prędkość rozchodzenia się najprostszej konfiguracji pól. Jest to fala w kształcie tsunami: wartości pola równe zeru skaczą w półprzestrzeni do pewnej stałej wartości. Ponieważ równania Maxwella zawierają pola w pierwszej potędze, są liniowe, więc można z takich rozwiązań zbudować fale prostokątne, a z fal prostokątnych każde inne, wnioski będą zatem słuszne także w przypadku ogólnym.

Nasze tsunami pól elektrycznych i magnetycznych powinno rozchodzić się wzdłuż osi z, żeby strumienie przez zamknięte krzywe się zmieniały.
Gdy fala wchodzi na obszar prostokątnej pętli o szerokości w, prędkość zmiany pola powierzchni zajętego przez falę równa jest wv. Czyli szybkość zmian strumienia równa się B_y wv. Krążenie pola elektrycznego jest wyjątkowo proste, ponieważ tylko jeden bok prostokąta ma niezerowe pole. Mamy więc

-E_x w=- B_y wv\,\Rightarrow E_x=B_y v.

Podobnie, stosując równanie Maxwella do pętli prostokątnej w płaszczyźnie yz, otrzymamy

B_y w=\mu_0\varepsilon_0 E_x w v\,\Rightarrow B_y=\mu_0\varepsilon_0 E_x v.

Wstawiając pierwsze z otrzymanych równań do drugiego dostajemy

B_y=\mu_0\varepsilon_0 v^2 B_y.

Niezerowe rozwiązanie oznacza więc, że prędkość jest równa

v=\pm \dfrac{1}{\sqrt{\mu_0\varepsilon_0}}=\pm c.

Nasze „tsunami” musi rozchodzić się wzdłuż osi z z prędkością światła w próżni (możliwe są oba zwroty prędkości). Ponieważ z takich konfiguracji można zbudować dowolną falę, więc każda fala elektromagnetyczna musi rozchodzić się z prędkością c. (Przy okazji pokazaliśmy, że pola są prostopadłe do kierunku rozchodzenia się fali oraz E=cB).


W roku 1896 Albert Einstein prawdopodobnie nie potrafił tego jasno pokazać. Nawet podczas studiów na Politechnice równania Maxwella nie należały do programu, choć oczywiście Albert się tego dowiedział z własnych lektur.
Jak wówczas rozumiano ten wynik? Wydawało się naturalne, że równania Maxwella opisują zachowanie eteru – ośrodka, w którym rozchodzą się fale elektromagnetyczne tak, jak fale dźwiękowe w powietrzu. Prędkość c oznaczałaby więc prędkość względem eteru. Okazało się jednak z różnych doświadczeń, jak też i prac teoretycznych Lorentza, że jeśli poruszamy się względem eteru, to i tak prędkość się nie zmienia. Wymagało to jednak dodatkowych założeń na temat materii (skrócenie Lorentza-Fitzgeralda). W roku 1905 Einstein uznał, że najprościej jest uznać, że równania Maxwella nie opisują eteru, lecz zmiany pól w przestrzeni i czasie. Wtedy wartość c otrzymamy bez względu na to, jak szybko się poruszamy. Lumen nie mógłby więc prześcignąć fal świetlnych: bez względu na to, jak szybko by pędził, światło uciekałoby mu z prędkością c. Oczywiście, możliwe teoretycznie jest wysłanie ku nam z powrotem sygnałów z przeszłości. Tak się dzieje w powieści SF Carla Sagana Kontakt. Odebrane sygnały z kosmosu okazują się tam transmisją telewizyjną z otwarcia Igrzysk Olimpijskich w Berlinie z udziałem Adolfa Hitlera (była to jedna z najwcześniejszych prób tego rodzaju, pokaz technicznej potęgi III Rzeszy).

Louis Bachelier: Teoria spekulacji (1900)

Louis Bachelier był o dziewięć lat starszy od Einsteina. Prawdopodobnie nigdy się nie zetknęli i nie wiedzieli, że ich badania mają ze sobą coś wspólnego. Pierwszy badał ceny akcji na giełdzie, drugi – podstawowe prawa fizyki. Obaj stosowali metody rachunku prawdopodobieństwa. Na początku XX wieku podejście takie było awangardowe, zdarzenia losowe wydawały się marginesem dobrze naoliwionej i przewidywalnej machiny świata. Machina ta jest jednak zbyt złożona i zbyt wielka, abyśmy potrafili wyobrazić sobie wszystkie jej trybiki jednocześnie. Nie sposób np. przewidzieć ruchu cząstek w gazie, gdyż jest ich zbyt wiele i nie znamy dokładnie ich położeń i prędkości, a w dodatku zderzenia, które są nadwrażliwe na warunki początkowe, stale „tasują” owe położenia i prędkości. (Z podobnego powodu nigdy nie uda się obliczyć, jaka będzie pogoda za rok.) Także giełda zachowuje się w sposób przypadkowy:

Niezliczone są okoliczności, które mogą wpływać na ruchy giełdy: zdarzenia przeszłe, obecne, bądź tylko przewidywane, nie mając często widocznego związku z jej zachowaniem, wpływają jednak na notowania. Obok tych przyczyn niejako naturalnych wpływ mają także przyczyny sztuczne: giełda reaguje na samą siebie i bieżące jej ruchy są nie tylko funkcją ruchów uprzednich, ale także jej obecnego stanu. Określenie tych ruchów zależy od nieskończenie wielu czynników, nie można tu więc mieć nadziei na matematyczną przewidywalność. Sprzeczne opinie na temat tych zmian są tak podzielone, że kupujący liczą na wzrost cen, sprzedający zaś na ich spadek.

Tymi słowami zaczyna się praca doktorska Bacheliera, zatytułowana  Théorie de la spéculation, czyli „Teoria spekulacji”, obroniona na Sorbonie w roku 1900. Opiekunem pracy był Henri Poincaré, matematyk, fizyk, filozof, uczony uniwersalny, który rozumiał, że matematyka powinna sięgać poza swe tradycyjne obszary zastosowań. Rzecz była pionierska, choć z czysto matematycznego punktu widzenia Bachelier nie osiągnął zbyt wiele. Rachunek prawdopodobieństwa nie miał wówczas ścisłych podstaw aksjomatycznych, te zapewnił mu dopiero Andriej Kołmogorow w latach trzydziestych. Kołmogorow cytował zresztą Bacheliera w odróżnieniu od jego francuskich kolegów. Kariera naukowa Bacheliera nie ułożyła się zbyt dobrze. Przed pierwszą wojną światową zajmował kiepsko płatną posadę wykładowcy na Sorbonie, potem jako szeregowy żołnierz brał udział w wojnie. Dopiero w 1927 toku udało mu się zostać profesorem w prowincjonalnym Besançon. Dziś nazywany założycielem matematyki finansowej, za życia pozostawał niezauważony. To zresztą typowy los pionierów w nauce. Ważną rolę w tłumieniu nowatorstwa odgrywają granice dyscyplin: Bachelier pojawił się zbyt wcześnie, by docenili go ekonomiści. Pół wieku później jego doktorat z uznaniem czytali późniejsi laureaci ekonomicznych Nagród im. Nobla. Słynny model Blacka-Scholesa dla ceny opcji mógłby w zasadzie powstać już przed pierwszą wojną światową, praca Bacheliera po niewielkich zmianach zupełnie by do tego wystarczyła. Trudność leżała tu nie po stronie matematyki, lecz ekonomii. Inaczej było w przypadku fizyki: tam prace Einsteina i Smoluchowskiego zostały szybko zaakceptowane. Być może czas potrzebny był w tym przypadku na pogodzenie się z myślą, że procesy zachodzące w ekonomii nie różnią się diametralnie  od zjawisk fizycznych. Być może po prostu język prawdopodobieństw i statystyk wszedł na trwałe do myślenia naukowego.

Bachelier wyobrażał sobie, że istnieje jakaś fundamentalna cena akcji, od której z czasem odchyla się cena rzeczywista. Jego rozważania dotyczyły odchyleń od tej wartości fundamentalnej. Przyjmował, że ich rozkład prawdopodobieństwa dla danego czasu t opisany jest słynną krzywą dzwonową Gaussa:

p(x,t) dx=C(t)\exp{({-a(t)^2 x^2})} dx,

gdzie p(x)dx jest prawdopodobieństwem znalezienia ceny w niewielkim przedziale (x,x+dx). Inaczej mówiąc, pole pod tą krzywą ma sens prawdopodobieństwa. Bachelier napisał też równanie, jakie powinny spełniać funkcje p(x,t). Zakładając, że ruchy naszej akcji w ciągu czasu t_1 i potem w ciągu czasu t_2 są niezależne statystycznie, mamy następujące równanie

p(x,t_1+t_2)=\displaystyle{\int p(x-y,t_2)p(y,t_1) dy. }

Sens tego wyrażenia jest następujący: prawdopodobieństwo, że cena w czasie t_1 odchyli się o y od początkowej wartości to p(y,t_1); prawdopodobieństwo, że w czasie t_2 cena przejdzie od wartości y do x jest równe p(x-y,t_2). Prawdopodobieństwa te mnożymy, ponieważ zdarzenia są niezależne, następnie sumujemy po wszystkich wartościach y, czyli całkujemy. Dziś równanie to nazywamy równaniem Chapmana-Kołmogorowa, a operację tworzenia z dwóch rozkładów prawdopodobieństwa trzeciego – splotem. Splatając dwie krzywe Gaussa, otrzymujemy trzecią krzywą Gaussa, przy czym spełniona musi być zależność:

\dfrac{1}{a(t_1+t_2)^2}=\dfrac{1}{a(t_1)^2}+\dfrac{1}{a(t_2)^2}.

Łatwo stąd zauważyć, że 1/a^2 powinno być proporcjonalne do czasu. Ostatecznie otrzymujemy dla funkcji p(x,t) wyrażenie

{\displaystyle p(x,t)=\dfrac{1}{\sqrt{4\pi kt}}\exp{\left(-\dfrac{x^2}{4kt}\right)}.}

Gęstość prawdopodobieństwa ceny akcji rozpływa się z czasem coraz szerzej. Współczynnik k określa, jak szybko. Wariancja naszego rozkładu równa jest 2kt. Mamy tu analogię ze zjawiskiem dyfuzji.

I nie jest to przypadek, gęstość prawdopodobieństwa spełnia bowiem równanie dyfuzji:

\dfrac{\partial p(x,t)}{\partial t}=k\dfrac{\partial^2 p(x,t)}{\partial t^2}.

Te samo równanie opisuje przewodnictwo cieplne, co badał Joseph Fourier. W nowoczesnej matematyce finansowej stosuje się rozkład Gaussa nie do wartości ceny, lecz do wartości jej logarytmu. Usuwa to natychmiast kłopotliwą obiekcję, jaką można mieć do rozważań Bacheliera: rozkład Gaussa jest niezerowy dla każdego x, więc cena dowolnej akcji mogłaby spaść poniżej zera z niezerowym prawdopodobieństwem.