Christiaan Huygens i jego zasada (1679, 1690)

Wszyscy wiedzą, że Huygens przedstawił falową teorię światła sprzeczną z korpuskularną doktryną Newtona. Newtonowskie eksperymenty z Optics stały się kanoniczne i przeważnie wierzono, iż światło składa się z cząstek, teoria Huygensa na dobre powróciła dopiero na początku XIX wieku. Po raz pierwszy Huygens przedstawił ją w Paryżu przed Akademią Nauk w 1679 r., ale dopiero w 1690 r. ukazał się jego Traité de la lumière („Traktat o świetle”), niewielkie arcydzieło naukowe, ukazujące zupełnie inną drogę niż ta Newtonowska.

Traktat o świetle, gdzie wyjaśniono przyczyny tego, co się dzieje przy odbiciu i załamaniu, a zwłaszcza przy osobliwym załamaniu w krysztale islandzkim przez C.H.D.Z. [Christiaana Huygensa pana Zeelhem] wraz z Rozprawą na temat przyczyn ciężkości. Egzemplarz dedykowany dla Fatio de Duilliera, młodego szwajcarskiego uczonego, który przez krótki czas był blisko Isaaca Newtona i poznał także Christiaana Huygensa.

W Traktacie Huygens uznał światło za rozchodzące się zaburzenie eteru – ośrodka materialnego wypełniającego świat. Korzystał tu z analogii z dźwiękiem, ale musimy pamiętać, że matematyka fal sprężystych pojawiła się dopiero w połowie XVIII wieku, więc sama analogia nie prowadziła zbyt daleko.

Szybki ruch cząstek np. w płomieniu świecy wywoływać miał falę sprężystą w eterze złożonym ze sztywnych kulek. Uderzenie pierwszej w szeregu sprawia, że ruch przekazany zostaje ostatniej, a kulki pomiędzy skrajnymi pozostają w spoczynku. Fale elementarne rozchodzić się miały także i na boki, na tej samej zasadzie. To oczywiście czysta kartezjańska fantazja. Mocną stroną Huygensa była jednak umiejętność matematycznego formułowania problemów. Z reguły tam, gdzie wkracza matematyka, fizyka osiąga najwięcej.

W jaki sposób rozchodzą się fale wzbudzane mnóstwem cząstek w płomieniu? Otóż fale rozchodzą się ze skończoną prędkością. Huygens sądził tak, zanim jeszcze Ole Rømer odkrył, że zaćmienia księżyców Jowisza opóźniają się zawsze wtedy, gdy planeta znajduje się daleko od Ziemi. W określonym czasie fale z punktu A dotrą do łuku okręgu BG. Poruszane falą cząstki eteru bbbb wytwarzają nowe fale elementarne. Co sprawia, że nie widzimy chaosu tych fal elementarnych, lecz jedną dobrze określoną falę? To, co możemy zobaczyć, jest obwiednią fal elementarnych. Czoło fali CE jest styczne do nieskończenie wielu fal elementarnych. Fale Huygensa nie są okresowe, przypominają raczej falę uderzeniową. Nie mamy tu do czynienia z interferencją, o jakiej uczymy się w szkole (Young, Fresnel, XIX wiek).

(Grom dźwiękowy, Wikipedia)

Znanym przypadkiem tworzenia się takiej obwiedni fal elementarnych jest grom dźwiękowy towarzyszący przelotowi samolotu z szybkością naddźwiękową w pobliżu nas. Innym przykładem jest promieniowanie Czerenkowa wytwarzane przez cząstkę o prędkości większej niż prędkość światła w danym ośrodku.

Huygens sądził, że fale tak wytworzone rozchodzą się prostoliniowo, co w tym przypadku, oznacza, iż czoło fali DCEF jest w każdym punkcie prostopadłe do kierunku promieni, np. AC i AE. Zjawisko dyfrakcji ignorował, choć w Akademii Nauk w Paryżu powtarzano pewne doświadczenia Grimaldiego. Tworzenie się czoła fali jako obwiedni fal elementarnych stanowi treść zasady Huygensa w jego własnym sformułowaniu. Dodanie do tego mechanizmu interferencji jest już dodatkiem Fresnela z początku XIX w. Zasada ta musi być stosowana z dodatkowymi środkami ostrożności, bo np. gdyby fale elementarne były kołowe, to czemu nie powstaje druga fala biegnąca wstecz?

Ścisły opis fal dają odpowiednie równania różniczkowe cząstkowe, zasadę Huygensa można na ich podstawie udowodnić np. w trzech wymiarach, ale już nie w dwóch.

Huygens bez trudu uzasadnił na podstawie swej teorii prawa odbicia i załamania światła. Rozpatrzmy załamanie

Czoło fali AHHHC dociera do powierzchni AKKKB dzielącej dwa ośrodki. W drugim ośrodku fala rozchodzi się wolniej i w czasie, gdy w pierwszym przebywa drogę CLLLB, w drugim przebywa proporcjonalnie mniejszą drogę AOOON. Jeśli u góry mamy powietrze, a u dołu szkło, droga w szkle będzie 1,5 razy mniejsza, inaczej mówiąc, prędkość światła w szkle jest 1,5 razy mniejsza niż w powietrzu. Prawdziwym tour de force Huygensa było podanie falowego wyjaśnienia załamania w ośrodkach anizotropowych, o czym napiszemy może innym razem. Pokazał też Huygens związek kaustyk Barrowa i Newtona, o których mówiliśmy poprzednio, z teorią falową.

Na powierzchnię sferyczną pada od góry fala płaska albo, jak kto woli, wiązka równoległych promieni światła. Rysunki sporządzone są dla przypadku szkła. Jak widzieliśmy dla tęczy promienie załamują się pod różnymi kątami, tworząc kaustykę NC, czyli linię ogniskowania się promieni albo obwiednię rodziny promieni. Jest to sama kaustyka, którą opisywaliśmy wcześniej , rysunek został obrócony tak, żeby zgadzał się z obrazkiem Huygensa. Spójrzmy teraz na sytuację w języku Huygensa. Czoło fali DTRA załamuje się do QGH, potem FPS, wreszcie EVK, gdzie punkt E odpowiada promieniowi stycznemu do kuli, który załamuje się w kierunku ENa. Huygens pokazuje, że powyższe powierzchnie czoła dali w różnych chwilach są ewolwentami kaustyki NC. Przypomnijmy, co to takiego ewolwenta krzywej. Wcześniej Huygens stworzył sam to pojęcie, pracując nad wahadłem cykloidalnym.

Wahadłem idealnym, takim, którego okres nie zależy od amplitudy wychyleń byłoby wahadło jak na rysunku: tutaj nić OAP odwija się z krzywej AO. Niebieska krzywa – tor zakreślany przez ciężarek P – jest właśnie ewolwentą krzywej czerwonej. Oznacza to dwie rzeczy: AP jest normalna do ewolwenty oraz A jest chwilowym środkiem krzywizny ewolwenty. Krzywą AO nazywamy ewolutą. Ta sama ewoluta może mieć nieskończenie wiele ewolwent, po prostu możemy zmieniać długość nici.

Wracając do załamania światła w powierzchni sferycznej, krzywa EVK jest ewolwentą NC. Nić stanowi odcinek EN oraz NC. Odwijając tę nić w kierunku K otrzymamy całą linię czoła fali EVK. Używając odpowiednio dłuższych nici, które odrywają się od kaustyki poniżej N, zakreślimy rozmaite czoła fali odpowiadające chwilom wcześniejszym. Huygens nie potrafił podać jawnej postaci owego czoła fali ani też kaustyki. Metoda Barrowa też nie podaje równania kaustyki, lecz zawiera sposób jej skonstruowania. Z dzisiejszego punktu widzenia nie jest takie ważne, by otrzymać równanie (nb. kaustyka Barrowa ma znane równania w postaci parametrycznej).

Rozwiązał natomiast Huygens nieco łatwiejsze zagadnienie kaustyki dla odbicia od powierzchni okręgu.

Więcej fotografii kaustyk na stronie Henrika Wanna Jensena.

Na rysunku Huygensa promienie światła/płaska fala świetlna padają pionowo od dołu. Fala odbija się od okręgu ABC, tworząc kaustykę AFNE.

Kaustyka jest tu epicykloidą krzywą otrzymaną przez toczenie mniejszego okręgu po większym.

Pokażmy, jak otrzymać obwiednię promieni odbitych w okręgu.

Rozumowanie należy do Johanna Bernoulliego (opublikowane w roku 1692). Z rysunku widać, że trójkąt OAP jest równoramienny, jego podstawa OP=1. Stąd

OA=\dfrac{1}{2\cos\alpha}.

Promień odbity AP tworzy kąt 2\alpha z osią Oy. Zatem równanie promienia odbitego to

y=x\cdot\mbox{ ctg }2\alpha+\dfrac{1}{2\cos\alpha}.

Otrzymaliśmy równanie całej rodziny promieni odbitych dla różnych wartości \alpha. Różniczkując to równanie po \alpha przy stałych wartościach x, y otrzymamy równanie zawierające tylko zmienną x, z którego

x=\sin^3\alpha.

Podstawiając tę wartość do wyjściowego równania, otrzymamy współrzędną y:

y=\cos\alpha\left(\dfrac12+\sin^2\alpha\right).

Są to równania parametryczne kaustyki. Możemy wyrazić je także w postaci złożenia dwóch okręgów:

\begin{cases} x=\dfrac34\sin\alpha-\dfrac14\sin 3\alpha \\[12pt] y=\dfrac34\cos\alpha-\dfrac14\cos 3\alpha.\end{cases}

Różniczkowanie po parametrze łatwo uzasadnić, jeśli ktoś się wcześniej nie spotkał z szukaniem obwiedni. Niech równanie rodziny krzywych ma postać f(x,y,\alpha)=0. Szukamy przecięcia dwóch bliskich krzywych z rodziny, czyli

\begin{cases} f(x,y,\alpha)=0 \\ f(x,y, \alpha+\Delta\alpha)=0.\end{cases}

Odejmując stronami i przechodząc do granicy \Delta\alpha\rightarrow 0, otrzymujemy pochodną \frac{\partial f}{\partial\alpha}=0.

Matematyczna historia tęczy 4: Henry Pemberton, Thomas Young i George Biddell Airy (1722, 1803, 1838)

Henry Pemberton, lekarz i członek Royal Society, wspominany dziś bywa jedynie dlatego, że był redaktorem III wydania Newtonowskich Principiów, ostatniego za życia wielkiego człowieka. Biegły był nie tylko w medycynie, ale i matematyce oraz fizyce ówczesnej i przy okazji pewnej polemiki zwrócił na siebie uwagę sędziwego sir Isaaca. My przedstawimy tu krótko jego pracę z 1722 r., zawierającą wyjaśnienie nadliczbowych łuków tęczy pojawiających się czasem wewnątrz pierwszego łuku Kartezjańskiego. Isaac Newton wprowadził swego czasu hipotezę przystępów łatwego odbicia i załamania dla promieni światła. Wprowadzała ona do optyki geometrycznej element okresowości przestrzennej, ale bez wspominania o falach. Zjawiska falowe nie były w XVII w. zbyt dobrze rozumiane  nawet tzw. falowa teoria Huygensa dotyczyła nieokresowych zaburzeń w eterze, czegoś w rodzaju fal uderzeniowych. Pomysł Newtona był taki, że po załamaniu w ośrodku promień nabierał własności okresowych i dlatego napotykając następną powierzchnię, mógł się odbić albo załamać  – w zależności od tego, czy był właśnie w przystępie łatwego odbicia, czy załamania. Mogło to jego zdaniem wynikać z oddziaływania cząstek światła z falą wzbudzoną przez nie w ośrodku (niczym fale na wodzie, do której wpadł kamień), która to fala rozchodziła się szybciej od światła i niejako decydowała, czy zostanie ono przepuszczone, czy odbite. Owe mityczne przystępy bądź napady (fits) objaśniać miały bardzo konkretne wyniki doświadczeń z interferencją w cienkich warstwach. Idea była jednak na tyle karkołomna i spekulatywna, że pomimo bałwochwalczego stosunku rodaków do myśli dożywotniego przewodniczącego Royal Society nie bardzo się przyjęła. Pemberton, wczuwając się w świat Newtonowskich idei, wpadł na pomysł, że owe przystępy mogłyby wyjaśnić nadliczbowe łuki tęczy.

Niech BCD  będzie drogą promienia ekstremalnego, wyznaczającego granicę tęczy (rysunek zaczyna się od punktu odbicia w kropli B). Można podejrzewać, że oprócz BC biegną z tego punktu także jakieś słabsze promienie BE, BG, BF i BH. Zauważmy, że łamią one prawo odbicia. Jeśli już się z tym pogodzimy, to można rozumować następująco: promień BCK (kartezjański) przechodzi granicę woda-powietrze, więc musi być w przystępie załamania. Pobliskie promienie BG i BE będą w takim razie w przystępie odbicia i odbiją się wewnątrz kropli, nie wychodząc z niej przynajmniej na razie. Możemy sobie jednak wyobrazić nieco dalszą parę promieni BF i BH, takich że akurat są w przystępie załamania i wyjdą z kropli równolegle do siebie. One właśnie utworzą pierwszy łuk nadliczbowy (bo oczywiście ich kąt odchylenia musi być mniejszy od ekstremalnej wartości 42°). W dodatku, ponieważ odległość owych przystępów zależy od barwy, więc i promień tego łuku będzie zależał od barwy. Tyle udało się Pembertonowi. Na osiemdziesiąt lat zapadła cisza, przerywana jedynie monotonią podręczników, które ubarwiały tęczę po swojemu. Tłumaczono np. łuki nadliczbowe obecnością cząstek siarki (w szerszym pojęciu niż dzisiaj: siarka nie była jeszcze pierwiastkiem chemicznym, lecz niemal uniwersalnym składnikiem materii). Itd. itp. Przypominał to nieco niektóre wyjaśnienia sprzed Descartes’a, gdy zamiast zrozumieć kąt 42°, podawano w wątpliwość obserwacje. Zresztą nawet Descartes w swej Meteorologii asekurancko dodawał, że kąt może się różnić od znalezionego przezeń z powodu odmiennych warunków pogodowych. Rzecz w tym, że nie może, temperatura słabo wpływa na współczynnik załamania wody, a nic innego tu nie wchodzi w grę.

W ten sposób dochodzimy do Thomasa Younga, także lekarza, ale i uniwersalnego uczonego. Postaci takich jak Young w Polsce nie miewaliśmy. Stąd może Royal Society od XVII w. z jednej strony, a cud w Parczewie w wieku XXI z drugiej. I nie chodzi tu bynajmniej o religijność. Young wywodził się z rodziny kwakierskiej, choć w wieku dorosłym był już standardowo , tzn. anglikańsko, religijny. Był człowiekiem obsesyjnie skupionym na faktach, nastawionym empirycznie, znającym także matematykę, a do tego cały zestaw języków nowożytnych i starożytnych. Rzeczowość, nawet pedanteria, brak błyskotliwości, niestrudzona pracowitość, rozległa, zaiste encyklopedyczna wiedza (zdawało się, że mógłby samodzielnie zostać kompetentnym autorem całej encyklopedii powszechnej, pisał zresztą artykuły do Encyclopedia Britannica na imponujący zestaw najprzeróżniejszych tematów). Z tego pracowitego żywota (zajmował się także praktyką lekarską, choć był finansowo niezależny) dziś pamiętamy głównie zasadę interferencji światła i resuscytację falowej teorii światła. Doświadczenie Younga zostało uznane za najpiękniejszy eksperyment w fizyce: światło z dwóch wąskich szczelin interferuje ze sobą, dając prążki na ekranie. Wykonywano takie doświadczenia nie tylko ze światłem, ale i z elektronami, a nawet fullerenami, ukazuje ono bowiem coś więcej niż falowość światła: falowość wszelkich cząstek mikroświata. Young nie wykonał takiego idealnego eksperymentu, był on dla niego bardziej ideą wywiedzioną z doświadczeń i pomiarów, niż sprawozdaniem laboraoryjnym. W tym, co obserwował, pomieszane były skutki interferencji z dwóch otworów z dyfrakcją na samych otworach. Najbliżej sytuacji idealnej był wówczas, gdy światło słoneczne z małego otworka skierował na ustawioną krawędzią kartę tekturową. Na ekranie pojawiły się prążki, które znikały, gdy zasłonić jedną ze stron wiązki.

Young wiedział już wówczas, że aby uzyskać maksimum natężenia, różnica dróg optycznych dwóch promieni światła musi być całkowitą wielokrotnością długości fali. Gdy różnica dróg jest połówkową wielokrotnością, otrzymujemy minimum. Wiedział też, że droga w ośrodku o współczynniku załamania n musi być liczona n-krotnie, co wynika stąd, że w takim ośrodku długość fali zmniejsza się się n razy.

Nie będziemy opisywać rozmaitych badań optycznych Younga, pokażemy tylko jedną z plansz do jego wykładów. Prowadził on przez kilka lat popularne wykłady w Royal Institution. Uczęszczali na nie po pracy londyńscy rzemieślnicy bądź urzędnicy, ale także i damy z wyższych sfer. Wykłady Younga dotyczyły całości filozofii naturalnej, a także elementów matematyki. Ukazują stan wiedzy dwa wieki temu.

Więcej plansz Younga można znaleźć tutaj.

Young objaśnił nadliczbowe łuki tęczy interferencją promieni takich, jak na rysunku. Dwa równoległe promienie załamują się w kropli, a następnie po odbiciu ją opuszczają także jako równoległe. Ponieważ są to promienie, które odchylają się mniej niż promień Descartes’a efekt ich interferencji widoczny będzie pod kątem mniejszym, niż słynne 42°.

Wyjaśnienie to przedstawił w roku 1803 podczas wykładu Bakera w Royal Society, jednakże bez rysunku i żadnych obliczeń. Więcej informacji znalazło się w jego artykule do Encyclopedia Britannica Supplement zatytułowanym Chromatics napisanym w 1817 r. Różnica dróg optycznych dla dwóch promieni na rysunku równa się

\Delta=2n(\cos r_1-\cos r_2)-2(\cos i_1-\cos i_2).

Przyjęliśmy promień kropli równy 1. Young przedstawił tabelkę różnic drogi optycznej dla współczynnika załamania n=1,336 odpowiadającego skrajnej czerwieni.

Tabelka ułożona jest wg odległości kątowych od krawędzi tęczy. A więc (przykład Younga), jeśli czerwień pierwszej dodatkowej tęczy pojawi się o 2° od czerwieni tęczy głównej, to oznacza to, że drogi obu promieni różnią się o długość światła czerwonego \lambda=0,0000266 \mbox{ cala} = 660,4 \mbox{ nm} (wartość zmierzona przez Younga). Znajdujemy w tabelce pozycję 2° i odczytujemy, że kąty załamania (i zarazem odbicia) dla obu promieni równają się wtedy 42°59′ i 36°23, a różnica dróg 0,004. Znaczy to, że promień kropel wynosi

r=\dfrac{660,4 \mbox{ nm}}{0,004}= 165100 \mbox{ nm}=0,01651 \mbox{ mm}

Widzimy praktyczny cel owej tabelki: obserwator tęczy mógł sobie obliczyć, jakiej wielkości krople wywołały zjawisko. Uczony zadał sobie sporo pracy, szukając numerycznie kątów odpowiadających zadanym odległościom od krawędzi tęczy. Warunek Younga na maksima można zatem zapisać w postaci

\Delta=N\lambda.

Sam unikał matematyki tak długo, jak się dało, co było skutkiem pewnego przesądu. Otóż twierdził on, że wysoce zmatematyzowana fizyka w postaci algebraicznej, uprawiana zwłaszcza na kontynencie, jest czymś w rodzaju sztucznych ułatwień dla myśli, która zaczyna prześlizgiwać się po temacie zamiast go precyzyjnie ogarnąć. „Wydaje się wręcz, że matematyczna uczoność stanowi coś w rodzaju eutanazji talentu fizycznego”. Wygłosił on tę opinię w biogramie Josepha Lagrange’a, co chyba nie było ani trafne, ani dobrze usytuowane.

Oczywiście, prace uczonych takich jak Euler, Lagrange czy Laplace (z których Young także korzystał) mogły czasem sprawiać wrażenie przesadnego zmatematyzowania. Ale to samo było kiedyś z Isaakiem Newtonem, naukowym idolem Younga: w reakcji na Principia w XVII w. dość często powtarzał się ni to zarzut, ni to pobłażliwa ocena, iż jest to czysta matematyka, a zatem nie odnosi się wprost do naszego niedoskonałego świata i nie musimy sobie tym zawracać głowy, tym bardziej że matematyka trudna. Young ulegał tu jednak przesądowi, i to podwójnemu. Pierwszy typowy dla wyspiarzy polegał na unikaniu jak ognia wszelkich zapisów algebraicznych i prowadzeniu rozumowań słowami. Była to maniera szkodliwa i niemądra, opóźniająca import kontynentalnej matematyki na Wyspy. W Cambridge mniej więcej od początku wieku działało już Analytical Society, które stawiało sobie za cel zapoznanie studentów z europejskim dorobkiem i pozbycie się zapóźnienia wywołanego zapatrzeniem w bardzo osobiste, idiosynkratyczne podejście  do analizy stosowane przez Isaaca Newtona. Drugi przesąd Younga polegał na niedocenianiu wagi matematyki w fizyce. Zdrowy rozsądek jest owszem cenny, ale niebyt daleko prowadzi. Historia fizyki pokazuje, że najbardziej zaawansowana i pozornie odległa od rzeczywistości doświadczalnej matematyka nie tylko znajduje zastosowanie, ale często okazuje się niezbędna. Żeby zrozumieć wszechświat, potrzebna jest geometria riemannowska, żeby zrozumieć właściwości materiałów wokół nas, potrzebna jest mechanika kwantowa rozgrywająca się przecież w zespolonych przestrzeniach Hilberta, a nie w przestrzeni naszych bezpośrednich doświadczeń.

Jeszcze za życia Thomasa Younga falowa teoria światła została niezależnie odkryta i rozwinięta w algebraicznej kontynentalnej postaci. Dokonał tego Augustin Fresnel, który potrafił połączyć solidną matematykę z École polytechnique z inżynierską precyzją eksperymentów. Taka właśnie matematyczna optyka falowa zdominowała cały wiek XIX. Zastosowanie do tęczy zawdzięczamy jednak paradoksalnie Anglikowi, astronomowi George’owi Biddellowi Airy’emu. Objął on z czasem stanowisko Astronoma Królewskiego. Był człowiekiem niezwykle pracowitym i systematycznym. Jego biograf opowiada z uznaniem, iż potrafił spędzić całe popołudnie na wypisywaniu etykietek z napisem „puste” w celu odróżnienia  pudełek wypełnionych od pustych. Zapisał się w historii tym, że udało mu się nie spotkać w roku 1845 z Johnem Couchem Adamsem. Raz Airy był we Francji, miesiąc później nie było go w domu, Adams zostawił kartkę i wrócił po godzinie, by usłyszeć, że teraz Astronom Królewski je obiad i się z nim nie spotka. Chodziło zaś o odkrycie kolejnej za Uranem planety. Zirytowany Adams przestał nachodzić Airy’ego, planetę odkryto dzięki obliczeniom nie Adamsa, lecz Francuza Le Verriera. Oprócz tej prestiżowej wpadki cierpliwy i dobrze wykształcony Airy zrobił co najmniej dwie rzeczy pamiętane przez potomność: obliczył dyfrakcyjną zdolność rozdzielczą teleskopu, a także rozkład natężeń w tęczy na podstawie teorii falowej. Pokażemy krótko, jak to się robi.

Promienie świetlne w pobliżu krawędzi tęczy zachowują się tak, jakby pochodziły z wygiętego w kształcie S czoła fali (promienie są bowiem prostopadłe do czoła fali). Wygląda to tak na współczesnym rysunku.

Obrazek za: H.C. van de Hulst, Light Scattering by Light Particles.

Czoło fali jest prostopadłe do promieni, promień wychodzący z O odpowiada maksymalnemu odchyleniu \theta_0, promienie wychodzące z P i R jakiejś bliskiej wartości kąta \theta-\theta_0. Kształt powierzchni falowej jest krzywą trzeciego stopnia, czyli można go zapisać w postaci

u=\dfrac{hv^3}{3r^2},

gdzie h jest bezwymiarowym współczynnikiem, a promień kropli w mianowniku musi być w kwadracie, żeby zgadzały się jednostki, trójka jest tu dla wygody. Współczynnik ten nietrudno obliczyć (*), choć nie jest szczególnie istotny, w każdym razie dopóki nie porównujemy teorii z eksperymentem bądź obserwacją tęczy. Promienie docierające pod kątem \theta-\theta_0 mają różnicę fazy wynikającą z kształtu czoła fali oraz z kąta obserwacji. Różnica faz odpowiadająca odległości RQ jest równa

\Delta\varphi=\dfrac{2\pi}{\lambda} \left( -v(\theta-\theta_0)+\dfrac{hv^3}{3r^2}\right)

Sumując wszystkie fale \exp{i\Delta\phi}  dla różnych wartości v, czyli całkując otrzymujemy zespoloną amplitudę fali obserwowanej pod danym kątem proporcjonalną do

{\displaystyle \int_{-\infty}^{\infty}e^{-ikv+\frac{khv^3}{3r^2}}dv}.

Tutaj k oznacza 2\pi/\lambda. Rozszerzyliśmy granice całkowania do nieskończoności, ponieważ sądzimy, iż funkcja w wykładniku urojonym oscyluje coraz szybciej i nie wniesie istotnego wkładu dla dużych |v|. Okazuje się też rzeczywista, ponieważ wykładnik jest nieparzystą funkcją v. Ostatecznie natężenie, jakiego możemy oczekiwać po zsumowaniu wszystkich fal będzie proporcjonalne do kwadratu amplitudy, czyli kwadratu całki

{\displaystyle \int_{0}^{\infty}\cos\frac{\pi}{2}(xt-t^3)dt},

gdzie

x=\dfrac{4l(\theta-\theta_0)}{\lambda},\;\; l=\left(\dfrac{3\lambda r^2}{4h} \right)^{\frac13}.

Airy obliczył tę całkę numerycznie, co nie jest zadaniem banalnym: najpierw trzeba ją obliczyć na jakimś odcinku skończonym, a później znaleźć przybliżenie dla reszty aż do nieskończoności. Praca ta musiała go kosztować bardzo dużo wysiłku, wykonał ją porządnie, zamieścił tabelki funkcji w swoim artykule. Z oczywistych powodów nazywa się ona funkcją Airy’ego. Spotyka się ją także w mechanice kwantowej dla potencjału opisywanego funkcją liniową (por. np. L.D. Landau i E. M. Lifszyc, Mechanika kwantowa).

Airy porównał swoje wyniki dla tęczy z teorią Descartes’a i Younga. Widzimy, że maksima Younga są wyraźnie przesunięte w stosunku do teorii falowej. Tak czy owak teoria Younga jest zbyt prosta matematycznie i nie opisuje złożoności sytuacji. Jej główny brak jest właśnie matematyczny: zamiast dwóch promieni trzeba uwzględnić nieskończenie wiele fal. Nie darmo wprowadzono całkowanie jako swoiste uogólnienie sumowania. Teoria Airy’ego przewiduje też, że pierwsze maksimum tęczy leży nieco wewnątrz łuku Descartes’a (oś pionowa na rysunku). Więcej konkretnych wyników pokazałem tutaj. Oczywiście, także teoria Airy’ego jest przybliżona, choćby z powodu rozszerzenia całkowania do nieskończoności w kierunku poprzecznym. Okazuje się jednak, że jest to przybliżenie wyjątkowo skuteczne, gdy chcemy zrozumieć, co się dzieje.

A to obrazki funkcji Airy’ego i jej kwadratu, czyli u nas natężenia światła w pobliżu krawędzi tęczy.

W mechanice kwantowej funkcja Airy’ego to funkcja falowa w polu jednorodnym: z prawej strony mamy zanikającą wykładniczo część „tunelową”, odpowiadającą ujemnej energii kinetycznej, z lewej strony coraz szybsze oscylacje odpowiadające coraz większej energii kinetycznej cząstki. Kwadrat funkcji falowej opisuje gęstość prawdopodobieństwa i jak to w mechanice kwantowej cząstka ma niezerowe prawdopodobieństwo znalezienia się w obszarze klasycznie zabronionym, gdzie energia kinetyczna jest ujemna. W przypadku tęczy x jest proporcjonalne do odległości kątowej od krawędzi tęczy geometrycznej – odpowiada jej oś pionowa. Ponieważ jest to teoria falowa, więc fale wnikają nawet tam, gdzie klasycznie jest to zabronione (prawa część wykresu dla x>0). Pierwsze maksimum leży nieco wewnątrz tęczy Descartes’a, pojawiają się także kolejne, coraz bliżej siebie. Young był blisko prawdy, jeśli chodzi o położenie maksimów natężenia w tęczy jego warunek na różnicę dróg optycznych należy zmodyfikować do postaci

\Delta=(N+\frac14)\lambda.

Nadal nie jest to dokładnie to samo co w teorii Airy’ego, ale dość blisko. Źródło tej dodatkowej różnicy faz można wyjaśnić, lecz wyjaśnienie wymaga dodatkowego wysiłku matematycznego, którego tu nie podejmiemy.

Gustav Mie już na początku wieku XX obliczył, jak wygląda rozpraszanie fali elektromagnetycznej na dielektrycznej kuli, co obejmuje interesujący nas przypadek. Wynik ma postać rozwinięcia nieskończonego i choć jest ścisły nie bardzo pozwala coś zobaczyć po drodze między wejściem a wyjściem, wymaga uwzględnienia tysięcy wyrazów, czyli komputera. Stosowano też do zagadnienia tęczy zespolone momenty pędu, ale nie jestem przekonany, czy problem stał się przejrzystszy. Inaczej mówiąc, panujemy nad nim rachunkowo, ale czasem jest to tylko zwycięstwo numeryczne, a zatem ograniczone.

(*) Zobaczmy jeszcze, jak znaleźć współczynnik h. Kąt odchylenia promienia dla pierwszego łuku tęczy dany jest wzorem

\theta=4r-2i=4 \arcsin t/n+2\arcsin t,

gdzie t\equiv \sin i. W okolicy ekstremalnego odchylenia otrzymamy

\theta=\theta_0+\frac12 \theta'' (t-t_0)^2=\theta_0+\frac{1}{2r^2} \theta'' v^2.

Tutaj \theta'' jest drugą pochodną \theta(t) wziętą w ekstremum. Patrząc na rysunek powyżej, mamy

\dfrac{du}{dv}=\approx \theta-\theta_0=\dfrac{\theta'' v^2}{2 r^2}.

Po scałkowaniu dostaniemy wynik.

Gauss, lemniskata i wyjątkowy algorytm (30 V 1799)

Pisałem o tym, jak metodą Archimedesa obliczano liczbę \pi. Można tę starożytną metodę sformułować jako algorytm niezależny od geometrii. Bierzemy dwie dodatnie liczby rzeczywiste a_0,b_0 (niech b_0<a_0). Potem rekurencyjnie obliczamy kolejne wartości ciągów

\dfrac{1}{a_{n+1}}=\dfrac{1}{2}\left(\dfrac{1}{a_n}+\dfrac{1}{b_n}\right), \; b_{n+1}=\sqrt{a_{n+1}b_{n}}.

Kolejne wyrazy są tu średnimi harmonicznymi i średnimi geometrycznymi poprzednich wyrazów. Średnia harmoniczna dwóch liczb to np. średnia prędkość na pewnej drodze, gdy połowę drogi jedziemy z pierwszą prędością, a drugą połowę z drugą prędkością. Można pokazać bez trudu (*), że ciąg a_n jest malejący, a ciąg b_n rosnący. Ponieważ oba są ograniczone, muszą być zbieżne, i to do wspólnej granicy równej

a_{\infty}=b_{\infty}=\dfrac{a_0 b_0}{\sqrt{a_0^2-b_0^2}}\arccos \dfrac{b_0}{a_0}.

Wynik ten znał nauczyciel Carla Friedricha Gaussa Johann Friedrich Pfaff, uważany za najwybitniejszego niemieckiego matematyka epoki przed Gaussem.

Biorąc a_0=2\sqrt{3} oraz b_0=3, otrzymujemy w granicy liczbę \pi.

Gdy b_0>a_0, należy zamienić kolejność pod pierwiastkiem oraz arcus cosinus zamienić na arcosh. W roku 1880 odkrył ponownie ten algorytm Carl Wilhelm Borchardt, znany najbardziej jako redaktor „Journal für die reine und angewandte Mathematik”, zwanego też Żurnalem Crelle’a od nazwiska pierwszego redaktora. Dlatego w literaturze nazywa się go algorytmem Borchardta albo Archimedesa-Borchardta.

Młody Gauss od dziecka zapowiadał się na wyjątkowy talent matematyczny i w tym przypadku cudowne dziecko wyrosło na czołowego matematyka Europy. Podobnie jak Euler należał on do matematyków, którzy lubią i potrafią sprawnie wykonywać rozmaite rachunki numeryczne. 

Zainteresował się on następującym algorytmem:

a_{n+1}=\dfrac{a_n+b_n}{2},\;b_{n+1}=\sqrt{a_n b_n},

gdzie a_0>b_0>0. Zauważmy, że jest to „kuzyn” algorytmu Archimedesa: średnie harmoniczne zostały zastąpione tu średnimi arytmetycznymi. Łatwo wykazać, że oba ciągi dążą do wspólnej granicy, którą oznaczymy M(a_0,b_0) i będziemy nazywać średnią arytmetyczno-geometryczną obu wyjściowych liczb. Oto przykładowe rachunki Gaussa, a_0=\sqrt{2}, b_0=1. Widać, że zbieżność jest niezwykle szybka (dokładność danych w tabeli odpowiada rachunkom Gaussa, który oczywiście musiał przeprowadzać je ręcznie z całym mozołem, ale też chyba i radością.  

tabella

Mamy więc znakomity algorytm, ale nie wiemy, co jest jego granicą. Gauss potrafił udowodnić, że granica jest w tym przypadku związana z długością lemniskaty Bernoulliego, eleganckiej krzywej, przez którą bracia Jakob i Johann Bernoulli skłócili się śmiertelnie w 1694 roku (poszło o kwestie pierwszeństwa – nie tylko w tamtej epoce traktowane niezwykle ambicjonalnie, choć dziś trochę więcej wiemy o nieuniknionej równoległości pewnych odkryć i rozumowań). Oto lemniskata.

tmp_tr67pffh

Jest to miejsce geometryczne punków, których iloczyn odległości od dwóch ognisk jest stały (przy warunku, że środek odcinka łączącego ogniska leży na krzywej, w przeciwnym razie otrzymamy owal Cassiniego). Równanie biegunowe lemniskaty ma postać r^2=\cos2\theta (to lemniskata jednostkowa, wszelkie inne są do niej geometrycznie podobne). Możemy za jego pomocą wyrazić element łuku krzywej jako

ds^2=dr^2+r^2d\theta^2=\dfrac{dr^2}{1-r^4}.

Zatem długość całkowita lemniskaty jest równa

{\displaystyle 2\,\widetilde{\omega}\equiv 4\int_{0}^{1}\dfrac{dt}{\sqrt{1-t^4}}}.

Gauss najpierw zauważył, porównując liczby, a następnie udowodnił, że 

\widetilde{\omega}=\dfrac{\pi}{M(\sqrt{2},1)}.

Wielkość ta przypomina liczbę \pi: też jest stosunkiem długości krzywej do jej „promienia”. Jak wskazuje to postać całki dającej długość łuku lemniskaty, mamy tu do czynienia z pierwiastkiem z wielomianu czwartego stopnia. Wiadomo, że całki pierwiastków z wielomianu drugiego stopnia dają się wyrazić przez funkcje elementarne. W przypadku wielomianów stopnia trzeciego i czwartego otrzymujemy tzw. całki eliptyczne: jest to nazwa wspólna, wywiedziona z zagadnienia obliczania długości łuku elipsy. Tak się składa, że całki dające długość łuku elipsy są całkami eliptycznymi drugiego rodzaju. Całkę pierwszego rodzaju spotkaliśmy w zagadnieniu wahadła matematycznego. Możemy także za Gaussem dowieść, że całkę eliptyczną zupełną pierwszego rodzaju K(k) można wyrazić przez średnią arytmetyczno-geometryczną.

{ \displaystyle K(k)\equiv \int_0^{ \frac{\pi}{2} } \dfrac{d\varphi}{ \sqrt{1-k^2\sin^2\varphi} } ,\; \mbox{gdzie } 0\le k<1.}

Mamy równość

\dfrac{1}{M(1,k')}=\dfrac{2}{\pi}K(k),\,\mbox{gdzie } k'=\sqrt{1-k^2}.

Można ją wyrazić:

{\mathcal AGM}(1,\sqrt{1-k^2})={\mathcal AGM}(1/min,1/max)=\left\langle \dfrac{1}{ \sqrt{1-k^2\sin^2\varphi} } \right\rangle,

gdzie min, max oznaczają najmniejszą i największą wartość funkcji podcałkowej na przedziale [0,\frac{\pi}{2}], a nawiasy kątowe oznaczają uśrednienie funkcji po przedziale całkowania. Twierdzenie to zapewnia szybki algorytm do obliczania całek eliptycznych, w istocie tak szybki, że można go stosować także do innych celów: obliczania liczby \pi albo funkcji w rodzaju \ln x, jeśli powiąże się je odpowiednio z całkami eliptycznymi.

Jeden z takich algorytmów, podany przez Eugene’a Salamina, korzysta z trzech ciągów a_n, b_n zdefiniowane jak wyżej oraz s_{n+1}=s_n-2^n(a_n-a_{n+1})^2; przy s_0=\frac14; \, a_0=1;\; b_0=1/\sqrt{2}. Otrzymuje się wówczas nierówność, którą spełnia \pi:

\dfrac{a_n^2}{s_n}>\pi>\dfrac{a_{n+1}^2}{s_n}.

Daje to w kolejnych iteracjach:

0 : 2.914213562373095048801689 < π < 4.000000000000000000000000
1 : 3.140579250522168248311331 < π < 3.187672642712108627201930
2 : 3.141592646213542282149344 < π < 3.141680293297653293918070
3 : 3.141592653589793238279513 < π < 3.141592653895446496002915
4 : 3.141592653589793238462643 < π < 3.141592653589793238466361

Dla porównania oryginalny algorytm Archimedesa:

0 : 3.0000000 < π < 3.4641017
1 : 3.1058285 < π < 3.2153904
2 : 3.1326286 < π < 3.1596600
3 : 3.1393502 < π < 3.1460863
4 : 3.1410319 < π < 3.1427146

Widzimy, jak bardzo średnie arytmetyczno-geometryczne przyspieszają zbieżność, przy czym algorytm Salamina pochodzi z roku 1976 i od tamtej pory przedstawiono znacznie szybsze.

Na koniec pokażemy, czemu całka eliptyczna pierwszego rodzaju daje się obliczać w sposób odkryty przez Gaussa (dla ścisłości historycznej należy dodać, że nie tylko Gauss odkrył takie podejście, trochę wcześniej był Joseph Lagrange, choć zdaje się tylko Gauss zrozumiał dobrze od razu aspekt numeryczny sprawy).

Oznaczmy I(a,b) (0<b<a) następującą całkę:

{\displaystyle I(a,b)=\int_0^{\frac{\pi}{2}} \dfrac{d\varphi}{\sqrt{a^2\cos^2\varphi+b^2\sin^2\varphi}}=\dfrac{1}{a}K(k'),\, k=\dfrac{b}{a}. }

Pokażemy, że I(a,b) nie zmienia się, kiedy przechodzimy do kolejnych kroków rekurencyjnych:

I(a,b)=I(\dfrac{a+b}{2},\sqrt{ab}) \;\; \mbox{(**)}.

 A skoro tak jest (szczegóły niżej), to kolejne wartości I(a_n,b_n) są takie same i przechodząc do granicy otrzymamy

{\displaystyle I(a,b)=I(M(a,b),M(a,b))=\int_0^{\frac{\pi}{2}} \dfrac{d\varphi}{M(a,b)\sqrt{\cos^2\varphi+\sin^2\varphi}}=\dfrac{\pi}{2 M(a,b)}}.

Jako przykład pokażemy, jak procedura tego rodzaju pozwala obliczać okres wahadła matematycznego „niemal stającego na głowie” dla amplitud bliskich 180^{\circ}. Np. dla amplitudy 179^{\circ} otrzymamy k'=\sin 89,5^{\circ}=0,008726535498374. Obliczamy średnią M(k',1):

a_n                       b_n

0,008726535498374 1,00000000000000
0,504363267749187 0,093415927434105
0,298889597591646 0,217061195105173
0,257975396348409 0,254710292798989
0,256342844573699 0,256337645964924
0,256340245269312 0,256340245256133

Okres wahadła wydłuża się przy tak dużym wychyleniu 1/0,256340245256133=3,90106516038909 razy. Euler w pracy E503, na którą powoływaliśmy się w poprzednim poście, także pokazuje rachunki dla takiego wychylenia, jednak jego wynik jest błędny.  

(*) Nasze liczby wyjściowe a_0,\,b_0 można zapisać jako

b_0=\lambda\sin\theta,\;a_0=\lambda \,\mbox{tg }\theta

dla pewnych wartości \lambda i \theta. Pierwszy związek rekurencyjny daje nam

\dfrac{1}{a_1}=\dfrac{1}{2\lambda}\left( \mbox{ctg }\theta+\dfrac{1}{\sin\theta}\right)=\dfrac{1}{2\lambda \,\mbox{tg }\frac{\theta}{2}}\Rightarrow a_1=2\lambda\,\mbox{tg}\,\dfrac{\theta}{2} .

Drugi związek rekurencyjny przyjmuje postać

b_1=\sqrt{a_1 b_0}=\sqrt{2\lambda \,\mbox{tg}\,\dfrac{\theta}{2}\cdot\lambda 2\sin\dfrac{\theta}{2}\cos\dfrac{\theta}{2}}=2\lambda\sin\dfrac{\theta}{2}.

Widać, że wzór ogólny będzie

a_n=2^{n}\lambda \,\mbox{tg}\,\dfrac{\theta}{2^{n}},\; b_n=2^{n}\lambda \sin\dfrac{\theta}{2^{n}}.

Oba ciągi zbieżne są do granicy \lambda\theta. Związek z geometrią wielokątów wpisanych i opisanych na okręgu przedstawia rysunek. Zaczynając od sześciokąta, otrzymamy wartości początkowe przytoczone w tekście.

borchardt

Wykażemy tożsamość (**). Topornym sposobem jej udowodnienia jest odpowiednia zamiana zmiennych pod całką. Wadą tego podejścia jest to, że podstawienie pojawia się jako deus ex machina i nam zostaje tylko sprawdzenie rachunków. Można też tożsamość przekształcić do postaci bardziej przydatnej w naszym przypadku

K(\dfrac{2\sqrt{k}}{1+k})=(1+k)K(k).

Funkcja podcałkowa po obu stronach jest odwrotnością pierwiastka, będziemy więc korzystać z rozwinięcia dwumianowego

{\displaystyle (1+t)^{-\frac12}=\sum_{m=0}^{\infty} {-\frac{1}{2}\choose m} t^{m},\;\mbox{gdzie}\; {\alpha\choose m}\equiv\dfrac{\alpha(\alpha-1)\ldots(\alpha-m+1)}{m!}.}

Dla m=0 przyjmujemy z definicji {\alpha\choose 0}=1

Rozwinięcie K(k) ma postać

{\displaystyle K(k)=\sum_{m=0}^{\infty} {-\frac{1}{2}\choose m} (-1)^m k^{2m} \int_0^{\frac{\pi}{2}} \sin^{2m}\varphi d\varphi.}

Całka, która się tu pojawia, może być zapisana w postaci

{\displaystyle \int_0^{\frac{\pi}{2}}\sin^{2m}\varphi d\varphi=\dfrac{\pi}{2}{-\frac12\choose m}(-1)^{m}.} 

Mamy więc dla K(k) rozwinięcie

{\displaystyle K(k)=\dfrac{\pi}{2}\sum_{m=0}^{\infty}{-\frac12\choose m}^2 k^{2m}. }

Funkcję podpierwiastkową po lewej stronie tożsamości możemy zapisać przy użyciu tożsamości 2\sin^2\varphi=1-\cos2\varphi jako

\dfrac{1+k^2+2k\cos2\varphi}{(1+k)^2}=\dfrac{(1+ke^{i2\varphi})(1+ke^{-i2\varphi})}{(1+k)^2}.

Otrzymujemy wówczas

{\displaystyle 2K\left(\dfrac{2\sqrt{k}}{1+k}\right)=(1+k)\int_0^{\pi}(1+ke^{i2\varphi})^{-\frac12}(1+ke^{-i2\varphi})^{-\frac12}d\varphi = }

Dwójce przed K(\frac{2\sqrt{k}}{1+k}) odpowiada podwojenie przedziału całkowania: [0,\pi]. Rozwijamy oba pierwiastki w szereg:

{\displaystyle =(1+k)\sum_{m,m'=0}^{\infty}{-\frac12\choose m}{-\frac12\choose m'}k^mk^{m'}\int_0^{\pi}e^{i 2(m-m')\varphi}d\varphi=. }

Tylko wyrazy diagonalne m=m' przeżywają całkowanie, zostaje nam

{\displaystyle 2\dfrac{\pi}{2}(1+k)\sum_{m=0}^{\infty}{-\frac12\choose m}^2 k^{2m}=2(1+k)K(k). }

Całkę z sinusa w potędze łatwo znaleźć zauważając, że

\sin\varphi=\dfrac{e^{i\varphi}-e^{-i\varphi}}{2i},

a także rozszerzając przedział całkowania do [0,2\pi]. W rozwinięciu dwumianowym \sin^{2m}\varphi całkowanie przeżywają tylko wyrazy, w których wykładniki są przeciwne, stąd przytoczony wyżej wzór. Korzystałem ze sformułowania Petera Durena w świetnej książce Invitation to Classical Analysis.

 

George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop? (1834)

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi\, \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \, \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta= \dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \, \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.

Ojciec Gregor Mendel, 1865

Johann Mendel urodził się w chłopskiej rodzinie na Śląsku, był jednym z tych, których miano nazywać później Niemcami Sudeckimi. Chłopiec miał nieco szczęścia: w jego rodzinnej wsi była szkoła, gdyż lokalna właścicielka, hrabina Walpurga Truchsess-Zeil, dbała edukację poddanych. Ponieważ okazał się zdolny, poszedł do następnej szkoły, a później do gimnazjum w Opawie. Przypominało to chyba edukację Jędrzeja Radka z Syzyfowych prac, rodzice z trudem łożyli na utrzymanie syna w mieście. Niewątpliwie pragnęli też zostawić mu gospodarstwo – był bowiem jedynym chłopcem. Po ukończeniu gimnazjum Johann przeniósł się na studia do Ołomuńca, wciąż brakowało mu pieniędzy, sporo chorował. Jego pilność i talent zwróciły uwagę jednego z wykładowców i młodzieniec został przyjęty do augustianów w Brnie. Przyjął zakonne imię Gregor.

Ojciec Gregor był zbyt delikatny i nieśmiały, aby dobrze czuć się w roli duszpasterza. Pasjonowała go natomiast przyroda, zajmował się klasztornym ogrodem, uczył w różnych szkołach, był jednym z założycieli lokalnego towarzystwa naukowego w Brnie. W lutym i marcu 1865 roku zreferował na kolejnych posiedzeniach owego Towarzystwa swoje badania dotyczące krzyżowania grochu. Nie było to zapewne gremium, które mogłoby docenić wyniki ojca Mendla. Być może zresztą jego wyniki na tyle odbiegały od ówczesnego rozumienia dziedziczności, że nawet gdyby ich autor nie był prowincjonalnym nauczycielem przyrody, i tak nikt by na nie nie zwrócił większej uwagi. Bywają prace, których w momencie powstania nikt nie czyta, a które później stają się początkiem nowej dziedziny. Tak było z pracą Mendla, około roku 1900 zrozumiano, że kładzie ona podwaliny pod nową dziedzinę wiedzy: genetykę.

Co w pracy Mendla tak bardzo odbiegało od tego, co uczeni pragnęli usłyszeć? Były to lata Charlesa Darwina, niewątpliwie ewolucja była tematem nr 1. Nawet w Brnie miesiąc przed referatem Mendla jeden z członków Towarzystwa omawiał właśnie ewolucję. Wiemy także, że Mendel przeczytał O powstawaniu gatunków. Darwin jednak niewiele miał do powiedzenia na temat zmienności i na temat mechanizmu dziedziczenia, a to, co mówił było zwykle bałamutne.

Mendel_seven_characters-ger.svg

Ojciec Gregor cierpliwie prowadził doświadczenia nad pewnymi określonymi wyraźnie cechami grochu: mogły one występować w jednej albo drugiej wersji: kwiaty mają jeden albo drugi kolor, łodyga jest niska albo wysoka itp. Prace Mendla dowodziły, że dziedziczenie ma charakter losowy i w dodatku dyskretny, cyfrowy: są pewne jednostki dziedziczenia, które łączą się w organizmie potomnym i określają jednoznacznie, która z ewentualności wystąpi: np. czy nasiona będą gładkie, czy pomarszczone. W dodatku Mendel założył, że gdy w roślinie zawarte są obie „skłonności”, to uwidacznia się tylko jedna z nich, a druga może być ukryta i ujawnić się dopiero w potomstwie. Wierzono wtedy raczej w jakieś mieszanie się cech, podobne do mieszania barw na palecie, a nie w coś tak zero-jedynkowego.

Także przypadkowość procesu dziedziczenia trudna była do przyjęcia. Często zarzucano Darwinowi, że Opatrzność chciałby zastąpić przypadkiem, ślepym losem. Prawdopodobnie nie było to prawdą w odniesieniu do poglądów samego Darwina, ale pokazuje, jak broniono się przed uznaniem roli losowości w świecie przyrody ożywionej.

Dopiero wiek dwudziesty wprowadził losowość i przypadkowość na naukowe salony. Zakrawa na ironię, że w 1936 roku Ronald Fisher, jeden z pionierów genetyki i statystyki matematycznej, zakwestionował wyniki liczbowe Mendla jako właśnie zbyt regularne jak na dzieło przypadku. Fisher zastosował do wyników Mendla test chi kwadrat i wykazał, że uzyskanie tak regularnych wyników jest niezwykle mało prawdopodobne. Wywołało to dyskusję, której echa do dziś przewijają się w literaturze dotyczącej genetyki oraz statystyki.

Co maszyny parowe mówią nam o czarnych dziurach? (Carnot, 1824, Hawking 1974)

Termodynamika jest dziedziną zdumiewającą. Wyprowadzone z niej zależności pojawiają się w najróżniejszych dziedzinach fizyki. Pokażemy tu mały przykład: rozumowanie Sadiego Carnota dotyczące sprawności maszyn parowych i pewien eksperyment myślowy zaproponowany przez Roberta Gerocha w 1971 r., który doprowadził do odkrycia niezerowej temperatury czarnych dziur. Pracowało nad tym zagadnieniem kilku uczonych, najważniejszy wkład wnieśli Jacob Beckenstein i Stephen Hawking. Ten ostatni końcową formułę uznał za tak ważną, że pragnął, by mu ją wyryto na nagrobku. Odkrycie to oznaczało, że czarne dziury nie są zupełnie czarne, wysyłają bowiem promieniowanie cieplne i kiedyś, po bardzo długim czasie, wyparują.

Angielski napis: Tu spoczywa to, co było śmiertelne w Stephenie Hawkingu. Słowa powtarzają po angielsku to, co wyryto kiedyś na nagrobku Isaaca Newtona nieopodal: Hic depositum est quod mortale fuit Isaaci Newtoni.

Zaczniemy od Carnota. Sadi, był synem Lazare’a Carnota, generała-matematyka, polityka i organizatora, dzięki któremu armia rewolucyjna odnosiła sukcesy i który później służył Napoleonowi Bonaparte, póki ten nie zdradził ideałów rewolucji dla osobistej władzy. Lazare Carnot napisał znany podręcznik mechaniki maszyn. Jego syn, Sadi, absolwent École Polytechnique, także został inżynierem wojskowym. Nie mógł raczej liczyć na karierę we Francji w czasach restauracji monarchii Burbonów, zajmował więc jakieś niewiele znaczące stanowiska w Sztabie Generalnym i rozwijał się intelektualnie. Mając 27 lat, w 1824 roku opublikował niewielką książeczkę Réflexions sur la Puissance Motrice du Feu (Rozważania o sile poruszającej ognia). Nie została ona doceniona przez współczesnych, a kilka lat później Carnot zmarł na cholerę. Pracę Carnota odkryło dopiero następne pokolenie fizyków, w tym William Thomson, późniejszy lord Kelvin.

Carnot rozumiał, jak ogromną rolę odgrywają maszyny parowe: w jego czasach znajdowały one wciąż nowe zastosowania, zwłaszcza Anglia korzystała na rozpowszechnieniu nowych technologii, bez nich nie byłoby Imperium Brytyjskiego. Toteż Carnot spróbował zbudować naukową teorię wydajności maszyn cieplnych. Posługiwał się zresztą teorią cieplika, nieznana była bowiem jeszcze zasada zachowania energii, lecz rozumowania Carnota można było łatwo zmodyfikować, tak też poniżej zrobimy. Odkrycie Carnota jest równoważne temu, co później stało się II zasadą termodynamiki

Rozumiano oczywiście, że nie może istnieć maszyna, która wiecznie będzie się poruszać: perpetuum mobile. Paryska Akademia nauk w roku 1775 uchwaliła, że zaprzestaje analizowania nadsyłanych wciąż rozwiązań problemu podwojenia sześcianu, kwadratury koła i trysekcji kąta, a także wynalazków umożliwiających wieczny ruch bez napędu z zewnątrz. Problemy geometryczne znane były od starożytności i coraz bardziej się przekonywano, że są nierozwiązalne jako konstrukcje za pomocą liniału i cyrkla. Maszyny parowe (oraz wszelkie silniki cieplne, a także zwierzęta) zamieniają ciepło na pracę. Z dzisiejszego punktu widzenia rzec można, iż zamieniają nieuporządkowany ruch cząsteczek i atomów na uporządkowany ruch tłoka. Tutaj także obowiązuje pewien zakaz: nie można zamienić bez strat ciepła na energię mechaniczną. Czasem mówi się, że niemożliwe jest perpetuum mobile drugiego rodzaju, czyli urządzenie, które pobierałoby ciepło wyłącznie z jednego źródła, a następnie zamieniało je w całości na pracę. Jest to istota II zasady termodynamiki. Gdyby możliwe było np. pobranie z oceanów światowych ilości ciepła odpowiadającej zmianie temperatury o 1 K i zamiana go w całości na pracę, uzyskalibyśmy około 1025 J, czyli mniej więcej sto tysięcy razy więcej, niż roczna produkcja energii elektrycznej na świecie w 2013 roku. Zasada zachowania energii byłaby przy tym spełniona, naruszałoby to jedynie II zasadę termodynamiki.

Carnot podszedł do zagadnienia w duchu kartezjańskim i matematycznym. Pominął wszelkie szczegóły konstrukcyjne, sprowadzając maszynę parową do takiego działania cyklicznego, w którym pobieramy najpierw pewną ilość ciepła Q w wyższej temperaturze, a następnie oddajemy mniejszą ilość ciepła q w temperaturze niższej.

Konieczne są tu obiekty o dwóch różnych temperaturach: źródło ciepła i chłodnica. Intuicyjnie jasne jest, że gdy ciepło przepływa wprost z ciała o wyższej temperaturze do ciała o niższej temperaturze, to tracimy możliwość wykonania użytecznej pracy – mamy do czynienia z procesem nieodwracalnym. Maszyna cieplna o największej wydajności, to taka, w której ciepło przepływa zawsze między ciałami o praktycznie tej samej temperaturze: wystarczy wówczas nieznacznie zmienić jedną z temperatur, by odwrócić kierunek przepływu ciepła. W przypadku silnika cieplnego najpierw należy mu dostarczyć ciepła w sytuacji, gdy substancja robocza (np. para wodna) ma temperaturę nieznacznie mniejszą od temperatury źródła ciepła T_1, następnie wykonuje ona pracę, a potem oddaje pewną ilość ciepła do chłodnicy, przy czym substancja robocza powinna mieć temperaturę nieznacznie tylko wyższą niż T_2. Łatwo wyobrazić sobie odwrócenie takiego cyklu, nasza maszyna pracowałaby wówczas jak lodówka.

Carnot udowodnił, że maszyna odwracalna nie może mieć mniejszej wydajności niż nieodwracalna. Gdyby tak było, moglibyśmy obie maszyny sprząc ze sobą: pierwszą w kierunku normalnym, a drugą działającą odwrotnie (lodówka) i jeszcze uzyskalibyśmy pewną dodatkową pracę zewnętrzną.

Widać z obrazka, że takie urządzenie (niebieski prostokąt) wykonuje cykl, w którym zamienia na pracę ciepło pobrane z chłodnicy, a to jest niemożliwe. Musi więc zachodzić nierówność W\le W', a więc także i wydajność silnika cieplnego

\eta=\dfrac{W}{Q}\le\dfrac{W'}{Q}=\eta_{odwr}.

Ponieważ dwie maszyny odwracalne pracujące między danymi temperaturami muszą spełnić takie nierówności w obie strony, więc muszą mieć jednakową wydajność. Wydajność maszyny odwracalnej jest wyłącznie funkcją obu temperatur. Sprawność takiej maszyny odwracalnej jest granicą teoretyczną wydajności maszyn rzeczywistych i równa jest

\eta_{odwr}=\dfrac{W'}{Q}=1-\dfrac{q'}{Q}=1-\dfrac{T_2}{T_1}.

Ostatnia równość jest zarazem definicją skali temperatur absolutnych. Wprowadził ją Thomson w 1848 roku. Jego oraz Rudolfa Clausiusa uważa się za odkrywców II zasady termodynamiki, odkryli oni na nowo fakty znane Carnotowi, a także rozwinęli tę dziedzinę. II zasadę można sformułować także w ten sposób, że całkowita suma entropii świata rośnie.

Przenosimy się teraz o 150 lat w przód. Wiadomo, że zasady termodynamiki mają zastosowanie powszechne, niezależnie od tego, z jakim obszarem zjawisk mamy do czynienia: elektromagnetyzm, reakcje chemiczne, grawitacja – fizyka nie jest zbiorem niezależnych poddziedzin, lecz spójną całością. W latach szęśćdziesiątych ubiegłego wieku fizycy zrozumieli, że we wszechświecie powinny w pewnych warunkach tworzyć się czarne dziury. Jedną z najważniejszych postaci w tej nowej astrofizyce był John Wheeler, autor określenia „czarne dziury“ i mentor całej plejady wybitnych relatywistów. Jego doktorantem był Ja’akow Beckenstein. Kiedyś Wheeler w niezobowiązującej pogawędce zauważył, że zawsze czuje się jak przestępca, kiedy stawia filiżankę gorącej herbaty obok filiżanki mrożonej herbaty i pozwala im wyrównać temperatury.

Moja zbrodnia zostawia ślad aż po kres czasu i nie ma sposobu, by ją zatrzeć albo odwrócić. Wystarczy jednak, by w pobliżu przepływała akurat jakaś czarna dziura i żebym wrzucił do niej gorącą herbatę i tę mrożoną, a dowody mojej zbrodni zostałyby zatarte na zawsze.

Należy przy tym wyobrazić sobie Johna Wheelera, ubranego w nienaganny garnitur, konserwatystę z przekonań, który rzeczywiście mógłby odczuwać moralny dyskomfort z powodu beztroskiego powiększania entropii świata. Oczywiście treść fizyczna tej wypowiedzi była jak najbardziej serio: znikanie różnych obiektów za horyzontem zdarzeń sprawia, że z bilansu entropii wszechświata znika to, co wpadło do dziury. W ten sposób II zasada termodynamiki traci ważność, bo nie możemy sporządzić pełnego bilansu entropii świata. Wiadomo było, że czarne dziury zacierają jakikolwiek ślad tego, co do nich wpada i jedynym śladem jest zmiana masy, momentu pędu i ładunku dziury. Czy obiekty tak proste mogą być obdarzone entropią, która jest miarą liczby mikrostanów danego obiektu? Wiadomo było dzięki Stephenowi Hawkingowi, że pole powierzchni horyzontu czarnej dziury zawsze rośnie, przypominając pod tym względem entropię. Ale tylko przypominając – nikt bowiem nie chciał uwierzyć, że dziury naprawdę mają entropię. Gdyby miały, powinny też mieć niezerową temperaturę, a każdy obiekt o niezerowej temperaturze wysyła promieniowanie cieplne. Tymczasem dziura ma jedynie pochłaniać cząstki i promieniowanie. 

Robert Geroch przedstawił tę sytuację za pomocą silnika cieplnego. Wyglądałoby to jakoś tak:

Rysunek Louisa Fulgoniego

Napełniamy pudło promieniowaniem o pewnej temperaturze T z dala od dziury tak, że energia promieniowania równa się E. Pudło ma masę m=E/c^2. Następnie powoli opuszczamy na lince nasze pudło. Opuszczaniu masy w polu grawitacyjnym towarzyszy wykonanie pewnej pracy i np. wygenerowanie prądu zasilającego żarówkę, jak na rysunku. Jeśli opuścimy pudło aż do horyzontu zdarzeń, jego energia całkowita stanie się równa zero (jakby do energii spoczynkowej mc^2 doszła energia potencjalna grawitacji równa -mc^2).  Znaczy to, że całą energię E udało nam się zamienić na pracę. Otwieramy teraz pudło, pozwalając promieniowaniu wpaść do dziury i podnosimy z powrotem puste, lekkie pudło. Cykl się zamyka. Stworzyliśmy idealny silnik cieplny.

Jacob Beckenstein, analizując sytuacje takie jak powyższa, pierwszy zasugerował, że czarna dziura powinna mieć entropię i ustalił, jaki wzór powinien ją opisywać. Był wtedy młodym uczonym tuż po doktoracie i musiał wytrzymać ciśnienie zmasowanej krytyki uznanych ekspertów, w tym Stephena Hawkinga. W końcu to Hawking rozstrzygnął problem, wykazując, ku własnemu zdumieniu, że czarne dziury promieniują i obliczył stosowną temperaturę. Praca ta powstała na gruncie kwantowej teorii pola, rozszerzając jej zastosowanie na zakrzywioną czasoprzestrzeń. 

Silnik Gerocha nie ma stuprocentowej sprawności. Jeśli promieniowanie ma temperaturę T, to samo pudło musi mieć rozmiar przynajmniej typowej długości fali L. Najniższe możliwe położenie pudła osiągniemy, gdy jego dolna ścianka dotknie horyzontu zdarzeń. Środek masy pudła znajduje się wtedy na pewnej wysokości L/2 i energia całkowita pudła równa się mgL/2 (g jest natężeniem pola grawitacyjnego na powierzchni horyzontu). 

Toteż praca uzyskana podczas opuszczania pudła równa jest

W=mc^2-mg\dfrac{L}{2},

a sprawność maszyny wynosi

\eta=\dfrac{W}{mc^2}=1-\dfrac{gL}{2c^2}.

Typową długość fali odpowiadającą temperaturze T możemy znaleźć jako warunek równości energii cieplnej k_{B}T (k_B jest stałą Boltzmanna – czyli w zasadzie przelicznikiem energii na temperaturę i odwrotnie) i energii fotonu (jest to też treść tzw. prawa Wiena dla promieniowania cieplnego):

k_{B}T=\dfrac{\hbar c}{L}.

Sprawność silnika przyjmuje więc postać

\eta=1-\dfrac{g\hbar }{2ck_B T}\equiv 1-\dfrac{T_{BH}}{T}.

Z porównania otrzymujemy oszacowanie temperatury Hawkinga

T_{BH}=\dfrac{g\hbar}{2k_B c}.

Oczywiście niezbyt przejmowaliśmy się stałymi liczbowymi, toteż nie należy się spodziewać, że wynik ten będzie dokładny. Wartość dokładna okazuje się mniejsza o czynnik \pi:

T_{BH}=\dfrac{g\hbar}{2\pi k_B c}.

William Unruh udowodnił, że jeśli poruszamy się z przyspieszeniem g w pustej przestrzeni, to zaobserwujemy w naszym układzie odniesienia promieniowanie o takiej temperaturze jak we wzorze Hawkinga. Jest to tzw. efekt Unruh. Zgodnie z zasadą równoważności pole grawitacyjne i przyspieszenie są lokalnie równoważne.

Temperatura Hawkinga w przypadku czarnych dziur o masach astrofizycznych jest skrajnie mała i zdecydowanie poza zasięgiem obserwacji. Osiągnięciem Hawkinga było pokazanie, że i w tym przypadku obowiązuje II zasada termodynamiki. Fakt, że czarna dziura promieniuje, i to tym silniej, im mniejszą ma masę, oznacza, że po bardzo długim czasie czarne dziury wyparują i wszechświat wypełniony będzie samym promieniowaniem. Taki kres wszechświata, według ulubionej hipotezy Rogera Penrose’a, byłby możliwym początkiem następnego wszechświata. 

Żeby otrzymać temperaturę w postaci z nagrobka w Westminster Abbey, należy wstawić za g wartość 

g=\dfrac{GM}{r_S^2},

gdzie r_S to promień Schwarzschilda:

r_S=\dfrac{2GM}{c^2},

a G\, M oznaczają odpowiednio stałą grawitacyjną i masę dziury. Wzór opisujący g jest (przypadkowo) taki sam jak w teorii klasycznej dla grawitacji na powierzchni kuli o promieniu r_S

O temperaturze Hawkinga pisałem już wcześniej.

Sofia Kovalevskaya – pożytki z własnego pokoju

W znanym eseju zatytułowanym Własny pokój Virginia Woolf zastanawia się nad późnym pojawieniem się kobiet w literaturze. Gdyby Shakespeare miał siostrę, równie jak on utalentowaną, nie udałoby się jej niczego osiągnąć w ówczesnym świecie. Nawet w XIX wieku literacka kariera kobiet nie była łatwa, Jane Austen, pisała swe książki we wspólnej bawialni, gdzie zawsze coś się działo, nie miała bowiem pokoju dla siebie, w którym mogłaby się zamknąć i pisać.
Sofia Kovalevskaya była córką generała Korwin-Krukowskiego, na poły Polaka, który jednak służył całe życie w carskiej armii i czuł się Rosjaninem. W okresie powstania styczniowego rodzina mieszkała na Litwie i choć generał nie brał żadnego udziału w tłumieniu powstania, znalazł się w trudnej sytuacji zarówno wobec okolicznych Polaków, którzy musieli z nim utrzymywać stosunki towarzyskie, jak i wobec swoich przełożonych, którzy nie byli pewni jego lojalności. Jego nastoletnia córka, Sofia, była nad wiek rozwiniętą osóbką, po uszy zakochaną w pewnym dorosłym sąsiedzie panu Bujnickim. Bujnicki poszedł do powstania i ślad po nim zaginął, a jego majątek został zlicytowany. Sofia roiła sobie, że go pomści albo odszuka gdzieś na Syberii za kilka lat, kiedy tylko dorośnie i wyrwie się spod opieki guwernantki. Stłumienie polskiego powstania i późniejsze represje nie podobały się zresztą wielu Rosjanom i oficerowie, którzy brali w tym udział, niekoniecznie byli dobrze widziani przez swoich kolegów.
Generalska córka miała oczywiście własny pokój. Także w domu na wsi, w Palibino, gdzie rodzina spędzała sporo czasu. Nie oznaczało to chyba szczególnego komfortu, gdyż pokój Sofii zamiast tapetą oklejony został wykładami akademika Ostrogradskiego dotyczącymi rachunku różniczkowego i całkowego. Sofia, już wcześniej słyszała coś niecoś o matematyce od swego stryja: o kwadraturze koła, o asymptotach, co zbliżają się do prostej, nigdy jej nie osiągając. Długie godziny spędzała na odczytywaniu tajemnych symboli matematycznych. Nic z tego nie rozumiała, ale dużo zapamiętała na całe życie. Uczono ją w domu i matematyka nie była w tej edukacji traktowana serio, ojciec nie lubił zresztą uczonych kobiet. Kiedyś wpadł Sofii w ręce elementarny podręcznik fizyki, napisany przez ich sąsiada, profesora Tyrtowa. Dziewczynka przeczytała książkę, usiłując z kontekstu odgadnąć sens takich pojęć jak sinus. Widząc to Tyrtow przekonał generała, że warto córkę uczyć matematyki.

kovalevszkaja2

Sofia bardzo wcześnie wyszła za mąż za Vladimira Kovalevskiego. Było to małżeństwo fikcyjne, pozwalające jednak dziewczynie na wyjazd za granicę bez opieki rodziców. Pojechała do Heidelbergu i do Berlina studiować, co nie było łatwe, ponieważ uniwersytety nie przyjmowały kobiet. Wszędzie musiała się specjalnie starać o prawo słuchania wykładów, bez formalnej immatrykulacji. I nawet to nie zawsze udawało się uzyskać. Jak sama twierdzi, najwięcej nauczyła się w trakcie prywatnych lekcji u Karla Weierstrassa, który nie szczędził swego czasu, kiedy przekonał się o jej matematycznym talencie. Zamiast pracy doktorskiej na jeden temat Kovalevskaya przedstawiła trzy, na podstawie których uniwersytet w Getyndze nadał jej doktorat cum summa laude [z najwyższym wyróżnieniem]. Nie odbyła się jednak publiczna obrona i całość została przeprowadzona tak, by nie burzyć spokoju męskiego grona profesorskiego.
Młoda osoba interesowała się nie tylko matematyką, sporo podróżowała, znała kilka języków, zetknęła się z wieloma wybitnymi postaciami, jak Thomas Huxley, Charles Darwin, czy George Eliot. Przyjaźniła się z rodzeństwem Göstą Mittag-Lefflerem (wybitnym matematykiem, też studentem Weierstrassa) i jego siostrą, pisarką, Anne Charlotte Leffler, z którą razem zajmowały się pracą literacką. W 1888 roku trzydziestoośmioletnia Sofia wygrała konkurs paryskiej Akademii nauk. Chodziło o ścisłe rozwiązanie równań ruchu bryły sztywnej. Znane były rozwiązania Eulera i Lagrange’a, rozwiązanie Kovalevskiej jest do tej pory trzecim i ostatnim takim przypadkiem (por. E.T. Whittaker, Dynamika analityczna). Ścisłe rozwiązania odgrywają w nauce wyjątkowo istotną rolę, stanowiąc coś w rodzaju teoretycznego laboratorium, w którym można badać własności rozwiązań niedostępne w innych przypadkach. Odkrycie Kovalevskiej aż po dzień dzisiejszy inspiruje specjalistów z fizyki matematycznej. Praca naukowa kobiety w Rosji była w tamtych czasach niemożliwa i cały dorobek Kovalevskiej powstał za granicą. W 1889 roku została profesorem zwyczajnym na stosunkowo młodym uniwersytecie w Sztokholmie. Była pierwszą kobietą, która osiągnęła ten klasyczny szczyt naukowej kariery. Niedługo później zmarła niespodziewanie na grypę.

Tren dla Annie Darwin

W marcu 1838 roku Charles Darwin poszedł obejrzeć młodą samicę orangutana w londyńskim ZOO. Do tej pory nie widziano tam stworzenia tak bardzo podobnego do człowieka. Małpę nazwano Jenny, ubrano w dziecięce stroje i umieszczono w ogrzewanym pomieszczeniu razem z żyrafą – wiadomo było, że zwierzęta te są niezwykle delikatne i źle znoszą niewolę. Często zapadały na suchoty, jak nazywano wówczas gruźlicę, o której bardzo niewiele było wówczas wiadomo. Nie wiedziano nawet, czy jest chorobą zakaźną.

jenny-web-3933
Darwin zapisał w swoim notatniku: „Człowiek powinien zobaczyć oswojonego orangutana, posłuchać jak ekspresyjnie płacze, przyjrzeć się, jak rozumnie spogląda, gdy się do niego zwrócić – jakby rozumiał każde wypowiedziane słowo, ujrzeć jakim uczuciem darzy znane sobie osoby, przyjrzeć się, jak szaleje z wściekłości, dąsa się i okazuje rozpacz (…) i dopiero wtedy niech się spróbuje pochwalić swoją dumną wyższością (…) Człowiek uważa się w swej arogancji za coś tak wielkiego, że aż godnego boskiej interwencji. Z większą pokorą i, jak sądzę, prawdziwie, jest uważać go za stworzonego ze zwierząt”.

Dziesięć lat później zmarł ojciec przyrodnika, Robert Darwin, lekarz i religijny sceptyk. Sam Charles w młodości omal nie został pastorem, choć jak się zdaje, pociągała go nie tyle posługa duchowa, co perspektywa zamieszkania na wsi, blisko natury, i możliwość oddawania się przyrodniczej pasji. W każdym razie teraz, pod koniec lat czterdziestych, oddalił się już znacznie od wiary religijnej. Jego motywy nie były wyłącznie naukowe czy racjonalne, myślał jak przyrodnik, ale był też pełnym empatii człowiekiem, dla którego wielkie znaczenie miały moralne skrupuły. Dżentelmeni z jego sfery bardzo poważnie i uczciwie zastanawiali się nad swoimi poglądami. Wiele lat później napisał w Autobiografii:

„Trudno mi doprawdy pojąć, że ktokolwiek mógłby sobie życzyć, aby wiara chrześcijańska była prawdziwa. Bo gdyby tak było, to bezpośrednia wymowa tego tekstu [tekstu Ewangelii – tłum.] jest jak się zdaje taka, iż ludzie, którzy nie wierzą – a do nich należy zaliczyć mego Ojca, Brata i prawie wszystkich moich najlepszych przyjaciół – są skazani na wieczne potępienie.
A to jest wszak okropna doktryna.
Chociaż o istnieniu Boga osobowego dużo myślałem dopiero w znacznie późniejszym okresie życia, podam tu ogólne wnioski, do których doszedłem. Stary, przytaczany przez Paleya, argument o celowości w przyrodzie, który dawniej wydawał mi się tak przekonywający, upada obecnie z chwilą odkrycia prawa doboru naturalnego. Nie możemy już dłużej utrzymywać, że np. piękne zawiasy skorupy małży musiały być wykonane przez istotę rozumną, tak jak zawiasy drzwi – przez człowieka. Nie więcej jest, zdaje się, celowości w zmienności istot żywych i w działaniu doboru naturalnego niż w kierunku, w którym wieje wiatr” (przeł. S. Skowron).

W 1851 roku umarła ukochana córeczka Darwina, dziesięcioletnia Annie. Dziecko zachorowało najprawdopodobniej na gruźlicę, nie mówiono o tym jednak głośno, ponieważ diagnoza taka oznaczała wyrok śmierci, chorych na nią nie przyjmowano nawet do szpitali. Ojciec miał nadzieję, że małej pomoże hydroterapia w zakładzie w Malvern, gdzie sam leczył wcześniej własne niedomagania. Miał może nadzieję, że Annie pomoże to samo, co pomogło jemu, ponieważ stale podejrzewał, iż jej choroba może być dziedziczna. Darwin spędził w Malvern przy Annie ostatnie dni jej życia, szalejąc z rozpaczy. Tydzień po pogrzebie napisał o niej wspomnienie, najbardziej emocjonalny tekst człowieka, który zawsze starał się zachować obiektywizm, ale i zrozpaczonego ojca, który czuł się winny śmierci córki. Annie była idealnym wiktoriańskim dzieckiem: łagodna, kochająca, posłuszna, niewinna, wesoła, pełna życia, lecz nigdy nie rozkapryszona, bardzo wrażliwa na każdy przejaw dezaprobaty ze strony rodziców, którzy nie musieli jej nawet karcić, wystarczyło trochę surowsze spojrzenie, by natychmiast odczuła niewłaściwość swego postępowania. I nie tylko cechy charakteru dziewczynki miały znaczenie, Darwin starał się zapamiętać także jej wygląd zewnętrzny. „Jej wzrok się iskrzył, często się uśmiechała. Chodziła elastycznie i pewnie, trzymała się prosto i często odrzucała nieco głowę w tył, jakby rzucając żartobliwe wyzwanie światu. (…) Dagerotyp jest bardzo do niej podobny, lecz zupełnie nie oddaje jej wyrazu: zrobiony został dwa lata temu, jej twarz się od tamtej pory wyciągnęła i nabrała urody. Ruchy miała żywe, energiczne i zazwyczaj pełne wdzięku, kiedy chodziła ze mną na spacer ścieżką dookoła domu, to mimo iż chodzę szybko, często wyprzedzała mnie, kręcąc piruety w najbardziej elegancki sposób i uśmiechając się słodko”.

Annie_Darwin

Dzieci na ówczesnych dagerotypach miały często nienaturalny wygląd, ponieważ musiały wytrwać bez ruchu przez całą minutę – tyle bowiem trwało naświetlanie zdjęcia. Widać, że dłonie Annie są nieostre, dziewczynka się poruszyła.

Śmierć dziecka była w tamtej epoce zjawiskiem częstym, ludzie pobożni pocieszali się mówiąc o lepszym życiu, do którego zostało przeniesione zgodnie z nieprzeniknionymi zamysłami Stwórcy. Charles Darwin nie próbował szukać pociechy tego rodzaju, jak się wydaje, śmierć niewinnej istoty była w jego oczach całkowicie sprzeczna z jakąkolwiek wizją dobrego Boga. Prawdopodobnie sądził też, że jakaś cząstka naszego współczucia należy się również istotom mniej od nas uprzywilejowanym – jak Jenny z ZOO, ofiara tej samej co Annie choroby.

Korzystałem z książki Randala Keynesa, Annie’s Box: Charles Darwin, His Daughter, and Human Evolution, London 2001. Na książce tej oparto scenariusz filmu BBC z roku 2009 pt. Creation.

Lord Rayleigh i błękit nieba, 1871

John William Strutt, pierworodny syn barona Rayleigha i dziedzic tytułu, był słabego zdrowia. Nie chodził z tego powodu regularnie do żadnej szkoły, uczył się prywatnie, co chyba mu wyszło na dobre. Studiował w Trinity College w Cambridge i tam w ciągu kilku lat okazało się, że ma talent do matematyki. Z czasem został jednym z najwszechstronniejszych fizyków swoich czasów. Zajmował się wieloma dziedzinami, szczególnie upodobał sobie zjawiska związane z falami różnego rodzaju. Prowadził też eksperymenty, jego największym osiągnięciem było odkrycie argonu, za które uzyskał Nagrodę Nobla w roku 1904, rok po małżonkach Curie. Skromnie opisuje to odkrycie jako rezultat dokładności swoich eksperymentów: azot uzyskany z powietrza i azot uzyskany drogą chemiczną różniły się nieco gęstością. Rayleigh zaczął badać wszystkie możliwe powody tej różnicy i odkrył nowy składnik powietrza, którego istnienia nikt nie podejrzewał.
Prace Rayleigha są znakomicie i przejrzyście napisane, w zbiorowym wydaniu zajmują sześć tomów z pewnością nie dlatego, by autor mnożył je ponad potrzebę, jak to często zdarza się dzisiaj. Zajmiemy się tu tylko jednym tematem badanym przez Rayleigha: rozpraszaniem światła w atmosferze. Bezchmurne niebo jest głęboko błękitne, mimo że powietrze jest przecież oświetlone białym światłem słonecznym. Z punktu widzenia fizyka oznacza to, że światło niebieskie łatwiej jest rozpraszane niż inne barwy. Z tego samego powodu zachodzące słońce jest czerwone: bo światło przechodzi wówczas przez grubszą warstwę atmosfery i światło niebieskie zostało rozproszone na boki – dociera do nas czerwone. Całe piękno wschodów i zachodów słońca sprowadza się więc do zrozumienia, czemu jedne barwy są łatwiej rozpraszane niż inne.

widok z gierlacha
Rozpraszanie światła polega na tym, że padająca fala pobudza do drgań elektrony w cząsteczkach powietrza. Drganiom cząstek naładowanych towarzyszy zawsze powstawanie fali elektromagnetycznej (elektrony drgają w antenie i obwodach naszego telefonu komórkowego, gdy pracuje). Fala ta rozchodzi się we wszystkich kierunkach: w rezultacie część energii fali padającej jest rozpraszana na boki. Gdyby takiego rozproszenia nie było, widzielibyśmy oślepiające słońce na tle czarnego nieba. Dlaczego rozpraszanie zależy od barwy? Barwy światła związane są z długością fali. Fiolet i błękit mają najmniejszą długość fali, pomarańczowy i czerwień – największą. Wyobraźmy sobie falę elektromagnetyczną biegnącą w ośrodku, którego cząstki są znacznie mniejsze niż długość fali. Sytuację przedstawia rysunek: mamy tu falę świetlną wysłaną przez słońce przedstawioną w różnych punktach przestrzeni w jakiejś jednej chwili.

fala

Dwie „cząsteczki powietrza” są mniejsze niż długość fali. Oznacza to, że w każdej z nich pole elektryczne padającej fali jest praktycznie jednakowe. Wobec tego elektrony w naszych „cząsteczkach powietrza” będą drgać zgodnie – a więc wytwarzane przez nie fale będą się dodawać. Gdybyśmy obserwowali falę wytworzoną przez jedną „cząsteczkę powietrza” w pewnej odległości r od tej cząsteczki, to amplituda fali wytworzonej powinna być proporcjonalna do amplitudy fali padającej: dwa razy większa fala wywoła dwa razy większe drgania elektronów. Powinna także maleć odwrotnie proporcjonalnie do r (wszystkie fale w trójwymiarowej przestrzeni tak się zachowują). Amplituda ta powinna też być proporcjonalna do objętości V naszej cząstki powietrza: bo przy dwa razy większej objętości, będzie tam dwa razy więcej elektronów. Mamy jeszcze trzecią wielkość o wymiarze odległości: długość fali λ. Ponieważ stosunek obu amplitud musi być bezwymiarowy, więc jedyną możliwą kombinacją tych wielkości jest

\dfrac{A_{rozpr}}{A_{pad}}\sim \dfrac{V}{\lambda^2 r}.

Natężenie fali, czyli np. przenoszona przez nią energia, jest proporcjonalne do kwadratu amplitudy, zatem natężenia będą odwrotnie proporcjonalne do czwartej potęgi długości fali – jest to bardzo silna zależność i to właśnie widzimy na niebie. Na wykresie widzimy zależność natężenia światła słonecznego od długości fali (krzywa niebieska) i tę samą zależność przefiltrowaną przez rozpraszanie Rayleigha (krzywa czerwona, jednostki na skali pionowej nie mają znaczenia, długości fal są w nm).

rayleigh

Widzimy, że światło o krótkich falach (niebieskie) jest rozpraszane znacznie silniej. Wrażenie barwne zależy jeszcze od wrażliwości oka na różne barwy i mechanizmu samego widzenia barwnego. Na siatkówce mamy trzy rodzaje pręcików wrażliwych na trzy różne obszary widma. To, co widzimy, jest wynikiem współdziałania tych trzech rodzajów pręcików. Nasze oczy nie są dobrym spektrometrem, ponieważ różne rozkłady natężeń mogą prowadzić do tego samego wrażenia – a więc koloru, jaki widzimy. Doświadczenia takie prowadził zresztą lord Rayleigh, który pokazał, że ustalona proporcja światła czerwonego i zielonego daje to samo wrażenie co światło żółte. W przypadku nieba wrażenie barwne jest takie samo, jak dla mieszanki monochromatycznego błękitu o długości fali 475 nm z bielą widmową.

Okazało się zresztą, że z dwóch krzywych na wykresie trudniej zrozumieć tę niebieską, czyli widmo słoneczne – jest to bowiem promieniowanie termiczne, zależne jedynie od temperatury. Zgodnie z fizyką klasyczną każdy rodzaj drgań pola elektromagnetycznego powinien mieć taką samą energię proporcjonalną do temperatury (kT). A ponieważ im krótsza fala, tym więcej rodzajów drgań, więc promieniowanie termiczne powinno „wybuchać” dla krótkich długości fali, co jest jawnym nonsensem. Trudność tę zauważył lord Rayleigh w roku 1900 i próbował zaproponować jakieś rozwiązanie ad hoc. Prawidłowym rozwiązaniem był wzór Plancka, i szerzej cała fizyka kwantowa.

Dodatek dla wymagających

Trochę inne uzasadnienie zależności \lambda^{-4} wygląda następująco: elektrony w ośrodku w każdej chwili znajdują się w chwilowym położeniu równowagi, tzn. ich wychylenie z położenia równowagi jest w każdej chwili proporcjonalne do chwilowej wartości pola elektrycznego E (przybliżenie adiabatyczne: drgania elektromagnetyczne są stosunkowo powolne). Amplituda emitowanej fali jest proporcjonalna do przyspieszenia elektronu, zatem w ruchu harmonicznym o częstości kołowej \omega jest proporcjonalna do \omega^2 E. Natężenie zaś jest kwadratem amplitudy.

Lord Rayleigh nie ograniczył się oczywiście do argumentu wymiarowego, lecz w roku 1899 podał niezwykle elegancki wzór na współczynnik tłumienia światła h (na odległości 1/h natężenie maleje e razy), gdy mamy N cząsteczek chaotycznie rozmieszczonych w jednostce objętości:

h=\dfrac{32\pi^3 (n-1)^2}{3N\lambda^4},

gdzie n jest współczynnikiem załamania gazu. Wzór ten można wyprowadzić nawet w teorii sprężystego eteru. Wynika on także z rozważań w Wykładach Feynmana (t. I cz. II, równania 31.19 oraz 32.19). Wynik jest zbyt prosty, aby zależał od konkretnego modelu (choć Feynman woli raczej trzymać się konkretu). Rzeczywiście, można go uzyskać w sposób fenomenologiczny, co robią różne podręczniki elektrodynamiki. Interesujący współczynnik z trzecią potęgą \pi bierze się częściowo z sumowania natężenia po kącie bryłowym, a częściowo z przeliczania drogi optycznej na fazę, w którym każde \lambda odpowiada zmianie fazy o 2\pi.

William Rowan Hamilton: kwaterniony – odkrycie i obsesja (16 października 1843)

Hamilton był cudownym dzieckiem, miał nadzwyczajną pamięć i szybko uczył się przedmiotów formalnych. Z początku oznaczało to martwe bądź egzotyczne języki: łacina, greka i hebrajski w wieku pięciu lat, do czego w dojrzałym wieku lat dziewięciu doszły tak niezbędne w Irlandii perski, arabski, sanskryt, chaldejski, syryjski, hindi, bengalski, malajski itd. Tak przynajmniej twierdził jego ojciec, który go zresztą nie wychowywał, od trzeciego roku życia chłopiec mieszkał bowiem i uczył się u jego brata pastora (rodzice zmarli, zanim William dorósł). Dzięki zetknięciu z arytmetycznymi popisami sawanta Zeraha Colburna, reklamowanego jako „American calculating boy”, lubiący się popisywać Hamilton zajął się arytmetyką, a później szerzej matematyką i fizyką matematyczną. Przeczytał Principia Newtona, a mając siedemnaście lat spostrzegł błąd w pewnym miejscu monumentalnego Traité de mécanique céleste Laplace’a. Ktoś powiedział o tym Johnowi Brinkleyowi, Królewskiemu Astronomowi Irlandii, który zwrócił uwagę na młodego człowieka. W wieku dwudziestu dwóch lat Hamilton objął to stanowisko po ustępującym Brinkleyu. Miał już do tego czasu liczący się dorobek naukowy w dziedzinie optyki i mechaniki. W obu tych dziedzinach prace Hamiltona były wybitne i zapoczątkowane przez niego metody rozwijane są do dziś. Jednak głównym tematem pracy Hamiltona, jego wieloletnią obsesją, stały się kwaterniony.

Początkowo Hamiltonowi chodziło o uogólnienie liczb zespolonych na trzy wymiary.

Liczby zespolone można uważać za uogólnienie liczb rzeczywistych, dzięki któremu równania wielomianowe mają zawsze pierwiastki. Wiemy, że w dziedzinie rzeczywistej nawet tak proste równanie, jak x^2+a=0 nie ma rozwiązania, gdy a>0. Można temu zaradzić, wprowadzając liczby urojone, będące pierwiastkami kwadratowymi z liczb ujemnych: x\pm\sqrt{a}i, gdzie jednostka urojona i musi spełniać warunek i^2=-1. Liczby urojone możemy dodawać do liczb rzeczywistych, powstają wówczas liczby zespolone postaci c+di, gdzie c,d są rzeczywiste. Okazało się, że liczby zespolone są pojęciem wybranym bardzo udatnie: nie tylko równania algebraiczne w dziedzinie zespolonej mają zawsze rozwiązania, ale teoria funkcji zmiennej zespolonej jest piękną dziedziną matematyki z wieloma zastosowaniami. Można takimi metodami badać własności liczb pierwszych (twierdzenie o rozmieszczeniu liczb pierwszych, hipoteza Riemanna), liczby zespolone pojawiają się też u podstaw fizyki, w równaniu Schrödingera – mechanika kwantowa wymaga liczb zespolonych, dzięki nim opisuje się zjawisko interferencji kwantowej.

Hamilton poszukiwał uogólnienia liczb zespolonych na trójki liczb. Chciał, aby trójki takie można było dodawać i mnożyć przez siebie. Mnożenie miało być rozdzielne względem dodawania, tak żeby można było stosować zasady zwykłej algebry. Żądał także, aby przy mnożeniu mnożyły się moduły liczb: |xy|=|x|\cdot |y|. W przypadku liczby zespolonej z=a+bi moduł równa się |z|=\sqrt{a^2+b^2}, w przypadku trypletów mielibyśmy pod pierwiastkiem sumę trzech kwadratów. Gotów był natomiast poświęcić przemienność iloczynu, co było krokiem oryginalnym i raczej przedtem niepraktykowanym. Przez dłuższy czas co rano, gdy Hamilton schodził na śniadanie, jego syn pytał: „Tato, czy potrafisz już mnożyć tryplety?”, na co uczony, potrząsając smutno głową, odpowiadał: „Niestety, nie, umiem je tylko dodawać i odejmować”.

Rozwiązanie, które pojawiło się w głowie Hamiltona w październikowy ranek, polegało na uogólnieniu idącym jeszcze o krok dalej: zamiast trójek, należy rozpatrywać czwórki liczb rzeczywistych. Hamilton przechodził właśnie z żoną w pobliżu mostu Broome Bridge w Dublinie i na pamiątkę tej chwili wyrył na jego kamieniach prawa rachunku kwaternionów. Potrzeba aż trzech dodatkowych wymiarów: q=a+b{\bf i}+c{\bf j}+d{\bf k}.

Plakietka zastępująca wytarty wpis Hamiltona

\begin{matrix} {\bf i}^2=-1&{\bf j}^2=-1&{\bf k}^2=-1\\ & &\\{\bf ij=k}&{\bf jk=i}&{\bf ki=j}\\ & & \\{\bf ji=-ij}&{\bf kj=-jk}&{\bf ik=-ki.}\end{matrix}

Kwaterniony tworzą algebrę z dzieleniem, strukturę zachowującą wszystkie oprócz przemienności reguły działań na liczbach zespolonych. Wkrótce potem przyjaciel Hamiltona John T. Graves i niezależnie Arthur Cayley odkryli oktoniony, mające osiem składowych. Jednak w ich przypadku należało zrezygnować także z łączności mnożenia: (xy)z\ne x(yz). Nauczyciel A. Einsteina na Politechnice w Zurychu, a później także jego przyjaciel, Adolf Hurwitz udowodnił, że jeśli chcemy, by zachodziło mnożenie modułów, to liczby rzeczywiste \mathbb{R}, zespolone \mathbb{C}, kwaterniony \mathbb{H} oraz właśnie oktoniony wyczerpują wszystkie możliwości. Trudności Hamiltona z mnożeniem trypletów były nie do pokonania, a znalezione wyjście z sytuacji – praktycznie jedyne.

Do czego można było zastosować tak dziwne czterowymiarowe obiekty w XIX wieku? Czasoprzestrzeń była wciąż daleką przyszłością, choć Hamilton spekulował, iż kwaternion składa się z części skalarnej i wektorowej – oba terminy zostały zastosowane właśnie przez niego po raz pierwszy. Dziwne reguły formalne algebry kwaternionów przyjmowane były z pewnymi oporami: bo czy matematyk może zadekretować, co zechce, byle tylko nie popaść w sprzeczność? Dziś takie stanowisko znajduje znacznie więcej zrozumienia niż w połowie XIX wieku, ale i dzisiejszy czytelnik może się zastanawiać, czy aby na pewno obiekty o takich własnościach istnieją. Kwaterniony pozwoliły na krótszy zapis niektórych wyrażeń zawierających wektory. Wektor można przedstawić w postaci

\vec{a}=a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k},

jest on więc szczególnym rodzajem kwaternionu z zerową częścią skalarną (zwanym czasem czystym kwaternionem):

a=0+a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k}=(0,\vec{a}).

Kwadrat takiego kwaternionu jest równy

a^2=(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})(a_1 {\bf i}+a_2 {\bf j}+a_3 {\bf k})=-(a_1^2+a_2^2+a_3^2),

gdzie skorzystaliśmy z tabelki mnożenia Hamiltona. Iloczyn dwóch czystych kwaternionów nie jest więc kwaternionem czystym i ma na ogół niezerową część skalarną:

ab=(0,\vec{a})(0, \vec{b})=(-\vec{a}\circ\vec{b},\vec{a}\times\vec{b}),

gdzie \vec{a}\circ\vec{b} to iloczyn skalarny, a \vec{a}\times\vec{b} – iloczyn wektorowy obu wektorów. Oba te pojęcia czekała znaczna kariera w analizie wektorowej, ale dopiero po uwolnieniu się z gorsetu kwaternionów. Oczywiście i przedtem wiele wyrażeń spotykanych w rozważaniach geometrycznych czy mechanicznych de facto sprowadzało się do tych iloczynów. Współczesnego czytelnika nieco odstręcza powtarzanie trzy razy wyrażeń, które są składowymi pewnego wektora w dziełach, np. Eulera czy Lagrange’a. Użycie iloczynu wektorowego upraszcza zapis, choć też ogranicza go do przypadku trójwymiarowego, bo tylko trójwymiarowe wektory pomnożone „wektorowo” dają w wyniku wektor trójwymiarowy. Uproszczenie zapisu jest zawsze pożądane, choć trudno je uznać za wiekopomne odkrycie (por.  konwencję sumacyjną Einsteina).

Ambicje Hamiltona sięgały znacznie dalej i kwaterniony stały się jego ulubionym tematem, którym zajmował się przez następne dwadzieścia lat, aż do śmierci. Mimo że Hamilton pracował sam i w Dublinie był raczej osamotniony naukowo, jego odkrycie wzbudziło zainteresowanie i powstała szkoła zwolenników takiej metody formułowania problemów. Dość powiedzieć, że w jednym z wydań swego fundamentalnego traktatu o elektryczności i magnetyzmie, James Clerk Maxwell zastosował formalizm kwaternionów. Było to już po śmierci Hamiltona i w przyszłości formalizm ten wyszedł praktycznie z użycia. Druga połowa życia Hamiltona była mniej twórcza, uczony poszukiwał wciąż nowych zastosowań kwaternionów, napisał na ich temat potężne tomisko, niezbyt czytane, jak łatwo się domyślić, i do ostatnich dni pracował nad krótszym do nich wprowadzeniem. Trzeźwą ocenę kwaternionów sformułował lord Kelvin w 1892 r.:

Kwaterniony odkryte zostały przez Hamiltona już po jego naprawdę bardzo dobrych pracach i choć są pięknym pomysłem, stały się czystym złem dla wszystkich, którzy ich tknęli, włącznie z Jamesem Clerkiem Maxwellem.

Konserwatywny Kelvin miał dużo racji. Łączenie w jedną całość trójwymiarowych wektorów i skalarów jest niezbyt szczęśliwym pomysłem w fizyce. Hamilton nie potrafił oprzeć się urokowi swej koncepcji, lecz jej zastosowania nie stały się głównym nurtem matematyki ani fizyki. Choć co jakiś czas ktoś próbuje ich nowych zastosowań, jak np. kwaternionowa mechanika kwantowa. Wielką umiejętnością jest w nauce nie tylko dostrzeganie tematów, ale także ich porzucanie, kiedy nie rokują zbyt dobrze. Takim tematem przyciągającym niektórych jak ćmy do ognia było przez wieki Wielkie Twierdzenie Fermata, sporo karier matematycznych nadwyrężyły bądź zniszczyły nieudane próby jego udowodnienia.

Mnożenie kwaternionów jest nieprzemienne i w można je powiązać z obrotami w przestrzeni trójwymiarowej, co zauważył zresztą sam Hamilton. Zastosowanie to odżyło dziś dzięki grafice komputerowej. Kwaterniony są tu jednak wyłącznie wygodnym narzędziem, jednym wśród wielu. Okazuje się, że kwaternion o jednostkowym module

q=(\cos\vartheta/2, \vec{n}\sin\vartheta/2 ),

gdzie \vec{n} jest wektorem jednostkowym, opisuje obrót o kąt \vartheta wokół osi \vec{n}. Obrót taki zdefiniowany jest w języku kwaternionów jako przekształcenie wektora \vec{r} w wektor \vec{r'}:

R(\vartheta, \vec{n}):\vec{r}\mapsto \vec{r'}=R\vec{r}, \mbox{  gdzie} (0,\vec{r'})=q(0,\vec{r})q^{-1}.

Widać, że składaniu obrotów odpowiada mnożenie kwaternionów, łatwo jest w takim sformułowaniu podzielić ruch na mniejsze kroki, co przydaje się w przedstawianiu ruchu obiektów 3D. Kwaterniony o jednostkowym module z operacją mnożenia zwaną tworzą grupę, nazywaną Sp(1). Ma ona bliski związek z grupą obrotów w przestrzeni trójwymiarowej, ale nie jest z nią tożsama, gdyż dwa kwaterniony q,-q dają ten sam obrót. Inaczej mówiąc, kwaternion odpowiadający obrotowi o \vartheta=2\pi, to q=\pm 1. Znak minus nie wpływa na obrót wektora, więc mogłoby się wydawać, że jest to tylko pewna matematyczna ciekawostka, gdyż R(2\pi)\vec{r}=\vec{r}. Okazuje się jednak, o czym nie wiedziano w wieku XIX, że do opisu świata fizycznego potrzebne są obiekty zmieniające znak po obrocie o 2\pi – są to spinory. Za ich pomocą opisuje się np. elektrony, ogólnie wszelkie cząstki o spinie \frac{1}{2}.

Jak zrozumieć postać kwaternionu q opisującego obrót? Każdy obrót o kąt \vartheta jest złożeniem dwóch symetrii zwierciadlanych wzgledem płaszczyzn przecinających się pod kątem \frac{\vartheta}{2}. Z kolei operacja

S(\vec{a}):\vec{r}\mapsto \vec{r'}, \mbox{  gdzie} (0,\vec{r'})=-(0,\vec{a})(0,\vec{r})(0,\vec{a})^{-1}

jest odbiciem zwierciadlanym w płaszczyźnie prostopadłej do wektora jednostkowego \vec{a}. Dla obrotu o kąt \vartheta wokół wektora jednostkowego \vec{n} możemy znaleźć dwa wektory jednostkowe \vec{a}, \vec{b}, które spełniają warunki

\vec{a}\circ \vec{b}=\cos{\vartheta/2},\, \vec{a}\times\vec{b}=\vec{n}\sin{\vartheta/2},

a więc zgodnie z zasadami mnożenia kwaternionów kwaternion q=(0,\vec{a})(0,\vec{b}) odpowiada złożeniu symetrii zwierciadlanych, czyli obrotowi. Szczegóły znaleźć można w książce M. Zakrzewskiego, Markowe wykłady z matematyki: Geometria, albo A.F. Beardona, Algebra and geometry.