Dlaczego atomy są trwałe?

Atomów nie można opisać za pomocą dziewiętnastowiecznej fizyki klasycznej. W doświadczeniach Hansa Geigera i Ernesta Marsdena, prowadzonych pod kierunkiem Ernesta Rutherforda w Manchesterze w latach 1909-1913, okazało się, że praktycznie cała masa atomu mieści się w bardzo małym obszarze o promieniu pojedynczych femtometrów (1 {\rm fm}=10^{-15} {\rm m}). Przedtem sądzono (model J.J. Thomsona), że atom zawiera rozmyty ładunek dodatni, w którym znadują się, niczym rodzynki w cieście, lekkie punktowe elektrony. Przy bombardowaniu cienkiej złotej folii za pomocą cząstek α (jąder helu) zdarzało się jednak, że cząstki te rozpraszały się pod wielkimi kątami, niemal zawracały. Byłoby to niemożliwe, gdyby dodatni ładunek rozmyty był na znacznym obszarze. Tak silne pole elektryczne wymagało niemal punktowego ładunku – atom musi więc zawierać niewielkie jądro. Tak narodził się model planetarny Ernesta Rutherforda.

Na rysunku nie można oddać różnicy skali między modelami Thomsona i Rutherforda. Elektrony krążą w znacznie większym obszarze kilkudziesięciu pikometrów (1 {\rm pm}=10^{-12} {\rm m}): w przypadku wodoru objętość atomu jest 2\cdot 10^{14} razy większa od objętości protonu w centrum. Znaczy to, że atom jest praktycznie pusty. Analogia z planetami krążącymi wokół Słońca niezbyt się tu jednak stosuje, ponieważ poruszający się z  przyspieszeniem elektron powinien emitować energię w postaci fal elektromagnetycznych. Z teorii Maxwella wynika, że w czasie rzędu 10^{-11} \,{\rm s} elektron powinien spaść na jądro. Atomy nie są stabilne – do takiego wniosku prowadzi Newtonowska mechanika w połączeniu z elektrodynamiką Maxwella.

Prowizorycznym wyjściem z sytuacji był model Nielsa Bohra: wprowadzał on dozwolone orbity elektronów i jakimś cudem przewidywał prawidłowo długości fal w widmie wodoru. Postulat kwantowania orbit jest nie do pogodzenia z fizyką klasyczną: trzeba bowiem założyć, że elektrodynamika czasem działa, a czasem nie. Jej prawa są z jakiegoś powodu zawieszone w przypadku orbit Bohra.

 Problem rozwiązała dopiero mechanika kwantowa. Przyjrzymy się, jak objaśnia ona stabilność atomu wodoru. Dla uproszczenia będziemy mówić o ruchu elektronu w polu elektrostatycznym nieruchomego jądra (wprowadzane w ten sposób przybliżenie łatwo zastąpić dokładniejszymi rachunkami). Mamy więc elektron o energii składającej się z energii kinetycznej oraz elektrostatycznej energii potencjalnej:

E=\dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r},

gdzie {\mathbf p} oraz m są odpowiednio pędem i masą elektronu, r jest jego odległością od punktowego jądra, a stała e^2\equiv\frac{q_e^2}{4\pi\varepsilon_0}. Nasz problem stabilności łatwiej zrozumieć, patrząc na wykres energii potencjalnej. 

Energia potencjalna w funkcji odległości elektronu od protonu (zaznaczone są dwa najniższe poziomy energetyczne atomu wodoru)

Zaznaczone są dozwolone wartości energii całkowitej. Energia krążącego elektronu jest stała tylko pod warunkiem pominięcia promieniowania. Inaczej będzie ona szybko się zmniejszać, a więc jak widać z wykresu nasz elektron będzie coraz ciaśniej okrążał proton. Studnia potencjału jest nieskończenie głęboka, bez dna (w przybliżeniu punktowego protonu). 

Mechanika kwantowa opisuje stany elektronu za pomocą funkcji falowej \psi(x,y,z)=\psi({\mathbf r}). Jej znaczenie jest statystyczne, pozwala ona obliczać rozmaite wartości średnie: np. średnią wartość energii kinetycznej, albo potencjalnej. Prawdopodobieństwo znalezienia elektronu w danym obszarze przestrzeni V jest równe

Pr(V)={\displaystyle \int_{V} |\psi|^2 dV}.

Oznacza to, że całka po całej przestrzeni musi być równa 1, mówimy wtedy, że funkcja falowa jest unormowana. Aby otrzymać rozmaite wartości średnie, musimy mieć przepis na ich tworzenie. Jest on następujący: każdej wielkości fizycznej przypisuje się operator. Np. operatorem składowej x położenia jest mnożenie przez x. Znaczy to, że pod działaniem tego operatora funkcja \psi przechodzi w x\psi. Bardziej skomplikowanym przypadkiem jest pęd. Składowa x pędu zastępowana jest braniem pochodnej po x:

\psi \mapsto \dfrac{\hbar}{i} \dfrac{\partial\psi}{\partial x}.

Pojawia się tutaj stała Plancka \hbar znak niechybny, że mamy do czynienia z fizyką kwantową, i jest tu jednostką urojoną – nasza funkcja \psi ma wartości zespolone. Z początku budziło to pewne zdumienie ojców mechaniki kwantowej, dziś wiemy, że liczby zespolone są tu nieodzowne. 

Mając pęd i położenie, możemy zbudować operator energii, czyli hamiltonian: zastępujemy po prostu pędy i położenia ich operatorami.  W jednym wymiarze wyglądałoby to następująco

H=-\dfrac{\hbar^2}{2m}\dfrac{\partial ^2}{\partial x^2}- \dfrac{e^2}{x}.

Pierwszy składnik oznacza, że należy dea razy wziąć pochodną po x i pomnożyć przez odpwoednią stałą, drugi składnik jest zwykłym mnożeniem funkcji. W trzech wymiarach mamy trzy składowe pędu, czyli trzy pochodne składające się w symbol zwany laplasjanem (czyli operatorem Laplace’a):

\Delta=\dfrac{\partial ^2}{\partial x^2}+\dfrac{\partial ^2}{\partial y^2}+\dfrac{\partial ^2}{\partial z^2}.

Zapisany w ten sposób hamiltonian ma postać:

H=-\dfrac{\hbar^2}{2m}\Delta-\dfrac{e^2}{r}.

Ostatni potrzebny nam składnik formalizmu to przepis na znajdowanie wartości średnich. Jeśli operator przypisany szukanej zmiennej nazwiemy A, to wartość średnia zmiennej jest równa

\langle A \rangle={\bf \int }\psi^{\star}A\psi dV.

Pojawia się tu funkcja zespolona sprzężona \psi^{\star}. Operatory odpowiadające wielkościom mierzalnym fizycznie (obserwablom) to tzw. operatory hermitowskie, które dają w powyższym przepisie wynik rzeczywisty, tak jak tego oczekujemy w eksperymencie. Hermitowskie są w szczególności operatory pędu, położenia i hamiltonian.

W zasadzie tyle formalizmu wystarczy, bez rozwiązywania równań różniczkowych, by pokazać, że dla dowolnej rozsądnej funkcji falowej (normowalnej) energia ograniczona jest z dołu. Czyli nie możemy uzyskać w żadnym eksperymencie mniej niż owo dolne ograniczenie. Co więcej, w każdym stanie związanym prawdopodobieństwo, że elektron znajdzie się bardzo blisko jądra jest znikome. Formalizm mechaniki kwantowej osiąga to dzięki wprowadzeniu funkcji \psi, która skoncentrowana w małym obszarze wymusza dużą energię kinetyczną. Jakościowo odpowiada to zasadzie nieoznaczoności: mała nieoznaczoność położenia oznacza dużą nieoznaczoność pędu, a więc i energii kinetycznej. Jednak zasady nieoznaczoności nie możemy tu zastosować wprost. 

Rozpatrzmy operator {\bf A} dany równaniem

{\bf A}={\bf p}-i\beta \dfrac{{\bf r}}{r},

gdzie \beta jest dowolną liczbą rzeczywistą. Ponieważ całka z kwadratu modułu {\bf A}\psi nie może być ujemna, otrzymujemy nierówność

\langle {\bf p}^2\rangle-2\beta\hbar\left\langle\dfrac{1}{r}\right\rangle+\beta^2\ge 0,\mbox{(*)}

słuszną dla każdego \beta. Bierzemy najpierw \beta=\hbar\langle\frac{1}{r}\rangle. Dostajemy nierówność

\langle {\bf p}^2\rangle\ge \hbar^2\left\langle \dfrac{1}{r}\right\rangle^2.

Dla dowolnej wartości r_0>0 możemy ograniczyć wartość całki do obszaru r<r_0, gdzie 1/r>1/r_0, otrzymujemy w ten sposób nierówność

\langle {\bf p}^2\rangle^{\frac{1}{2}}\ge \dfrac{\hbar}{r_0} Pr(r<r_0). 

Wrócimy do niej za chwilę. Raz jeszcze korzystamy z (*), tym razem dla \beta=\frac{me^2}{\hbar}. Porządkując wyrazy, otrzymujemy wartość oczekiwaną energii:

\boxed{ \left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle\ge -\dfrac{me^4}{2\hbar^2.}}

Mechanika kwantowa przewiduje zatem dolną wartość energii, równą -13,6\, \rm{eV}.

Aby oszacować \langle{\mathbf p}^2\rangle , założymy, że mamy elektron w stanie związanym, a więc całkowita energia jest ujemna – klasycznie znaczy to, że elektron nie może uciec z pola elektrostatycznego protonu. 

Mamy

\left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle<0,

co można przepisać w postaci

\left\langle \dfrac{{\mathbf p}^2}{4m}\right\rangle<-\left\langle \dfrac{{\mathbf p}^2}{4m}-\dfrac{e^2}{r}\right\rangle.

Do prawej strony możemy zastosować nierówność z ramki przy masie cząstki równej 2m. Otrzymujemy stąd szacowanie dla

\left\langle {\mathbf p}^2\right\rangle \le \dfrac{2me^2}{\hbar}.

Ostatecznie, prawdopodobieństwo znalezienia elektronu nie dalej niż r_0 od jądra spełnia nierówność

\boxed{Pr(r<r_0)<\dfrac{2 r_0}{a_0},}

gdzie a_0\equiv \frac{\hbar}{me^2}\approx 53 \,{\rm pm} zwane jest promieniem Bohra. Jest to promień pierwszej orbity w modelu Bohra.

Widzimy więc, że formalizm mechaniki kwantowej dostarcza wyjaśnienia, czemu atomy są trwałe, co jest niezmiernie ważnym faktem. Uwzględnienie poprawek relatywistycznych itd. niewiele tu zmienia. Można udowodnić więcej: także w układzie wielu jąder i wielu oddziałujących ze sobą elektronów kolaps jest niemożliwy. W tym przypadku ważną rolę odgrywa także fakt, iż elektrony są fermionami, tzn. żadne dwa z nich nie mogą zajmować tych samych stanów (wliczając spin). Podstawowe wyniki w tym obszarze należą do Elliotta Lieba i Waltera Thirringa. Rozważania takie są interesujące ze względów poznawczych, ale także pomagają zrozumieć zachowanie dużych układów, dla których bezpośrednie rachunki bez żadnych przybliżeń są niemożliwe.

Korzystałem z książki E. B. Manoukian, 100 Years of Fundamental Theoretical Physics in the Palm of Your Hand.
Integrated Technical Treatment, Springer Nature 2020.

Satyendra Nath Bose i ostatnia wielka praca Alberta Einsteina (1925)

Einstein w latach dwudziestych zasypywany był listami. Pisali do niego tacy, którzy właśnie rozwiązali zagadkę świata, inni znaleźli błędy w teorii względności i żądali, by się do nich ustosunkował, ktoś prosił o wsparcie albo pomoc w dostaniu się na uczelnię. Pisali także oczywiście nieznani naukowcy. W czerwcu 1924 roku otrzymał list z Indii od Satyendry Bosego wraz z załączoną pracą. Autor pragnął ni mniej, ni więcej, tylko by Einstein przełożył jego pracę na niemiecki oraz posłał do druku w „Zeitschrift für Physik” (nie wspomniał przy tym, że praca została odrzucona przez „Philosophical Magazine”):

Wielce szanowny panie, ośmielam się przesłać panu załączony artykuł do przejrzenia i zaopiniowania. Chciałbym wiedzieć, co pan o nim sądzi. (…) Nie znam niemieckiego w stopniu wystarczającym, aby przetłumaczyć artykuł. Jeśli uważa pan, że artykuł wart jest publikacji, to będę wdzięczny, jeśli przekaże go pan do publikacji w «Zeitschrift für Physik». Choć zupełnie mnie pan nie zna, to bez wahania proszę pana o taką rzecz. Gdyż wszyscy jesteśmy pańskimi uczniami poprzez pańskie prace. Nie wiem, czy jeszcze pan pamięta, że ktoś z Kalkuty prosił o pozwolenie na przekład pańskich prac z teorii względności na angielski. Udzielił pan zgody. Książka została opublikowana. Ja przełożyłem pański artykuł na temat ogólnej względności.

Rzeczywiście, praca Bosego na początku lipca została posłana do druku, pod tekstem jest notka: „przełożone przez A. Einsteina” oraz uwaga tłumacza, iż praca stanowi „ważny postęp”. Warto zwrócić uwagę na pokorę Alberta Einsteina: był najsławniejszym uczonym świata, niedawno przyznano mu Nagrodę Nobla, lecz zdecydował się na przekład i zarekomendowanie pracy kogoś zupełnie nieznanego (w dodatku jego znajomość angielskiego nie była zbyt dobra, więc rzecz nastręczała kłopoty praktyczne, podejrzewam, że pomagała mu jego pasierbica Ilse albo sekretarka Betty Neumann). Niewątpliwie uczynił to w interesie nauki, ponieważ praca Bosego wydała mu się oryginalna. Trzydziestoletni Bose uczył fizyki na uniwersytecie w Dakce i przedstawił nowe wyprowadzenie wzoru Plancka dla promieniowania cieplnego. Wzór ten wyprowadzano wciąż na nowo, nie tylko dlatego, że był ważny, ale i dlatego że te wszystkie wyprowadzenia nie były do końca zadowalające. Praca Bosego zawierała istotny szczegół techniczny, który zainteresował Einsteina, a mianowicie inne liczenie stanów dla gazu fotonów. Najkrócej mówiąc, Bose obliczał liczbę stanów gazu tak, jakby fotony były nierozróżnialne. Wyobraźmy sobie rzut monetą: mamy dwa wyniki (stany monety): orzeł albo reszka. Rozważmy teraz jednoczesny rzut dwiema monetami. Jakie są możliwe stany? dwa orły; dwie reszki; orzeł i reszka. W przypadku monet zawsze możemy odróżnić od siebie dwa wyniki: reszka na pierwszej i orzeł na drugiej oraz orzeł na pierwszej i reszka na drugiej. Gdy obliczamy prawdopodobieństwa, mamy 4 stany. W przypadku fotonów należy liczyć tak, jakby był tylko jeden stan orzeł-reszka, bo nasze monety są z natury nierozróżnialne.

satyendra
Einstein przełożył na niemiecki jeszcze jedną pracę Bosego, choć się z nią nie zgadzał. Hinduski uczony na podstawie pocztówki od Einsteina uzyskał na uczelni dwuletnie stypendium do Europy oraz – na tej samej podstawie – bezpłatną wizę niemiecką. Przyjechał do Europy, ale nie zrobił już nic podobnej wagi.

Einstein natomiast zastosował podejście Bosego do gazu kwantowego, tzn. zwykłego gazu atomów, lecz potraktowanego kwantowo. Okazało się, że ma on pewną niezwykłą własność: w dostatecznie niskiej temperaturze pewien ułamek atomów zgromadzi się w stanie o najniższej energii, a reszta będzie nadal tworzyć gaz, czyli przyjmować rozmaite dostępne energie. Było to przejście fazowe, jak skraplanie pary albo pojawianie się namagnesowania w żelazie, gdy obniżamy temperaturę. Zjawisko znane jest pod nazwą kondensacji Bosego-Einsteina, choć Bose nie ma z nim zupełnie nic wspólnego(*).

Kondensacja Bosego-Einsteina zachodzi tylko z tego powodu, że atomy „chętnie” zajmują ten sam stan, nie muszą się wcale przyciągać. Praca Einsteina stanowiła pierwszy przykład teoretycznego opisu przejścia fazowego i z tego powodu była zamieszczana w podręcznikach. Wyjaśniło się później, że nie wszystkie atomy będą się tak zachowywać, bo cząstki kwantowe dzielą się na dwie grupy: bozony i fermiony. Pierwsze mogą obsadzać licznie ten sam stan, drugie – tylko pojedynczo – jak np. elektrony. Tylko bozony mogą podlegać kondensacji, chyba że fermiony połączą się np. w pary, które będą już bozonami.

W roku 1925 Einstein zajmował się głównie nie fizyką kwantową, lecz konstruowaniem jednolitej teorii grawitacji i pola elektromagnetycznego. Miał to robić bez powodzenia przez następne 30 lat. W lipcu 1925 zaczęła się kwantowa rewolucja – Werner Heisenberg wysłał pierwszą pracę nt. mechaniki kwantowej, w ciągu miesięcy rozpoczął się najważniejszy przewrót w fizyce XX wieku. Einstein obserwował go z bliska, lecz nie wziął w nim udziału. Nie podzielał entuzjazmu młodszych kolegów i Nielsa Bohra dla nowej fizyki. Dlatego ta praca o gazie kwantowym jest ostatnią, która ma znaczenie, by tak rzec, podręcznikowe.
W końcu roku 1924 Einstein zapisał równania dla takiego gazu nieoddziałujących bozonów i przewidział kondensację (praca została opublikowana w styczniu 1925 r.). W roku 1995, równo siedemdziesiąt lat później, udało się ten podręcznikowy przykład zrealizować doświadczalnie. Wygląda to tak:

640px-Bose_Einstein_condensate

Widzimy tu rozkład prędkości atomów rubidu dla kilku zmniejszających się temperatur. Temperatura kondensatu to 170 nK (nanokelwinów, czyli 10^{-9} K). Atomy kondensują w stanie podstawowym, który ma postać spłaszczonej górki: odzwierciedla to kształt pułapki, w jednym kierunku bardziej stromej niż w drugim (prędkości zachowują się odwrotnie: rozkład jest szerszy w tym kierunku, w którym pułapka jest bardziej stroma – jest to przejaw zasady nieoznaczoności).

Autorzy tych eksperymentów, Eric Cornell i Carl Wieman, kilka lat później dostali Nagrodę Nobla, jest to obecnie cała dziedzina badań eksperymentalnych i teoretycznych.

Przyjrzyjmy się bliżej efektowi odkrytemu przez Einsteina. Bose najprawdopodobniej nie zdawał sobie sprawy, że traktuje fotony jak cząstki nierozróżnialne. Einstein zastosował podejście Bosego do cząstek „zwykłego” gazu jednoatomowego (można wtedy nie zajmować się drganiami i obrotami, które ważne są w przypadku cząsteczek chemicznych). Otrzymał zmodyfikowane równanie stanu gazu doskonałego, w którym ciśnienie jest mniejsze niż wynikałoby z równania Clapeyrona (pV=nRT). Koledzy, m.in. Paul Ehrenfest i Erwin Schrödinger, zwrócili mu uwagę, że licząc stany gazu na sposób Bosego, odchodzi od przyjętych zasad mechaniki statystycznej Boltzmanna. Można to przedstawić na obrazku. Mamy tu dwa stany i dwie cząstki do rozmieszczenia.

W statystyce Bosego-Einsteina cząstki są nierozróżnialne. To nowa cecha mechaniki kwantowej (której, pamiętajmy, wciąż jeszcze nie ma). Wiadomo było, że atomy są jednakowe, ale fizyka klasyczna nie bardzo potrafiła sobie z tym faktem poradzić. James Clerk Maxwell porównywał atomy do standaryzowanych wytworów fabrycznych (fabrykantem byłby tu Bóg). W zasadzie jednak atomy klasyczne powinny być rozróżnialne, co na obrazku statystyki Boltzmanna zaznaczyłem kolorami. Klasyczna fizyka statystyczna Boltzmanna była tu nie do końca konsekwentna, ponieważ we wzorach na entropię, należało wprowadzić dodatkowy czynnik ad hoc (tzw. poprawne zliczanie boltzmannowskie). W roku 1926 pojawił się drugi rodzaj statystyki, obowiązujący dla fermionów. Paul Dirac zauważył, że chodzi o symetrię funkcji falowej, która w przypadku bozonów jest całkowicie symetryczna na przestawienia cząstek identycznych, a w przypadku fermionów – antysymetryczna. Zapełnianie powłok elektronowych i orbitali w chemii są konsekwencją faktu, że elektrony są fermionami.

W świecie kwantowym (czyli naszym) każda cząstka jest albo bozonem, albo fermionem. Jest to fakt fundamentalny. Einstein, idąc w ślady Bosego, wprowadził do fizyki cząstki identyczne. Sam Bose prawdopodobnie nie zdawał sobie sprawy z konsekwencji nowego sposobu liczenia stanów. Zdroworozsądkowe liczenie stanów jak u Boltzmanna nie odpowiada rzeczywistości i nie jest zgodne z doświadczeniem. 

Wróćmy do gazu atomowych bozonów. Różni się on od fotonów tym, że liczba cząstek powinna być zachowana: atomy w naczyniu nie znikają ani nie pojawiają się znienacka, podczas gdy fotony mogą być emitowane i pochłaniane przez ścianki naczynia. W danej temperaturze T średnie zapełnienie stanów o energii \varepsilon_i jest równe wg statystyki Boltzmanna

\overline{n}_i=\lambda g_i \exp{\left(-\dfrac{\varepsilon_i}{kT}\right)},

gdzie \lambda jest pewną stałą normalizacyjną, g_i – liczbą stanów o energii \varepsilon_i, a k – stałą Boltzmanna. Iloczyn kT jest temperaturą wyrażoną w jednostkach energii i co do rzędu wielkości jest równy średniej energii cząstek w danej temperaturze (np. w jednoatomowym gazie doskonałym średnia energia kinetyczna atomów jest równa \frac{3}{2}kT).

Wynik otrzymany przez Einsteina dla gazu bozonów miał postać następującą:

\overline{n}_i=\dfrac{g_i}{\lambda^{-1}\exp{\left(\dfrac{\varepsilon_i}{kT}\right)}-1}.

Łatwo zauważyć, że oba wyrażenia dadzą ten sam wynik, gdy wartość eksponenty jest dużo większa od 1 i można tę jedynkę w mianowniku pominąć. Na ogół średnia liczba obsadzonych stanów bozonowych jest większa, niż przewiduje to statystyka Boltzmanna. Podobne wyrażenie można też uzyskać dla fermionów, mamy wtedy do czynienia z gazem fermionów. Przykłady to gaz elektronów w metalu albo białym karle. Wyrażenie różni się znakiem jedynki w mianowniku, ale nie bedziemy tej kwestii rozwijać.

Einstein zastosował statystykę BE do gazu nieoddziałujących atomów zamkniętych w pudle. My zastosujemy ją do innej sytuacji, a mianowicie nieoddziałujących bozonów zamkniętych w parabolicznym potencjale. Jest to zwykły oscylator harmoniczny. Okazuje się, że sytuację taką można zrealizować eksperymentalnie, a w dodatku jest ona fizycznie przejrzysta i Einstein nie miałby żadnych trudności z zapisaniem wyrażeń, które rozpatrzymy niżej. Po prostu nikomu się wówczas nie śniło, że można będzie taki eksperyment zrealizować, więc nie miało sensu robić obliczenia dla tego przypadku. Choć mechaniki kwantowej ciągle jeszcze nie było, to wiadomo było, że energia oscylatora jest skwantowana i równa

E=h\nu(n_x+n_y+n_z),

gdzie h jest stałą Plancka, \nu – częstością oscylatora, a liczby kwantowe n_i są całkowite i nieujemne, przy czym . Kolejne dozwolone tworzą drabinę stanów oddalonych o h\nu. Inaczej mówiąc, dozwolone energie są równe

E=nh\nu,\,\,\, \mbox{gdzie}\,\,\, n=n_x+n_y+n_z.

Jak łatwo obliczyć, liczba stanów o takiej energii równa jest

g_n=\dfrac{(n+1)(n+2)}{2}.

Jeśli do takiego harmonicznego potencjału wprowadzimy N bozonów, to suma średnich liczb obsadzeń musi się równać N:

{\displaystyle N=\sum_{k=0}^{\infty}\overline{n}_k=\sum_{k=0}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}.}

W ostatnim wyrażeniu wprowadziliśmy temperaturę mierzoną w jednostkach h\nu, tzn. nasze nowe T jest równe \frac{kT}{h\nu}. Jest to jedyny parametr teorii. Wartość \lambda musi być taka, żeby ostatnie równanie było spełnione. Ponadto mianownik z funkcją wykładniczą musi być dodatni, więc \lambda<1 (średnie liczby obsadzeń nie mogą być ujemne, tak samo jak np. średnia liczba brunetów w próbce ludzi).

Dalej niesie nas już formalizm, tak jak poniósł Einsteina w grudniu 1924 roku. Możemy z N wydzielić obsadzenie stanu postawowego N_0:

{\displaystyle N=N_0+ \sum_{k=1}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}\equiv N_0+N_{exc}(T,\lambda).}

Suma N_{exc}(T,\lambda) osiąga maksymalną wartość przy \lambda=1:

{\displaystyle N_{max}(T)=\sum_{k=1}^{\infty}\dfrac{g_k}{\exp{\left(\dfrac{k}{T}\right)}-1}.}

Suma ta zależy wyłącznie od temperatury! Wykrzyknik oznacza nasze (i Einsteina) zdziwienie w tym miejscu. Zobaczmy, jak wygląda ta suma w funkcji temperatury.

Przedstawiliśmy tu obliczenia numeryczne (punkty) oraz przybliżenie analityczne:

N_{max}\approx 1.202 T^3\equiv 1.202 \left(\dfrac{kT}{h\nu}\right)^3.

Czemu ten wynik jest dziwny? Ano dlatego, że dla danej temperatury mamy pewną maksymalną liczbę cząstek, jakie można umieścić w danym potencjale. Tymczasem liczba N powinna być dowolnie duża. Ostatnie równanie oznacza, że obniżając temperaturę, osiągniemy w końcu sytuację, w której mamy mniej miejsc do obsadzenia niż cząstek. To oczywiście niemożliwe. Poniżej temperatury zadanej ostatnim równaniem, jakaś część atomów musi znajdować się w stanie podstawowym, i to część makroskopowo zauważalna. Inaczej mówiąc, atomy zaczną się kondensować w stanie o energii zerowej. W tym obszarze temperatur, parametr \lambda jest praktycznie równy 1. Mamy więc warunek

N\approx 1.202 T_{0}^3, \,\, \mbox{(**)}

określający temperaturę krytyczną T_0 przy danej liczbie atomów oraz liczbę atomów w stanach wzbudzonych poniżej temperatury krytycznej:

N_{exc}=N_{max}(T)=N \left(\dfrac{T}{T_0}\right)^3.

Atomy, które nie są wzbudzone, są w stanie podstawowym, zatem ich liczba równa się

N_0=N\left(1-\left(\dfrac{T}{T_0}\right)^3\right).

Funkcję tę przedstawiliśmy na wykresie.

Ważne jest, aby odróżniać kondensację Bosego-Einsteina od zwykłego wzrostu liczby obsadzeń stanu podstawowego wraz ze spadkiem temperatury. Tutaj mamy do czynienia z przejściem fazowym, pierwszym, jakie zostało opisane w fizyce statystycznej. Rozumowanie Einsteina było nieoczywiste dla kolegów. Nie było wcale jasne, czy formalizm fizyki statystycznej w ogóle może opisać przejścia fazowe. Tutaj w dodatku Einstein zaproponował nową statystykę, która mogła, ale wcale nie musiała okazać się prawdziwa. Ponadto model nieoddziałujących atomów jest nadmiernie uproszczony, co jest zarzutem technicznym, ale potencjalnie istotnym dla słuszności konkluzji. Sam Einstein nie był pewien i podkreślał, że tak może być, lecz nie ma co do tego pewności. Jednak jego dwudziestoletnie doświadczenie z fizyką statystyczną nie zawiodło. Statystyka okazała się prawdziwa (dla bozonów). Przejścia fazowe zaczęto na serio badać dopiero w latach trzydziestych (por. Lars Onsager i model Isinga). Jedna ze współpracowniczek Einsteina w latach czterdziestych Bruria Kaufman współpracowała z Larsem Onsagerem przy uproszczeniu jego monumentalnej pracy nt. modelu Isinga w dwóch wymiarach. Także Chen Ning Yang zajmował się modelem Isinga i nawet starał się zainteresować tym tematem Einsteina, gdy pracował w IAS w Princeton.

Ze współczesnego punktu widzenia faza skondensowana jest makroskopowo widocznym stanem kwantowym. Pewien odsetek atomów znajduje się w tym samym stanie, w przypadku pułapki harmonicznej gęstość atomów zarówno w przestrzeni położeń, jak i pędów, jest gaussowska, co odpowiada funkcji falowej stanu podstawowego oscylatora.

Wygląda to jak na obrazkach: w miarę obniżania temperatury pojawia się gaussowskie wąskie skupienie atomów, które rośnie w miarę zbliżania się do zera bezwzględnego. Czerwona linia pionowa obrazuje temperaturę. Widzimy też skok ciepła właściwego, co jest jednym ze wskaźników przejścia fazowego (Obrazki wg Bose-Einstein Condensation in a Harmonic Trap).

Atomy rubidu 87 użyte przez odkrywców kondensacji mają 37 elektronów i 87 nukleonów w jądrze, a więc parzystą liczbę fermionów, dlatego są bozonami. Pułapki stosowane w eksperymencie mają nieco odmienne częstości w różnych kierunkach, przez co rozkłady są iloczynami trzech funkcji Gaussa z róńymi szerokościami wzdłuż osi x,y,z.

(*) Obowiązują w historii nauki dwie zasady:
Zasada Arnolda: Jeśli jakieś pojęcie nazwano czyimś imieniem, to nie jest to imię odkrywcy.
Zasada Berry’ego: Zasada Arnolda stosuje się do samej siebie.
(Chodzi o Michaela Berry’ego i Vladimira Arnolda)

(**) W niskich temperaturach suma może być zastąpiona całką, ponieważ funkcja zmienia się bardzo wolno. Otrzymuje się wówczas

{\displaystyle N_{max}(T)\approx\dfrac{T^3}{2}\int_{0}^{\infty}\dfrac{x^2 dx}{e^{x}-1}= \dfrac{T^3}{2} \Gamma(3)\zeta(3),}

gdzie \Gamma i \zeta to funkcje Eulera i Riemanna.

Flaszki Kleista i butelki lejdejskie: elektryczny szok uczonej Europy (1745-1746)

Ważne odkrycia niemal zawsze są niespodziewane, bywają także niebezpieczne, gdyż odkrywcy zwykle są w roli ucznia czarnoksiężnika, rozpętując moce, nad którymi nie potrafią zapanować. Odkrycie butelki lejdejskiej stanowiło przełom w badaniach elektryczności. Do tej pory była ona jedynie źródłem interesujących i zabawnych pokazów. Elektron znaczy po grecku bursztyn, i to bursztyn był pierwszą substancją używaną do wywołania zjawisk przyciągania i odpychania lekkich drobnych przedmiotów w rodzaju skrawków papieru. Zauważono, że także inne materiały, jak siarka albo szkło, elektryzują się przez tarcie. Znane było doświadczenie Graya, pokazujące, że elektryczność może być przekazywana także przez ciało ludzkie.

0154.P.2.1612.1032

Stephen Gray, farbiarz, astronom i okazjonalnie demonstrator eksperymentów w Towarzystwie Królewskim, został pod koniec życia pensjonariuszem Charterhouse, czegoś w rodzaju szpitala z domem starców dla gentlemanów (pojęcie w Anglii bardzo rozciągliwe) połączonego z sierocińcem i szkołą. Do eksperymentów używał czterdziestosiedmiofuntowego chłopca zawieszonego na jedwabnych izolujących pasach. Na rysunku widzimy jeden z wariantów takiego doświadczenia. Osoba B obraca tu za pomocą przekładni szklaną kulę C, która jest pocierana ręką osoby D. Zawieszony w powietrzu chłopiec stopami dotyka kuli, podając rękę dziewczynce G (stojącej na izolacyjnej podkładce z żywicy albo smoły). Jej ręka przyciąga skrawki złotej folii leżące na gerydonie H. Na drugim rysunku mamy naelektryzowaną szklaną rurkę TT, która za pomocą brązowego drutu B połączona jest z dzwonkiem A. Młoteczek C zawieszony jest na jedwabnym sznurze i jest na przemian przyciągany oraz odpychany przez A, w rezultacie oscyluje między dzwonkami A i E, wywołując ich dzwonienie.

Georg Matthias Bose, profesor filozofii naturalnej z Wittenbergi i autor marnych francuskich wierszy, w swych eksperymentach przejawiał iście germańskie poczucie humoru. Jeden z nich, znany jako Venus electrificata, polegał na tym, by naelektryzować damę stojącą na izolowanej podkładce. Gdy następnie jakiś kawaler próbował ją pocałować, rażony był iskrą wybiegającą z warg wybranki. Innym jego popisowym doświadczeniem była „beatyfikacja”: delikwent wkładał na głowę specjalną koronę, która po naelektryzowaniu świeciła. Mimo tak bezceremonialnego podejścia do aureoli i świętości starał się Bose o uznanie wszędzie, nawet w Turcji i u Ojca Świętego Benedykta XIV. To ostatnie ściągnęło na niego represje na macierzystej uczelni, kolebce luteranizmu, spór musiał zażegnywać król Fryderyk.

bub_gb_FSJWAAAAcAAJ-xx

Jesienią 1745 roku eksperymentami elektrycznymi zajął się dziekan luterańskiej kapituły katedralnej w Kamieniu Pomorskim, Ewald Georg von Kleist. Dwadzieścia lat wcześniej studiował on w Lipsku i w Lejdzie i mógł się już wtedy zetknąć z elektrycznością, choć bezpośredniej inspiracji dostarczyły mu stosunkowo niedawne eksperymenty Bosego, m.in. uzyskiwanie iskry z wody oraz zapalanie spirytusu za pomocą elektryczności. Wyobrażano sobie wówczas elektryczność jako jakiś pewien rodzaj rodzaj subtelnej materii jakoś spowinowaconej z ogniem, mówiono nawet o ogniu elektrycznym. Eksperymenty z czerpaniem ognia z wody bądź zamianą iskry elektrycznej na rzeczywisty płomień zdawały się potwierdzać bliski związek obu tych tajemniczych substancji. Kleist pragnął naelektryzować wodę i udało mu się to w następujący sposób: butelkę napełniał częściowo wodą, rtęcią albo spirytusem, następnie zatykał korkiem, przez który przechodził drut albo gwóźdź. Jeśli trzymało się ten wynalazek w ręku, podczas gdy gwóźdź podłączony był do machiny elektrostatycznej, można było go bardzo mocno naelektryzować. Kolba średnicy czterech cali po naelektryzowaniu potrafiła powalić chłopca w wieku ośmiu bądź dziewięciu lat, jak starannie odnotował dobry dziekan (nie podając wszakże wagi chłopca). Po raz pierwszy wytworzona przez człowieka elektryczność przestała być niewinną salonową zabawą. Jak pisał Kleist, każdemu odechciałoby się całowania tak naelektryzowanej Wenus.

flasche-xx

Rysunek von Kleista z listu do Pawła Świetlickiego, diakona luterańskiego kościoła św. Jana w Gdańsku, przedstawiający jego urządzenie (z listu tego korzystał D. Gralath)

Odkrycie von Kleista było przypadkowe: nie rozumiał on, dlaczego musi trzymać swoje urządzenie w ręku, aby działało. Chcąc nagromadzić dużą ilość elektrycznego ognia, należałoby raczej izolować naczynie zamiast trzymać je w ręku i w ten sposób uziemiać. Dziś wiemy, że flaszka Kleista, jak nazywano ją czasem w Niemczech, była po prostu kondensatorem: ręka i woda z gwoździem stanowiły jego dwie okładki rozdzielone szkłem. Z punktu widzenia ówczesnej wiedzy działanie tego urządzenia było jednak niezrozumiałe. Spośród kilku uczonych, którzy otrzymali listowne doniesienia Kleista, eksperyment zdołał powtórzyć chyba tylko Daniel Gralath (a właściwie jego pomocnik Gottfried Reyger) w Gdańsku. Niedługo później, już w roku 1746, podobne doświadczenie przeprowadzono niezależnie w Lejdzie. Także i tu pierwszym odkrywcą był naukowy amator, Andreas Cunaeus, prawnik, zabawiający się eksperymentami w pracowni miejscowego profesora Pietera van Musshenbroeka. Przypadkowo zauważył on to samo co Kleist, jego eksperyment powtórzył później pomocnik profesora, Jean Nicolas Allamand, a na koniec i sam Musshenbroek, który był nim tak mocno wstrząśnięty, że, jak wyznał swemu paryskiemu koledze, nawet za całe królestwo Francji nie chciałby tego przeżyć po raz drugi.

leiden exp-x

Strach niebawem minął i elektrowstrząsy za pomocą butelek lejdejskich zaczęli wytwarzać wszyscy eksperymentatorzy, choć przez pewien czas do dobrego tonu należało informować o przypadkach konwulsji, paraliżu, zawrotów głowy itp. Żona profesora z Lipska, Johanna Heinricha Wincklera, po dwóch wyładowaniach poczuła się tak słabo, że ledwie mogła mówić. Tydzień później mąż zaaplikował jej jeszcze jedno wyładowanie, po którym krew się jej puściła z nosa. Profesor Winckler humanitarnie wstrzymał się jednak od przeprowadzania eksperymentów na ptakach, nie chcąc zadawać owym stworzeniom niepotrzebnych cierpień. Abbé Jean Antoine Nollet, mistrz pokazów fizycznych, utrzymujący się z produkcji naukowych urządzeń dla bogatych klientów, takich jak np. Voltaire i pani du Châtelet, zaprezentował w obecności króla Ludwika XV żywy łańcuch 180 grenadierów, poprzez który rozładowywała się butelka lejdejska. Wszyscy oni jednocześnie podskakiwali, co tak bardzo podobało się suwerenowi, że kazał sobie ten eksperyment powtarzać.

George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop? (1834)

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi\, \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \, \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta= \dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \, \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.

Stanisław Ulam (2/2)

Wciąż jest dla mnie źródłem nieustającego zdziwienia, że kilka znaków nagryzmolonych na tablicy lub na kartce papieru może zmienić bieg ludzkich spraw. [S. Ulam]

Każdego roku, od 1936 aż do 1939, Stanisław Ulam spędzał lato w Polsce. Spotykał się ze swoimi matematycznymi przyjaciółmi, w tym Banachem i Mazurem, we Lwowie albo gdzieś w okolicach, gdzie spędzali wakacje. Jego dorobek matematyczny obejmował szereg dziedzin: teorię mnogości, teorię miary i rachunek prawdopodobieństwa, teorię transformacji, teorię grup. Były to na ogół niewielkie prace rozwiązujące lub stawiające jakiś problem. Na uniwersytecie Harvarda we współpracy z Johnem Oxtobym Ulam napisał swoją najdłuższą pracę, opublikowaną następnie w „Annals of Mathematics”, wysoko cenionym piśmie wydawanym w Princeton. Praca dotyczyła teorii ergodycznej. W mechanice klasycznej każdy nietrywialny układ fizyczny wędruje po swojej przestrzeni stanów (in. przestrzeni fazowej) w taki sposób, że wraca kiedyś w sąsiedztwo każdego punktu już odwiedzonego. Fakt ten jest podstawą fizyki statystycznej, w której zakłada się, że wszystkie stany o określonej energii są jednakowo prawdopodobne. Praca Ulama i Oxtoby’ego dowodziła, że przekształcenia spełniające warunek ergodyczności są w pewnym sensie typowe. Uzyskany przez nich wynik nie mógł być wprost zastosowany do fizyki, ale tak jest bardzo często: ścisłe potwierdzenie intuicji fizyków zazwyczaj nie jest łatwe.

Stanisław Ulam łatwo przywykł do amerykańskiego życia i z przyjemnością wracał do niego po wakacjach. Latem 1939 roku zabrał ze sobą młodszego brata, Adama. Na statek w Gdyni odprowadzili ich ojciec i stryj. Widmo wojny wisiało nad Polską, choć, jak zauważył Ulam, zagrożenie to wyraźniej dostrzegano w Stanach Zjednoczonych niż w Polsce, gdzie do ostatniej chwili łudzono się nadziejami na jakiś zwrot dyplomatyczny w zaostrzającym się napięciu. Różnice w sposobie oceny wynikały zapewne nie tylko z dystansu Amerykanów. Do Stanów Zjednoczonych dotarło w ostatnich latach wielu uchodźców z Niemiec, którzy lepiej niż inni rozumieli istotę nazistowskiego reżimu. W Polsce prasa, koła wojskowe i politycy zgodnie uprawiali propagandę w stylu „nie oddamy ani guzika”, co skończyło się klęską nie tylko militarną i polityczną, ale także klęską moralną – kraj był bowiem zupełnie nieprzygotowany do wojny i tysiące, może miliony ludzi, rzuciły się do panicznej i bezładnej ucieczki: jedni na wschód, inni na zachód. Dowódcy niemieccy zdumieni byli łatwością tego zwycięstwa, które po dwu tygodniach było już w zasadzie zupełne.

Dla Stanisława Ulama wojna oznaczała nie tylko lęk o najbliższych i przyjaciół pozostawionych w kraju, ale i obowiązek utrzymywania młodszego brata, który zaczął jesienią studia (z czasem został znanym sowietologiem). Znalezienie płatnej pracy akademickiej nie było łatwe, Ulam musiał zadowolić się uniwersytetem stanu Wisconsin w Madison. Po Harvardzie i Princeton nie było to wymarzonym rozwiązaniem, jednak uczelnia okazała się całkiem przyzwoita, Ulam zaprzyjaźnił się tam z wieloma wykładowcami, nie tylko zresztą z matematykami, ale i z fizykami, ekonomistami. Wygłosił kiedyś zaimprowizowany wykład na zjeździe astronomów (na temat wyboru układu odniesienia, w którym ruch ciał wygląda prościej – była to topologiczna wersja problemu kopernikańskiego). W tym okresie wielu wybitnych uczonych, zwłaszcza pochodzących z Europy, pracowało na mniejszych uczelniach, fala emigracji wywołała bowiem nadmiar szukających pracy akademików. W Madison pracował Eugene Wigner, fizyk i szkolny kolega von Neumanna, przyszły noblista. Na seminaria prowadzone przez Ulama przyjeżdżali do Madison matematycy tej klasy co André Weil, urodzony w Warszawie Samuel Eilenberg czy Paul Erdös, wszyscy oni stali się sławami światowego formatu. Erdös zaprzyjaźnił się z Ulamem i odwiedzał go czasami, rozmowy były jego ulubioną formą pracy matematycznej, z czasem opublikował wspólne prace z kilkuset innymi badaczami. Matematycy obliczają liczbę Erdösa: on sam ma liczbę zero; ci, którzy z nim pracowali, mają liczbę jeden; ci, którzy pracowali z posiadającymi liczbę jeden, mają liczbę dwa itd. Oczywiście, Ulam miał liczbę Erdösa równą jeden. Zabawa ta unaocznia, jak silną rolę odgrywa współpraca nawet w dziedzinie tak z pozoru indywidualnej jak matematyka (choć trzeba też dodać, że Erdös, podobnie jak Ulam, wyjątkowo lubił pracę w towarzystwie innych).

W 1941 roku Ulam otrzymał obywatelstwo amerykańskie i kiedy Stany Zjednoczone przystąpiły do wojny, chciał pracować na rzecz wojska. Dzięki rekomendacji von Neumanna trafił do Los Alamos i Projektu Manhattan jako jeden z niewielu matematyków. Spotkał tam i poznał osobiście wielu fizyków i chemików o głośnych nazwiskach, nigdy chyba w historii nie zgromadzono w jednym miejscu w pracy nad wspólnym projektem tak wielu wybitnych specjalistów. Wielu z nich było emigrantami, których dotychczasowe życie zburzył mniej lub bardziej nazizm. Wśród kierujących projektem byli dwaj znakomici fizycy jądrowi: Hans Bethe i Enrico Fermi. Pierwszy miał babkę Żydówkę, przez co stracił profesurę w Tybindze, drugi miał za żonę Żydówkę i w roku 1938 zmuszony był opuścić Włochy. Ulam obu uczonych bardzo szanował, lecz szczególny respekt budził w nim Fermi – ostatni chyba fizyk będący zarazem eksperymentatorem i teoretykiem. Nie rozstający się z suwakiem logarytmicznym Fermi, który umiał szybko obliczyć każdą potrzebną wielkość, miał też solidne przygotowanie matematyczne i okazało się, że zna np. pracę Oxtoby’ego i Ulama. Dzięki Projektowi Manhattan Stanisław Ulam zaczął pracować z fizykami i tak już miało zostać przez długie lata. Jego talent matematyczny niespodziewanie okazał się przydatny w zagadnieniach z pogranicza inżynierii. Taki przeskok z podstaw matematyki do zagadnień praktycznych byłby niewyobrażalny dla większości matematyków. Ulam trafił do grupy kierowanej przez Edwarda Tellera, jeszcze jednego emigranta z Węgier. Pierwszym zagadnieniem, którym się tam zajął, było oddziaływanie gazu elektronowego z promieniowaniem. Teller uzyskał z rozważań wymiarowych postać równania, chciał aby te rozważania uściślić. Ulam zaproponował własne dość elementarne rozwiązanie, z którego wynikało, że wzór Tellera trzeba uzupełnić współczynnikiem cztery. Niezadowolony Teller zlecił to samo zadanie komuś innemu, kto posługując się znacznie bardziej rozbudowanym aparatem matematycznym, uzyskał dla owego współczynnika liczbowego także wartość zbliżoną do czterech.

Ulam, Richard Feynman i John von Neumann w Los Alamos

Rodzaj talentu matematycznego Stanisława Ulama był nietypowy, jedyny w swoim rodzaju. Posiadał on dar formułowania problemów w sposób jak najprostszy, zachowując jedynie najistotniejsze ich cechy. Wyobrażał sobie przy tym zjawiska, a nie tylko równania, które je opisują. Łatwo też przychodziły mu oszacowania liczbowe, co w Los Alamos było niezwykle ważne – nie chodziło tam przecież o zrozumienie idealnej sytuacji laboratoryjnej, ale o skonstruowanie jak najefektywniejszej bomby. Należało więc wejść w świat rzeczywistych obiektów, kształtów, własności różnych materiałów, współwystępowania rozmaitych zjawisk. Zazwyczaj praca fizyków polega na czymś odwrotnym: szuka się najprostszych i „najczystszych” sytuacji, w których można zmierzyć dane zjawisko.

Po zakończeniu wojny i Projektu Manhattan Stanisław Ulam wrócił do pracy akademickiej. Został profesorem nadzwyczajnym na Uniwersytecie Południowej Kalifornii (USC). Uczelnia okazała się słaba, Los Angeles było miastem trudnym do mieszkania i poruszania się z powodu korków ulicznych. Pewnego dnia Ulam poważnie zachorował, zaczął mieć problemy z mówieniem. Przeprowadzono operację, otwierając czaszkę. Znaleziono ostry stan zapalny, który leczono nowymi wówczas antybiotykami, podawanymi bezpośrednio do wnętrza czaszki. Uczony po pewnym czasie doszedł do siebie, jednak z obawą myślał, czy po tym wszystkim jego umysł wróci do dawnej sprawności. Przekonał się o tym, kiedy odwiedził go Paul Erdös. Zagrali w szachy i Ulam wygrał. Zaczął podejrzewać, że może przyjaciel pozwolił mu wygrać dla podtrzymania go na duchu. Zagrali więc jeszcze raz. Uspokoił się dopiero, kiedy wygrał po raz drugi, a Erdös wyraźnie się tym zirytował.

Nie pozostał na USC długo, tym bardziej że po chorobie wpadł w długi. Otrzymał propozycję pracy w Los Alamos dla armii amerykańskiej. Wprawdzie sławni i wielcy po zakończeniu Projektu Manhattan rozjechali się po różnych ośrodkach, ale laboratorium w Los Alamos zostało i nieoczekiwanie dawało Ulamowi możliwość ciekawej i względnie niezależnej pracy. Problemy, nad którymi tam pracowano, były konkretne, co zdaniem Ulama bardzo się liczyło. Sądził on bowiem, że naprawdę ważne problemy wywodzą się z praktyki, a nie filozoficznych rozważań. Mógł dobierać sobie współpracowników, co było szczególnie ważne wobec jego metody pracy. Polegała ona na tym, że Ulam szkicował możliwości rozwiązania danego zagadnienia, a współpracownicy starali się te pomysły zrealizować. Niewykluczone, że przebyta choroba odebrała Ulamowi czysto techniczną sprawność dokonywania obliczeń czy prowadzenia jakiegoś długiego dowodu. Starał się tego po sobie nie pokazywać. Pozostała mu jednak wyobraźnia i umiejętność dostrzegania bez dowodu, czy twierdzenie jest prawdziwe, czy nie, i w jaki sposób można dążyć do wytyczonego celu. Toteż pracował przede wszystkim nad wytyczaniem kierunków i formułowaniem problemów – co w sumie jest może ważniejsze niż szczegółowe rozwiązania. Przypominał swoim stylem pracy pracującego po przeciwnej stronie Atlantyku Jakowa Zeldowicza.

Dzięki pracy dla armii Ulam należał do pionierów stosowania komputerów. Układając pewien trudny pasjans w okresie rekonwalescencji, zdał sobie sprawę, że bardzo trudno byłoby obliczyć, jakie jest prawdopodobieństwo ułożenia tego pasjansa, łatwo natomiast można by go było modelować za pomocą komputera, który mógłby przeprowadzić wiele prób, dzięki czemu można by empirycznie stwierdzić, jakie jest szukane prawdopodobieństwo. Rozwinięciem tej idei opracowanym we współpracy z von Neumannem i Nickiem Metropolisem są metody Monte Carlo (nazwa zaczerpnięta ze skojarzenia z wujem Ulama, który pożyczał od krewnych pieniądze i następnie przepuszczał je w Monte Carlo). Zamiast np. rozwiązywać równanie różniczkowe, opisujące dyfuzję neutronów z pewnego stanu początkowego, możemy prześledzić losy wielu neutronów i zobaczyć, jakie są charakterystyczne cechy ich rozkładu. Dla pięćdziesięciu cząstek startujących z punktu x=0 tory w błądzeniu przypadkowym mogą być np. takie jak na wykresie.

Po zebraniu pewnej statystyki można znaleźć kształt rozkładu końcowego. Im więcej wykonamy losowań, tym dokładniej będziemy znali rozkład cząstek po danym czasie.

Rozkład uzyskany w tym przypadku jest łatwy do obliczenia analitycznego (jest rozkładem normalnym). Wystarczy jednak nieco zmodyfikować zagadnienie: dodać dwa wymiary, różne kształty i materiały, a problem dyfuzji stanie się bardzo trudny do rozwiązania metodami analitycznymi, choć symulacja komputerowa nadal będzie stosunkowo prosta. Pionierzy tej metody musieli zaczynać kompletnie od zera, rozwiązując np. zagadnienie, jak komputer, który prowadzi obliczenia arytmetyczne na liczbach – a więc otrzymując zawsze ściśle określony i jednoznaczny wynik, może generować liczby losowe. Jak sprawić, aby liczby te podlegały określonemu prawu statystycznemu? Jak sprawdzać uzyskane wyniki itd itp. Metoda Monte Carlo używana jest dziś w wielu dziedzinach od fizyki do finansów i stała się zespołem wyspecjalizowanych praktyk.

Stanisław Ulam odegrał istotną rolę w projekcie bomby wodorowej. Była to idée fixe Tellera: zbudować bombę opartą na procesie syntezy lekkich pierwiastków w cięższe. W przyrodzie procesy takie odbywają się we wnętrzu gwiazd, gdzie panują ogromne temperatury i materia jest bardzo gęsta. Warunki tak ekstremalne potrzebne są do tego, by dodatnio naładowane jądra mogły zbliżyć się do siebie, pokonując odpychanie elektrostatyczne. Dopiero bowiem w odległościach rzędu 10^{-15} m możliwe jest przegrupowanie nukleonów, wskutek czego wyzwala się energia.

Synteza helu z dwóch izotopów wodoru: deuteru i trytu; bomby wykorzystują głównie deuter (rys. Wikipedia)

Warunki takie można by wytworzyć za pomocą wstępnego wybuchu zwykłej bomby atomowej. Edward Teller (jeszcze jeden żydowski emigrant z Węgier) pracował nad pomysłem „superbomby” już w trakcie Projektu Manhattan. Nie zrezygnował z niego także i później. W roku 1950 prezydent Harry Truman podjął decyzję o pracach nad superbombą. Okazało się jednak szybko, że początkowy pomysł Tellera nie nadaje się do realizacji. Udowodnił to Stanisław Ulam ze współpracownikami, potwierdziły zaś obliczenia Ulama i Enrico Fermiego. Także obliczenia komputerowe von Neumanna dawały ten sam wynik. Sytuacja stała się trudna dla Tellera, którego oskarżano, że nakłonił władze polityczne do decyzji, nie mając w ręku żadnej rozsądnej teorii działania superbomby. Koszt przedsięwzięcia był ogromny, rywalizacja z Rosją zawzięta, a więc i stawka projektu bardzo wysoka. Impas przełamał Stanisław Ulam, który zaproponował implozyjny mechanizm działania superbomby. Razem z Tellerem napisali raport, który stał się podstawą amerykańskiego projektu. Bomba została zbudowana, lecz stosunki miedzy Tellerem a Ulamem gwałtownie się oziębiły. Teller nie potrafił prawdopodobnie wybaczyć Ulamowi dwukrotnej porażki prestiżowej. Ulam natomiast uważał, że zainteresowani i tak wiedzą, ile kto jest wart.

Raport Tellera i Ulama został po latach odtajniony, lecz większość z kilkunastu jego stron jest kompletnie pusta. Armia amerykańska najwyraźniej uznała, że wciąż jest za wcześnie na publiczne informowanie o technologii bomb wodorowych. Może to być zresztą także przykład nadmiernej ostrożności wojskowych w kwestiach tajemnic, militarne znaczenie bomb wodorowych nie jest bowiem aż tak wielkie, jak sądzono na początku. Dalsze prace szły raczej nad zmniejszaniem siły rażenia, bo co po wygranej wojnie, skoro zwycięzcy zostaną w niej zabici powiedzmy dziesięć razy, a pokonani – dwadzieścia. Angielszczyzna ma na to zgrabne słówko: overkill (*).

Gian-Carlo Rota charakteryzuje Ulama następująco:

Dopiero po kilku latach zdałem sobie sprawę z tego, co jest prawdziwą profesją Stana Ulama. Wielu z nas, pracujących w Laboratorium i mających z nim styczność, wiedziało, jak bardzo nie lubi on zostawać sam, że wzywa nas o zaskakujących porach, by wybawić go od samotności hotelowego pokoju albo czterech ścian swego gabinetu, kiedy już skończył codzienną rundę rozmów międzymiastowych.

Pewnego dnia zebrałem się na odwagę i zapytałem, czemu stale potrzebuje towarzystwa; odpowiedź, jakiej udzielił była wielce znamienna. „Kiedy jestem sam – zwierzył się – zmuszony jestem przemyśleć różne rzeczy i widzę ich tak wiele, że wolę nie myśleć”. Ujrzałem go wtedy w prawdziwym świetle: ten człowiek, mający na koncie największą liczbę trafnych przypuszczeń w matematyce, który potrafi pokonać inżynierów na ich własnym polu, który w jednej chwili ocenia zdarzenia i ludzi, należy do niemal już doszczętnie wymarłej profesji proroków.

Z mężami Starego Testamentu i wyrocznią delficką dźwigał on ciężkie brzemię natychmiastowego widzenia. I jak wszyscy zawodowi prorocy cierpiał na coś, co Sigmund Freud nazwałby „kompleksem Proteusza”. Wielka szkoda, że wśród pacjentów Freuda nie było żadnych proroków.

W dawnych czasach ciemne orzeczenia Sybilli interpretowane były przez wyszkolonych specjalistów, tak zwanych hermeneutów, których zadaniem było przełożenie kryptycznych fraz na greckie zdania. W przypadku Ulama laboratorium w Los Alamos wynajmowało konsultantów, których zadaniem było wyrażenie jego kryptycznych komunikatów w popsutym żargonie współczesnej matematyki.

Stanisław Ulam zmarł niespodziewanie w wieku 75 lat na atak serca. Jak pisze Françoise Ulam:

mawiał, że „najlepszym rodzajem śmierci jest nagły atak serca lub zastrzelenie przez zazdrosnego męża”. Miał szczęście umrzeć w ten pierwszy sposób, choć myślę, że chyba wolałby ten drugi.

(*) Ulam komentował w roku 1965: „Mam wrażenie, iż to interesujące pojęcie, jakim jest overkill, przez lewicę atakowane jest z powodu marnotrawstwa – jako nieekonomiczne, podczas gdy skrajna prawica popiera je z przyczyn psychologicznych: gdyż daje im poczucie męskości, której brak odczuwają.”

Toczyła się wówczas debata, czy Stany Zjednoczone powinny zgodzić się na zakaz prób jądrowych. Ulam i Teller stali na odmiennych stanowiskach, ilustruje to rysunek Herblocka: „Mądry ojciec zna swoje dziecko”.

Stanisław Ulam (1/2)

Wyraz jego twarzy jest zazwyczaj ironiczny i kpiący. W istocie porusza go bardzo wszystko, co jest komiczne. Być może posiada pewien dar rozpoznawania i natychmiastowego wychwytywania śmieszności, nic więc dziwnego, że maluje się to na jego twarzy.
Jego wypowiedzi są bardzo nierówne, czasem poważne, czasem wesołe, ale nigdy nudne. Stara się bawić i rozweselać ludzi, których lubi. Nic, z wyjątkiem nauk ścisłych, nie wydaje mi się aż tak pewne czy oczywiste, by nie dopuszczał możliwości istnienia różnych opinii: sądzi, że na niemal każdy temat można powiedzieć niemal wszystko.
Posiada pewien talent matematyczny i zręczność, które pozwoliły mu zdobyć rozgłos w młodym wieku. Pracując w samotności aż do ukończenia dwudziestu pięciu lat, raczej późno stał się człowiekiem bardziej światowym. Jednak nigdy nie bywa nieuprzejmy, gdyż nie jest szorstki ani surowy. Jeżeli czasem kogoś obrazi, to przez nieuwagę lub niewiedzę.
Jego mowa nie jest gładka ani pełna wdzięku. Kiedy mówi coś miłego, to dlatego, że tak myśli. Cechuje go szczerość i prawdomówność, czasem nieco zbyt wielka, ale nigdy brutalna.
Niecierpliwy i choleryczny, czasami bywa gwałtowny. Bardzo bierze sobie do serca wszystko, co go rani, ale uraza zazwyczaj mija, kiedy da ujście swoim uczuciom. Łatwo na niego wpływać i nim kierować, pod warunkiem, że nie zdaje sobie z tego sprawy.
Niektórzy sądzą, że jest złośliwy, ponieważ bezlitośnie naśmiewa się z pretensjonalnych głupców. W rzeczywistości ma wrażliwe usposobienie, co sprawia, że jego nastrój często się zmienia. Może być jednocześnie wesoły i smutny.
Pan U. zachowuje się zgodnie z następującą zasadą: mówi mnóstwo głupich rzeczy, rzadko je zapisuje i nigdy żadnej z nich nie robi. (przeł. A. Górnicka, przekład nieco poprawiony za oryginałem d’Alemberta)

Autocharakterystykę tę przedstawił (oczywiście po francusku) Stanisław Ulam swojej przyszłej żonie Françoise, dopiero na końcu dodając, że napisał ją Jean Le Rond d’Alembert, jeden ze sławnych fizyków matematycznych XVIII stulecia i autor większości artykułów na temat nauk ścisłych w Wielkiej Encyklopedii Francuskiej.

Czy jest to tylko zabawny zbieg okoliczności, czy też obu uczonych łączy jakieś głębsze powinowactwo? Z pewnością obaj starali się przez całe życie uparcie zachować wolność, d′Alembert przytacza określenie jednego ze swych przyjaciół, że stał się „niewolnikiem swej wolności” – określenie to dobrze pasuje także do Ulama. Wbrew pozorom zachowanie takiej suwerenności poczynań jest w dzisiejszej nauce równie trudne co w XVIII wieku. Stanisław Ulam starał się pracować tak, żeby sprawiało mu to przyjemność, nie lubił presji. Cenił pomysłowość, szybkość rozumowań, nie był z tych, którzy latami rozwijają jakąś jedną metodę czy teorię, choć oczywiście miał swoje ulubione tematy czy sposoby podejścia. W najlepszym sensie tego słowa (pochodzącego od łacińskiego „kochać”) był raczej amatorem niż profesjonalnym uczonym akademickim – co w XX wieku było znacznie rzadsze niż w XVIII.
Już Galileusz pisał przy okazji pewnej uczonej polemiki:

Jeśliby roztrząsanie trudnych problemów było tym samym co przenoszenie ciężarów, czynność, przy której wiele koni przenosi więcej worków ziarna niż jeden koń, zgodziłbym się z tym, że wiele dysput wartych jest więcej niż jedna; ale dysputowanie (discorrere) przypomina bieganie (correre), a nie dźwiganie, toteż jeden koń berberyjski pobiegnie dalej niż sto koni fryzyjskich. (przeł. A. Wasilewska)

W osiemnastowiecznym Paryżu grzechem było mówić głupstwa, a jeszcze większym mówić głupstwa z wysiłkiem. Coś z tej atmosfery przetrwało może w środkowoeuropejskich kawiarniach, w których na początku XX wieku tak chętnie spotykali się artyści i uczeni. Ulam starał się trzymać rzeczy istotnych. Nie słuchał np. dłużej niż dziesięć minut wykładów zaproszonych uczonych, ponieważ jeśli ktoś w ciągu dziesięciu minut nie powiedział nic ciekawego, to zapewne nie będzie miał nic do powiedzenia i potem.

Cechą, która zdecydowanie różni d’Alemberta i Ulama jest stosunek do priorytetu własnych odkryć. Pierwszy zaciekle walczył o pierwszeństwo, drugi natomiast zupełnie się nie wdawał w spory tego rodzaju, uważając je za uwłaczające godności. Paradoksalnie w obu przypadkach – d’Alemberta i Ulama – przyczyną mogła być duma zraniona postępowaniem ludzi, których niezbyt się ceni.

Stanisław Ulam początkowo nie zamierzał zostać matematykiem. W rodzinnym Lwowie uczęszczał do gimnazjum klasycznego. Program nauczania takich szkół, podobny w większości Europy: daleki od problemów świata współczesnego, z naciskiem na historię i naukę martwych języków. Te abstrakcyjne zajęcia kształtować miały przyszłą elitę: urzędników, lekarzy, prawników, uczonych. Były czymś w rodzaju wieloletniej próby i budowały wspólną kulturę absolwentów. Wiemy, że Albert Einstein nie zniósł bezdusznej dyscypliny panującej w gimnazjum monachijskim i rzucił szkołę dwa lata przed maturą. Utalentowanemu językowo Ulamowi nauka przychodziła z łatwością, maturę zdał znakomicie, a greka i łacina towarzyszyły mu przez resztę życia, stanowiąc rodzaj kodu, jakim mógł się porozumiewać z kolegami, którzy przeszli podobną edukację. Uważał zresztą gramatykę łacińską za dobre wprowadzenie do myślenia logicznego.

Jako uczeń interesował się astronomią i fizyką. Ojciec, prawnik, dumny był, że jego nastoletni syn „rozumie” teorię względności, która w latach dwudziestych ubiegłego wieku stała się sensacją daleko wykraczającą poza kręgi naukowe. Młody Ulam zafascynowany też był niektórymi zagadnieniami matematycznymi, np. czy istnieją nieparzyste liczby doskonałe (liczby doskonałe są sumą swoich dzielników właściwych, jak 6=1+2+3. Rozwiązanie nie jest znane do dziś). Nie chciał zostać prawnikiem, w ówczesnej Polsce Żydzi niełatwo zostawali profesorami, więc i kariera naukowa wydawała się utrudniona. Postanowił zapisać się na miejscową politechnikę, z jakichś powodów był to Wydział Ogólny, a nie Elektryczny, który dawał konkretny zawód. Ponieważ młody człowiek nieco nudził się na wykładach dla pierwszego roku, zaczął chodzić na wykłady Kazimierza Kuratowskiego z teorii mnogości. Młody profesor chętnie rozmawiał ze swym studentem, Ulam odprowadzał go do domu i gawędzili o matematyce. Kuratowski, widząc inteligencję swego studenta, podsunął mu do rozwiązania pewne zagadnienie z teorii mnogości. Ulamowi udało się rozwiązać problem i praca została opublikowana w „Fundamenta Mathematicae”, polskim piśmie poświęconym głównie teorii mnogości i będącym czymś w rodzaju organu polskiej szkoły matematycznej. Dopiero jednak po rozwiązaniu drugiego problemu zasugerowanego przez Kuratowskiego Ulam zdecydował się zostać matematykiem, stało się to przed końcem jego pierwszego roku studiów.

Wkrótce poznał też innych matematyków lwowskich i wiele czasu spędzał w ich pokojach na dyskusjach. Później rozmowy te przenosiły się często do kawiarni. Jedna z takich sesji w kawiarni „Szkockiej” ze Stanisławem Mazurem i Stefanem Banachem trwała, jak wspomina Ulam, siedemnaście godzin z przerwami na posiłki. Z rozmów tych pochodził materiał do jego prac, jak też znaczna część jego wiedzy matematycznej. Ulam nigdy nie należał do uczonych, którzy pilnie śledzą postępy w wybranych dziedzinach i wiedzą na ten temat wszystko. Lubił rozpoczynać od zera, nawet gdy przy okazji odkrywał po raz drugi pojęcia czy fakty znane już w literaturze.

Nieformalny sposób uprawiania nauki bardzo odpowiadał towarzyskiemu Ulamowi, który z trudem naginał się do formalnych wymagań i zdawania egzaminów. W 1932 roku jako student został zaproszony do wygłoszenia komunikatu na Kongresie Matematycznym w Zurychu, gdzie spotkał wielu sławnych uczonych, potem jesienią w ciągu kilku tygodni napisał pracę magisterską, w roku następnym doktorat. Miał wtedy dwadzieścia cztery lata i coraz mniejsze szanse na karierę w Polsce. W sąsiednich Niemczech do władzy doszedł Adolf Hitler, bardzo wielu uczonych żydowskiego pochodzenia, w tym matematyków, musiało opuścić Niemcy. Odbywając w 1934 roku podróż po ośrodkach matematycznych Europy, pochłonięty matematyką Stanisław Ulam ledwie zdawał sobie jednak sprawę z tego, co się dzieje w świecie polityki. W roku następnym poznał Johna von Neumanna, który choć tylko kilka lat od niego starszy, był już sławny. Von Neumann, syn budapeszteńskiego bankiera żydowskiego pochodzenia, nie miał złudzeń co do sytuacji w Europie, toteż wyemigrował do Stanów Zjednoczonych, stary kontynent odwiedzając tylko z okazji jakichś konferencji czy spotkań. Obaj uczeni zaprzyjaźnili się. Poza matematyką łączyło ich sporo: dawne Austro-Węgry, kultura żydowska, klasyczne wykształcenie, pewna kosmopolityczna ogłada i dobre wychowanie. Von Neumann cenił ogromną pewność siebie Ulama, a także jego trudny do przewidzenia tok myślenia. Coś podobnego stwierdził też kiedyś na temat Ulama Stefan Banach: że formułuje on problemy w sposób „dziwny” i proponuje też „dziwne” rozwiązania, które często są skuteczne.

Von Neumann sprawił, że zaproszono Stanisława Ulama do Instytutu Badań Zaawansowanych w Princeton, gdzie tworzono coś w rodzaju ziemskiego raju dla uczonych, zaczynając od matematyków i fizyków teoretycznych. Jedną z pierwszych gwiazd tego Instytutu stał się Albert Einstein. Najmłodszym profesorem był tam von Neumann. Ulam należał do grupy młodych badaczy zapraszanych, by mieli okazję popracować wśród uznanych kolegów. Semestr w Princeton zaowocował trzyletnim stypendium na uniwersytecie Harvarda w Society of Fellows, organizacji finansującej dobrze zapowiadających się młodych uczonych.

Johannes Kepler: Jak w wolnych chwilach odkryć tajemnicę kosmosu? (1595)


W lipcu 1595 roku Johannes Kepler był dwudziestotrzyletnim nauczycielem w luterańskiej szkole w Grazu w Styrii. Przysłano go tam z Tybingi, gdzie się uczył i miał nadzieję zostać teologiem. Był jednak biedny i korzystał z książęcego stypendium, musiał więc pojechać do Grazu, kiedy tylko zwierzchnicy tak postanowili. Nawiasem mówiąc, Wirtembergia z czasów Keplera miała znakomity system edukacyjny, w którym biedny, lecz uzdolniony młodzieniec mógł przejść przez szkoły wszystkich stopni, nie płacąc ani za naukę, ani za utrzymanie w bursie. A był to przecież XVI wiek! Rządzący kierowali się głównie względami religijnymi: potrzeba było jak najwięcej wykształconych teologów luterańskich, ale uczono porządnie, choć raczej w duchu konserwatywnym.
Kepler podczas studiów zainteresował się astronomią, i to heliocentryczną – jego nauczyciel Michael Mästlin był bowiem jednym z niewielu zwolenników Kopernika. Pół wieku po ukazaniu się dzieła toruńskiego astronoma, zwolenników jego nauk można było policzyć na palcach jednej ręki. Nie było mowy o żadnym przewrocie kopernikańskim, ponieważ prawie nikt nie wierzył, iż Ziemia naprawdę się porusza, a przedstawiony przez Kopernika system to coś więcej niż ćwiczenie z zakresu matematyki stosowanej, bez konsekwencji kosmologicznych.
Kepler w Grazu wciąż chciał myśleć, że po kilku latach wróci do Tybingi i dokończy studia teologiczne. Stało się inaczej, pochłonęła go astronomia (i astrologia), a i władze w Tybindze niezbyt chyba chciały mieć Keplera z powrotem. Był prawdziwie pobożny, ale jak często się to zdarza takim ludziom, nie był ostrożny w wypowiadaniu poglądów i mówił to, w co wierzył. A zwierzchnikom chodziło raczej o ujednoliconą doktrynę, nie o prywatne przemyślenia. Posłuszeństwo ceniono wyżej niż błyskotliwość i gorący zapał.
Uczył w Grazu przedmiotów matematycznych, co obejmowało astrologię. Młody nauczyciel lubił opowiadać nie tylko, co myśli, ale także jak do tego doszedł. Dzięki temu wiemy, że zajął się latem 1595 roku astronomią kopernikańską: „Kiedy pragnąłem dobrze i zgodnie z kierunkiem pracy spędzić czas wolny od zajęć” [ten i poniższe cytaty za: J. Kepler, Tajemnica kosmosu, przeł. M. Skrzypczak i E. Zakrzewska-Gębka, Ossolineum 1972, nieznacznie zmienione].
W astronomii Kopernika proporcje orbit planetarnych wyznaczone są przez obserwacje. Jeśli nawet system heliocentryczny był nieco prostszy, to nasuwało się pytanie: czemu sfery planet są takiej a nie innej wielkości? Jeśli była to rzeczywista architektura kosmosu, to czym kierował się boski Architekt?

solar

A były głównie trzy problemy, których przyczyn, dlaczego jest tak a nie inaczej szukałem, a mianowicie liczba, wielkość i ruch sfer. Odwagi dodała mi owa idealna zgodność pozostających w bezruchu Słońca, gwiazd stałych i przestrzeni pośredniej, z Bogiem-Ojcem, Synem i Duchem Świętym. (…) Początkowo rozważałem zagadnienie w zależności od liczb i zastanawiałem się, czy jedna sfera może być dwa, trzy, cztery razy większa od drugiej w teorii Kopernika. Wiele czasu poświęciłem tej pracy jakby zabawie, ponieważ nie ukazywała się żadna zgodność ani samych proporcji, ani jej przyrostu. Nie osiągnąłem z tego żadnych korzyści; wbiłem sobie jednak głęboko w pamięć odległości, tak jak zostały podane przez Kopernika. (…) Wydaje się, jakoby ruch zawsze podążał za odległością i że gdzie istniał wielki przeskok między sferami, to podobny przeskok występował także między ich ruchami.

Warto zauważyć, że już wtedy Kepler usiłował dociekać, jaka jest zależność między okresem obrotu a wielkością sfery (czyli orbity) planety – w roku 1618 odkrył ścisłe prawo rządzące tą zależnością, zwane dziś III prawem Keplera. Był to więc jeden z problemów, nad którymi rozmyślał całe życie. Młody nauczyciel był pomysłowy: próbował np. umieścić między Marsem a Jowiszem nową planetę, a inną między Wenus i Merkurym, sprawdzając, czy wtedy proporcje jakoś orbit dadzą się lepiej zrozumieć. Teoretycznie było możliwe, że krążą tam gdzieś jakieś niewielkie i nie wykryte planety. Między Marsem a Jowiszem rzeczywiście krąży wiele takich ciał, znanych jako planetoidy. Badał też inne pomysły. Wszystko na próżno.

Prawie całe lato straciłem na tych męczarniach. W końcu przy jakiejś drobnej okazji przybliżyłem się do sedna sprawy. Uznałem, że z bożej łaski udało mi się znaleźć przypadkowo to, czego wcześniej nie mogłem osiągnąć pracą. Uwierzyłem w to tym bardziej, że zawsze prosiłem Boga, aby pozwolił ziścić się moim zamiarom, jeśli Kopernik miał słuszność. W dniu 19 lipca 1595 r., zamierzając pokazać moim słuchaczom skok wielkich koniunkcji przez osiem znaków (…) wpisałem w jedno koło wiele trójkątów, albo quasi-trójkątów, tak aby koniec jednego był początkiem drugiego.

koniunkcje

 

Rysunek przedstawia koniunkcje Jowisza i Saturna na tle znaków zodiaku – jest więc całkowicie abstrakcyjny. Koniunkcje te powtarzają się w odległości około jednej trzeciej zodiaku, jeśli połączyć te punkty liniami, uzyskuje się rysunek Keplera. Sądzono, że te koniunkcje mają ważne znaczenie astrologiczne, stąd taki temat lekcji. Kepler dostrzegł jednak w tym rysunku coś innego:

triangles

Teraz mamy trójkąt wpisany między dwa okręgi. Mogłyby to być sfery Saturna i Jowisza – dwóch planet najdalszych od Słońca. Może więc kwadrat należy wpisać między sferę Jowisza i Marsa itd. Pojawia się jednak kłopot: mamy tylko sześć planet (znanych ówcześnie), a wieloboków foremnych jest nieskończenie wiele. Konstrukcja powinna wyjaśniać, czemu jest akurat sześć planet, a nie np. 120. Wtedy przypomniał sobie Kepler XIII księgę Elementów Euklidesa. Grecki matematyk dowodzi tam, że istnieje dokładnie pięć wielościanów foremnych, czyli takich, że wszystkie ich ściany są jednakowymi wielobokami foremnymi.Platonic_solids

Rysunek: Wikipedia, Максим Пе

W Platońskim Timajosie wielościany te powiązane są z pięcioma elementami, z których zbudowany jest kosmos: sześcian z ziemią, dwudziestościan z wodą, ośmiościan z powietrzem, czworościan z ogniem, a dwunastościan z eterem wypełniającym wszechświat. Była to wówczas śmiała spekulacja oparta na najnowszej matematyce Teajteta, jednego z uczniów Platona. Teraz Kepler znalazł dla tych wielościanów nowe zastosowanie. Należało między sześć sfer planetarnych wpisać owe pięć brył platońskich.

kepler

Jest to konstrukcja zawrotna: pewien głęboki fakt matematyczny został powiązany z układem planetarnym – dla Keplera nasz układ był jedyny we wszechświecie, a Stwórca myślał językiem geometrii. Pozostawało tylko zająć się szczegółami: kolejnością brył, kwestią, jak cienkie powinny być sfery planetarne, czy ich środek liczyć od środka orbity Ziemi, czy od Słońca. Rozwiązana została tajemnica kopernikańskiego kosmosu. I taki właśnie tytuł: Tajemnica kosmosu, nosiło dziełko opublikowane przez Keplera w następnym roku. Zwracał się w nim do czytelnika: „Nie znajdziesz nowych i nieznanych planet, jak te, o których mówiłem nieco wyżej – nie zdobyłem się na taką zuchwałość. Znajdziesz te stare (…) tak jednak utwierdzone, że mógłbyś odpowiedzieć rolnikowi pytającemu, na jakich hakach zawieszone jest niebo, że nie osuwa się”.

Nasz Układ Słoneczny okazał się raczej dziełem dość chaotycznych procesów niż wytworem Platońskiego demiurga. Proporcje orbit nie wynikają z żadnej ścisłej matematyki, Kepler się mylił. Był to szczęśliwy błąd – uskrzydlony odkryciem, pogodził się z tym, że nie zostanie teologiem i zajął się astronomią, co z pewnością wyszło na dobre nauce. Do końca życia wierzył, że wielościany mają coś wspólnego z uporządkowaniem sfer planetarnych, umysłowi zawsze trudno się rozstać z ulubionymi chimerami. W następstwie hipotezy wielościanowej Kepler zajął się szczegółami ruchów planet – to na tej drodze czekały go wielkie odkrycia.

Wielościany foremne związane są ze skończonymi podgrupami grupy obrotów w przestrzeni trójwymiarowej. Można o nich poczytać w książce M. Zakrzewskiego, Algebra z geometrią, Oficyna Wydawnicza GiS 2015. Bardziej popularne są piękne i znakomicie ilustrowane odczyty Hermanna Weyla, wielkiego matematyka i kolegi Einsteina z Zurychu i Princeton, pt. Symetria, PWN 1960, wznowione przez wydawnictwo Prószyński i S-ka w 1997 r.

Najważniejsze wydarzenia w dziejach ludzkości

Zacznijmy od fraszki C.K. Norwida:

DOBRA WOLA

– Przepraszam państwo, lecz przyszła wiadomość,

Że się Uranus wstrząsa

*

– Mniejsza o to

– Co tam po niebie gdzieś patrzysz Jegomość,

To astronomów rzecz, niech sobie plotą…

*

– Przepraszam państwo – ale panna Klara

Na pannę Różę powiedziała: „stara” –

I ten pod wachlarz bilecik schowała…

*

– Gdzie?! jaki?! dawaj!… to rzecz doskonała!

Norwid pisał tu o niezgodnościach ruchu Urana ze znanymi faktami. Okazało się, że niezgodności owe wywołane są przyciąganiem następnej planety, Neptuna. Jej położenie najpierw obliczono, a następnie znaleziono ją na niebie niemal dokładnie w tym miejscu, gdzie wskazywały obliczenia. Samo wydarzenie jest dobrą ilustracją różnicy między nauką nowożytną a innymi przykładami działalności „naukopodobnej” prowadzonej w najróżniejszych cywilizacjach.

Fraszka Norwida wskazuje też na zjawisko szersze niż salonowy brak zainteresowania nauką. Jesteśmy istotami społecznymi, czasem może nawet zanadto społecznymi: w tym sensie, że skłonni jesteśmy uważać świat międzyludzki za cały wszechświat, a nas samych za istoty stworzone nie mniej, ni więcej, tylko na podobieństwo Boga.

David Christian jest zawodowym historykiem. Zrobił jednak coś, na co nie poważyłaby się większość jego kolegów: prowadzi kurs historii wszechświata, od Wielkiego Wybuchu do dziś. Siłą rzeczy większa część materiału pochodzi z innych dziedzin niż historia: z kosmologii, geologii, biologii itd. Spojrzenie z tej perspektywy na dzieje ludzkości uważam za niezwykle ożywcze. Nigdy nie mogłem się nadziwić pasji, jaką większość historyków wkłada w badanie faktów drugo- albo nawet dziesięciorzędnych: jakaś potyczka pod Straconką (w zasadzie trochę większa bójka) albo śledzenie meandrów polityki jakiegoś nieistotnego władcy. Oczywiście rozumiem, czemu można się zajmować tego rodzaju tematem, podobnie jak rozumiem, czemu można się zajmować badaniem jednego gatunku chrząszczy (a jest ich blisko pół miliona). I wcale nie lekceważę „badaczy owadzich nogów”. Nie rozumiem jedynie, czemu nie widzę prób syntezy, innego spojrzenia, mniej uwikłanego w politykę, mity narodowe, mity religijne; mniej prowincjonalnego geograficznie, kulturowo i cywilizacyjnie.

Jakie więc były najważniejsze wydarzenia w dziejach ludzkości? Większość z nich zaszła w prehistorii albo historii bardzo zamierzchłej: wynalezienie rolnictwa, różnych technik pozwalających odziać się, lepić garnki i przede wszystkim tworzyć narzędzia. W dziejach intelektualnych decydujące znaczenie miało pismo i jego ulepszenie w postaci pisma alfabetycznego: dzięki temu ostatniemu nie tylko zawodowcy mogli umieć pisać – była to rewolucja podobna do rozpowszechnienia w latach osiemdziesiątych XX wieku komputerów osobistych, pozwalających każdemu korzystać z narzędzia przedtem zarezerwowanego dla personelu w białych kitlach (sam pamiętam sale z komputerami typu „Odra”, do których nie wolno było wchodzić, należało zostawić przed wejściem karty perforowane z programem i mieć nadzieję, że przejdzie on pomyślnie kompilację, a może nawet się policzy). Nie jest przypadkiem, że cywilizacja grecka rozkwitła w tym samym czasie, gdy rozpowszechniło się pismo alfabetyczne.

Grecy stworzyli też matematykę ujętą w sposób aksjomatyczny – do dziś jest to ideał przedstawiania wiedzy ścisłej. Geometria grecka i jej najważniejsze zastosowanie: opis ruchu planet stworzyły podstawy przyszłego rozwoju nauki, choć ciąg dalszy nastąpił dopiero po piętnastu wiekach i nie był oczywisty. Cywilizacja przeniosła się na północny zachód Europy. Średniowieczne chrześcijaństwo pokazało swą wielkość w gotyckich katedrach, jak też w tym, że potrafiło zasymilować grecką filozofię i naukę – był to zresztą jego szczytowy moment. Reformacja, która podzieliła chrześcijan, była w znacznym stopniu ujawnieniem się nowej wrażliwości i nowego podejścia do świata, czegoś bardziej fundamentalnego niż dogmaty wiary czy uznawanie bądź nieuznawanie papieża. Nowoczesna cywilizacja wywodzi się z chrześcijaństwa zreformowanego w Europie północnej i w Stanach Zjednoczonych. Katolicyzm definitywnie utracił kontakt z nowoczesnością w wieku XVII, w czasach Galileusza. I sądzę, że nigdy go nie odzyskał, choć w każdej epoce aż do dziś wielu było uczonych katolików i niemal każdy papież deklarował, iż ceni i popiera naukę.

Reformacja związana była od początku z wynalezieniem druku: zapewne nie rozszerzyłaby się tak szybko w innych warunkach. Druk i powszechna umiejętność pisania (głównie jednak w krajach protestanckich) były kolejnym progiem udostępniania wiedzy szerokim rzeszom. Jednak nie podział religijny był najważniejszy w wieku XVI i XVII. Nawet wojna trzydziestoletnia z dłuższej perspektywy jest epizodem bez znaczenia. To rewolucja naukowa przesądziła o znaczeniu tej epoki, a także o znaczeniu Europy w dziejach naszej planety. Jakąś nauką zajmowały się wszystkie cywilizacje, lecz to europejska znalazła skuteczny klucz do poznania przyrody. Najpełniej widać to w dziele Isaaca Newtona: modele matematyczne ściśle opisują rzeczywistość fizyczną. Połączenie matematyki i eksperymentu pozwala dowiedzieć się rzeczy, o których się filozofom nie śniło i które są sprawdzalne. Tym się różnimy od innych cywilizacji, że nasze samoloty latają, nie musimy sobie tego jedynie wyobrażać.

Rewolucja naukowa XVII wieku nie dotyczyła biologii. Wydawało się, że istoty żywe nie podlegają dokładnie tym samym prawom, co reszta materii. Świat biologiczny stał się ostatnim azylem zwolenników celowości. Przypomnijmy: już Arystoteles doszukiwał się w przyrodzie przyczyn celowych. Stopniowo celowość została wyeliminowana z astronomii i fizyki. Nie pytamy: w jakim celu Układ Słoneczny zawiera te a nie inne planety krążące po takich a nie innych orbitach. Wydawało się jednak, że oko ludzkie „zostało stworzone” do patrzenia, podobnie jak piękne, smukłe ciało geparda do szybkiego biegania. Charles Darwin i Alfred Russel Wallace pierwsi zauważyli, że przystosowanie do funkcji jest skutkiem doboru naturalnego, a nie celem. Oko naszych przodków (również czworonożnych, również pływających) doskonaliło się stopniowo, aż osiągnęło dzisiejszy stan (wcale zresztą nie idealny: można dobrać soczewki indywidualnie korygujące wzrok, które sprawiają, że widzimy szczegóły, o jakich dotąd nie mieliśmy pojęcia). Podobnie gepardy doskonaliły się w sztuce biegania, w miarę jak gazele doskonaliły się w sztuce uciekania. Ewolucja za pomocą sekwencji niezliczonych drobnych kroków stworzyła całą biosferę. Wielu ludziom wydaje się to nadal trudne do pojęcia i z uporem szukają luk w teorii ewolucji. Ci sami ludzie nie czują na ogół skrupułów, gdy dzięki nowoczesnej terapii zostają wyleczeni. Podobnie jak niektórzy postmoderniści, którzy twierdzą, że fizyka jest formą dominacji białego człowieka i nie jest więcej warta od mitów jakiegoś plemienia, a potem wsiadają w samolot, aby udać się na kolejną konferencję, gdzie będą o tym nauczać młodzież, żądną zdobycia, jeśli nie wiedzy, to przynajmniej stopni naukowych.