Widmo wodoru i symetrie (1/2)

I. Od Balmera do Bohra

Naszym bohaterem jest zbiór linii widmowych wodoru i proste wyrażenie, które go opisuje. Widmo składa się z serii, z których najbardziej znana jest seria Balmera przypadająca na obszar widzialny i bliski nadfiolet.

 

Długości fali w angstremach (1 {\rm \AA}=10^{-10} {\rm m}).

Jakob Balmer, znając długości czterech pierwszych linii, odgadł ukrytą w nich prawidłowość. Długości fal spełniają równanie

\lambda=h\,\dfrac{n^2}{n^2-4},\;\;n=3,4,5,6,

gdzie h jest stałą. Okazało się, że seria linii jest nieskończona, jeszcze za życia Balmera jego wzór potwierdził się dla kilkunastu linii. Okazało się też, że istnieją inne serie widmowe. Wszystkie można opisać wzorem

\dfrac{1}{\lambda}=R\left(\dfrac{1}{m^2}-\dfrac{1}{n^2}\right),\; n=m+1,\,m+2,\,\ldots,

gdzie m=1,2,3, \ldots, a stała R zwana jest stałą Rydberga. Co ważne, wzór Balmera, w tej wersji zwany najczęściej wzorem Rydberga, w przypadku wodoru spełniony jest bardzo dokładnie, choć jeszcze pod koniec XIX wieku zaobserwowano, że linie widmowe wodoru są naprawdę dubletami: parami bardzo blisko położonych linii. Tą tzw. strukturą subtelną nie będziemy się tu zajmować. Wyjaśnia ją równanie Diraca, a więc uwzględnienie efektów relatywistycznych oraz spinu elektronu. Efekty relatywistyczne są jednak poprawkami do energii rzędu \alpha^2, gdzie \alpha\approx\frac{1}{137} jest stałą struktury subtelnej, a więc pięć rzędów wielkości mniejszymi.

Postać wzoru Rydberga łatwo zrozumieć jako zapis zasady zachowania energii, jeśli posłużymy się pojęciem fotonu, wprowadzonym przez Alberta Einsteina w 1905 r. (określenie foton jest dużo późniejsze). Cząstki światła mają energię

E=h\nu=\dfrac{h c}{\lambda},

h, c, \nu oznaczają odpowiednio stałą Plancka, prędkość światła i częstość fotonu. Zatem wzór Rydberga oznacza, że poziomy energetyczne elektronu w atomie wodoru dane są równaniem

E_n=-\dfrac{hcR}{n^2},\,\, n=1,2,3,\ldots.

Dlaczego taka, a nie inna wartość R? Dlaczego pojawia się tu kwadrat liczby naturalnej? Tak proste wyrażenie powinno mieć jakieś uzasadnienie. 

Niels Bohr pierwszy podał teoretyczne wyjaśnienie wartości stałej Rydberga w swoim planetarnym modelu atomu. Energie elektronu na dozwolonych orbitach są w nim równe

E_n=-\dfrac{me^4}{2\hbar^2 n^2},

tutaj m oznacza masę elektronu, e^2=\frac{q_e^2}{4\pi\epsilon_0} to kwadrat ładunku elementarnego razy stała z prawa Coulomba, \hbar\equiv h/2\pi. Liczba naturalna n jest u niego po prostu numerem orbity i konsekwencją postulatu kwantowego:

L=mvr=n\hbar.

Słowami: moment pędu L elektronu na orbicie o promieniu r i prędkości v jest wielokrotnością stałej Plancka. Postulat ten nie wynikał z głębszych rozważań, trzeba go było przyjąć, aby otrzymać prawidłowe wyniki. Można powiedzieć, że Bohr przesunął zgadywankę Balmera z numerologii na teren fizyki.

Ogromnym sukcesem było powiązanie stałej Rydberga z wielkościami elementarnymi: masą i ładunkiem elektronu, stałą Plancka i siłą oddziaływań elektrostatycznych. Zawsze kiedy uda się tego rodzaju sztuka, znaczy, że jesteśmy blisko jakieś bardziej fundamentalnej prawdy. Jednak model Bohra od początku był prowizoryczny. W myśl klasycznej elektrodynamiki elektron krążący po orbicie z pewną częstością f powinien promieniować falę elektromagnetyczną o częstości f. Tymczasem w jego modelu do emisji promieniowania dochodzi, gdy elektron przeskakuje między dwiema orbitami, z których każda charakteryzuje się jakąś częstością krążenia f_n. Podobieństwo do fizyki klasycznej pojawia się dopiero, gdy weźmiemy dwie orbity o dużych numerach, wtedy

\nu_{n+1 n}\approx f_{n}\approx f_{n+1}.

Niels Bohr bardzo niechętnie pogodził się z ideą fotonu. Rozumiał oczywiście, że eksperyment potwierdza proste równanie h\nu=E_n-E_m, tajemnicą był jednak mechanizm fizyczny, jaki za tym stał. Nie znał go ani Einstein, ani Bohr, foton wszedł do fizyki na dobre dopiero w roku 1925. Teorią, która poprawnie przewiduje wartości energii w atomie wodoru, jest mechanika kwantowa. A w pełni konsekwentny opis emisji fotonu daje dopiero kwantowa teoria pola, w której foton jest kwantem pola elektromagnetycznego.

II. Erwin Schrödinger, 1925

W połowie roku 1925 Werner Heisenberg wpadł na pomysł, aby wprowadzić do fizyki wielkości, których mnożenie jest nieprzemienne: operatory albo macierze. W krótkim czasie powstały trzy na pozór niezależne formalizmy do opisania fizyki kwantowej: macierze Heisenberga (oraz Maksa Borna i Pascuala Jordana, którzy wraz z Heisenbergiem rozwinęli tę ideę), funkcje falowe Erwina Schrödingera oraz abstrakcyjny formalizm Paula Diraca.

Krótkie omówienie formalizmu mechaniki kwantowej znajduje się na końcu wpisu.

Wersja Schrödingera najbardziej przypominała klasyczną fizykę drgań. Aby znaleźć dozwolone energie elektronu należy rozwiązać równanie 

-\dfrac{\hbar^2}{2m}\Delta\psi-\dfrac{e^2}{r}\psi=E\psi,

gdzie r jest odległością od jądra, a \Delta to laplasjan, czyli suma drugich pochodnych:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}.

Wyraz z laplasjanem odpowiada energii kinetycznej, drugi wyraz po lewej stronie odpowiada energii potencjalnej. Szukamy takich funkcji \psi(x,y,z), które wstawione po lewej stronie dadzą po prawej liczbę pomnożoną przez tę samą funkcję \psi. Funkcja taka to funkcja własna, a energia jest wartością własną. Otrzymujemy w ten sposób stany niezależne od czasu, stacjonarne, i tylko takimi będziemy się zajmować.

Funkcje falowe \psi powinny znikać w nieskończoności oraz nie mieć osobliwości. Warunki te prowadzą do skwantowanych poziomów energetycznych. Ponieważ problem jest sferycznie symetryczny (energia potencjalna zależy tylko od odległości elektronu od protonu r), więc można wprowadzić współrzędne sferyczne: odległość od początku układu r, dopełnienie szerokości geograficznej do 90^{\circ} oznaczane \vartheta oraz długość geograficzną oznaczaną \varphi.

spherical

Korzystamy z tożsamości

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{L^2}{\hbar^2},

gdzie L^2 jest operatorem zależnym tylko od kątów, a nie od r. Możemy zapisać równanie Schrödingera w postaci

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Sama funkcja falowa nie musi być jednak sferycznie symetryczna i można ją zapisać w postaci iloczynu funkcji zależnych od promienia i od kątów:

\psi(r,\vartheta,\varphi)=R(r)Y(\vartheta,\varphi).

Podstawiając tę funkcję do równania Schrödingera i dzieląc obustronnie przez \psi możemy doprowadzić je do postaci:

\dfrac{L^2 Y}{Y}=\lambda=\dfrac{1}{R}\, \hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right).

Po lewej stronie mamy funkcje zależne od kątów, po skrajnej prawej zależne od odległości. Rozseparowaliśmy zmienne, oba wyrażenia muszą równać się wspólnej stałej \lambda. Mamy więc dwa prostsze równania:

\begin{array}{c} -\dfrac{\hbar^2}{2m}\,\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+\left(\dfrac{\lambda}{2m r^2}-\dfrac{e^2}{r}\right)R=ER \\[20pt] L^2 Y=\lambda Y. \end{array}

Drugie z tych równań nie zawiera potencjału i jest stałym punktem programu dla wszystkich sytuacji z symetrią sferyczną. Rozwiązaniami są tzw. harmoniki sferyczne Y_{lm}(\vartheta,\varphi), gdzie l=0,1,2,\ldots, a dla każdej wartości l mamy 2l+1 różnych wartości m=-l,-l+1,\ldots. l Dozwolone wartości własne równe są \lambda=\hbar^2 l(l+1). Kształt przestrzenny tych funkcji każdy widział jako obrazki orbitali s,p,d itd. Funkcje te przydają się zawsze, gdy mamy do czynienia z rozkładem jakiejś wielkości na sferze, np. mapy promieniowania tła w kosmologii albo szczegóły ziemskiego pola grawitacyjnego z uwzględnieniem niesferyczności Ziemi itp (Wtedy oczywiście nie pojawia się w tych wzorach stała Plancka, ale to szczegół techniczny).

Spójrzmy raz jeszcze na pierwsze równanie (radialne), w którym wprowadzamy nową funkcję radialną: u(r)\equiv rR(r):

-\dfrac{\hbar^2}{2m}\,\dfrac{\partial^2 u}{\partial r^2}+\left(\dfrac{\hbar^2 l(l+1)}{2m r^2}-\dfrac{e^2}{r}\right)u=Eu.

Jest to równanie Schrödingera jednowymiarowe. mamy teraz jeden wymiar: radialny, ale bardziej skomplikowany potencjał: do energii elektrostatycznej doszedł dodatni człon z l(l+1). Jego znaczenie fizyczne dość łatwo zidentyfikować przez analogię do mechaniki klasycznej. W ruchu w polu kulombowskim możemy w każdej chwili rozłożyć wektor pędu elektronu na składową radialną p_r i prostopadłą do niego składową styczną p_t. Zgodnie z tw. Pitagorasa energia kinetyczna ma postać

E_k=\dfrac{p_r^2}{2m}+\dfrac{p_t^2}{2m}=\dfrac{p_r^2}{2m}+\dfrac{L^2}{2mr^2},

w ostatniej równości skorzystaliśmy z faktu, że moment pędu elektronu L=rp_{t}. Gdybyśmy dla takiego radialnego problemu napisali równanie Schrödingera, byłoby to właśnie równanie, które uzyskaliśmy w wyniku separacji zmiennych. Zatem dozwolone kwantowe wartości kwadratu momentu pędu są równe L^2=\hbar^2 l(l+1). Nie jest to, rzecz jasna, dowód, lecz wskazanie prawdopodobnej (i prawdziwej) interpretacji fizycznej naszego równania. Mamy więc efektywne potencjały zależne od nieujemnej całkowitej liczby kwantowej l. Wyglądają one w przypadku atomu wodoru następująco:

tmp_iispvexy

Studnia potencjału tylko w przypadku l=0 jest nieskończenie głęboka, wraz z rosnącym l staje się ona coraz płytsza. Nie będziemy rozwiązywać do końca tego równania radialnego. Okazuje się, że aby uzyskać funkcje znikające w nieskończoności i nie wybuchające w pobliżu r=0, rozwiązania mają postać

R_{nl}(r)=W_{n-1 l}(r)e^{-r/na_0},

gdzie n jest tzw. główną liczbą kwantową, a_0 promieniem Bohra (promieniem pierwszej orbity w modelu Bohra), a W jest wielomianem stopnia n-1. Dozwolone wartości l=0,1,\ldots, n-1. Prawdopodobieństwa dane są kwadratami funkcji falowej. Np. dla stanu podstawowego wodoru wygląda to tak.

tmp_72yjso5t

Pionowa linia wskazuje granicę obszaru dozwolonego klasycznie, tzn. takiego, że energia całkowita jest większa od energii potencjalnej (poza tym obszarem energia kinetyczna powinna być ujemna). Falowy charakter równania przejawia się w tym, że nic nie dzieje się nagle, funkcja zanika płynnie w pewnym obszarze. Fizycznie oznacza to możliwość przenikania barier potencjału, czyli efekt tunelowy, odpowiedzialny m.in. za świecenie gwiazd.

Energie stanów równe są dokładnie temu, co obliczył Bohr. Zależą one tylko od n, a nie zależą od wartości l, mimo że potencjał efektywny jest zupełnie inny przy różnych l. Łącznie danej wartości n odpowiada n^2 różnych rozwiązań. Bezpośrednie rozwiązanie równania Schrödingera nie bardzo pozwala zrozumieć, skąd się bierze aż taka rozmaitość. Te same energie powinniśmy otrzymywać dla jednakowego l i różnych wartości m, bo oznaczają one różne wartości rzutu momentu pędu na oś z. Zatem symetria obrotowa wyjaśnia tylko część degeneracji stanów w atomie wodoru. Jeśli weźmiemy pod uwagę potencjał inny niż kulombowski, to ta dodatkowa degeneracja zniknie: stany o różnych l rozszczepią się energetycznie. Tak jest np. w atomie litu, gdzie elektron walencyjny porusza się w efektywnym polu jądra oraz dwóch pozostałych elektronów. Z daleka mamy więc tylko ładunek (3-2)q_e=q_e, tak jak w atomie wodoru, z bliska jednak potencjał jest inny, choć nadal sferycznie symetryczny.

lithlev

Nawet po rozwiązaniu zagadnienia atomu wodoru za pomocą równania Schrödingera nadal niezbyt dobrze rozumiemy, dlaczego stany są zdegenerowane: E_{2s}=E_{2p}, E_{3s}=E_{3p}=E_{3d}, itd. W przyszłości pokażemy, że stany związane atomu wodoru wykazują  dodatkową symetrię i że łącznie grupą symetrii jest tu grupa obrotów w przestrzeni czterowymiarowej. Dopiero ten fakt wyjaśnia głębiej wzór Balmera.

Poniżej przedstawiłem niektóre szczegóły matematyczne dla zainteresowanych.

Zasady mechaniki kwantowej w przypadku jednej cząstki

Stany cząstki

Stan elektronu w formalizmie Schrödingera opisujemy za pomocą pewnej funkcji (zespolonej) falowej \psi(x,y,z,t). Rozmaite dopuszczalne funkcje można traktować jak wektory: dodawanie funkcji i mnożenie przez liczbę (zespoloną) daje inną dopuszczalną funkcję. Zbiorem funkcji może być np. zbiór funkcji znikających dostatecznie szybko w nieskończoności:

{\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \, dV<\infty.

Określamy także operację iloczynu skalarnego dwóch funkcji:

(\psi,\chi)={\displaystyle \int_{{\bf R}^3}}\; \psi^{\star}\chi\, dV.

Iloczyn wektora przez siebie jest kwadratem jego długości, czyli normy:

\lVert \psi \rVert^2=(\psi,\psi)={\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \,dV.

Definiując odległość dwóch wektorów \psi, \chi jako \Vert \psi-\chi\rVert otrzymujemy przestrzeń Hilberta (do definicji należy jeszcze dodać warunek zupełności: żeby ciągi zbieżne w normie nie wyprowadzały poza naszą przestrzeń).

Wielkości fizyczne

Wielkościom fizycznym odpowiadają operatory, czyli przekształcenia liniowe określone na przestrzeni funkcji. Liniowość oparatora A oznacza, że dla dowolnych dwóch wektorów \psi,\chi i dowolnych dwóch liczb zespolonych \alpha,\beta, mamy

A(\alpha \psi+\beta\chi)=\alpha A\psi+\beta A\chi.

Łatwo to sprawdzić w poszczególnych przypadkach, np. dla składowej x pędu otrzymamy: p_x(\psi_1+\psi_2)=p_x\psi_1+p_x\psi_2, bo pochodna sumy funkcji, to suma pochodnych itd. Operatory odpowiadające wielkościom fizycznym muszą być hermitowskie, tzn. dla dowolnych wektorów mamy

(\chi, A\psi)=(A\chi,\psi).

Warunek ten zapewnia, że mierzone wartości wielkości fizycznych są rzeczywiste, mimo że cały formalizm oparty jest na liczbach zespolonych.

Operatory można składać, czyli mnożyć, wykonując po prostu jedną operację po drugiej. Składając więc operator B i następnie operator A otrzymujemy AB, który działa następująco na wektor:

(AB)\psi=A(B\psi).

Jasne jest, że tak określone mnożenie operatorów na ogół jest nieprzemienne, tzn. wynik zależy od kolejności. W fizyce kwantowej szczególne znaczenie mają tzw. komutatory operatorów, zdefiniowane jako różnica między pomnożeniem ich w odmiennej kolejności: [A,B]=AB-BA.

Komutatory tej samej składowej współrzędnej i pędu nie komutują i muszą spełniać warunek odkryty przez Heisenberga:

[x,p_x]=i\hbar,

ale [x,p_y]=[x,p_z]=0. Komutują też między sobą operatory różnych składowych współrzędnej albo pędu. Z operatorów pędu i współrzędnych budować możemy operatory innych wielkości fizycznych, np. momentu pędu badź energii (hamiltonian). Wszystkie one muszą być hermitowskie. Szczególną rolę odgrywa hamiltonian H({\bf x},{\bf p}), gdyż określa ewolucję czasową układu. Spełnione musi być w każdej chwili równanie Schrödingera

i\hbar\dfrac{\partial\psi}{\partial t}=H\psi.

Gdy hamiltonian nie zależy od czasu, możemy szukać funkcji spełniających równanie 

H\chi=E\chi,

tzw. równanie Schrödingera bez czasu. Wówczas 

\psi(t)= \exp{\left(-\dfrac{iEt}{\hbar}\right)}\chi,

jest rozwiązaniem ogólniejszego równania Schrödingera. Ewolucja w czasie polega wówczas tylko na zmianie fazy zespolonej, jest to stan kwantowy o ustalonej energii, stan stacjonarny.

Postulat interpretacyjny

Wartość oczekiwana wielkości fizycznej A w stanie \psi dana jest równaniem

\langle A\rangle=\dfrac{(\psi,A\psi)}{(\psi,\psi)}.

Gdy używamy funkcji unormowanej (\psi,\psi)=1 z wyrażenia tego zostaje tylko licznik. Widzimy, że zawsze można funkcję falową pomnożyć przez dowolny niezerowy czynnik, nie zmieniając wyników doświadczenia. Jeśli interesuje nas pytanie, czy cząstka znajduje się w obszarze V możemy za operator A_V wziąć mnożenie przez funkcję charakterystyczną tego obszaru (równą 1 dla {\bf x}\in V oraz 0 poza obszarem), wtedy prawdopodobieństwo znalezienia cząstki wenątrz V dane jest

Pr(V)={\displaystyle \int_V}|\psi|^2\, dV.

(Zakładamy unormowanie funkcji \psi.)

Widać też szczególną rolę wektorów i stanów własnych. Jeśli spełnione jest równanie 

A\psi=a\psi,

to mówimy, że funkcja \psi jest wektorem własnym, a wartość a wartością własną. Z postulatu interpretacyjnego wynika, że w wyniku pomiaru wielkości A otrzymamy wartość a. A więc w tym przypadku wielkość fizyczna przyjmuje ściśle określoną wartość, nie ma żadnego kwantowego rozmycia. Łatwo zauważyć, że tylko w takim przypadku możemy mówić o ściśle określonej wartości wielkości fizycznej. Tworząc operator (A-a)^2 widzimy, że

\langle (A-a)^2\rangle=0 \Leftrightarrow A\psi=a\psi.

W sytuacji takiej nie ma żadnego rozrzutu wyników, otrzymujemy zawsze tylko i wyłącznie wartość a.

Dwa fakty matematyczne

Gdy pewien stan \psi jest jednocześnie stanem własnym dwóch operatorów A\psi=a\psi oraz B\psi=b\psi, to operatory te komutują na tym stanie:

AB\psi=Ab\psi=ab\psi=ba\psi=BA\psi.

Z kolei stany należące do różnych wartości własnych danego operatora A są ortogonalne, tzn. gdy A\psi=a\psi oraz A\chi=b\chi, to mamy

a(\psi,\chi)=(A\psi,\chi)=(\psi, A\chi)=b(\psi,\chi) \Leftrightarrow (a-b)(\psi,\chi)=0.

Szczegóły matematyczne problemu atomu wodoru

Laplasjan

Dla laplasjanu mamy tożsamość:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{({\bf x}\times {\bf \nabla})^2}{\hbar^2},

Najłatwiej sprawdzić to we współrzędnych kartezjańskich, licząc operator ({\bf x}\times {\bf \nabla})^2 i wyrażając operator r\frac{\partial}{\partial r} przez pochodne kartezjańskie:

r\dfrac{\partial }{\partial r}=x\dfrac{\partial }{\partial x}+y\dfrac{\partial }{\partial y}+z\dfrac{\partial }{\partial z},

gdzie korzystamy wielokrotnie z równości r^2=x^2+y^2+z^2. Podobnie możemy obliczyć kwadrat operatora po lewej stronie.

Moment pędu

Procedura przejścia do mechaniki kwantowej polega na zastąpieniu każdej zmiennej fizycznej odpowiednim operatorem. Każdą ze współrzędnych x,y,z zastępujemy mnożeniem przez odpowiednią współrzędną. Działając na funkcję \psi dają one nowe funkcję, x\psi,y\psi, z\psi. Podobnie operatory składowych pędu działając na funkcję, dają pochodne, \frac{\hbar}{i}\frac{\partial\psi}{\partial x} itd. 

W przypadku atomu wodoru z punktowym protonem w początku układu dowolny obrót wokół początku układu nie powinien zmieniać fizyki. W fizyce klasycznej oznacza to, że moment pędu układu jest stały. Jest on zdefiniowany jako

{\bf L}={\bf x} \times {\bf p}, \, \Leftrightarrow L_x=y p_z-z p_y, \, L_y=z p_x-x p_z, \, L_z=x p_y-y p_x,

w ostatnich trzech równaniach możemy cyklicznie przestawiać wskaźniki x\rightarrow y\rightarrow\ z\rightarrow x \ldots. Krócej zapisać można te związki w postaci:

L_i=\varepsilon_{ijk}x_jp_k,

gdzie zamiast x,y,z piszemy x_i, a symbol całkowicie antysymetryczny \varepsilon_{123}=1 i zmienia znak przy każdym przestawieniu dwóch wskaźników oraz \varepsilon_{ijk}=0, gdy jakieś wskaźniki się powtarzają. Zakładamy sumowanie po każdej parze powtarzających się wskaźników.

W mechanice kwantowej operatory L_i tworzymy dokładnie tak samo, tyle że teraz musimy pamiętać, że kolejność operatorów może być istotna. Operatory momentu pędu komutują z hamiltonianem atomu wodoru:

[H,L_i]=0,

Także operator kwadratu momentu pędu L^2=L_1^2+L_2^2+L_3^2 komutuje z hamiltonianem, a także z poszczególnymi składowymi momentu pędu:

[L^2,H]=0,\;\; [L^2,L_i]=0, \,\, i=1,2,3.

Jednakże operatory L_i nie komutują ze sobą:

[L_i,L_j]=i\hbar\varepsilon_{ijk} L_k.

Maksymalnym zbiorem komutujących operatorów jest więc H, L^2 oraz jedna z trzech składowych momentu pędu. Standardowo wybiera się tu L_3\equiv L_z. Możemy więc szukać funkcji własnych hamiltonianu, które będą zarazem funkcjami własnymi L^2 oraz L_3.

Wprowadzimy współrzędne sferyczne punktu,  Łatwo sprawdzić, że operatory momentu pędu zależą tylko od kątów, nie od r  Np.

L_3=\dfrac{\hbar}{i} \dfrac{\partial}{\partial \varphi}.

Możemy to sprawdzić, korzystając z wyrażeń na współrzędne kartezjańskie:

\left\{ \begin{array}{l} x=r\sin\vartheta\cos\varphi \\ y=r\sin\vartheta\sin\varphi \\ z=r\cos\vartheta. \end{array}\right.

Obliczamy, stosując wzór na pochodną funkcji złożonej:

\dfrac{\partial}{\partial \varphi}=\dfrac{\partial x}{\partial \varphi}\dfrac{\partial}{\partial x}+\dfrac{\partial y}{\partial \varphi}\dfrac{\partial}{\partial y}=-y\dfrac{\partial}{\partial x}+x\dfrac{\partial}{\partial y}.

W pozostałych składowych momentu pędy odległość r pojawia się raz w liczniku, a drugi raz w mianowniku przy różniczkowaniu, ostatecznie zostają wyrażenia zależne wyłącznie od kątów \vartheta, \varphi. Wracając do naszego równania z głównego tekstu:

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Funkcja falowa \psi powinna być w pobliżu początku układu analityczna, tzn. zachowywać się jak wielomian stopnia l (może być stała, wtedy l=0) plus wyrazy wyższego stopnia. Można ją w pobliżu r=0 zapisać jako \psi=r^{l}Y(\frac{ {\bf x}}{r}) – wyłączyliśmy przed funkcję wszystkie potęgi r, pozostała część jest funkcją wektora jednostkowego, tzn. zależy tylko od kierunku. Drugi składnik po prawej stronie zawiera r w potęgach wyższych niż l-2, jest więc do pominięcia blisko początku układu. Obliczając pierwszy składnik po prawej stronie, dostaniemy

L^2 Y \rightarrow \hbar l(l+1) Y.

Funkcje własne kwadratu momentu pędu to wielomiany jednorodne (wszystkie składniki są tego samego stopnia  l) zmiennych x,y,z. Łatwo sprawdzić, że spełniają one warunek

\Delta(r^l Y)=0.

Funkcje Y_{lm} nazywane są harmonikami sferycznymi. Drugi wskaźnik informuje o wartości L_3\equiv L_z. Dla l=1 mamy funkcje (nie wypisujemy stałych normalizacyjnych), tzw. orbitale p:

\left\{ \begin{array}{l} Y_{1\pm 1} \sim\dfrac{x\pm iy}{r}= \sin\vartheta e^{\pm i\varphi}\\[5pt] Y_{10} \sim\dfrac{z}{r}=\cos\vartheta.\end{array}\right.

Dla l=2 otrzymujemy pięć orbitali d:

\left\{ \begin{array}{l} Y_{2\pm 2} \sim\dfrac{(x\pm iy)^2}{r^2}= \sin^2\vartheta e^{\pm i2\varphi}\\[8pt]Y_{2\pm 1} \sim\dfrac{(x\pm iy)z}{r^2}=\sin\theta\cos\vartheta e^{\pm i\varphi}\\[8pt] Y_{20}\sim \dfrac{2z^2-x^2-y^2}{r^2}=3\cos^2\vartheta-1.\end{array}\right.

Czynnik e^{im\varphi} określa wartość składowej z momentu pędu:

\dfrac{\hbar}{i}(e^{im\varphi})=m\hbar e^{im\varphi}.

Dla każdej wartości l mamy 2l+1 dopuszczalnych wartości L_z. Stany te powinny mieć taką samą energię.

 

 

Dlaczego atomy są trwałe?

Atomów nie można opisać za pomocą dziewiętnastowiecznej fizyki klasycznej. W doświadczeniach Hansa Geigera i Ernesta Marsdena, prowadzonych pod kierunkiem Ernesta Rutherforda w Manchesterze w latach 1909-1913, okazało się, że praktycznie cała masa atomu mieści się w bardzo małym obszarze o promieniu pojedynczych femtometrów (1 {\rm fm}=10^{-15} {\rm m}). Przedtem sądzono (model J.J. Thomsona), że atom zawiera rozmyty ładunek dodatni, w którym znadują się, niczym rodzynki w cieście, lekkie punktowe elektrony. Przy bombardowaniu cienkiej złotej folii za pomocą cząstek α (jąder helu) zdarzało się jednak, że cząstki te rozpraszały się pod wielkimi kątami, niemal zawracały. Byłoby to niemożliwe, gdyby dodatni ładunek rozmyty był na znacznym obszarze. Tak silne pole elektryczne wymagało niemal punktowego ładunku – atom musi więc zawierać niewielkie jądro. Tak narodził się model planetarny Ernesta Rutherforda.

Na rysunku nie można oddać różnicy skali między modelami Thomsona i Rutherforda. Elektrony krążą w znacznie większym obszarze kilkudziesięciu pikometrów (1 {\rm pm}=10^{-12} {\rm m}): w przypadku wodoru objętość atomu jest 2\cdot 10^{14} razy większa od objętości protonu w centrum. Znaczy to, że atom jest praktycznie pusty. Analogia z planetami krążącymi wokół Słońca niezbyt się tu jednak stosuje, ponieważ poruszający się z  przyspieszeniem elektron powinien emitować energię w postaci fal elektromagnetycznych. Z teorii Maxwella wynika, że w czasie rzędu 10^{-11} \,{\rm s} elektron powinien spaść na jądro. Atomy nie są stabilne – do takiego wniosku prowadzi Newtonowska mechanika w połączeniu z elektrodynamiką Maxwella.

Prowizorycznym wyjściem z sytuacji był model Nielsa Bohra: wprowadzał on dozwolone orbity elektronów i jakimś cudem przewidywał prawidłowo długości fal w widmie wodoru. Postulat kwantowania orbit jest nie do pogodzenia z fizyką klasyczną: trzeba bowiem założyć, że elektrodynamika czasem działa, a czasem nie. Jej prawa są z jakiegoś powodu zawieszone w przypadku orbit Bohra.

 Problem rozwiązała dopiero mechanika kwantowa. Przyjrzymy się, jak objaśnia ona stabilność atomu wodoru. Dla uproszczenia będziemy mówić o ruchu elektronu w polu elektrostatycznym nieruchomego jądra (wprowadzane w ten sposób przybliżenie łatwo zastąpić dokładniejszymi rachunkami). Mamy więc elektron o energii składającej się z energii kinetycznej oraz elektrostatycznej energii potencjalnej:

E=\dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r},

gdzie {\mathbf p} oraz m są odpowiednio pędem i masą elektronu, r jest jego odległością od punktowego jądra, a stała e^2\equiv\frac{q_e^2}{4\pi\varepsilon_0}. Nasz problem stabilności łatwiej zrozumieć, patrząc na wykres energii potencjalnej. 

Energia potencjalna w funkcji odległości elektronu od protonu (zaznaczone są dwa najniższe poziomy energetyczne atomu wodoru)

Zaznaczone są dozwolone wartości energii całkowitej. Energia krążącego elektronu jest stała tylko pod warunkiem pominięcia promieniowania. Inaczej będzie ona szybko się zmniejszać, a więc jak widać z wykresu nasz elektron będzie coraz ciaśniej okrążał proton. Studnia potencjału jest nieskończenie głęboka, bez dna (w przybliżeniu punktowego protonu). 

Mechanika kwantowa opisuje stany elektronu za pomocą funkcji falowej \psi(x,y,z)=\psi({\mathbf r}). Jej znaczenie jest statystyczne, pozwala ona obliczać rozmaite wartości średnie: np. średnią wartość energii kinetycznej, albo potencjalnej. Prawdopodobieństwo znalezienia elektronu w danym obszarze przestrzeni V jest równe

Pr(V)={\displaystyle \int_{V} |\psi|^2 dV}.

Oznacza to, że całka po całej przestrzeni musi być równa 1, mówimy wtedy, że funkcja falowa jest unormowana. Aby otrzymać rozmaite wartości średnie, musimy mieć przepis na ich tworzenie. Jest on następujący: każdej wielkości fizycznej przypisuje się operator. Np. operatorem składowej x położenia jest mnożenie przez x. Znaczy to, że pod działaniem tego operatora funkcja \psi przechodzi w x\psi. Bardziej skomplikowanym przypadkiem jest pęd. Składowa x pędu zastępowana jest braniem pochodnej po x:

\psi \mapsto \dfrac{\hbar}{i} \dfrac{\partial\psi}{\partial x}.

Pojawia się tutaj stała Plancka \hbar znak niechybny, że mamy do czynienia z fizyką kwantową, i jest tu jednostką urojoną – nasza funkcja \psi ma wartości zespolone. Z początku budziło to pewne zdumienie ojców mechaniki kwantowej, dziś wiemy, że liczby zespolone są tu nieodzowne. 

Mając pęd i położenie, możemy zbudować operator energii, czyli hamiltonian: zastępujemy po prostu pędy i położenia ich operatorami.  W jednym wymiarze wyglądałoby to następująco

H=-\dfrac{\hbar^2}{2m}\dfrac{\partial ^2}{\partial x^2}- \dfrac{e^2}{x}.

Pierwszy składnik oznacza, że należy dea razy wziąć pochodną po x i pomnożyć przez odpwoednią stałą, drugi składnik jest zwykłym mnożeniem funkcji. W trzech wymiarach mamy trzy składowe pędu, czyli trzy pochodne składające się w symbol zwany laplasjanem (czyli operatorem Laplace’a):

\Delta=\dfrac{\partial ^2}{\partial x^2}+\dfrac{\partial ^2}{\partial y^2}+\dfrac{\partial ^2}{\partial z^2}.

Zapisany w ten sposób hamiltonian ma postać:

H=-\dfrac{\hbar^2}{2m}\Delta-\dfrac{e^2}{r}.

Ostatni potrzebny nam składnik formalizmu to przepis na znajdowanie wartości średnich. Jeśli operator przypisany szukanej zmiennej nazwiemy A, to wartość średnia zmiennej jest równa

\langle A \rangle={\bf \int }\psi^{\star}A\psi dV.

Pojawia się tu funkcja zespolona sprzężona \psi^{\star}. Operatory odpowiadające wielkościom mierzalnym fizycznie (obserwablom) to tzw. operatory hermitowskie, które dają w powyższym przepisie wynik rzeczywisty, tak jak tego oczekujemy w eksperymencie. Hermitowskie są w szczególności operatory pędu, położenia i hamiltonian.

W zasadzie tyle formalizmu wystarczy, bez rozwiązywania równań różniczkowych, by pokazać, że dla dowolnej rozsądnej funkcji falowej (normowalnej) energia ograniczona jest z dołu. Czyli nie możemy uzyskać w żadnym eksperymencie mniej niż owo dolne ograniczenie. Co więcej, w każdym stanie związanym prawdopodobieństwo, że elektron znajdzie się bardzo blisko jądra jest znikome. Formalizm mechaniki kwantowej osiąga to dzięki wprowadzeniu funkcji \psi, która skoncentrowana w małym obszarze wymusza dużą energię kinetyczną. Jakościowo odpowiada to zasadzie nieoznaczoności: mała nieoznaczoność położenia oznacza dużą nieoznaczoność pędu, a więc i energii kinetycznej. Jednak zasady nieoznaczoności nie możemy tu zastosować wprost. 

Rozpatrzmy operator {\bf A} dany równaniem

{\bf A}={\bf p}-i\beta \dfrac{{\bf r}}{r},

gdzie \beta jest dowolną liczbą rzeczywistą. Ponieważ całka z kwadratu modułu {\bf A}\psi nie może być ujemna, otrzymujemy nierówność

\langle {\bf p}^2\rangle-2\beta\hbar\left\langle\dfrac{1}{r}\right\rangle+\beta^2\ge 0,\mbox{(*)}

słuszną dla każdego \beta. Bierzemy najpierw \beta=\hbar\langle\frac{1}{r}\rangle. Dostajemy nierówność

\langle {\bf p}^2\rangle\ge \hbar^2\left\langle \dfrac{1}{r}\right\rangle^2.

Dla dowolnej wartości r_0>0 możemy ograniczyć wartość całki do obszaru r<r_0, gdzie 1/r>1/r_0, otrzymujemy w ten sposób nierówność

\langle {\bf p}^2\rangle^{\frac{1}{2}}\ge \dfrac{\hbar}{r_0} Pr(r<r_0). 

Wrócimy do niej za chwilę. Raz jeszcze korzystamy z (*), tym razem dla \beta=\frac{me^2}{\hbar}. Porządkując wyrazy, otrzymujemy wartość oczekiwaną energii:

\boxed{ \left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle\ge -\dfrac{me^4}{2\hbar^2.}}

Mechanika kwantowa przewiduje zatem dolną wartość energii, równą -13,6\, \rm{eV}.

Aby oszacować \langle{\mathbf p}^2\rangle , założymy, że mamy elektron w stanie związanym, a więc całkowita energia jest ujemna – klasycznie znaczy to, że elektron nie może uciec z pola elektrostatycznego protonu. 

Mamy

\left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle<0,

co można przepisać w postaci

\left\langle \dfrac{{\mathbf p}^2}{4m}\right\rangle<-\left\langle \dfrac{{\mathbf p}^2}{4m}-\dfrac{e^2}{r}\right\rangle.

Do prawej strony możemy zastosować nierówność z ramki przy masie cząstki równej 2m. Otrzymujemy stąd szacowanie dla

\left\langle {\mathbf p}^2\right\rangle \le \dfrac{2me^2}{\hbar}.

Ostatecznie, prawdopodobieństwo znalezienia elektronu nie dalej niż r_0 od jądra spełnia nierówność

\boxed{Pr(r<r_0)<\dfrac{2 r_0}{a_0},}

gdzie a_0\equiv \frac{\hbar}{me^2}\approx 53 \,{\rm pm} zwane jest promieniem Bohra. Jest to promień pierwszej orbity w modelu Bohra.

Widzimy więc, że formalizm mechaniki kwantowej dostarcza wyjaśnienia, czemu atomy są trwałe, co jest niezmiernie ważnym faktem. Uwzględnienie poprawek relatywistycznych itd. niewiele tu zmienia. Można udowodnić więcej: także w układzie wielu jąder i wielu oddziałujących ze sobą elektronów kolaps jest niemożliwy. W tym przypadku ważną rolę odgrywa także fakt, iż elektrony są fermionami, tzn. żadne dwa z nich nie mogą zajmować tych samych stanów (wliczając spin). Podstawowe wyniki w tym obszarze należą do Elliotta Lieba i Waltera Thirringa. Rozważania takie są interesujące ze względów poznawczych, ale także pomagają zrozumieć zachowanie dużych układów, dla których bezpośrednie rachunki bez żadnych przybliżeń są niemożliwe.

Korzystałem z książki E. B. Manoukian, 100 Years of Fundamental Theoretical Physics in the Palm of Your Hand.
Integrated Technical Treatment, Springer Nature 2020.

Satyendra Nath Bose i ostatnia wielka praca Alberta Einsteina (1925)

Einstein w latach dwudziestych zasypywany był listami. Pisali do niego tacy, którzy właśnie rozwiązali zagadkę świata, inni znaleźli błędy w teorii względności i żądali, by się do nich ustosunkował, ktoś prosił o wsparcie albo pomoc w dostaniu się na uczelnię. Pisali także oczywiście nieznani naukowcy. W czerwcu 1924 roku otrzymał list z Indii od Satyendry Bosego wraz z załączoną pracą. Autor pragnął ni mniej, ni więcej, tylko by Einstein przełożył jego pracę na niemiecki oraz posłał do druku w „Zeitschrift für Physik” (nie wspomniał przy tym, że praca została odrzucona przez „Philosophical Magazine”):

Wielce szanowny panie, ośmielam się przesłać panu załączony artykuł do przejrzenia i zaopiniowania. Chciałbym wiedzieć, co pan o nim sądzi. (…) Nie znam niemieckiego w stopniu wystarczającym, aby przetłumaczyć artykuł. Jeśli uważa pan, że artykuł wart jest publikacji, to będę wdzięczny, jeśli przekaże go pan do publikacji w «Zeitschrift für Physik». Choć zupełnie mnie pan nie zna, to bez wahania proszę pana o taką rzecz. Gdyż wszyscy jesteśmy pańskimi uczniami poprzez pańskie prace. Nie wiem, czy jeszcze pan pamięta, że ktoś z Kalkuty prosił o pozwolenie na przekład pańskich prac z teorii względności na angielski. Udzielił pan zgody. Książka została opublikowana. Ja przełożyłem pański artykuł na temat ogólnej względności.

Rzeczywiście, praca Bosego na początku lipca została posłana do druku, pod tekstem jest notka: „przełożone przez A. Einsteina” oraz uwaga tłumacza, iż praca stanowi „ważny postęp”. Warto zwrócić uwagę na pokorę Alberta Einsteina: był najsławniejszym uczonym świata, niedawno przyznano mu Nagrodę Nobla, lecz zdecydował się na przekład i zarekomendowanie pracy kogoś zupełnie nieznanego (w dodatku jego znajomość angielskiego nie była zbyt dobra, więc rzecz nastręczała kłopoty praktyczne, podejrzewam, że pomagała mu jego pasierbica Ilse albo sekretarka Betty Neumann). Niewątpliwie uczynił to w interesie nauki, ponieważ praca Bosego wydała mu się oryginalna. Trzydziestoletni Bose uczył fizyki na uniwersytecie w Dakce i przedstawił nowe wyprowadzenie wzoru Plancka dla promieniowania cieplnego. Wzór ten wyprowadzano wciąż na nowo, nie tylko dlatego, że był ważny, ale i dlatego że te wszystkie wyprowadzenia nie były do końca zadowalające. Praca Bosego zawierała istotny szczegół techniczny, który zainteresował Einsteina, a mianowicie inne liczenie stanów dla gazu fotonów. Najkrócej mówiąc, Bose obliczał liczbę stanów gazu tak, jakby fotony były nierozróżnialne. Wyobraźmy sobie rzut monetą: mamy dwa wyniki (stany monety): orzeł albo reszka. Rozważmy teraz jednoczesny rzut dwiema monetami. Jakie są możliwe stany? dwa orły; dwie reszki; orzeł i reszka. W przypadku monet zawsze możemy odróżnić od siebie dwa wyniki: reszka na pierwszej i orzeł na drugiej oraz orzeł na pierwszej i reszka na drugiej. Gdy obliczamy prawdopodobieństwa, mamy 4 stany. W przypadku fotonów należy liczyć tak, jakby był tylko jeden stan orzeł-reszka, bo nasze monety są z natury nierozróżnialne.

satyendra
Einstein przełożył na niemiecki jeszcze jedną pracę Bosego, choć się z nią nie zgadzał. Hinduski uczony na podstawie pocztówki od Einsteina uzyskał na uczelni dwuletnie stypendium do Europy oraz – na tej samej podstawie – bezpłatną wizę niemiecką. Przyjechał do Europy, ale nie zrobił już nic podobnej wagi.

Einstein natomiast zastosował podejście Bosego do gazu kwantowego, tzn. zwykłego gazu atomów, lecz potraktowanego kwantowo. Okazało się, że ma on pewną niezwykłą własność: w dostatecznie niskiej temperaturze pewien ułamek atomów zgromadzi się w stanie o najniższej energii, a reszta będzie nadal tworzyć gaz, czyli przyjmować rozmaite dostępne energie. Było to przejście fazowe, jak skraplanie pary albo pojawianie się namagnesowania w żelazie, gdy obniżamy temperaturę. Zjawisko znane jest pod nazwą kondensacji Bosego-Einsteina, choć Bose nie ma z nim zupełnie nic wspólnego(*).

Kondensacja Bosego-Einsteina zachodzi tylko z tego powodu, że atomy „chętnie” zajmują ten sam stan, nie muszą się wcale przyciągać. Praca Einsteina stanowiła pierwszy przykład teoretycznego opisu przejścia fazowego i z tego powodu była zamieszczana w podręcznikach. Wyjaśniło się później, że nie wszystkie atomy będą się tak zachowywać, bo cząstki kwantowe dzielą się na dwie grupy: bozony i fermiony. Pierwsze mogą obsadzać licznie ten sam stan, drugie – tylko pojedynczo – jak np. elektrony. Tylko bozony mogą podlegać kondensacji, chyba że fermiony połączą się np. w pary, które będą już bozonami.

W roku 1925 Einstein zajmował się głównie nie fizyką kwantową, lecz konstruowaniem jednolitej teorii grawitacji i pola elektromagnetycznego. Miał to robić bez powodzenia przez następne 30 lat. W lipcu 1925 zaczęła się kwantowa rewolucja – Werner Heisenberg wysłał pierwszą pracę nt. mechaniki kwantowej, w ciągu miesięcy rozpoczął się najważniejszy przewrót w fizyce XX wieku. Einstein obserwował go z bliska, lecz nie wziął w nim udziału. Nie podzielał entuzjazmu młodszych kolegów i Nielsa Bohra dla nowej fizyki. Dlatego ta praca o gazie kwantowym jest ostatnią, która ma znaczenie, by tak rzec, podręcznikowe.
W końcu roku 1924 Einstein zapisał równania dla takiego gazu nieoddziałujących bozonów i przewidział kondensację (praca została opublikowana w styczniu 1925 r.). W roku 1995, równo siedemdziesiąt lat później, udało się ten podręcznikowy przykład zrealizować doświadczalnie. Wygląda to tak:

640px-Bose_Einstein_condensate

Widzimy tu rozkład prędkości atomów rubidu dla kilku zmniejszających się temperatur. Temperatura kondensatu to 170 nK (nanokelwinów, czyli 10^{-9} K). Atomy kondensują w stanie podstawowym, który ma postać spłaszczonej górki: odzwierciedla to kształt pułapki, w jednym kierunku bardziej stromej niż w drugim (prędkości zachowują się odwrotnie: rozkład jest szerszy w tym kierunku, w którym pułapka jest bardziej stroma – jest to przejaw zasady nieoznaczoności).

Autorzy tych eksperymentów, Eric Cornell i Carl Wieman, kilka lat później dostali Nagrodę Nobla, jest to obecnie cała dziedzina badań eksperymentalnych i teoretycznych.

Przyjrzyjmy się bliżej efektowi odkrytemu przez Einsteina. Bose najprawdopodobniej nie zdawał sobie sprawy, że traktuje fotony jak cząstki nierozróżnialne. Einstein zastosował podejście Bosego do cząstek „zwykłego” gazu jednoatomowego (można wtedy nie zajmować się drganiami i obrotami, które ważne są w przypadku cząsteczek chemicznych). Otrzymał zmodyfikowane równanie stanu gazu doskonałego, w którym ciśnienie jest mniejsze niż wynikałoby z równania Clapeyrona (pV=nRT). Koledzy, m.in. Paul Ehrenfest i Erwin Schrödinger, zwrócili mu uwagę, że licząc stany gazu na sposób Bosego, odchodzi od przyjętych zasad mechaniki statystycznej Boltzmanna. Można to przedstawić na obrazku. Mamy tu dwa stany i dwie cząstki do rozmieszczenia.

W statystyce Bosego-Einsteina cząstki są nierozróżnialne. To nowa cecha mechaniki kwantowej (której, pamiętajmy, wciąż jeszcze nie ma). Wiadomo było, że atomy są jednakowe, ale fizyka klasyczna nie bardzo potrafiła sobie z tym faktem poradzić. James Clerk Maxwell porównywał atomy do standaryzowanych wytworów fabrycznych (fabrykantem byłby tu Bóg). W zasadzie jednak atomy klasyczne powinny być rozróżnialne, co na obrazku statystyki Boltzmanna zaznaczyłem kolorami. Klasyczna fizyka statystyczna Boltzmanna była tu nie do końca konsekwentna, ponieważ we wzorach na entropię, należało wprowadzić dodatkowy czynnik ad hoc (tzw. poprawne zliczanie boltzmannowskie). W roku 1926 pojawił się drugi rodzaj statystyki, obowiązujący dla fermionów. Paul Dirac zauważył, że chodzi o symetrię funkcji falowej, która w przypadku bozonów jest całkowicie symetryczna na przestawienia cząstek identycznych, a w przypadku fermionów – antysymetryczna. Zapełnianie powłok elektronowych i orbitali w chemii są konsekwencją faktu, że elektrony są fermionami.

W świecie kwantowym (czyli naszym) każda cząstka jest albo bozonem, albo fermionem. Jest to fakt fundamentalny. Einstein, idąc w ślady Bosego, wprowadził do fizyki cząstki identyczne. Sam Bose prawdopodobnie nie zdawał sobie sprawy z konsekwencji nowego sposobu liczenia stanów. Zdroworozsądkowe liczenie stanów jak u Boltzmanna nie odpowiada rzeczywistości i nie jest zgodne z doświadczeniem. 

Wróćmy do gazu atomowych bozonów. Różni się on od fotonów tym, że liczba cząstek powinna być zachowana: atomy w naczyniu nie znikają ani nie pojawiają się znienacka, podczas gdy fotony mogą być emitowane i pochłaniane przez ścianki naczynia. W danej temperaturze T średnie zapełnienie stanów o energii \varepsilon_i jest równe wg statystyki Boltzmanna

\overline{n}_i=\lambda g_i \exp{\left(-\dfrac{\varepsilon_i}{kT}\right)},

gdzie \lambda jest pewną stałą normalizacyjną, g_i – liczbą stanów o energii \varepsilon_i, a k – stałą Boltzmanna. Iloczyn kT jest temperaturą wyrażoną w jednostkach energii i co do rzędu wielkości jest równy średniej energii cząstek w danej temperaturze (np. w jednoatomowym gazie doskonałym średnia energia kinetyczna atomów jest równa \frac{3}{2}kT).

Wynik otrzymany przez Einsteina dla gazu bozonów miał postać następującą:

\overline{n}_i=\dfrac{g_i}{\lambda^{-1}\exp{\left(\dfrac{\varepsilon_i}{kT}\right)}-1}.

Łatwo zauważyć, że oba wyrażenia dadzą ten sam wynik, gdy wartość eksponenty jest dużo większa od 1 i można tę jedynkę w mianowniku pominąć. Na ogół średnia liczba obsadzonych stanów bozonowych jest większa, niż przewiduje to statystyka Boltzmanna. Podobne wyrażenie można też uzyskać dla fermionów, mamy wtedy do czynienia z gazem fermionów. Przykłady to gaz elektronów w metalu albo białym karle. Wyrażenie różni się znakiem jedynki w mianowniku, ale nie bedziemy tej kwestii rozwijać.

Einstein zastosował statystykę BE do gazu nieoddziałujących atomów zamkniętych w pudle. My zastosujemy ją do innej sytuacji, a mianowicie nieoddziałujących bozonów zamkniętych w parabolicznym potencjale. Jest to zwykły oscylator harmoniczny. Okazuje się, że sytuację taką można zrealizować eksperymentalnie, a w dodatku jest ona fizycznie przejrzysta i Einstein nie miałby żadnych trudności z zapisaniem wyrażeń, które rozpatrzymy niżej. Po prostu nikomu się wówczas nie śniło, że można będzie taki eksperyment zrealizować, więc nie miało sensu robić obliczenia dla tego przypadku. Choć mechaniki kwantowej ciągle jeszcze nie było, to wiadomo było, że energia oscylatora jest skwantowana i równa

E=h\nu(n_x+n_y+n_z),

gdzie h jest stałą Plancka, \nu – częstością oscylatora, a liczby kwantowe n_i są całkowite i nieujemne, przy czym . Kolejne dozwolone tworzą drabinę stanów oddalonych o h\nu. Inaczej mówiąc, dozwolone energie są równe

E=nh\nu,\,\,\, \mbox{gdzie}\,\,\, n=n_x+n_y+n_z.

Jak łatwo obliczyć, liczba stanów o takiej energii równa jest

g_n=\dfrac{(n+1)(n+2)}{2}.

Jeśli do takiego harmonicznego potencjału wprowadzimy N bozonów, to suma średnich liczb obsadzeń musi się równać N:

{\displaystyle N=\sum_{k=0}^{\infty}\overline{n}_k=\sum_{k=0}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}.}

W ostatnim wyrażeniu wprowadziliśmy temperaturę mierzoną w jednostkach h\nu, tzn. nasze nowe T jest równe \frac{kT}{h\nu}. Jest to jedyny parametr teorii. Wartość \lambda musi być taka, żeby ostatnie równanie było spełnione. Ponadto mianownik z funkcją wykładniczą musi być dodatni, więc \lambda<1 (średnie liczby obsadzeń nie mogą być ujemne, tak samo jak np. średnia liczba brunetów w próbce ludzi).

Dalej niesie nas już formalizm, tak jak poniósł Einsteina w grudniu 1924 roku. Możemy z N wydzielić obsadzenie stanu postawowego N_0:

{\displaystyle N=N_0+ \sum_{k=1}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}\equiv N_0+N_{exc}(T,\lambda).}

Suma N_{exc}(T,\lambda) osiąga maksymalną wartość przy \lambda=1:

{\displaystyle N_{max}(T)=\sum_{k=1}^{\infty}\dfrac{g_k}{\exp{\left(\dfrac{k}{T}\right)}-1}.}

Suma ta zależy wyłącznie od temperatury! Wykrzyknik oznacza nasze (i Einsteina) zdziwienie w tym miejscu. Zobaczmy, jak wygląda ta suma w funkcji temperatury.

Przedstawiliśmy tu obliczenia numeryczne (punkty) oraz przybliżenie analityczne:

N_{max}\approx 1.202 T^3\equiv 1.202 \left(\dfrac{kT}{h\nu}\right)^3.

Czemu ten wynik jest dziwny? Ano dlatego, że dla danej temperatury mamy pewną maksymalną liczbę cząstek, jakie można umieścić w danym potencjale. Tymczasem liczba N powinna być dowolnie duża. Ostatnie równanie oznacza, że obniżając temperaturę, osiągniemy w końcu sytuację, w której mamy mniej miejsc do obsadzenia niż cząstek. To oczywiście niemożliwe. Poniżej temperatury zadanej ostatnim równaniem, jakaś część atomów musi znajdować się w stanie podstawowym, i to część makroskopowo zauważalna. Inaczej mówiąc, atomy zaczną się kondensować w stanie o energii zerowej. W tym obszarze temperatur, parametr \lambda jest praktycznie równy 1. Mamy więc warunek

N\approx 1.202 T_{0}^3, \,\, \mbox{(**)}

określający temperaturę krytyczną T_0 przy danej liczbie atomów oraz liczbę atomów w stanach wzbudzonych poniżej temperatury krytycznej:

N_{exc}=N_{max}(T)=N \left(\dfrac{T}{T_0}\right)^3.

Atomy, które nie są wzbudzone, są w stanie podstawowym, zatem ich liczba równa się

N_0=N\left(1-\left(\dfrac{T}{T_0}\right)^3\right).

Funkcję tę przedstawiliśmy na wykresie.

Ważne jest, aby odróżniać kondensację Bosego-Einsteina od zwykłego wzrostu liczby obsadzeń stanu podstawowego wraz ze spadkiem temperatury. Tutaj mamy do czynienia z przejściem fazowym, pierwszym, jakie zostało opisane w fizyce statystycznej. Rozumowanie Einsteina było nieoczywiste dla kolegów. Nie było wcale jasne, czy formalizm fizyki statystycznej w ogóle może opisać przejścia fazowe. Tutaj w dodatku Einstein zaproponował nową statystykę, która mogła, ale wcale nie musiała okazać się prawdziwa. Ponadto model nieoddziałujących atomów jest nadmiernie uproszczony, co jest zarzutem technicznym, ale potencjalnie istotnym dla słuszności konkluzji. Sam Einstein nie był pewien i podkreślał, że tak może być, lecz nie ma co do tego pewności. Jednak jego dwudziestoletnie doświadczenie z fizyką statystyczną nie zawiodło. Statystyka okazała się prawdziwa (dla bozonów). Przejścia fazowe zaczęto na serio badać dopiero w latach trzydziestych (por. Lars Onsager i model Isinga). Jedna ze współpracowniczek Einsteina w latach czterdziestych Bruria Kaufman współpracowała z Larsem Onsagerem przy uproszczeniu jego monumentalnej pracy nt. modelu Isinga w dwóch wymiarach. Także Chen Ning Yang zajmował się modelem Isinga i nawet starał się zainteresować tym tematem Einsteina, gdy pracował w IAS w Princeton.

Ze współczesnego punktu widzenia faza skondensowana jest makroskopowo widocznym stanem kwantowym. Pewien odsetek atomów znajduje się w tym samym stanie, w przypadku pułapki harmonicznej gęstość atomów zarówno w przestrzeni położeń, jak i pędów, jest gaussowska, co odpowiada funkcji falowej stanu podstawowego oscylatora.

Wygląda to jak na obrazkach: w miarę obniżania temperatury pojawia się gaussowskie wąskie skupienie atomów, które rośnie w miarę zbliżania się do zera bezwzględnego. Czerwona linia pionowa obrazuje temperaturę. Widzimy też skok ciepła właściwego, co jest jednym ze wskaźników przejścia fazowego (Obrazki wg Bose-Einstein Condensation in a Harmonic Trap).

Atomy rubidu 87 użyte przez odkrywców kondensacji mają 37 elektronów i 87 nukleonów w jądrze, a więc parzystą liczbę fermionów, dlatego są bozonami. Pułapki stosowane w eksperymencie mają nieco odmienne częstości w różnych kierunkach, przez co rozkłady są iloczynami trzech funkcji Gaussa z róńymi szerokościami wzdłuż osi x,y,z.

(*) Obowiązują w historii nauki dwie zasady:
Zasada Arnolda: Jeśli jakieś pojęcie nazwano czyimś imieniem, to nie jest to imię odkrywcy.
Zasada Berry’ego: Zasada Arnolda stosuje się do samej siebie.
(Chodzi o Michaela Berry’ego i Vladimira Arnolda)

(**) W niskich temperaturach suma może być zastąpiona całką, ponieważ funkcja zmienia się bardzo wolno. Otrzymuje się wówczas

{\displaystyle N_{max}(T)\approx\dfrac{T^3}{2}\int_{0}^{\infty}\dfrac{x^2 dx}{e^{x}-1}= \dfrac{T^3}{2} \Gamma(3)\zeta(3),}

gdzie \Gamma i \zeta to funkcje Eulera i Riemanna.

Flaszki Kleista i butelki lejdejskie: elektryczny szok uczonej Europy (1745-1746)

Ważne odkrycia niemal zawsze są niespodziewane, bywają także niebezpieczne, gdyż odkrywcy zwykle są w roli ucznia czarnoksiężnika, rozpętując moce, nad którymi nie potrafią zapanować. Odkrycie butelki lejdejskiej stanowiło przełom w badaniach elektryczności. Do tej pory była ona jedynie źródłem interesujących i zabawnych pokazów. Elektron znaczy po grecku bursztyn, i to bursztyn był pierwszą substancją używaną do wywołania zjawisk przyciągania i odpychania lekkich drobnych przedmiotów w rodzaju skrawków papieru. Zauważono, że także inne materiały, jak siarka albo szkło, elektryzują się przez tarcie. Znane było doświadczenie Graya, pokazujące, że elektryczność może być przekazywana także przez ciało ludzkie.

0154.P.2.1612.1032

Stephen Gray, farbiarz, astronom i okazjonalnie demonstrator eksperymentów w Towarzystwie Królewskim, został pod koniec życia pensjonariuszem Charterhouse, czegoś w rodzaju szpitala z domem starców dla gentlemanów (pojęcie w Anglii bardzo rozciągliwe) połączonego z sierocińcem i szkołą. Do eksperymentów używał czterdziestosiedmiofuntowego chłopca zawieszonego na jedwabnych izolujących pasach. Na rysunku widzimy jeden z wariantów takiego doświadczenia. Osoba B obraca tu za pomocą przekładni szklaną kulę C, która jest pocierana ręką osoby D. Zawieszony w powietrzu chłopiec stopami dotyka kuli, podając rękę dziewczynce G (stojącej na izolacyjnej podkładce z żywicy albo smoły). Jej ręka przyciąga skrawki złotej folii leżące na gerydonie H. Na drugim rysunku mamy naelektryzowaną szklaną rurkę TT, która za pomocą brązowego drutu B połączona jest z dzwonkiem A. Młoteczek C zawieszony jest na jedwabnym sznurze i jest na przemian przyciągany oraz odpychany przez A, w rezultacie oscyluje między dzwonkami A i E, wywołując ich dzwonienie.

Georg Matthias Bose, profesor filozofii naturalnej z Wittenbergi i autor marnych francuskich wierszy, w swych eksperymentach przejawiał iście germańskie poczucie humoru. Jeden z nich, znany jako Venus electrificata, polegał na tym, by naelektryzować damę stojącą na izolowanej podkładce. Gdy następnie jakiś kawaler próbował ją pocałować, rażony był iskrą wybiegającą z warg wybranki. Innym jego popisowym doświadczeniem była „beatyfikacja”: delikwent wkładał na głowę specjalną koronę, która po naelektryzowaniu świeciła. Mimo tak bezceremonialnego podejścia do aureoli i świętości starał się Bose o uznanie wszędzie, nawet w Turcji i u Ojca Świętego Benedykta XIV. To ostatnie ściągnęło na niego represje na macierzystej uczelni, kolebce luteranizmu, spór musiał zażegnywać król Fryderyk.

bub_gb_FSJWAAAAcAAJ-xx

Jesienią 1745 roku eksperymentami elektrycznymi zajął się dziekan luterańskiej kapituły katedralnej w Kamieniu Pomorskim, Ewald Georg von Kleist. Dwadzieścia lat wcześniej studiował on w Lipsku i w Lejdzie i mógł się już wtedy zetknąć z elektrycznością, choć bezpośredniej inspiracji dostarczyły mu stosunkowo niedawne eksperymenty Bosego, m.in. uzyskiwanie iskry z wody oraz zapalanie spirytusu za pomocą elektryczności. Wyobrażano sobie wówczas elektryczność jako jakiś pewien rodzaj rodzaj subtelnej materii jakoś spowinowaconej z ogniem, mówiono nawet o ogniu elektrycznym. Eksperymenty z czerpaniem ognia z wody bądź zamianą iskry elektrycznej na rzeczywisty płomień zdawały się potwierdzać bliski związek obu tych tajemniczych substancji. Kleist pragnął naelektryzować wodę i udało mu się to w następujący sposób: butelkę napełniał częściowo wodą, rtęcią albo spirytusem, następnie zatykał korkiem, przez który przechodził drut albo gwóźdź. Jeśli trzymało się ten wynalazek w ręku, podczas gdy gwóźdź podłączony był do machiny elektrostatycznej, można było go bardzo mocno naelektryzować. Kolba średnicy czterech cali po naelektryzowaniu potrafiła powalić chłopca w wieku ośmiu bądź dziewięciu lat, jak starannie odnotował dobry dziekan (nie podając wszakże wagi chłopca). Po raz pierwszy wytworzona przez człowieka elektryczność przestała być niewinną salonową zabawą. Jak pisał Kleist, każdemu odechciałoby się całowania tak naelektryzowanej Wenus.

flasche-xx

Rysunek von Kleista z listu do Pawła Świetlickiego, diakona luterańskiego kościoła św. Jana w Gdańsku, przedstawiający jego urządzenie (z listu tego korzystał D. Gralath)

Odkrycie von Kleista było przypadkowe: nie rozumiał on, dlaczego musi trzymać swoje urządzenie w ręku, aby działało. Chcąc nagromadzić dużą ilość elektrycznego ognia, należałoby raczej izolować naczynie zamiast trzymać je w ręku i w ten sposób uziemiać. Dziś wiemy, że flaszka Kleista, jak nazywano ją czasem w Niemczech, była po prostu kondensatorem: ręka i woda z gwoździem stanowiły jego dwie okładki rozdzielone szkłem. Z punktu widzenia ówczesnej wiedzy działanie tego urządzenia było jednak niezrozumiałe. Spośród kilku uczonych, którzy otrzymali listowne doniesienia Kleista, eksperyment zdołał powtórzyć chyba tylko Daniel Gralath (a właściwie jego pomocnik Gottfried Reyger) w Gdańsku. Niedługo później, już w roku 1746, podobne doświadczenie przeprowadzono niezależnie w Lejdzie. Także i tu pierwszym odkrywcą był naukowy amator, Andreas Cunaeus, prawnik, zabawiający się eksperymentami w pracowni miejscowego profesora Pietera van Musshenbroeka. Przypadkowo zauważył on to samo co Kleist, jego eksperyment powtórzył później pomocnik profesora, Jean Nicolas Allamand, a na koniec i sam Musshenbroek, który był nim tak mocno wstrząśnięty, że, jak wyznał swemu paryskiemu koledze, nawet za całe królestwo Francji nie chciałby tego przeżyć po raz drugi.

leiden exp-x

Strach niebawem minął i elektrowstrząsy za pomocą butelek lejdejskich zaczęli wytwarzać wszyscy eksperymentatorzy, choć przez pewien czas do dobrego tonu należało informować o przypadkach konwulsji, paraliżu, zawrotów głowy itp. Żona profesora z Lipska, Johanna Heinricha Wincklera, po dwóch wyładowaniach poczuła się tak słabo, że ledwie mogła mówić. Tydzień później mąż zaaplikował jej jeszcze jedno wyładowanie, po którym krew się jej puściła z nosa. Profesor Winckler humanitarnie wstrzymał się jednak od przeprowadzania eksperymentów na ptakach, nie chcąc zadawać owym stworzeniom niepotrzebnych cierpień. Abbé Jean Antoine Nollet, mistrz pokazów fizycznych, utrzymujący się z produkcji naukowych urządzeń dla bogatych klientów, takich jak np. Voltaire i pani du Châtelet, zaprezentował w obecności króla Ludwika XV żywy łańcuch 180 grenadierów, poprzez który rozładowywała się butelka lejdejska. Wszyscy oni jednocześnie podskakiwali, co tak bardzo podobało się suwerenowi, że kazał sobie ten eksperyment powtarzać.

Stanisław Ulam (2/2)

Wciąż jest dla mnie źródłem nieustającego zdziwienia, że kilka znaków nagryzmolonych na tablicy lub na kartce papieru może zmienić bieg ludzkich spraw. [S. Ulam]

Każdego roku, od 1936 aż do 1939, Stanisław Ulam spędzał lato w Polsce. Spotykał się ze swoimi matematycznymi przyjaciółmi, w tym Banachem i Mazurem, we Lwowie albo gdzieś w okolicach, gdzie spędzali wakacje. Jego dorobek matematyczny obejmował szereg dziedzin: teorię mnogości, teorię miary i rachunek prawdopodobieństwa, teorię transformacji, teorię grup. Były to na ogół niewielkie prace rozwiązujące lub stawiające jakiś problem. Na uniwersytecie Harvarda we współpracy z Johnem Oxtobym Ulam napisał swoją najdłuższą pracę, opublikowaną następnie w „Annals of Mathematics”, wysoko cenionym piśmie wydawanym w Princeton. Praca dotyczyła teorii ergodycznej. W mechanice klasycznej każdy nietrywialny układ fizyczny wędruje po swojej przestrzeni stanów (in. przestrzeni fazowej) w taki sposób, że wraca kiedyś w sąsiedztwo każdego punktu już odwiedzonego. Fakt ten jest podstawą fizyki statystycznej, w której zakłada się, że wszystkie stany o określonej energii są jednakowo prawdopodobne. Praca Ulama i Oxtoby’ego dowodziła, że przekształcenia spełniające warunek ergodyczności są w pewnym sensie typowe. Uzyskany przez nich wynik nie mógł być wprost zastosowany do fizyki, ale tak jest bardzo często: ścisłe potwierdzenie intuicji fizyków zazwyczaj nie jest łatwe.

Stanisław Ulam łatwo przywykł do amerykańskiego życia i z przyjemnością wracał do niego po wakacjach. Latem 1939 roku zabrał ze sobą młodszego brata, Adama. Na statek w Gdyni odprowadzili ich ojciec i stryj. Widmo wojny wisiało nad Polską, choć, jak zauważył Ulam, zagrożenie to wyraźniej dostrzegano w Stanach Zjednoczonych niż w Polsce, gdzie do ostatniej chwili łudzono się nadziejami na jakiś zwrot dyplomatyczny w zaostrzającym się napięciu. Różnice w sposobie oceny wynikały zapewne nie tylko z dystansu Amerykanów. Do Stanów Zjednoczonych dotarło w ostatnich latach wielu uchodźców z Niemiec, którzy lepiej niż inni rozumieli istotę nazistowskiego reżimu. W Polsce prasa, koła wojskowe i politycy zgodnie uprawiali propagandę w stylu „nie oddamy ani guzika”, co skończyło się klęską nie tylko militarną i polityczną, ale także klęską moralną – kraj był bowiem zupełnie nieprzygotowany do wojny i tysiące, może miliony ludzi, rzuciły się do panicznej i bezładnej ucieczki: jedni na wschód, inni na zachód. Dowódcy niemieccy zdumieni byli łatwością tego zwycięstwa, które po dwu tygodniach było już w zasadzie zupełne.

Dla Stanisława Ulama wojna oznaczała nie tylko lęk o najbliższych i przyjaciół pozostawionych w kraju, ale i obowiązek utrzymywania młodszego brata, który zaczął jesienią studia (z czasem został znanym sowietologiem). Znalezienie płatnej pracy akademickiej nie było łatwe, Ulam musiał zadowolić się uniwersytetem stanu Wisconsin w Madison. Po Harvardzie i Princeton nie było to wymarzonym rozwiązaniem, jednak uczelnia okazała się całkiem przyzwoita, Ulam zaprzyjaźnił się tam z wieloma wykładowcami, nie tylko zresztą z matematykami, ale i z fizykami, ekonomistami. Wygłosił kiedyś zaimprowizowany wykład na zjeździe astronomów (na temat wyboru układu odniesienia, w którym ruch ciał wygląda prościej – była to topologiczna wersja problemu kopernikańskiego). W tym okresie wielu wybitnych uczonych, zwłaszcza pochodzących z Europy, pracowało na mniejszych uczelniach, fala emigracji wywołała bowiem nadmiar szukających pracy akademików. W Madison pracował Eugene Wigner, fizyk i szkolny kolega von Neumanna, przyszły noblista. Na seminaria prowadzone przez Ulama przyjeżdżali do Madison matematycy tej klasy co André Weil, urodzony w Warszawie Samuel Eilenberg czy Paul Erdös, wszyscy oni stali się sławami światowego formatu. Erdös zaprzyjaźnił się z Ulamem i odwiedzał go czasami, rozmowy były jego ulubioną formą pracy matematycznej, z czasem opublikował wspólne prace z kilkuset innymi badaczami. Matematycy obliczają liczbę Erdösa: on sam ma liczbę zero; ci, którzy z nim pracowali, mają liczbę jeden; ci, którzy pracowali z posiadającymi liczbę jeden, mają liczbę dwa itd. Oczywiście, Ulam miał liczbę Erdösa równą jeden. Zabawa ta unaocznia, jak silną rolę odgrywa współpraca nawet w dziedzinie tak z pozoru indywidualnej jak matematyka (choć trzeba też dodać, że Erdös, podobnie jak Ulam, wyjątkowo lubił pracę w towarzystwie innych).

W 1941 roku Ulam otrzymał obywatelstwo amerykańskie i kiedy Stany Zjednoczone przystąpiły do wojny, chciał pracować na rzecz wojska. Dzięki rekomendacji von Neumanna trafił do Los Alamos i Projektu Manhattan jako jeden z niewielu matematyków. Spotkał tam i poznał osobiście wielu fizyków i chemików o głośnych nazwiskach, nigdy chyba w historii nie zgromadzono w jednym miejscu w pracy nad wspólnym projektem tak wielu wybitnych specjalistów. Wielu z nich było emigrantami, których dotychczasowe życie zburzył mniej lub bardziej nazizm. Wśród kierujących projektem byli dwaj znakomici fizycy jądrowi: Hans Bethe i Enrico Fermi. Pierwszy miał babkę Żydówkę, przez co stracił profesurę w Tybindze, drugi miał za żonę Żydówkę i w roku 1938 zmuszony był opuścić Włochy. Ulam obu uczonych bardzo szanował, lecz szczególny respekt budził w nim Fermi – ostatni chyba fizyk będący zarazem eksperymentatorem i teoretykiem. Nie rozstający się z suwakiem logarytmicznym Fermi, który umiał szybko obliczyć każdą potrzebną wielkość, miał też solidne przygotowanie matematyczne i okazało się, że zna np. pracę Oxtoby’ego i Ulama. Dzięki Projektowi Manhattan Stanisław Ulam zaczął pracować z fizykami i tak już miało zostać przez długie lata. Jego talent matematyczny niespodziewanie okazał się przydatny w zagadnieniach z pogranicza inżynierii. Taki przeskok z podstaw matematyki do zagadnień praktycznych byłby niewyobrażalny dla większości matematyków. Ulam trafił do grupy kierowanej przez Edwarda Tellera, jeszcze jednego emigranta z Węgier. Pierwszym zagadnieniem, którym się tam zajął, było oddziaływanie gazu elektronowego z promieniowaniem. Teller uzyskał z rozważań wymiarowych postać równania, chciał aby te rozważania uściślić. Ulam zaproponował własne dość elementarne rozwiązanie, z którego wynikało, że wzór Tellera trzeba uzupełnić współczynnikiem cztery. Niezadowolony Teller zlecił to samo zadanie komuś innemu, kto posługując się znacznie bardziej rozbudowanym aparatem matematycznym, uzyskał dla owego współczynnika liczbowego także wartość zbliżoną do czterech.

Ulam, Richard Feynman i John von Neumann w Los Alamos

Rodzaj talentu matematycznego Stanisława Ulama był nietypowy, jedyny w swoim rodzaju. Posiadał on dar formułowania problemów w sposób jak najprostszy, zachowując jedynie najistotniejsze ich cechy. Wyobrażał sobie przy tym zjawiska, a nie tylko równania, które je opisują. Łatwo też przychodziły mu oszacowania liczbowe, co w Los Alamos było niezwykle ważne – nie chodziło tam przecież o zrozumienie idealnej sytuacji laboratoryjnej, ale o skonstruowanie jak najefektywniejszej bomby. Należało więc wejść w świat rzeczywistych obiektów, kształtów, własności różnych materiałów, współwystępowania rozmaitych zjawisk. Zazwyczaj praca fizyków polega na czymś odwrotnym: szuka się najprostszych i „najczystszych” sytuacji, w których można zmierzyć dane zjawisko.

Po zakończeniu wojny i Projektu Manhattan Stanisław Ulam wrócił do pracy akademickiej. Został profesorem nadzwyczajnym na Uniwersytecie Południowej Kalifornii (USC). Uczelnia okazała się słaba, Los Angeles było miastem trudnym do mieszkania i poruszania się z powodu korków ulicznych. Pewnego dnia Ulam poważnie zachorował, zaczął mieć problemy z mówieniem. Przeprowadzono operację, otwierając czaszkę. Znaleziono ostry stan zapalny, który leczono nowymi wówczas antybiotykami, podawanymi bezpośrednio do wnętrza czaszki. Uczony po pewnym czasie doszedł do siebie, jednak z obawą myślał, czy po tym wszystkim jego umysł wróci do dawnej sprawności. Przekonał się o tym, kiedy odwiedził go Paul Erdös. Zagrali w szachy i Ulam wygrał. Zaczął podejrzewać, że może przyjaciel pozwolił mu wygrać dla podtrzymania go na duchu. Zagrali więc jeszcze raz. Uspokoił się dopiero, kiedy wygrał po raz drugi, a Erdös wyraźnie się tym zirytował.

Nie pozostał na USC długo, tym bardziej że po chorobie wpadł w długi. Otrzymał propozycję pracy w Los Alamos dla armii amerykańskiej. Wprawdzie sławni i wielcy po zakończeniu Projektu Manhattan rozjechali się po różnych ośrodkach, ale laboratorium w Los Alamos zostało i nieoczekiwanie dawało Ulamowi możliwość ciekawej i względnie niezależnej pracy. Problemy, nad którymi tam pracowano, były konkretne, co zdaniem Ulama bardzo się liczyło. Sądził on bowiem, że naprawdę ważne problemy wywodzą się z praktyki, a nie filozoficznych rozważań. Mógł dobierać sobie współpracowników, co było szczególnie ważne wobec jego metody pracy. Polegała ona na tym, że Ulam szkicował możliwości rozwiązania danego zagadnienia, a współpracownicy starali się te pomysły zrealizować. Niewykluczone, że przebyta choroba odebrała Ulamowi czysto techniczną sprawność dokonywania obliczeń czy prowadzenia jakiegoś długiego dowodu. Starał się tego po sobie nie pokazywać. Pozostała mu jednak wyobraźnia i umiejętność dostrzegania bez dowodu, czy twierdzenie jest prawdziwe, czy nie, i w jaki sposób można dążyć do wytyczonego celu. Toteż pracował przede wszystkim nad wytyczaniem kierunków i formułowaniem problemów – co w sumie jest może ważniejsze niż szczegółowe rozwiązania. Przypominał swoim stylem pracy pracującego po przeciwnej stronie Atlantyku Jakowa Zeldowicza.

Dzięki pracy dla armii Ulam należał do pionierów stosowania komputerów. Układając pewien trudny pasjans w okresie rekonwalescencji, zdał sobie sprawę, że bardzo trudno byłoby obliczyć, jakie jest prawdopodobieństwo ułożenia tego pasjansa, łatwo natomiast można by go było modelować za pomocą komputera, który mógłby przeprowadzić wiele prób, dzięki czemu można by empirycznie stwierdzić, jakie jest szukane prawdopodobieństwo. Rozwinięciem tej idei opracowanym we współpracy z von Neumannem i Nickiem Metropolisem są metody Monte Carlo (nazwa zaczerpnięta ze skojarzenia z wujem Ulama, który pożyczał od krewnych pieniądze i następnie przepuszczał je w Monte Carlo). Zamiast np. rozwiązywać równanie różniczkowe, opisujące dyfuzję neutronów z pewnego stanu początkowego, możemy prześledzić losy wielu neutronów i zobaczyć, jakie są charakterystyczne cechy ich rozkładu. Dla pięćdziesięciu cząstek startujących z punktu x=0 tory w błądzeniu przypadkowym mogą być np. takie jak na wykresie.

Po zebraniu pewnej statystyki można znaleźć kształt rozkładu końcowego. Im więcej wykonamy losowań, tym dokładniej będziemy znali rozkład cząstek po danym czasie.

Rozkład uzyskany w tym przypadku jest łatwy do obliczenia analitycznego (jest rozkładem normalnym). Wystarczy jednak nieco zmodyfikować zagadnienie: dodać dwa wymiary, różne kształty i materiały, a problem dyfuzji stanie się bardzo trudny do rozwiązania metodami analitycznymi, choć symulacja komputerowa nadal będzie stosunkowo prosta. Pionierzy tej metody musieli zaczynać kompletnie od zera, rozwiązując np. zagadnienie, jak komputer, który prowadzi obliczenia arytmetyczne na liczbach – a więc otrzymując zawsze ściśle określony i jednoznaczny wynik, może generować liczby losowe. Jak sprawić, aby liczby te podlegały określonemu prawu statystycznemu? Jak sprawdzać uzyskane wyniki itd itp. Metoda Monte Carlo używana jest dziś w wielu dziedzinach od fizyki do finansów i stała się zespołem wyspecjalizowanych praktyk.

Stanisław Ulam odegrał istotną rolę w projekcie bomby wodorowej. Była to idée fixe Tellera: zbudować bombę opartą na procesie syntezy lekkich pierwiastków w cięższe. W przyrodzie procesy takie odbywają się we wnętrzu gwiazd, gdzie panują ogromne temperatury i materia jest bardzo gęsta. Warunki tak ekstremalne potrzebne są do tego, by dodatnio naładowane jądra mogły zbliżyć się do siebie, pokonując odpychanie elektrostatyczne. Dopiero bowiem w odległościach rzędu 10^{-15} m możliwe jest przegrupowanie nukleonów, wskutek czego wyzwala się energia.

Synteza helu z dwóch izotopów wodoru: deuteru i trytu; bomby wykorzystują głównie deuter (rys. Wikipedia)

Warunki takie można by wytworzyć za pomocą wstępnego wybuchu zwykłej bomby atomowej. Edward Teller (jeszcze jeden żydowski emigrant z Węgier) pracował nad pomysłem „superbomby” już w trakcie Projektu Manhattan. Nie zrezygnował z niego także i później. W roku 1950 prezydent Harry Truman podjął decyzję o pracach nad superbombą. Okazało się jednak szybko, że początkowy pomysł Tellera nie nadaje się do realizacji. Udowodnił to Stanisław Ulam ze współpracownikami, potwierdziły zaś obliczenia Ulama i Enrico Fermiego. Także obliczenia komputerowe von Neumanna dawały ten sam wynik. Sytuacja stała się trudna dla Tellera, którego oskarżano, że nakłonił władze polityczne do decyzji, nie mając w ręku żadnej rozsądnej teorii działania superbomby. Koszt przedsięwzięcia był ogromny, rywalizacja z Rosją zawzięta, a więc i stawka projektu bardzo wysoka. Impas przełamał Stanisław Ulam, który zaproponował implozyjny mechanizm działania superbomby. Razem z Tellerem napisali raport, który stał się podstawą amerykańskiego projektu. Bomba została zbudowana, lecz stosunki miedzy Tellerem a Ulamem gwałtownie się oziębiły. Teller nie potrafił prawdopodobnie wybaczyć Ulamowi dwukrotnej porażki prestiżowej. Ulam natomiast uważał, że zainteresowani i tak wiedzą, ile kto jest wart.

Raport Tellera i Ulama został po latach odtajniony, lecz większość z kilkunastu jego stron jest kompletnie pusta. Armia amerykańska najwyraźniej uznała, że wciąż jest za wcześnie na publiczne informowanie o technologii bomb wodorowych. Może to być zresztą także przykład nadmiernej ostrożności wojskowych w kwestiach tajemnic, militarne znaczenie bomb wodorowych nie jest bowiem aż tak wielkie, jak sądzono na początku. Dalsze prace szły raczej nad zmniejszaniem siły rażenia, bo co po wygranej wojnie, skoro zwycięzcy zostaną w niej zabici powiedzmy dziesięć razy, a pokonani – dwadzieścia. Angielszczyzna ma na to zgrabne słówko: overkill (*).

Gian-Carlo Rota charakteryzuje Ulama następująco:

Dopiero po kilku latach zdałem sobie sprawę z tego, co jest prawdziwą profesją Stana Ulama. Wielu z nas, pracujących w Laboratorium i mających z nim styczność, wiedziało, jak bardzo nie lubi on zostawać sam, że wzywa nas o zaskakujących porach, by wybawić go od samotności hotelowego pokoju albo czterech ścian swego gabinetu, kiedy już skończył codzienną rundę rozmów międzymiastowych.

Pewnego dnia zebrałem się na odwagę i zapytałem, czemu stale potrzebuje towarzystwa; odpowiedź, jakiej udzielił była wielce znamienna. „Kiedy jestem sam – zwierzył się – zmuszony jestem przemyśleć różne rzeczy i widzę ich tak wiele, że wolę nie myśleć”. Ujrzałem go wtedy w prawdziwym świetle: ten człowiek, mający na koncie największą liczbę trafnych przypuszczeń w matematyce, który potrafi pokonać inżynierów na ich własnym polu, który w jednej chwili ocenia zdarzenia i ludzi, należy do niemal już doszczętnie wymarłej profesji proroków.

Z mężami Starego Testamentu i wyrocznią delficką dźwigał on ciężkie brzemię natychmiastowego widzenia. I jak wszyscy zawodowi prorocy cierpiał na coś, co Sigmund Freud nazwałby „kompleksem Proteusza”. Wielka szkoda, że wśród pacjentów Freuda nie było żadnych proroków.

W dawnych czasach ciemne orzeczenia Sybilli interpretowane były przez wyszkolonych specjalistów, tak zwanych hermeneutów, których zadaniem było przełożenie kryptycznych fraz na greckie zdania. W przypadku Ulama laboratorium w Los Alamos wynajmowało konsultantów, których zadaniem było wyrażenie jego kryptycznych komunikatów w popsutym żargonie współczesnej matematyki.

Stanisław Ulam zmarł niespodziewanie w wieku 75 lat na atak serca. Jak pisze Françoise Ulam:

mawiał, że „najlepszym rodzajem śmierci jest nagły atak serca lub zastrzelenie przez zazdrosnego męża”. Miał szczęście umrzeć w ten pierwszy sposób, choć myślę, że chyba wolałby ten drugi.

(*) Ulam komentował w roku 1965: „Mam wrażenie, iż to interesujące pojęcie, jakim jest overkill, przez lewicę atakowane jest z powodu marnotrawstwa – jako nieekonomiczne, podczas gdy skrajna prawica popiera je z przyczyn psychologicznych: gdyż daje im poczucie męskości, której brak odczuwają.”

Toczyła się wówczas debata, czy Stany Zjednoczone powinny zgodzić się na zakaz prób jądrowych. Ulam i Teller stali na odmiennych stanowiskach, ilustruje to rysunek Herblocka: „Mądry ojciec zna swoje dziecko”.

Stanisław Ulam (1/2)

Wyraz jego twarzy jest zazwyczaj ironiczny i kpiący. W istocie porusza go bardzo wszystko, co jest komiczne. Być może posiada pewien dar rozpoznawania i natychmiastowego wychwytywania śmieszności, nic więc dziwnego, że maluje się to na jego twarzy.
Jego wypowiedzi są bardzo nierówne, czasem poważne, czasem wesołe, ale nigdy nudne. Stara się bawić i rozweselać ludzi, których lubi. Nic, z wyjątkiem nauk ścisłych, nie wydaje mi się aż tak pewne czy oczywiste, by nie dopuszczał możliwości istnienia różnych opinii: sądzi, że na niemal każdy temat można powiedzieć niemal wszystko.
Posiada pewien talent matematyczny i zręczność, które pozwoliły mu zdobyć rozgłos w młodym wieku. Pracując w samotności aż do ukończenia dwudziestu pięciu lat, raczej późno stał się człowiekiem bardziej światowym. Jednak nigdy nie bywa nieuprzejmy, gdyż nie jest szorstki ani surowy. Jeżeli czasem kogoś obrazi, to przez nieuwagę lub niewiedzę.
Jego mowa nie jest gładka ani pełna wdzięku. Kiedy mówi coś miłego, to dlatego, że tak myśli. Cechuje go szczerość i prawdomówność, czasem nieco zbyt wielka, ale nigdy brutalna.
Niecierpliwy i choleryczny, czasami bywa gwałtowny. Bardzo bierze sobie do serca wszystko, co go rani, ale uraza zazwyczaj mija, kiedy da ujście swoim uczuciom. Łatwo na niego wpływać i nim kierować, pod warunkiem, że nie zdaje sobie z tego sprawy.
Niektórzy sądzą, że jest złośliwy, ponieważ bezlitośnie naśmiewa się z pretensjonalnych głupców. W rzeczywistości ma wrażliwe usposobienie, co sprawia, że jego nastrój często się zmienia. Może być jednocześnie wesoły i smutny.
Pan U. zachowuje się zgodnie z następującą zasadą: mówi mnóstwo głupich rzeczy, rzadko je zapisuje i nigdy żadnej z nich nie robi. (przeł. A. Górnicka, przekład nieco poprawiony za oryginałem d’Alemberta)

Autocharakterystykę tę przedstawił (oczywiście po francusku) Stanisław Ulam swojej przyszłej żonie Françoise, dopiero na końcu dodając, że napisał ją Jean Le Rond d’Alembert, jeden ze sławnych fizyków matematycznych XVIII stulecia i autor większości artykułów na temat nauk ścisłych w Wielkiej Encyklopedii Francuskiej.

Czy jest to tylko zabawny zbieg okoliczności, czy też obu uczonych łączy jakieś głębsze powinowactwo? Z pewnością obaj starali się przez całe życie uparcie zachować wolność, d′Alembert przytacza określenie jednego ze swych przyjaciół, że stał się „niewolnikiem swej wolności” – określenie to dobrze pasuje także do Ulama. Wbrew pozorom zachowanie takiej suwerenności poczynań jest w dzisiejszej nauce równie trudne co w XVIII wieku. Stanisław Ulam starał się pracować tak, żeby sprawiało mu to przyjemność, nie lubił presji. Cenił pomysłowość, szybkość rozumowań, nie był z tych, którzy latami rozwijają jakąś jedną metodę czy teorię, choć oczywiście miał swoje ulubione tematy czy sposoby podejścia. W najlepszym sensie tego słowa (pochodzącego od łacińskiego „kochać”) był raczej amatorem niż profesjonalnym uczonym akademickim – co w XX wieku było znacznie rzadsze niż w XVIII.
Już Galileusz pisał przy okazji pewnej uczonej polemiki:

Jeśliby roztrząsanie trudnych problemów było tym samym co przenoszenie ciężarów, czynność, przy której wiele koni przenosi więcej worków ziarna niż jeden koń, zgodziłbym się z tym, że wiele dysput wartych jest więcej niż jedna; ale dysputowanie (discorrere) przypomina bieganie (correre), a nie dźwiganie, toteż jeden koń berberyjski pobiegnie dalej niż sto koni fryzyjskich. (przeł. A. Wasilewska)

W osiemnastowiecznym Paryżu grzechem było mówić głupstwa, a jeszcze większym mówić głupstwa z wysiłkiem. Coś z tej atmosfery przetrwało może w środkowoeuropejskich kawiarniach, w których na początku XX wieku tak chętnie spotykali się artyści i uczeni. Ulam starał się trzymać rzeczy istotnych. Nie słuchał np. dłużej niż dziesięć minut wykładów zaproszonych uczonych, ponieważ jeśli ktoś w ciągu dziesięciu minut nie powiedział nic ciekawego, to zapewne nie będzie miał nic do powiedzenia i potem.

Cechą, która zdecydowanie różni d’Alemberta i Ulama jest stosunek do priorytetu własnych odkryć. Pierwszy zaciekle walczył o pierwszeństwo, drugi natomiast zupełnie się nie wdawał w spory tego rodzaju, uważając je za uwłaczające godności. Paradoksalnie w obu przypadkach – d’Alemberta i Ulama – przyczyną mogła być duma zraniona postępowaniem ludzi, których niezbyt się ceni.

Stanisław Ulam początkowo nie zamierzał zostać matematykiem. W rodzinnym Lwowie uczęszczał do gimnazjum klasycznego. Program nauczania takich szkół, podobny w większości Europy: daleki od problemów świata współczesnego, z naciskiem na historię i naukę martwych języków. Te abstrakcyjne zajęcia kształtować miały przyszłą elitę: urzędników, lekarzy, prawników, uczonych. Były czymś w rodzaju wieloletniej próby i budowały wspólną kulturę absolwentów. Wiemy, że Albert Einstein nie zniósł bezdusznej dyscypliny panującej w gimnazjum monachijskim i rzucił szkołę dwa lata przed maturą. Utalentowanemu językowo Ulamowi nauka przychodziła z łatwością, maturę zdał znakomicie, a greka i łacina towarzyszyły mu przez resztę życia, stanowiąc rodzaj kodu, jakim mógł się porozumiewać z kolegami, którzy przeszli podobną edukację. Uważał zresztą gramatykę łacińską za dobre wprowadzenie do myślenia logicznego.

Jako uczeń interesował się astronomią i fizyką. Ojciec, prawnik, dumny był, że jego nastoletni syn „rozumie” teorię względności, która w latach dwudziestych ubiegłego wieku stała się sensacją daleko wykraczającą poza kręgi naukowe. Młody Ulam zafascynowany też był niektórymi zagadnieniami matematycznymi, np. czy istnieją nieparzyste liczby doskonałe (liczby doskonałe są sumą swoich dzielników właściwych, jak 6=1+2+3. Rozwiązanie nie jest znane do dziś). Nie chciał zostać prawnikiem, w ówczesnej Polsce Żydzi niełatwo zostawali profesorami, więc i kariera naukowa wydawała się utrudniona. Postanowił zapisać się na miejscową politechnikę, z jakichś powodów był to Wydział Ogólny, a nie Elektryczny, który dawał konkretny zawód. Ponieważ młody człowiek nieco nudził się na wykładach dla pierwszego roku, zaczął chodzić na wykłady Kazimierza Kuratowskiego z teorii mnogości. Młody profesor chętnie rozmawiał ze swym studentem, Ulam odprowadzał go do domu i gawędzili o matematyce. Kuratowski, widząc inteligencję swego studenta, podsunął mu do rozwiązania pewne zagadnienie z teorii mnogości. Ulamowi udało się rozwiązać problem i praca została opublikowana w „Fundamenta Mathematicae”, polskim piśmie poświęconym głównie teorii mnogości i będącym czymś w rodzaju organu polskiej szkoły matematycznej. Dopiero jednak po rozwiązaniu drugiego problemu zasugerowanego przez Kuratowskiego Ulam zdecydował się zostać matematykiem, stało się to przed końcem jego pierwszego roku studiów.

Wkrótce poznał też innych matematyków lwowskich i wiele czasu spędzał w ich pokojach na dyskusjach. Później rozmowy te przenosiły się często do kawiarni. Jedna z takich sesji w kawiarni „Szkockiej” ze Stanisławem Mazurem i Stefanem Banachem trwała, jak wspomina Ulam, siedemnaście godzin z przerwami na posiłki. Z rozmów tych pochodził materiał do jego prac, jak też znaczna część jego wiedzy matematycznej. Ulam nigdy nie należał do uczonych, którzy pilnie śledzą postępy w wybranych dziedzinach i wiedzą na ten temat wszystko. Lubił rozpoczynać od zera, nawet gdy przy okazji odkrywał po raz drugi pojęcia czy fakty znane już w literaturze.

Nieformalny sposób uprawiania nauki bardzo odpowiadał towarzyskiemu Ulamowi, który z trudem naginał się do formalnych wymagań i zdawania egzaminów. W 1932 roku jako student został zaproszony do wygłoszenia komunikatu na Kongresie Matematycznym w Zurychu, gdzie spotkał wielu sławnych uczonych, potem jesienią w ciągu kilku tygodni napisał pracę magisterską, w roku następnym doktorat. Miał wtedy dwadzieścia cztery lata i coraz mniejsze szanse na karierę w Polsce. W sąsiednich Niemczech do władzy doszedł Adolf Hitler, bardzo wielu uczonych żydowskiego pochodzenia, w tym matematyków, musiało opuścić Niemcy. Odbywając w 1934 roku podróż po ośrodkach matematycznych Europy, pochłonięty matematyką Stanisław Ulam ledwie zdawał sobie jednak sprawę z tego, co się dzieje w świecie polityki. W roku następnym poznał Johna von Neumanna, który choć tylko kilka lat od niego starszy, był już sławny. Von Neumann, syn budapeszteńskiego bankiera żydowskiego pochodzenia, nie miał złudzeń co do sytuacji w Europie, toteż wyemigrował do Stanów Zjednoczonych, stary kontynent odwiedzając tylko z okazji jakichś konferencji czy spotkań. Obaj uczeni zaprzyjaźnili się. Poza matematyką łączyło ich sporo: dawne Austro-Węgry, kultura żydowska, klasyczne wykształcenie, pewna kosmopolityczna ogłada i dobre wychowanie. Von Neumann cenił ogromną pewność siebie Ulama, a także jego trudny do przewidzenia tok myślenia. Coś podobnego stwierdził też kiedyś na temat Ulama Stefan Banach: że formułuje on problemy w sposób „dziwny” i proponuje też „dziwne” rozwiązania, które często są skuteczne.

Von Neumann sprawił, że zaproszono Stanisława Ulama do Instytutu Badań Zaawansowanych w Princeton, gdzie tworzono coś w rodzaju ziemskiego raju dla uczonych, zaczynając od matematyków i fizyków teoretycznych. Jedną z pierwszych gwiazd tego Instytutu stał się Albert Einstein. Najmłodszym profesorem był tam von Neumann. Ulam należał do grupy młodych badaczy zapraszanych, by mieli okazję popracować wśród uznanych kolegów. Semestr w Princeton zaowocował trzyletnim stypendium na uniwersytecie Harvarda w Society of Fellows, organizacji finansującej dobrze zapowiadających się młodych uczonych.

Najważniejsze wydarzenia w dziejach ludzkości

Zacznijmy od fraszki C.K. Norwida:

DOBRA WOLA

– Przepraszam państwo, lecz przyszła wiadomość,

Że się Uranus wstrząsa

*

– Mniejsza o to

– Co tam po niebie gdzieś patrzysz Jegomość,

To astronomów rzecz, niech sobie plotą…

*

– Przepraszam państwo – ale panna Klara

Na pannę Różę powiedziała: „stara” –

I ten pod wachlarz bilecik schowała…

*

– Gdzie?! jaki?! dawaj!… to rzecz doskonała!

Norwid pisał tu o niezgodnościach ruchu Urana ze znanymi faktami. Okazało się, że niezgodności owe wywołane są przyciąganiem następnej planety, Neptuna. Jej położenie najpierw obliczono, a następnie znaleziono ją na niebie niemal dokładnie w tym miejscu, gdzie wskazywały obliczenia. Samo wydarzenie jest dobrą ilustracją różnicy między nauką nowożytną a innymi przykładami działalności „naukopodobnej” prowadzonej w najróżniejszych cywilizacjach.

Fraszka Norwida wskazuje też na zjawisko szersze niż salonowy brak zainteresowania nauką. Jesteśmy istotami społecznymi, czasem może nawet zanadto społecznymi: w tym sensie, że skłonni jesteśmy uważać świat międzyludzki za cały wszechświat, a nas samych za istoty stworzone nie mniej, ni więcej, tylko na podobieństwo Boga.

David Christian jest zawodowym historykiem. Zrobił jednak coś, na co nie poważyłaby się większość jego kolegów: prowadzi kurs historii wszechświata, od Wielkiego Wybuchu do dziś. Siłą rzeczy większa część materiału pochodzi z innych dziedzin niż historia: z kosmologii, geologii, biologii itd. Spojrzenie z tej perspektywy na dzieje ludzkości uważam za niezwykle ożywcze. Nigdy nie mogłem się nadziwić pasji, jaką większość historyków wkłada w badanie faktów drugo- albo nawet dziesięciorzędnych: jakaś potyczka pod Straconką (w zasadzie trochę większa bójka) albo śledzenie meandrów polityki jakiegoś nieistotnego władcy. Oczywiście rozumiem, czemu można się zajmować tego rodzaju tematem, podobnie jak rozumiem, czemu można się zajmować badaniem jednego gatunku chrząszczy (a jest ich blisko pół miliona). I wcale nie lekceważę „badaczy owadzich nogów”. Nie rozumiem jedynie, czemu nie widzę prób syntezy, innego spojrzenia, mniej uwikłanego w politykę, mity narodowe, mity religijne; mniej prowincjonalnego geograficznie, kulturowo i cywilizacyjnie.

Jakie więc były najważniejsze wydarzenia w dziejach ludzkości? Większość z nich zaszła w prehistorii albo historii bardzo zamierzchłej: wynalezienie rolnictwa, różnych technik pozwalających odziać się, lepić garnki i przede wszystkim tworzyć narzędzia. W dziejach intelektualnych decydujące znaczenie miało pismo i jego ulepszenie w postaci pisma alfabetycznego: dzięki temu ostatniemu nie tylko zawodowcy mogli umieć pisać – była to rewolucja podobna do rozpowszechnienia w latach osiemdziesiątych XX wieku komputerów osobistych, pozwalających każdemu korzystać z narzędzia przedtem zarezerwowanego dla personelu w białych kitlach (sam pamiętam sale z komputerami typu „Odra”, do których nie wolno było wchodzić, należało zostawić przed wejściem karty perforowane z programem i mieć nadzieję, że przejdzie on pomyślnie kompilację, a może nawet się policzy). Nie jest przypadkiem, że cywilizacja grecka rozkwitła w tym samym czasie, gdy rozpowszechniło się pismo alfabetyczne.

Grecy stworzyli też matematykę ujętą w sposób aksjomatyczny – do dziś jest to ideał przedstawiania wiedzy ścisłej. Geometria grecka i jej najważniejsze zastosowanie: opis ruchu planet stworzyły podstawy przyszłego rozwoju nauki, choć ciąg dalszy nastąpił dopiero po piętnastu wiekach i nie był oczywisty. Cywilizacja przeniosła się na północny zachód Europy. Średniowieczne chrześcijaństwo pokazało swą wielkość w gotyckich katedrach, jak też w tym, że potrafiło zasymilować grecką filozofię i naukę – był to zresztą jego szczytowy moment. Reformacja, która podzieliła chrześcijan, była w znacznym stopniu ujawnieniem się nowej wrażliwości i nowego podejścia do świata, czegoś bardziej fundamentalnego niż dogmaty wiary czy uznawanie bądź nieuznawanie papieża. Nowoczesna cywilizacja wywodzi się z chrześcijaństwa zreformowanego w Europie północnej i w Stanach Zjednoczonych. Katolicyzm definitywnie utracił kontakt z nowoczesnością w wieku XVII, w czasach Galileusza. I sądzę, że nigdy go nie odzyskał, choć w każdej epoce aż do dziś wielu było uczonych katolików i niemal każdy papież deklarował, iż ceni i popiera naukę.

Reformacja związana była od początku z wynalezieniem druku: zapewne nie rozszerzyłaby się tak szybko w innych warunkach. Druk i powszechna umiejętność pisania (głównie jednak w krajach protestanckich) były kolejnym progiem udostępniania wiedzy szerokim rzeszom. Jednak nie podział religijny był najważniejszy w wieku XVI i XVII. Nawet wojna trzydziestoletnia z dłuższej perspektywy jest epizodem bez znaczenia. To rewolucja naukowa przesądziła o znaczeniu tej epoki, a także o znaczeniu Europy w dziejach naszej planety. Jakąś nauką zajmowały się wszystkie cywilizacje, lecz to europejska znalazła skuteczny klucz do poznania przyrody. Najpełniej widać to w dziele Isaaca Newtona: modele matematyczne ściśle opisują rzeczywistość fizyczną. Połączenie matematyki i eksperymentu pozwala dowiedzieć się rzeczy, o których się filozofom nie śniło i które są sprawdzalne. Tym się różnimy od innych cywilizacji, że nasze samoloty latają, nie musimy sobie tego jedynie wyobrażać.

Rewolucja naukowa XVII wieku nie dotyczyła biologii. Wydawało się, że istoty żywe nie podlegają dokładnie tym samym prawom, co reszta materii. Świat biologiczny stał się ostatnim azylem zwolenników celowości. Przypomnijmy: już Arystoteles doszukiwał się w przyrodzie przyczyn celowych. Stopniowo celowość została wyeliminowana z astronomii i fizyki. Nie pytamy: w jakim celu Układ Słoneczny zawiera te a nie inne planety krążące po takich a nie innych orbitach. Wydawało się jednak, że oko ludzkie „zostało stworzone” do patrzenia, podobnie jak piękne, smukłe ciało geparda do szybkiego biegania. Charles Darwin i Alfred Russel Wallace pierwsi zauważyli, że przystosowanie do funkcji jest skutkiem doboru naturalnego, a nie celem. Oko naszych przodków (również czworonożnych, również pływających) doskonaliło się stopniowo, aż osiągnęło dzisiejszy stan (wcale zresztą nie idealny: można dobrać soczewki indywidualnie korygujące wzrok, które sprawiają, że widzimy szczegóły, o jakich dotąd nie mieliśmy pojęcia). Podobnie gepardy doskonaliły się w sztuce biegania, w miarę jak gazele doskonaliły się w sztuce uciekania. Ewolucja za pomocą sekwencji niezliczonych drobnych kroków stworzyła całą biosferę. Wielu ludziom wydaje się to nadal trudne do pojęcia i z uporem szukają luk w teorii ewolucji. Ci sami ludzie nie czują na ogół skrupułów, gdy dzięki nowoczesnej terapii zostają wyleczeni. Podobnie jak niektórzy postmoderniści, którzy twierdzą, że fizyka jest formą dominacji białego człowieka i nie jest więcej warta od mitów jakiegoś plemienia, a potem wsiadają w samolot, aby udać się na kolejną konferencję, gdzie będą o tym nauczać młodzież, żądną zdobycia, jeśli nie wiedzy, to przynajmniej stopni naukowych.

Ojciec Gregor Mendel, 1865

Johann Mendel urodził się w chłopskiej rodzinie na Śląsku, był jednym z tych, których miano nazywać później Niemcami Sudeckimi. Chłopiec miał nieco szczęścia: w jego rodzinnej wsi była szkoła, gdyż lokalna właścicielka, hrabina Walpurga Truchsess-Zeil, dbała edukację poddanych. Ponieważ okazał się zdolny, poszedł do następnej szkoły, a później do gimnazjum w Opawie. Przypominało to chyba edukację Jędrzeja Radka z Syzyfowych prac, rodzice z trudem łożyli na utrzymanie syna w mieście. Niewątpliwie pragnęli też zostawić mu gospodarstwo – był bowiem jedynym chłopcem. Po ukończeniu gimnazjum Johann przeniósł się na studia do Ołomuńca, wciąż brakowało mu pieniędzy, sporo chorował. Jego pilność i talent zwróciły uwagę jednego z wykładowców i młodzieniec został przyjęty do augustianów w Brnie. Przyjął zakonne imię Gregor.

Ojciec Gregor był zbyt delikatny i nieśmiały, aby dobrze czuć się w roli duszpasterza. Pasjonowała go natomiast przyroda, zajmował się klasztornym ogrodem, uczył w różnych szkołach, był jednym z założycieli lokalnego towarzystwa naukowego w Brnie. W lutym i marcu 1865 roku zreferował na kolejnych posiedzeniach owego Towarzystwa swoje badania dotyczące krzyżowania grochu. Nie było to zapewne gremium, które mogłoby docenić wyniki ojca Mendla. Być może zresztą jego wyniki na tyle odbiegały od ówczesnego rozumienia dziedziczności, że nawet gdyby ich autor nie był prowincjonalnym nauczycielem przyrody, i tak nikt by na nie nie zwrócił większej uwagi. Bywają prace, których w momencie powstania nikt nie czyta, a które później stają się początkiem nowej dziedziny. Tak było z pracą Mendla, około roku 1900 zrozumiano, że kładzie ona podwaliny pod nową dziedzinę wiedzy: genetykę.

Co w pracy Mendla tak bardzo odbiegało od tego, co uczeni pragnęli usłyszeć? Były to lata Charlesa Darwina, niewątpliwie ewolucja była tematem nr 1. Nawet w Brnie miesiąc przed referatem Mendla jeden z członków Towarzystwa omawiał właśnie ewolucję. Wiemy także, że Mendel przeczytał O powstawaniu gatunków. Darwin jednak niewiele miał do powiedzenia na temat zmienności i na temat mechanizmu dziedziczenia, a to, co mówił było zwykle bałamutne.

Mendel_seven_characters-ger.svg

Ojciec Gregor cierpliwie prowadził doświadczenia nad pewnymi określonymi wyraźnie cechami grochu: mogły one występować w jednej albo drugiej wersji: kwiaty mają jeden albo drugi kolor, łodyga jest niska albo wysoka itp. Prace Mendla dowodziły, że dziedziczenie ma charakter losowy i w dodatku dyskretny, cyfrowy: są pewne jednostki dziedziczenia, które łączą się w organizmie potomnym i określają jednoznacznie, która z ewentualności wystąpi: np. czy nasiona będą gładkie, czy pomarszczone. W dodatku Mendel założył, że gdy w roślinie zawarte są obie „skłonności”, to uwidacznia się tylko jedna z nich, a druga może być ukryta i ujawnić się dopiero w potomstwie. Wierzono wtedy raczej w jakieś mieszanie się cech, podobne do mieszania barw na palecie, a nie w coś tak zero-jedynkowego.

Także przypadkowość procesu dziedziczenia trudna była do przyjęcia. Często zarzucano Darwinowi, że Opatrzność chciałby zastąpić przypadkiem, ślepym losem. Prawdopodobnie nie było to prawdą w odniesieniu do poglądów samego Darwina, ale pokazuje, jak broniono się przed uznaniem roli losowości w świecie przyrody ożywionej.

Dopiero wiek dwudziesty wprowadził losowość i przypadkowość na naukowe salony. Zakrawa na ironię, że w 1936 roku Ronald Fisher, jeden z pionierów genetyki i statystyki matematycznej, zakwestionował wyniki liczbowe Mendla jako właśnie zbyt regularne jak na dzieło przypadku. Fisher zastosował do wyników Mendla test chi kwadrat i wykazał, że uzyskanie tak regularnych wyników jest niezwykle mało prawdopodobne. Wywołało to dyskusję, której echa do dziś przewijają się w literaturze dotyczącej genetyki oraz statystyki.

Czy globalne ocieplenie to bzdura? Pochwała atmosfery

Atmosfera Ziemi jest jak „uszyta na miarę”: chroni nas przed meteorytami, tłumi promieniowanie nadfioletowe, wytwarzające mutacje (np. raka skóry), zapewnia nam tlen niezbędny do oddychania i jest przezroczysta akurat w tym obszarze fal elektromagnetycznych, które widzimy. Oczywiście, od czasów Charlesa Darwina, wiemy, że trzeba spojrzeć na to odwrotnie: na drodze jakiej ewolucji doszło do tej sytuacji. Ochrona przed meteorytami jest np. niepełna, o czym boleśnie przekonały się dinozaury (zostały tylko energooszczędne zwierzątka w rodzaju dzisiejszych ryjówek – nasi prarodzice). Nam też w zasadzie grozi podobny los, jeśli odpowiednio duża asteroida uderzy w Ziemię. Warstwę ozonową, która chroni przed nadfioletem, dość łatwo byłoby zniszczyć, na szczęście przestaliśmy wypuszczać do atmosfery niektóre związki chemiczne, stosowane w celach dość trywialnych: w dezodorantach i lodówkach. Za tlen powinniśmy dziękować naszym braciom mniejszym roślinom, bez nich (bez fotosyntezy) nie moglibyśmy żyć. Widzimy fale elektromagnetyczne o takich długościach, bo nasza gwiazda centralna najwięcej wysyła w tym obszarze widma (byłoby bez sensu mieć oczy wrażliwe na fale, których praktycznie nie ma). To, że dzięki temu możemy widzieć także inne ciała niebieskie jest tylko wspaniałym dodatkiem. A dzięki obserwacjom gwiazd i planet powstała astronomia matematyczna. A dzięki astronomii powstała fizyka, a dzięki fizyce, a później chemii i biologii, powstała nasza cywilizacja w obecnym kształcie.

W sierpniu 1883 roku na wysepce Krakatau w Indonezji wybuchł wulkan. Wskutek tej erupcji i wywołanych nią fal tsunami zginęło 40 000 ludzi. W końcu października w Europie zaczęły się niesamowicie piękne zachody słońca – znaczyło to, że pył wyrzucony do atmosfery podczas erupcji zdążył już przywędrować na umiarkowane szerokości geograficzne (kolory zachodów słońca to głównie skutek rozpraszania Rayleigha). W Wielkiej Brytanii zachody słońca obserwował zafascynowany nimi poeta, żarliwy katolik, Gerald Manley Hopkins. Swoje opisy wysłał do „Nature”: „Ponad zielenią ukazał się czerwony blask, szerszy i bardziej krzepki; był miękko cętkowany i w żebrach czy pasach kolor był bliższy różu, a w prześwitach, gdzie przeświecał błękit nieba, bliższy malwy. Wyżej był niewyraźnie bzowy. Czerwień można było dostrzec najpierw na wysokości 45º nad horyzontem i widziało się w niej promienie, które jeden z patrzących porównał do ludzkiej dłoni. Do 4:45 czerwień wyparła zieleń i stapiając się z resztką pomarańczowego dosięgła horyzontu” (cyt. w: http://publicdomainreview.org/2012/05/28/the-krakatoa-sunsets/). Malarz William Askroft spędził wiele popołudni, malując widoki nieba na brzegu Tamizy w Chelsea, było to dla niego frustrujące doświadczenie: jego sztuka była bezsilna wobec tej ruchomej powodzi kolorów.

7261360630_2085ed432a_o7261360998_60c9500aa6_o

Zachody słońca po erupcji Krakatau pokazały naocznie, że atmosfera jest wspólna dla całej Ziemi. Jeszcze jedną wspaniałą zaletą, za którą winniśmy wdzięczność naszej siostrze atmosferze, jest efekt cieplarniany. Gdyby nie było atmosfery temperatura Ziemi byłaby równa -20º C – tyle wynika z prostego bilansu energii przychodzącej ze Słońca i wysyłanej przez Ziemię. Ilości energii przychodzącej i wysyłanej w jednostce czasu powinny być równe, inaczej Ziemia musi się ogrzewać albo stygnąć. Naprawdę gdyby temperatura była tak niska, na powierzchni Ziemi byłoby dużo lodu, który świetnie odbija światło i w rezultacie mniej światła słonecznego byłoby pochłaniane przez Ziemię, co znaczy, że temperatura byłaby jeszcze niższa.
Nasza atmosfera przepuszcza niemal całkowicie światło widzialne – większą część energii docierającej do nas ze Słońca. Ziemia, a także sama atmosfera, także wysyłają promieniowanie termiczne, ale jest ono w większości podczerwone, gdyż temperatura Ziemi jest 20 razy mniejsza od temperatury Słońca. Atmosfera Ziemi jest jednak nieprzezroczysta w podczerwieni, dzięki parze wodnej i CO2. Bilans energetyczny wygląda w rezultacie tak.

greenhouse1

Ziemia wysyła więcej promieniowania podczerwonego, niż otrzymuje ze Słońca. Bilans energii zarówno „pod atmosferą”, jak i „nad atmosferą” jest zerowy: tyle samo energii przychodzi i ucieka. Jednak atmosfera promieniuje w górę i w dół, dzięki czemu Ziemia może wysyłać więcej energii – a to oznacza, że jej temperatura jest wyższa: zamiast -20º C otrzymalibyśmy +30º C (-20º C będzie teraz temperaturą na skraju atmosfery, a nie na Ziemi). Temperatura wyszła trochę za wysoka, ale to szczegół. Gdybyśmy przyjęli, że nie cała energia wysyłana w podczerwieni przez Ziemię jest pochłaniana przez atmosferę, ale część jej ucieka w kosmos, wynik byłby bardziej realistyczny. Widać o co chodzi: im bardziej nieprzezroczysta atmosfera w podczerwieni, tym wyższa temperatura planety. Efekt ten – efekt cieplarniany – jest zbawienny, bo, powtórzmy, marnie by nam się żyło w temperaturach średnich poniżej -20º C. Tyle, że gdy atmosfera stanie się zanadto nieprzezroczysta w podczerwieni, na Ziemi może stać się zbyt ciepło. Ludzie od XVIII wieku wysłali do atmosfery tyle CO2, że zaczęło to już wpływać na klimat globalny. Możemy stać się ofiarami naszego sukcesu ewolucyjnego i cywilizacyjnego. Oczywiście, przyszłość jest nieznana, bo może też nadlecieć za, powiedzmy, pięćdziesiąt lat duża asteroida i zafundować nam nie tylko piękne zachody słońca, ale w ogóle zimę na dziesięć lat. Wtedy nikt się nie będzie musiał martwić globalnym ociepleniem, zresztą ryjówki mają na to za mały mózg.

Andrew Wiles: wielkie twierdzenie Fermata i matematyka czysta (1986-1995)

„Moje doświadczenia z uprawianiem matematyki najlepiej można chyba opisać, porównując je do wędrówki po ciemnym niezbadanym domu. Wchodzę do pierwszego pokoju: panuje w nim zupełny mrok. Błądzę po omacku i wpadam na meble, ale stopniowo uczę się, gdzie stoi każdy z nich. Po jakichś sześciu miesiącach znajduję wyłącznik i naraz wszystko staje się jasne, widzę dokładnie, gdzie jestem. A potem wchodzę do następnego ciemnego pokoju i spędzam tam następne sześć miesięcy. I każde z tych olśnień – czasem trwają one tylko chwilę, a czasem dzień albo dwa – jest tylko kulminacją owych wielu miesięcy błądzenia po omacku i bez nich byłoby niemożliwe” (Andrew Wiles on Solving Fermat).

Mówi się czasem, że w każdej dziedzinie wiedzy tyle jest prawdy, ile jest w niej matematyki. Odkrycie, że świat fizyczny można opisać w języku matematyki i że właściwie tylko od nas zależy, z jak wielką dokładnością to zrobimy, uważam za największe osiągnięcie ludzkości. Nie chodzi o to, że pewne aspekty świata dają się ująć matematycznie, bo to wiedzieli już starożytni. Istotą nowożytnej nauki jest wiara, że w zasadzie każdy aspekt świata fizycznego (ale i chemicznego, a coraz częściej także biologicznego czy ekonomicznego) daje się opisać stosownym modelem matematycznym. Nie tylko planety czy dźwignie, ale spadanie liścia na wietrze, drogę cyklonu, atomy i cokolwiek nam przyjdzie do głowy.

Jednocześnie matematyka, choć tak potrzebna wszystkim, jest w zasadzie samowystarczalna i wielu matematyków niezbyt interesuje się innymi naukami, po cichu uważając je za stratę czasu. Wciąż istnieje platoński ideał matematyki czystej, przebywającej tam, gdzie idea Piękna, gdzieś w pobliżu idei Dobra. I niektórzy matematycy spędzają całe życie w swoim zaczarowanym pałacu nie z tego świata. W nagrodę omija ich nieco tak powszechna dziś komercjalizacja i pogoń za szybkimi wynikami (co najmniej dwa odkrycia rocznie).

Andrew Wiles jest niewątpliwie matematykiem czystym – w każdym sensie tego słowa. Jego dziedzina to teoria liczb, a więc badanie własności najprostszych liczb: 1, 2, 3, … – liczb naturalnych. Kiedy spostrzegł, że możliwe jest zaatakowanie wielkiego twierdzenia Fermata, zamknął się na siedem lat na strychu i nie mówiąc o tym nikomu, pracował. Nie publikował w tym czasie, musiał więc wtajemniczyć swojego dziekana. Nie chciał, aby koledzy wciąż go pytali, jak mu idzie. Być może obawiał się także, iż ktoś mógłby go ubiec. Nie ma powodu wstydzić się takich uczuć – nie mają przecież nic wspólnego z podkładaniem nogi konkurentom. Jest w tym duch sportowej walki: wszyscy mają równe szanse, oni też mogą położyć na szalę swoją reputację. Wygra najlepszy.

576px-Andrew_wiles1-3

Wygrał Andrew Wiles. Twierdzenie Fermata było słynną szklaną górą, na którą daremnie próbowali wspiąć się wciąż nowi śmiałkowie. Niemal każdy ambitniejszy matematyk próbował zmierzyć się z tym twierdzeniem. Nie każdy miał dość rozsądku, aby w porę przestać się nim zajmować.
Właściwie była to tylko błyskotliwa hipoteza. Pierre Fermat, jurysta w parlamencie Tuluzy, a w wolnych chwilach matematyk, jakby od niechcenia i dla rozrywki wytyczył wiele nowych dróg. W roku 1637 na marginesie czytanego przez siebie Diofantosa zanotował, że równanie

x^p+y^p=z^p

ma wprawdzie rozwiązania naturalne, gdy p=2, ale nie ma ich dla żadnej wyższej potęgi p. Stwierdził nawet, że ma dowód, ale nie zmieści mu się na wolnym miejscu na stronie, toteż go nie zamieścił. Luźne stwierdzenia tego rodzaju w wypadku Fermata należało traktować poważnie, rzadko bowiem zawodziła go intuicja.
Sam Fermat podał (w innym miejscu) dowód swego twierdzenia dla p=4, wynikała z tego także jego prawdziwość dla wykładników postaci p=4n. Łatwo też pokazać, że wystarczy dowieść twierdzenia Fermata dla wykładników będących nieparzystymi liczbami pierwszymi.
Następny krok wykonał pod koniec XVIII wieku Leonhard Euler, niestrudzony syn pastora z Bazylei, który umiał obrócić na swoją korzyść ambicje absolutnych władców swej epoki i pracował na zmianę pod rządami Fryderyka II w Prusach albo Katarzyny II w Rosji. Ani królowi, ani carycy nie zależało jakoś szczególnie na matematyce, ale obojgu bardzo zależało na splendorze. Euler wykazał słuszność twierdzenia w przypadku p=3 (nie do końca, dowód został później uzupełniony). Następne generacje matematyków przyniosły dowody wielu różnych szczególnych przypadków twierdzenia Fermata, wciąż nie było jednak dowodu ogólnego. Póki takiego dowodu nie ma, wszystko jest możliwe – bywały już przypadki hipotez, które wydawały się słuszne, lecz w końcu okazały się fałszywe. Euler wysunął np. hipotezę, że równanie

x^4+y^4+z^4=w^4

nie ma rozwiązań naturalnych. W 1988 roku Noam Elkies znalazł kontrprzykład:

2682440^4 + 15365639^4 + 18796760^4 = 20615673^4.

Wielu wybitnych matematyków unikało twierdzenia Fermata. David Hilbert, zapytany, czemu nigdy się nim nie zajmował, stwierdził, że musiałby stracić trzy lata na opanowanie tego wszystkiego, co mogłoby być potrzebne, a on nie ma trzech lat do stracenia. Andrew Wiles był w lepszej sytuacji: dzięki pracy poprzedników miał już do dyspozycji niezbędne elementy. Co więcej, twierdzenie Fermata przestało być interesującym faktem na uboczu rozwoju matematyki, lecz stało się tematem ważnym. W 1986 roku Gerhard Frey wykazał, że gdyby istniał kontrprzykład do twierdzenia Fermata, musiałaby istnieć pewna krzywa eliptyczna o szczególnych i niespotykanych własnościach. Krzywe eliptyczne to wykresy równania

y^2=x^3+ax^2+bx+c,

o ile wykres nie ma żadnych punktów osobliwych (przecięć ani załamań).

eliptyczne

Krzywe te mają wiele interesujących własności: można je wyrazić za pomocą tzw. funkcji eliptycznych (stąd nazwa), każda sieczna przecina je dokładnie w trzech punktach, co pozwala każdej parze punktów przyporządkować trzeci (można wprowadzić strukturę grupy). W teorii liczb bada się sytuacje, gdy a, b, c są całkowite albo wymierne. Istnienie krzywej Freya przeczyłoby tzw. hipotezie Shimury-Taniyamy dotyczącej pewnych własności krzywych eliptycznych. Wiles postanowił dowieść tej hipotezy, a właściwie jej słabszej wersji, wystarczającej do jego celów. Jeśli (słabsza) hipoteza Shimury-Taniyamy jest słuszna, to nie może istnieć krzywa Freya. a tym samym twierdzenie Fermata zostało udowodnione niewprost. Hipoteza Shimury-Taniyamy została zresztą później udowodniona w wersji silniejszej i z punktu widzenia specjalistów to właśnie osiągnięcie jest najważniejsze: łączy bowiem w nieoczekiwany sposób analizę matematyczną z geometrią. Zatem twierdzenie Fermata okazało się nie tylko trudną ciekawostką, lecz pozwoliło zrozumieć głębsze związki między różnymi dziedzinami matematyki. To właśnie było zawsze najciekawsze w teorii liczb: aby zrozumieć problemy dotyczące np. podzielności i liczb pierwszych, potrzebne są głębokie idee dotyczące funkcji zmiennej zespolonej.
Andrew Wiles wyszedł z ukrycia w czerwcu 1993 roku, gdy wygłosił serię wykładów w swoim rodzinnym Cambridge w Anglii. Choć ich tytuł nie zapowiadał sensacji, to bookmacher w Cambridge nie chciał przyjmować zakładów o to twierdzenie: nie znał się na matematyce, lecz kiedy kolejni studenci zaczęli zgłaszać się z propozycją takiego samego zakładu, zrozumiał, że zapewne coś się święci. Do historii przeszło zakończenie ostatniego wykładu: po wykazaniu, że twierdzenie Fermata zostało właśnie udowodnione, Wiles stwierdził: „Myślę, że na tym zakończę”.

Najtrudniejsze było jednak jeszcze przed nim. W dowodzie znaleziono istotną lukę, co nie dziwi w przypadku pracy tak długiej (ponad sto stron w „Annals of Mathematics”) i robionej samotnie. Wiles wraz ze swoim dawnym studentem Richardem Taylorem usiłowali dowód poprawić, lecz sprawa wyglądała coraz poważniej. Bez tego jednego elementu cała układanka byłaby na nic. Pracowali ponad rok bez rezultatu i Wiles bliski już był decyzji o rezygnacji z dalszych prób, kiedy nagle okazało się, że pewien jego stary pomysł z okresu samotnej pracy, zarzucony później, teraz nieoczekiwanie się przydał.
„Wierzę że, aby osiągnąć w życiu zadowolenie, musisz robić coś, co cię pasjonuje. (…) Tylko taka pasja pozwala się nie poddawać, kiedy utkniesz na jakimś trudnym problemie i poczujesz się sfrustrowany. Jako matematyk staniesz się częścią wspólnoty, która istnieje od tysięcy lat, i wniesiesz wkład do twórczego projektu, rozciągającego się na całe wieki i cywilizacje. Życie jest zbyt krótkie, aby marnować je na rzeczy, które cię nie obchodzą…” (wywiad z Claudio Bartoccim, 2004, w: C. Bartocci, R. Betti, A. Guerraggio, R. Lucchetti (red.), Mathematical Lives: Protagonists of the Twentieth Century From Hilbert to Wiles, Springer 2011).

Słowa Wilesa o wspólnocie badaczy stosują się także i do twierdzenia Fermata. Oto lista tych, którzy oprócz niego wnieśli do tego problemu swój ważny wkład tylko w XX wieku: Spencer Bloch (USA), Henri Carayol (Francja), John Coates (Australia), Pierre Deligne (Belgia), Ehud de Shalit (Izrael), Fred Diamond (USA), Gerd Faltings (Niemcy), Matthias Flach (Niemcy), Gerhard Frey (Niemcy), Alexander Grothendieck (Francja), Yves Hellegouarch (Francja), Haruzo Hida (Japonia), Kenkichi Iwasawa (Japonia), Kazuya Kato (Japonia), Nick Katz (USA), V.A. Kolyvagin (Rosja), Ernst Kunz (Niemcy), Robert Langlands (Kanada), Hendrik Lenstra (Holandia), Wen-Ch’ing Winnie Li (USA), Barry Mazur (USA), André Néron (Francja), Ravi Ramakrishna (USA), Michel Raynaud (Francja), Ken Ribet (USA), Karl Rubin (USA), Jean-Pierre Serre (Francja), Goro Shimura (Japonia), Yutaka Taniyama (Japonia), John Tate (USA), Richard Taylor (Wielka Brytania), Jacques Tilouine (Francja), Jerry Tunnell (USA), André Weil (Francja).