Widmo wodoru i symetrie (1/2)

I. Od Balmera do Bohra

Naszym bohaterem jest zbiór linii widmowych wodoru i proste wyrażenie, które go opisuje. Widmo składa się z serii, z których najbardziej znana jest seria Balmera przypadająca na obszar widzialny i bliski nadfiolet.

 

Długości fali w angstremach (1 {\rm \AA}=10^{-10} {\rm m}).

Jakob Balmer, znając długości czterech pierwszych linii, odgadł ukrytą w nich prawidłowość. Długości fal spełniają równanie

\lambda=h\,\dfrac{n^2}{n^2-4},\;\;n=3,4,5,6,

gdzie h jest stałą. Okazało się, że seria linii jest nieskończona, jeszcze za życia Balmera jego wzór potwierdził się dla kilkunastu linii. Okazało się też, że istnieją inne serie widmowe. Wszystkie można opisać wzorem

\dfrac{1}{\lambda}=R\left(\dfrac{1}{m^2}-\dfrac{1}{n^2}\right),\; n=m+1,\,m+2,\,\ldots,

gdzie m=1,2,3, \ldots, a stała R zwana jest stałą Rydberga. Co ważne, wzór Balmera, w tej wersji zwany najczęściej wzorem Rydberga, w przypadku wodoru spełniony jest bardzo dokładnie, choć jeszcze pod koniec XIX wieku zaobserwowano, że linie widmowe wodoru są naprawdę dubletami: parami bardzo blisko położonych linii. Tą tzw. strukturą subtelną nie będziemy się tu zajmować. Wyjaśnia ją równanie Diraca, a więc uwzględnienie efektów relatywistycznych oraz spinu elektronu. Efekty relatywistyczne są jednak poprawkami do energii rzędu \alpha^2, gdzie \alpha\approx\frac{1}{137} jest stałą struktury subtelnej, a więc pięć rzędów wielkości mniejszymi.

Postać wzoru Rydberga łatwo zrozumieć jako zapis zasady zachowania energii, jeśli posłużymy się pojęciem fotonu, wprowadzonym przez Alberta Einsteina w 1905 r. (określenie foton jest dużo późniejsze). Cząstki światła mają energię

E=h\nu=\dfrac{h c}{\lambda},

h, c, \nu oznaczają odpowiednio stałą Plancka, prędkość światła i częstość fotonu. Zatem wzór Rydberga oznacza, że poziomy energetyczne elektronu w atomie wodoru dane są równaniem

E_n=-\dfrac{hcR}{n^2},\,\, n=1,2,3,\ldots.

Dlaczego taka, a nie inna wartość R? Dlaczego pojawia się tu kwadrat liczby naturalnej? Tak proste wyrażenie powinno mieć jakieś uzasadnienie. 

Niels Bohr pierwszy podał teoretyczne wyjaśnienie wartości stałej Rydberga w swoim planetarnym modelu atomu. Energie elektronu na dozwolonych orbitach są w nim równe

E_n=-\dfrac{me^4}{2\hbar^2 n^2},

tutaj m oznacza masę elektronu, e^2=\frac{q_e^2}{4\pi\epsilon_0} to kwadrat ładunku elementarnego razy stała z prawa Coulomba, \hbar\equiv h/2\pi. Liczba naturalna n jest u niego po prostu numerem orbity i konsekwencją postulatu kwantowego:

L=mvr=n\hbar.

Słowami: moment pędu L elektronu na orbicie o promieniu r i prędkości v jest wielokrotnością stałej Plancka. Postulat ten nie wynikał z głębszych rozważań, trzeba go było przyjąć, aby otrzymać prawidłowe wyniki. Można powiedzieć, że Bohr przesunął zgadywankę Balmera z numerologii na teren fizyki.

Ogromnym sukcesem było powiązanie stałej Rydberga z wielkościami elementarnymi: masą i ładunkiem elektronu, stałą Plancka i siłą oddziaływań elektrostatycznych. Zawsze kiedy uda się tego rodzaju sztuka, znaczy, że jesteśmy blisko jakieś bardziej fundamentalnej prawdy. Jednak model Bohra od początku był prowizoryczny. W myśl klasycznej elektrodynamiki elektron krążący po orbicie z pewną częstością f powinien promieniować falę elektromagnetyczną o częstości f. Tymczasem w jego modelu do emisji promieniowania dochodzi, gdy elektron przeskakuje między dwiema orbitami, z których każda charakteryzuje się jakąś częstością krążenia f_n. Podobieństwo do fizyki klasycznej pojawia się dopiero, gdy weźmiemy dwie orbity o dużych numerach, wtedy

\nu_{n+1 n}\approx f_{n}\approx f_{n+1}.

Niels Bohr bardzo niechętnie pogodził się z ideą fotonu. Rozumiał oczywiście, że eksperyment potwierdza proste równanie h\nu=E_n-E_m, tajemnicą był jednak mechanizm fizyczny, jaki za tym stał. Nie znał go ani Einstein, ani Bohr, foton wszedł do fizyki na dobre dopiero w roku 1925. Teorią, która poprawnie przewiduje wartości energii w atomie wodoru, jest mechanika kwantowa. A w pełni konsekwentny opis emisji fotonu daje dopiero kwantowa teoria pola, w której foton jest kwantem pola elektromagnetycznego.

II. Erwin Schrödinger, 1925

W połowie roku 1925 Werner Heisenberg wpadł na pomysł, aby wprowadzić do fizyki wielkości, których mnożenie jest nieprzemienne: operatory albo macierze. W krótkim czasie powstały trzy na pozór niezależne formalizmy do opisania fizyki kwantowej: macierze Heisenberga (oraz Maksa Borna i Pascuala Jordana, którzy wraz z Heisenbergiem rozwinęli tę ideę), funkcje falowe Erwina Schrödingera oraz abstrakcyjny formalizm Paula Diraca.

Krótkie omówienie formalizmu mechaniki kwantowej znajduje się na końcu wpisu.

Wersja Schrödingera najbardziej przypominała klasyczną fizykę drgań. Aby znaleźć dozwolone energie elektronu należy rozwiązać równanie 

-\dfrac{\hbar^2}{2m}\Delta\psi-\dfrac{e^2}{r}\psi=E\psi,

gdzie r jest odległością od jądra, a \Delta to laplasjan, czyli suma drugich pochodnych:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}.

Wyraz z laplasjanem odpowiada energii kinetycznej, drugi wyraz po lewej stronie odpowiada energii potencjalnej. Szukamy takich funkcji \psi(x,y,z), które wstawione po lewej stronie dadzą po prawej liczbę pomnożoną przez tę samą funkcję \psi. Funkcja taka to funkcja własna, a energia jest wartością własną. Otrzymujemy w ten sposób stany niezależne od czasu, stacjonarne, i tylko takimi będziemy się zajmować.

Funkcje falowe \psi powinny znikać w nieskończoności oraz nie mieć osobliwości. Warunki te prowadzą do skwantowanych poziomów energetycznych. Ponieważ problem jest sferycznie symetryczny (energia potencjalna zależy tylko od odległości elektronu od protonu r), więc można wprowadzić współrzędne sferyczne: odległość od początku układu r, dopełnienie szerokości geograficznej do 90^{\circ} oznaczane \vartheta oraz długość geograficzną oznaczaną \varphi.

spherical

Korzystamy z tożsamości

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{L^2}{\hbar^2},

gdzie L^2 jest operatorem zależnym tylko od kątów, a nie od r. Możemy zapisać równanie Schrödingera w postaci

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Sama funkcja falowa nie musi być jednak sferycznie symetryczna i można ją zapisać w postaci iloczynu funkcji zależnych od promienia i od kątów:

\psi(r,\vartheta,\varphi)=R(r)Y(\vartheta,\varphi).

Podstawiając tę funkcję do równania Schrödingera i dzieląc obustronnie przez \psi możemy doprowadzić je do postaci:

\dfrac{L^2 Y}{Y}=\lambda=\dfrac{1}{R}\, \hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right).

Po lewej stronie mamy funkcje zależne od kątów, po skrajnej prawej zależne od odległości. Rozseparowaliśmy zmienne, oba wyrażenia muszą równać się wspólnej stałej \lambda. Mamy więc dwa prostsze równania:

\begin{array}{c} -\dfrac{\hbar^2}{2m}\,\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+\left(\dfrac{\lambda}{2m r^2}-\dfrac{e^2}{r}\right)R=ER \\[20pt] L^2 Y=\lambda Y. \end{array}

Drugie z tych równań nie zawiera potencjału i jest stałym punktem programu dla wszystkich sytuacji z symetrią sferyczną. Rozwiązaniami są tzw. harmoniki sferyczne Y_{lm}(\vartheta,\varphi), gdzie l=0,1,2,\ldots, a dla każdej wartości l mamy 2l+1 różnych wartości m=-l,-l+1,\ldots. l Dozwolone wartości własne równe są \lambda=\hbar^2 l(l+1). Kształt przestrzenny tych funkcji każdy widział jako obrazki orbitali s,p,d itd. Funkcje te przydają się zawsze, gdy mamy do czynienia z rozkładem jakiejś wielkości na sferze, np. mapy promieniowania tła w kosmologii albo szczegóły ziemskiego pola grawitacyjnego z uwzględnieniem niesferyczności Ziemi itp (Wtedy oczywiście nie pojawia się w tych wzorach stała Plancka, ale to szczegół techniczny).

Spójrzmy raz jeszcze na pierwsze równanie (radialne), w którym wprowadzamy nową funkcję radialną: u(r)\equiv rR(r):

-\dfrac{\hbar^2}{2m}\,\dfrac{\partial^2 u}{\partial r^2}+\left(\dfrac{\hbar^2 l(l+1)}{2m r^2}-\dfrac{e^2}{r}\right)u=Eu.

Jest to równanie Schrödingera jednowymiarowe. mamy teraz jeden wymiar: radialny, ale bardziej skomplikowany potencjał: do energii elektrostatycznej doszedł dodatni człon z l(l+1). Jego znaczenie fizyczne dość łatwo zidentyfikować przez analogię do mechaniki klasycznej. W ruchu w polu kulombowskim możemy w każdej chwili rozłożyć wektor pędu elektronu na składową radialną p_r i prostopadłą do niego składową styczną p_t. Zgodnie z tw. Pitagorasa energia kinetyczna ma postać

E_k=\dfrac{p_r^2}{2m}+\dfrac{p_t^2}{2m}=\dfrac{p_r^2}{2m}+\dfrac{L^2}{2mr^2},

w ostatniej równości skorzystaliśmy z faktu, że moment pędu elektronu L=rp_{t}. Gdybyśmy dla takiego radialnego problemu napisali równanie Schrödingera, byłoby to właśnie równanie, które uzyskaliśmy w wyniku separacji zmiennych. Zatem dozwolone kwantowe wartości kwadratu momentu pędu są równe L^2=\hbar^2 l(l+1). Nie jest to, rzecz jasna, dowód, lecz wskazanie prawdopodobnej (i prawdziwej) interpretacji fizycznej naszego równania. Mamy więc efektywne potencjały zależne od nieujemnej całkowitej liczby kwantowej l. Wyglądają one w przypadku atomu wodoru następująco:

tmp_iispvexy

Studnia potencjału tylko w przypadku l=0 jest nieskończenie głęboka, wraz z rosnącym l staje się ona coraz płytsza. Nie będziemy rozwiązywać do końca tego równania radialnego. Okazuje się, że aby uzyskać funkcje znikające w nieskończoności i nie wybuchające w pobliżu r=0, rozwiązania mają postać

R_{nl}(r)=W_{n-1 l}(r)e^{-r/na_0},

gdzie n jest tzw. główną liczbą kwantową, a_0 promieniem Bohra (promieniem pierwszej orbity w modelu Bohra), a W jest wielomianem stopnia n-1. Dozwolone wartości l=0,1,\ldots, n-1. Prawdopodobieństwa dane są kwadratami funkcji falowej. Np. dla stanu podstawowego wodoru wygląda to tak.

tmp_72yjso5t

Pionowa linia wskazuje granicę obszaru dozwolonego klasycznie, tzn. takiego, że energia całkowita jest większa od energii potencjalnej (poza tym obszarem energia kinetyczna powinna być ujemna). Falowy charakter równania przejawia się w tym, że nic nie dzieje się nagle, funkcja zanika płynnie w pewnym obszarze. Fizycznie oznacza to możliwość przenikania barier potencjału, czyli efekt tunelowy, odpowiedzialny m.in. za świecenie gwiazd.

Energie stanów równe są dokładnie temu, co obliczył Bohr. Zależą one tylko od n, a nie zależą od wartości l, mimo że potencjał efektywny jest zupełnie inny przy różnych l. Łącznie danej wartości n odpowiada n^2 różnych rozwiązań. Bezpośrednie rozwiązanie równania Schrödingera nie bardzo pozwala zrozumieć, skąd się bierze aż taka rozmaitość. Te same energie powinniśmy otrzymywać dla jednakowego l i różnych wartości m, bo oznaczają one różne wartości rzutu momentu pędu na oś z. Zatem symetria obrotowa wyjaśnia tylko część degeneracji stanów w atomie wodoru. Jeśli weźmiemy pod uwagę potencjał inny niż kulombowski, to ta dodatkowa degeneracja zniknie: stany o różnych l rozszczepią się energetycznie. Tak jest np. w atomie litu, gdzie elektron walencyjny porusza się w efektywnym polu jądra oraz dwóch pozostałych elektronów. Z daleka mamy więc tylko ładunek (3-2)q_e=q_e, tak jak w atomie wodoru, z bliska jednak potencjał jest inny, choć nadal sferycznie symetryczny.

lithlev

Nawet po rozwiązaniu zagadnienia atomu wodoru za pomocą równania Schrödingera nadal niezbyt dobrze rozumiemy, dlaczego stany są zdegenerowane: E_{2s}=E_{2p}, E_{3s}=E_{3p}=E_{3d}, itd. W przyszłości pokażemy, że stany związane atomu wodoru wykazują  dodatkową symetrię i że łącznie grupą symetrii jest tu grupa obrotów w przestrzeni czterowymiarowej. Dopiero ten fakt wyjaśnia głębiej wzór Balmera.

Poniżej przedstawiłem niektóre szczegóły matematyczne dla zainteresowanych.

Zasady mechaniki kwantowej w przypadku jednej cząstki

Stany cząstki

Stan elektronu w formalizmie Schrödingera opisujemy za pomocą pewnej funkcji (zespolonej) falowej \psi(x,y,z,t). Rozmaite dopuszczalne funkcje można traktować jak wektory: dodawanie funkcji i mnożenie przez liczbę (zespoloną) daje inną dopuszczalną funkcję. Zbiorem funkcji może być np. zbiór funkcji znikających dostatecznie szybko w nieskończoności:

{\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \, dV<\infty.

Określamy także operację iloczynu skalarnego dwóch funkcji:

(\psi,\chi)={\displaystyle \int_{{\bf R}^3}}\; \psi^{\star}\chi\, dV.

Iloczyn wektora przez siebie jest kwadratem jego długości, czyli normy:

\lVert \psi \rVert^2=(\psi,\psi)={\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \,dV.

Definiując odległość dwóch wektorów \psi, \chi jako \Vert \psi-\chi\rVert otrzymujemy przestrzeń Hilberta (do definicji należy jeszcze dodać warunek zupełności: żeby ciągi zbieżne w normie nie wyprowadzały poza naszą przestrzeń).

Wielkości fizyczne

Wielkościom fizycznym odpowiadają operatory, czyli przekształcenia liniowe określone na przestrzeni funkcji. Liniowość oparatora A oznacza, że dla dowolnych dwóch wektorów \psi,\chi i dowolnych dwóch liczb zespolonych \alpha,\beta, mamy

A(\alpha \psi+\beta\chi)=\alpha A\psi+\beta A\chi.

Łatwo to sprawdzić w poszczególnych przypadkach, np. dla składowej x pędu otrzymamy: p_x(\psi_1+\psi_2)=p_x\psi_1+p_x\psi_2, bo pochodna sumy funkcji, to suma pochodnych itd. Operatory odpowiadające wielkościom fizycznym muszą być hermitowskie, tzn. dla dowolnych wektorów mamy

(\chi, A\psi)=(A\chi,\psi).

Warunek ten zapewnia, że mierzone wartości wielkości fizycznych są rzeczywiste, mimo że cały formalizm oparty jest na liczbach zespolonych.

Operatory można składać, czyli mnożyć, wykonując po prostu jedną operację po drugiej. Składając więc operator B i następnie operator A otrzymujemy AB, który działa następująco na wektor:

(AB)\psi=A(B\psi).

Jasne jest, że tak określone mnożenie operatorów na ogół jest nieprzemienne, tzn. wynik zależy od kolejności. W fizyce kwantowej szczególne znaczenie mają tzw. komutatory operatorów, zdefiniowane jako różnica między pomnożeniem ich w odmiennej kolejności: [A,B]=AB-BA.

Komutatory tej samej składowej współrzędnej i pędu nie komutują i muszą spełniać warunek odkryty przez Heisenberga:

[x,p_x]=i\hbar,

ale [x,p_y]=[x,p_z]=0. Komutują też między sobą operatory różnych składowych współrzędnej albo pędu. Z operatorów pędu i współrzędnych budować możemy operatory innych wielkości fizycznych, np. momentu pędu badź energii (hamiltonian). Wszystkie one muszą być hermitowskie. Szczególną rolę odgrywa hamiltonian H({\bf x},{\bf p}), gdyż określa ewolucję czasową układu. Spełnione musi być w każdej chwili równanie Schrödingera

i\hbar\dfrac{\partial\psi}{\partial t}=H\psi.

Gdy hamiltonian nie zależy od czasu, możemy szukać funkcji spełniających równanie 

H\chi=E\chi,

tzw. równanie Schrödingera bez czasu. Wówczas 

\psi(t)= \exp{\left(-\dfrac{iEt}{\hbar}\right)}\chi,

jest rozwiązaniem ogólniejszego równania Schrödingera. Ewolucja w czasie polega wówczas tylko na zmianie fazy zespolonej, jest to stan kwantowy o ustalonej energii, stan stacjonarny.

Postulat interpretacyjny

Wartość oczekiwana wielkości fizycznej A w stanie \psi dana jest równaniem

\langle A\rangle=\dfrac{(\psi,A\psi)}{(\psi,\psi)}.

Gdy używamy funkcji unormowanej (\psi,\psi)=1 z wyrażenia tego zostaje tylko licznik. Widzimy, że zawsze można funkcję falową pomnożyć przez dowolny niezerowy czynnik, nie zmieniając wyników doświadczenia. Jeśli interesuje nas pytanie, czy cząstka znajduje się w obszarze V możemy za operator A_V wziąć mnożenie przez funkcję charakterystyczną tego obszaru (równą 1 dla {\bf x}\in V oraz 0 poza obszarem), wtedy prawdopodobieństwo znalezienia cząstki wenątrz V dane jest

Pr(V)={\displaystyle \int_V}|\psi|^2\, dV.

(Zakładamy unormowanie funkcji \psi.)

Widać też szczególną rolę wektorów i stanów własnych. Jeśli spełnione jest równanie 

A\psi=a\psi,

to mówimy, że funkcja \psi jest wektorem własnym, a wartość a wartością własną. Z postulatu interpretacyjnego wynika, że w wyniku pomiaru wielkości A otrzymamy wartość a. A więc w tym przypadku wielkość fizyczna przyjmuje ściśle określoną wartość, nie ma żadnego kwantowego rozmycia. Łatwo zauważyć, że tylko w takim przypadku możemy mówić o ściśle określonej wartości wielkości fizycznej. Tworząc operator (A-a)^2 widzimy, że

\langle (A-a)^2\rangle=0 \Leftrightarrow A\psi=a\psi.

W sytuacji takiej nie ma żadnego rozrzutu wyników, otrzymujemy zawsze tylko i wyłącznie wartość a.

Dwa fakty matematyczne

Gdy pewien stan \psi jest jednocześnie stanem własnym dwóch operatorów A\psi=a\psi oraz B\psi=b\psi, to operatory te komutują na tym stanie:

AB\psi=Ab\psi=ab\psi=ba\psi=BA\psi.

Z kolei stany należące do różnych wartości własnych danego operatora A są ortogonalne, tzn. gdy A\psi=a\psi oraz A\chi=b\chi, to mamy

a(\psi,\chi)=(A\psi,\chi)=(\psi, A\chi)=b(\psi,\chi) \Leftrightarrow (a-b)(\psi,\chi)=0.

Szczegóły matematyczne problemu atomu wodoru

Laplasjan

Dla laplasjanu mamy tożsamość:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{({\bf x}\times {\bf \nabla})^2}{\hbar^2},

Najłatwiej sprawdzić to we współrzędnych kartezjańskich, licząc operator ({\bf x}\times {\bf \nabla})^2 i wyrażając operator r\frac{\partial}{\partial r} przez pochodne kartezjańskie:

r\dfrac{\partial }{\partial r}=x\dfrac{\partial }{\partial x}+y\dfrac{\partial }{\partial y}+z\dfrac{\partial }{\partial z},

gdzie korzystamy wielokrotnie z równości r^2=x^2+y^2+z^2. Podobnie możemy obliczyć kwadrat operatora po lewej stronie.

Moment pędu

Procedura przejścia do mechaniki kwantowej polega na zastąpieniu każdej zmiennej fizycznej odpowiednim operatorem. Każdą ze współrzędnych x,y,z zastępujemy mnożeniem przez odpowiednią współrzędną. Działając na funkcję \psi dają one nowe funkcję, x\psi,y\psi, z\psi. Podobnie operatory składowych pędu działając na funkcję, dają pochodne, \frac{\hbar}{i}\frac{\partial\psi}{\partial x} itd. 

W przypadku atomu wodoru z punktowym protonem w początku układu dowolny obrót wokół początku układu nie powinien zmieniać fizyki. W fizyce klasycznej oznacza to, że moment pędu układu jest stały. Jest on zdefiniowany jako

{\bf L}={\bf x} \times {\bf p}, \, \Leftrightarrow L_x=y p_z-z p_y, \, L_y=z p_x-x p_z, \, L_z=x p_y-y p_x,

w ostatnich trzech równaniach możemy cyklicznie przestawiać wskaźniki x\rightarrow y\rightarrow\ z\rightarrow x \ldots. Krócej zapisać można te związki w postaci:

L_i=\varepsilon_{ijk}x_jp_k,

gdzie zamiast x,y,z piszemy x_i, a symbol całkowicie antysymetryczny \varepsilon_{123}=1 i zmienia znak przy każdym przestawieniu dwóch wskaźników oraz \varepsilon_{ijk}=0, gdy jakieś wskaźniki się powtarzają. Zakładamy sumowanie po każdej parze powtarzających się wskaźników.

W mechanice kwantowej operatory L_i tworzymy dokładnie tak samo, tyle że teraz musimy pamiętać, że kolejność operatorów może być istotna. Operatory momentu pędu komutują z hamiltonianem atomu wodoru:

[H,L_i]=0,

Także operator kwadratu momentu pędu L^2=L_1^2+L_2^2+L_3^2 komutuje z hamiltonianem, a także z poszczególnymi składowymi momentu pędu:

[L^2,H]=0,\;\; [L^2,L_i]=0, \,\, i=1,2,3.

Jednakże operatory L_i nie komutują ze sobą:

[L_i,L_j]=i\hbar\varepsilon_{ijk} L_k.

Maksymalnym zbiorem komutujących operatorów jest więc H, L^2 oraz jedna z trzech składowych momentu pędu. Standardowo wybiera się tu L_3\equiv L_z. Możemy więc szukać funkcji własnych hamiltonianu, które będą zarazem funkcjami własnymi L^2 oraz L_3.

Wprowadzimy współrzędne sferyczne punktu,  Łatwo sprawdzić, że operatory momentu pędu zależą tylko od kątów, nie od r  Np.

L_3=\dfrac{\hbar}{i} \dfrac{\partial}{\partial \varphi}.

Możemy to sprawdzić, korzystając z wyrażeń na współrzędne kartezjańskie:

\left\{ \begin{array}{l} x=r\sin\vartheta\cos\varphi \\ y=r\sin\vartheta\sin\varphi \\ z=r\cos\vartheta. \end{array}\right.

Obliczamy, stosując wzór na pochodną funkcji złożonej:

\dfrac{\partial}{\partial \varphi}=\dfrac{\partial x}{\partial \varphi}\dfrac{\partial}{\partial x}+\dfrac{\partial y}{\partial \varphi}\dfrac{\partial}{\partial y}=-y\dfrac{\partial}{\partial x}+x\dfrac{\partial}{\partial y}.

W pozostałych składowych momentu pędy odległość r pojawia się raz w liczniku, a drugi raz w mianowniku przy różniczkowaniu, ostatecznie zostają wyrażenia zależne wyłącznie od kątów \vartheta, \varphi. Wracając do naszego równania z głównego tekstu:

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Funkcja falowa \psi powinna być w pobliżu początku układu analityczna, tzn. zachowywać się jak wielomian stopnia l (może być stała, wtedy l=0) plus wyrazy wyższego stopnia. Można ją w pobliżu r=0 zapisać jako \psi=r^{l}Y(\frac{ {\bf x}}{r}) – wyłączyliśmy przed funkcję wszystkie potęgi r, pozostała część jest funkcją wektora jednostkowego, tzn. zależy tylko od kierunku. Drugi składnik po prawej stronie zawiera r w potęgach wyższych niż l-2, jest więc do pominięcia blisko początku układu. Obliczając pierwszy składnik po prawej stronie, dostaniemy

L^2 Y \rightarrow \hbar l(l+1) Y.

Funkcje własne kwadratu momentu pędu to wielomiany jednorodne (wszystkie składniki są tego samego stopnia  l) zmiennych x,y,z. Łatwo sprawdzić, że spełniają one warunek

\Delta(r^l Y)=0.

Funkcje Y_{lm} nazywane są harmonikami sferycznymi. Drugi wskaźnik informuje o wartości L_3\equiv L_z. Dla l=1 mamy funkcje (nie wypisujemy stałych normalizacyjnych), tzw. orbitale p:

\left\{ \begin{array}{l} Y_{1\pm 1} \sim\dfrac{x\pm iy}{r}= \sin\vartheta e^{\pm i\varphi}\\[5pt] Y_{10} \sim\dfrac{z}{r}=\cos\vartheta.\end{array}\right.

Dla l=2 otrzymujemy pięć orbitali d:

\left\{ \begin{array}{l} Y_{2\pm 2} \sim\dfrac{(x\pm iy)^2}{r^2}= \sin^2\vartheta e^{\pm i2\varphi}\\[8pt]Y_{2\pm 1} \sim\dfrac{(x\pm iy)z}{r^2}=\sin\theta\cos\vartheta e^{\pm i\varphi}\\[8pt] Y_{20}\sim \dfrac{2z^2-x^2-y^2}{r^2}=3\cos^2\vartheta-1.\end{array}\right.

Czynnik e^{im\varphi} określa wartość składowej z momentu pędu:

\dfrac{\hbar}{i}(e^{im\varphi})=m\hbar e^{im\varphi}.

Dla każdej wartości l mamy 2l+1 dopuszczalnych wartości L_z. Stany te powinny mieć taką samą energię.

 

 

Dlaczego atomy są trwałe?

Atomów nie można opisać za pomocą dziewiętnastowiecznej fizyki klasycznej. W doświadczeniach Hansa Geigera i Ernesta Marsdena, prowadzonych pod kierunkiem Ernesta Rutherforda w Manchesterze w latach 1909-1913, okazało się, że praktycznie cała masa atomu mieści się w bardzo małym obszarze o promieniu pojedynczych femtometrów (1 {\rm fm}=10^{-15} {\rm m}). Przedtem sądzono (model J.J. Thomsona), że atom zawiera rozmyty ładunek dodatni, w którym znadują się, niczym rodzynki w cieście, lekkie punktowe elektrony. Przy bombardowaniu cienkiej złotej folii za pomocą cząstek α (jąder helu) zdarzało się jednak, że cząstki te rozpraszały się pod wielkimi kątami, niemal zawracały. Byłoby to niemożliwe, gdyby dodatni ładunek rozmyty był na znacznym obszarze. Tak silne pole elektryczne wymagało niemal punktowego ładunku – atom musi więc zawierać niewielkie jądro. Tak narodził się model planetarny Ernesta Rutherforda.

Na rysunku nie można oddać różnicy skali między modelami Thomsona i Rutherforda. Elektrony krążą w znacznie większym obszarze kilkudziesięciu pikometrów (1 {\rm pm}=10^{-12} {\rm m}): w przypadku wodoru objętość atomu jest 2\cdot 10^{14} razy większa od objętości protonu w centrum. Znaczy to, że atom jest praktycznie pusty. Analogia z planetami krążącymi wokół Słońca niezbyt się tu jednak stosuje, ponieważ poruszający się z  przyspieszeniem elektron powinien emitować energię w postaci fal elektromagnetycznych. Z teorii Maxwella wynika, że w czasie rzędu 10^{-11} \,{\rm s} elektron powinien spaść na jądro. Atomy nie są stabilne – do takiego wniosku prowadzi Newtonowska mechanika w połączeniu z elektrodynamiką Maxwella.

Prowizorycznym wyjściem z sytuacji był model Nielsa Bohra: wprowadzał on dozwolone orbity elektronów i jakimś cudem przewidywał prawidłowo długości fal w widmie wodoru. Postulat kwantowania orbit jest nie do pogodzenia z fizyką klasyczną: trzeba bowiem założyć, że elektrodynamika czasem działa, a czasem nie. Jej prawa są z jakiegoś powodu zawieszone w przypadku orbit Bohra.

 Problem rozwiązała dopiero mechanika kwantowa. Przyjrzymy się, jak objaśnia ona stabilność atomu wodoru. Dla uproszczenia będziemy mówić o ruchu elektronu w polu elektrostatycznym nieruchomego jądra (wprowadzane w ten sposób przybliżenie łatwo zastąpić dokładniejszymi rachunkami). Mamy więc elektron o energii składającej się z energii kinetycznej oraz elektrostatycznej energii potencjalnej:

E=\dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r},

gdzie {\mathbf p} oraz m są odpowiednio pędem i masą elektronu, r jest jego odległością od punktowego jądra, a stała e^2\equiv\frac{q_e^2}{4\pi\varepsilon_0}. Nasz problem stabilności łatwiej zrozumieć, patrząc na wykres energii potencjalnej. 

Energia potencjalna w funkcji odległości elektronu od protonu (zaznaczone są dwa najniższe poziomy energetyczne atomu wodoru)

Zaznaczone są dozwolone wartości energii całkowitej. Energia krążącego elektronu jest stała tylko pod warunkiem pominięcia promieniowania. Inaczej będzie ona szybko się zmniejszać, a więc jak widać z wykresu nasz elektron będzie coraz ciaśniej okrążał proton. Studnia potencjału jest nieskończenie głęboka, bez dna (w przybliżeniu punktowego protonu). 

Mechanika kwantowa opisuje stany elektronu za pomocą funkcji falowej \psi(x,y,z)=\psi({\mathbf r}). Jej znaczenie jest statystyczne, pozwala ona obliczać rozmaite wartości średnie: np. średnią wartość energii kinetycznej, albo potencjalnej. Prawdopodobieństwo znalezienia elektronu w danym obszarze przestrzeni V jest równe

Pr(V)={\displaystyle \int_{V} |\psi|^2 dV}.

Oznacza to, że całka po całej przestrzeni musi być równa 1, mówimy wtedy, że funkcja falowa jest unormowana. Aby otrzymać rozmaite wartości średnie, musimy mieć przepis na ich tworzenie. Jest on następujący: każdej wielkości fizycznej przypisuje się operator. Np. operatorem składowej x położenia jest mnożenie przez x. Znaczy to, że pod działaniem tego operatora funkcja \psi przechodzi w x\psi. Bardziej skomplikowanym przypadkiem jest pęd. Składowa x pędu zastępowana jest braniem pochodnej po x:

\psi \mapsto \dfrac{\hbar}{i} \dfrac{\partial\psi}{\partial x}.

Pojawia się tutaj stała Plancka \hbar znak niechybny, że mamy do czynienia z fizyką kwantową, i jest tu jednostką urojoną – nasza funkcja \psi ma wartości zespolone. Z początku budziło to pewne zdumienie ojców mechaniki kwantowej, dziś wiemy, że liczby zespolone są tu nieodzowne. 

Mając pęd i położenie, możemy zbudować operator energii, czyli hamiltonian: zastępujemy po prostu pędy i położenia ich operatorami.  W jednym wymiarze wyglądałoby to następująco

H=-\dfrac{\hbar^2}{2m}\dfrac{\partial ^2}{\partial x^2}- \dfrac{e^2}{x}.

Pierwszy składnik oznacza, że należy dea razy wziąć pochodną po x i pomnożyć przez odpwoednią stałą, drugi składnik jest zwykłym mnożeniem funkcji. W trzech wymiarach mamy trzy składowe pędu, czyli trzy pochodne składające się w symbol zwany laplasjanem (czyli operatorem Laplace’a):

\Delta=\dfrac{\partial ^2}{\partial x^2}+\dfrac{\partial ^2}{\partial y^2}+\dfrac{\partial ^2}{\partial z^2}.

Zapisany w ten sposób hamiltonian ma postać:

H=-\dfrac{\hbar^2}{2m}\Delta-\dfrac{e^2}{r}.

Ostatni potrzebny nam składnik formalizmu to przepis na znajdowanie wartości średnich. Jeśli operator przypisany szukanej zmiennej nazwiemy A, to wartość średnia zmiennej jest równa

\langle A \rangle={\bf \int }\psi^{\star}A\psi dV.

Pojawia się tu funkcja zespolona sprzężona \psi^{\star}. Operatory odpowiadające wielkościom mierzalnym fizycznie (obserwablom) to tzw. operatory hermitowskie, które dają w powyższym przepisie wynik rzeczywisty, tak jak tego oczekujemy w eksperymencie. Hermitowskie są w szczególności operatory pędu, położenia i hamiltonian.

W zasadzie tyle formalizmu wystarczy, bez rozwiązywania równań różniczkowych, by pokazać, że dla dowolnej rozsądnej funkcji falowej (normowalnej) energia ograniczona jest z dołu. Czyli nie możemy uzyskać w żadnym eksperymencie mniej niż owo dolne ograniczenie. Co więcej, w każdym stanie związanym prawdopodobieństwo, że elektron znajdzie się bardzo blisko jądra jest znikome. Formalizm mechaniki kwantowej osiąga to dzięki wprowadzeniu funkcji \psi, która skoncentrowana w małym obszarze wymusza dużą energię kinetyczną. Jakościowo odpowiada to zasadzie nieoznaczoności: mała nieoznaczoność położenia oznacza dużą nieoznaczoność pędu, a więc i energii kinetycznej. Jednak zasady nieoznaczoności nie możemy tu zastosować wprost. 

Rozpatrzmy operator {\bf A} dany równaniem

{\bf A}={\bf p}-i\beta \dfrac{{\bf r}}{r},

gdzie \beta jest dowolną liczbą rzeczywistą. Ponieważ całka z kwadratu modułu {\bf A}\psi nie może być ujemna, otrzymujemy nierówność

\langle {\bf p}^2\rangle-2\beta\hbar\left\langle\dfrac{1}{r}\right\rangle+\beta^2\ge 0,\mbox{(*)}

słuszną dla każdego \beta. Bierzemy najpierw \beta=\hbar\langle\frac{1}{r}\rangle. Dostajemy nierówność

\langle {\bf p}^2\rangle\ge \hbar^2\left\langle \dfrac{1}{r}\right\rangle^2.

Dla dowolnej wartości r_0>0 możemy ograniczyć wartość całki do obszaru r<r_0, gdzie 1/r>1/r_0, otrzymujemy w ten sposób nierówność

\langle {\bf p}^2\rangle^{\frac{1}{2}}\ge \dfrac{\hbar}{r_0} Pr(r<r_0). 

Wrócimy do niej za chwilę. Raz jeszcze korzystamy z (*), tym razem dla \beta=\frac{me^2}{\hbar}. Porządkując wyrazy, otrzymujemy wartość oczekiwaną energii:

\boxed{ \left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle\ge -\dfrac{me^4}{2\hbar^2.}}

Mechanika kwantowa przewiduje zatem dolną wartość energii, równą -13,6\, \rm{eV}.

Aby oszacować \langle{\mathbf p}^2\rangle , założymy, że mamy elektron w stanie związanym, a więc całkowita energia jest ujemna – klasycznie znaczy to, że elektron nie może uciec z pola elektrostatycznego protonu. 

Mamy

\left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle<0,

co można przepisać w postaci

\left\langle \dfrac{{\mathbf p}^2}{4m}\right\rangle<-\left\langle \dfrac{{\mathbf p}^2}{4m}-\dfrac{e^2}{r}\right\rangle.

Do prawej strony możemy zastosować nierówność z ramki przy masie cząstki równej 2m. Otrzymujemy stąd szacowanie dla

\left\langle {\mathbf p}^2\right\rangle \le \dfrac{2me^2}{\hbar}.

Ostatecznie, prawdopodobieństwo znalezienia elektronu nie dalej niż r_0 od jądra spełnia nierówność

\boxed{Pr(r<r_0)<\dfrac{2 r_0}{a_0},}

gdzie a_0\equiv \frac{\hbar}{me^2}\approx 53 \,{\rm pm} zwane jest promieniem Bohra. Jest to promień pierwszej orbity w modelu Bohra.

Widzimy więc, że formalizm mechaniki kwantowej dostarcza wyjaśnienia, czemu atomy są trwałe, co jest niezmiernie ważnym faktem. Uwzględnienie poprawek relatywistycznych itd. niewiele tu zmienia. Można udowodnić więcej: także w układzie wielu jąder i wielu oddziałujących ze sobą elektronów kolaps jest niemożliwy. W tym przypadku ważną rolę odgrywa także fakt, iż elektrony są fermionami, tzn. żadne dwa z nich nie mogą zajmować tych samych stanów (wliczając spin). Podstawowe wyniki w tym obszarze należą do Elliotta Lieba i Waltera Thirringa. Rozważania takie są interesujące ze względów poznawczych, ale także pomagają zrozumieć zachowanie dużych układów, dla których bezpośrednie rachunki bez żadnych przybliżeń są niemożliwe.

Korzystałem z książki E. B. Manoukian, 100 Years of Fundamental Theoretical Physics in the Palm of Your Hand.
Integrated Technical Treatment, Springer Nature 2020.

Satyendra Nath Bose i ostatnia wielka praca Alberta Einsteina (1925)

Einstein w latach dwudziestych zasypywany był listami. Pisali do niego tacy, którzy właśnie rozwiązali zagadkę świata, inni znaleźli błędy w teorii względności i żądali, by się do nich ustosunkował, ktoś prosił o wsparcie albo pomoc w dostaniu się na uczelnię. Pisali także oczywiście nieznani naukowcy. W czerwcu 1924 roku otrzymał list z Indii od Satyendry Bosego wraz z załączoną pracą. Autor pragnął ni mniej, ni więcej, tylko by Einstein przełożył jego pracę na niemiecki oraz posłał do druku w „Zeitschrift für Physik” (nie wspomniał przy tym, że praca została odrzucona przez „Philosophical Magazine”):

Wielce szanowny panie, ośmielam się przesłać panu załączony artykuł do przejrzenia i zaopiniowania. Chciałbym wiedzieć, co pan o nim sądzi. (…) Nie znam niemieckiego w stopniu wystarczającym, aby przetłumaczyć artykuł. Jeśli uważa pan, że artykuł wart jest publikacji, to będę wdzięczny, jeśli przekaże go pan do publikacji w «Zeitschrift für Physik». Choć zupełnie mnie pan nie zna, to bez wahania proszę pana o taką rzecz. Gdyż wszyscy jesteśmy pańskimi uczniami poprzez pańskie prace. Nie wiem, czy jeszcze pan pamięta, że ktoś z Kalkuty prosił o pozwolenie na przekład pańskich prac z teorii względności na angielski. Udzielił pan zgody. Książka została opublikowana. Ja przełożyłem pański artykuł na temat ogólnej względności.

Rzeczywiście, praca Bosego na początku lipca została posłana do druku, pod tekstem jest notka: „przełożone przez A. Einsteina” oraz uwaga tłumacza, iż praca stanowi „ważny postęp”. Warto zwrócić uwagę na pokorę Alberta Einsteina: był najsławniejszym uczonym świata, niedawno przyznano mu Nagrodę Nobla, lecz zdecydował się na przekład i zarekomendowanie pracy kogoś zupełnie nieznanego (w dodatku jego znajomość angielskiego nie była zbyt dobra, więc rzecz nastręczała kłopoty praktyczne, podejrzewam, że pomagała mu jego pasierbica Ilse albo sekretarka Betty Neumann). Niewątpliwie uczynił to w interesie nauki, ponieważ praca Bosego wydała mu się oryginalna. Trzydziestoletni Bose uczył fizyki na uniwersytecie w Dakce i przedstawił nowe wyprowadzenie wzoru Plancka dla promieniowania cieplnego. Wzór ten wyprowadzano wciąż na nowo, nie tylko dlatego, że był ważny, ale i dlatego że te wszystkie wyprowadzenia nie były do końca zadowalające. Praca Bosego zawierała istotny szczegół techniczny, który zainteresował Einsteina, a mianowicie inne liczenie stanów dla gazu fotonów. Najkrócej mówiąc, Bose obliczał liczbę stanów gazu tak, jakby fotony były nierozróżnialne. Wyobraźmy sobie rzut monetą: mamy dwa wyniki (stany monety): orzeł albo reszka. Rozważmy teraz jednoczesny rzut dwiema monetami. Jakie są możliwe stany? dwa orły; dwie reszki; orzeł i reszka. W przypadku monet zawsze możemy odróżnić od siebie dwa wyniki: reszka na pierwszej i orzeł na drugiej oraz orzeł na pierwszej i reszka na drugiej. Gdy obliczamy prawdopodobieństwa, mamy 4 stany. W przypadku fotonów należy liczyć tak, jakby był tylko jeden stan orzeł-reszka, bo nasze monety są z natury nierozróżnialne.

satyendra
Einstein przełożył na niemiecki jeszcze jedną pracę Bosego, choć się z nią nie zgadzał. Hinduski uczony na podstawie pocztówki od Einsteina uzyskał na uczelni dwuletnie stypendium do Europy oraz – na tej samej podstawie – bezpłatną wizę niemiecką. Przyjechał do Europy, ale nie zrobił już nic podobnej wagi.

Einstein natomiast zastosował podejście Bosego do gazu kwantowego, tzn. zwykłego gazu atomów, lecz potraktowanego kwantowo. Okazało się, że ma on pewną niezwykłą własność: w dostatecznie niskiej temperaturze pewien ułamek atomów zgromadzi się w stanie o najniższej energii, a reszta będzie nadal tworzyć gaz, czyli przyjmować rozmaite dostępne energie. Było to przejście fazowe, jak skraplanie pary albo pojawianie się namagnesowania w żelazie, gdy obniżamy temperaturę. Zjawisko znane jest pod nazwą kondensacji Bosego-Einsteina, choć Bose nie ma z nim zupełnie nic wspólnego(*).

Kondensacja Bosego-Einsteina zachodzi tylko z tego powodu, że atomy „chętnie” zajmują ten sam stan, nie muszą się wcale przyciągać. Praca Einsteina stanowiła pierwszy przykład teoretycznego opisu przejścia fazowego i z tego powodu była zamieszczana w podręcznikach. Wyjaśniło się później, że nie wszystkie atomy będą się tak zachowywać, bo cząstki kwantowe dzielą się na dwie grupy: bozony i fermiony. Pierwsze mogą obsadzać licznie ten sam stan, drugie – tylko pojedynczo – jak np. elektrony. Tylko bozony mogą podlegać kondensacji, chyba że fermiony połączą się np. w pary, które będą już bozonami.

W roku 1925 Einstein zajmował się głównie nie fizyką kwantową, lecz konstruowaniem jednolitej teorii grawitacji i pola elektromagnetycznego. Miał to robić bez powodzenia przez następne 30 lat. W lipcu 1925 zaczęła się kwantowa rewolucja – Werner Heisenberg wysłał pierwszą pracę nt. mechaniki kwantowej, w ciągu miesięcy rozpoczął się najważniejszy przewrót w fizyce XX wieku. Einstein obserwował go z bliska, lecz nie wziął w nim udziału. Nie podzielał entuzjazmu młodszych kolegów i Nielsa Bohra dla nowej fizyki. Dlatego ta praca o gazie kwantowym jest ostatnią, która ma znaczenie, by tak rzec, podręcznikowe.
W końcu roku 1924 Einstein zapisał równania dla takiego gazu nieoddziałujących bozonów i przewidział kondensację (praca została opublikowana w styczniu 1925 r.). W roku 1995, równo siedemdziesiąt lat później, udało się ten podręcznikowy przykład zrealizować doświadczalnie. Wygląda to tak:

640px-Bose_Einstein_condensate

Widzimy tu rozkład prędkości atomów rubidu dla kilku zmniejszających się temperatur. Temperatura kondensatu to 170 nK (nanokelwinów, czyli 10^{-9} K). Atomy kondensują w stanie podstawowym, który ma postać spłaszczonej górki: odzwierciedla to kształt pułapki, w jednym kierunku bardziej stromej niż w drugim (prędkości zachowują się odwrotnie: rozkład jest szerszy w tym kierunku, w którym pułapka jest bardziej stroma – jest to przejaw zasady nieoznaczoności).

Autorzy tych eksperymentów, Eric Cornell i Carl Wieman, kilka lat później dostali Nagrodę Nobla, jest to obecnie cała dziedzina badań eksperymentalnych i teoretycznych.

Przyjrzyjmy się bliżej efektowi odkrytemu przez Einsteina. Bose najprawdopodobniej nie zdawał sobie sprawy, że traktuje fotony jak cząstki nierozróżnialne. Einstein zastosował podejście Bosego do cząstek „zwykłego” gazu jednoatomowego (można wtedy nie zajmować się drganiami i obrotami, które ważne są w przypadku cząsteczek chemicznych). Otrzymał zmodyfikowane równanie stanu gazu doskonałego, w którym ciśnienie jest mniejsze niż wynikałoby z równania Clapeyrona (pV=nRT). Koledzy, m.in. Paul Ehrenfest i Erwin Schrödinger, zwrócili mu uwagę, że licząc stany gazu na sposób Bosego, odchodzi od przyjętych zasad mechaniki statystycznej Boltzmanna. Można to przedstawić na obrazku. Mamy tu dwa stany i dwie cząstki do rozmieszczenia.

W statystyce Bosego-Einsteina cząstki są nierozróżnialne. To nowa cecha mechaniki kwantowej (której, pamiętajmy, wciąż jeszcze nie ma). Wiadomo było, że atomy są jednakowe, ale fizyka klasyczna nie bardzo potrafiła sobie z tym faktem poradzić. James Clerk Maxwell porównywał atomy do standaryzowanych wytworów fabrycznych (fabrykantem byłby tu Bóg). W zasadzie jednak atomy klasyczne powinny być rozróżnialne, co na obrazku statystyki Boltzmanna zaznaczyłem kolorami. Klasyczna fizyka statystyczna Boltzmanna była tu nie do końca konsekwentna, ponieważ we wzorach na entropię, należało wprowadzić dodatkowy czynnik ad hoc (tzw. poprawne zliczanie boltzmannowskie). W roku 1926 pojawił się drugi rodzaj statystyki, obowiązujący dla fermionów. Paul Dirac zauważył, że chodzi o symetrię funkcji falowej, która w przypadku bozonów jest całkowicie symetryczna na przestawienia cząstek identycznych, a w przypadku fermionów – antysymetryczna. Zapełnianie powłok elektronowych i orbitali w chemii są konsekwencją faktu, że elektrony są fermionami.

W świecie kwantowym (czyli naszym) każda cząstka jest albo bozonem, albo fermionem. Jest to fakt fundamentalny. Einstein, idąc w ślady Bosego, wprowadził do fizyki cząstki identyczne. Sam Bose prawdopodobnie nie zdawał sobie sprawy z konsekwencji nowego sposobu liczenia stanów. Zdroworozsądkowe liczenie stanów jak u Boltzmanna nie odpowiada rzeczywistości i nie jest zgodne z doświadczeniem. 

Wróćmy do gazu atomowych bozonów. Różni się on od fotonów tym, że liczba cząstek powinna być zachowana: atomy w naczyniu nie znikają ani nie pojawiają się znienacka, podczas gdy fotony mogą być emitowane i pochłaniane przez ścianki naczynia. W danej temperaturze T średnie zapełnienie stanów o energii \varepsilon_i jest równe wg statystyki Boltzmanna

\overline{n}_i=\lambda g_i \exp{\left(-\dfrac{\varepsilon_i}{kT}\right)},

gdzie \lambda jest pewną stałą normalizacyjną, g_i – liczbą stanów o energii \varepsilon_i, a k – stałą Boltzmanna. Iloczyn kT jest temperaturą wyrażoną w jednostkach energii i co do rzędu wielkości jest równy średniej energii cząstek w danej temperaturze (np. w jednoatomowym gazie doskonałym średnia energia kinetyczna atomów jest równa \frac{3}{2}kT).

Wynik otrzymany przez Einsteina dla gazu bozonów miał postać następującą:

\overline{n}_i=\dfrac{g_i}{\lambda^{-1}\exp{\left(\dfrac{\varepsilon_i}{kT}\right)}-1}.

Łatwo zauważyć, że oba wyrażenia dadzą ten sam wynik, gdy wartość eksponenty jest dużo większa od 1 i można tę jedynkę w mianowniku pominąć. Na ogół średnia liczba obsadzonych stanów bozonowych jest większa, niż przewiduje to statystyka Boltzmanna. Podobne wyrażenie można też uzyskać dla fermionów, mamy wtedy do czynienia z gazem fermionów. Przykłady to gaz elektronów w metalu albo białym karle. Wyrażenie różni się znakiem jedynki w mianowniku, ale nie bedziemy tej kwestii rozwijać.

Einstein zastosował statystykę BE do gazu nieoddziałujących atomów zamkniętych w pudle. My zastosujemy ją do innej sytuacji, a mianowicie nieoddziałujących bozonów zamkniętych w parabolicznym potencjale. Jest to zwykły oscylator harmoniczny. Okazuje się, że sytuację taką można zrealizować eksperymentalnie, a w dodatku jest ona fizycznie przejrzysta i Einstein nie miałby żadnych trudności z zapisaniem wyrażeń, które rozpatrzymy niżej. Po prostu nikomu się wówczas nie śniło, że można będzie taki eksperyment zrealizować, więc nie miało sensu robić obliczenia dla tego przypadku. Choć mechaniki kwantowej ciągle jeszcze nie było, to wiadomo było, że energia oscylatora jest skwantowana i równa

E=h\nu(n_x+n_y+n_z),

gdzie h jest stałą Plancka, \nu – częstością oscylatora, a liczby kwantowe n_i są całkowite i nieujemne, przy czym . Kolejne dozwolone tworzą drabinę stanów oddalonych o h\nu. Inaczej mówiąc, dozwolone energie są równe

E=nh\nu,\,\,\, \mbox{gdzie}\,\,\, n=n_x+n_y+n_z.

Jak łatwo obliczyć, liczba stanów o takiej energii równa jest

g_n=\dfrac{(n+1)(n+2)}{2}.

Jeśli do takiego harmonicznego potencjału wprowadzimy N bozonów, to suma średnich liczb obsadzeń musi się równać N:

{\displaystyle N=\sum_{k=0}^{\infty}\overline{n}_k=\sum_{k=0}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}.}

W ostatnim wyrażeniu wprowadziliśmy temperaturę mierzoną w jednostkach h\nu, tzn. nasze nowe T jest równe \frac{kT}{h\nu}. Jest to jedyny parametr teorii. Wartość \lambda musi być taka, żeby ostatnie równanie było spełnione. Ponadto mianownik z funkcją wykładniczą musi być dodatni, więc \lambda<1 (średnie liczby obsadzeń nie mogą być ujemne, tak samo jak np. średnia liczba brunetów w próbce ludzi).

Dalej niesie nas już formalizm, tak jak poniósł Einsteina w grudniu 1924 roku. Możemy z N wydzielić obsadzenie stanu postawowego N_0:

{\displaystyle N=N_0+ \sum_{k=1}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}\equiv N_0+N_{exc}(T,\lambda).}

Suma N_{exc}(T,\lambda) osiąga maksymalną wartość przy \lambda=1:

{\displaystyle N_{max}(T)=\sum_{k=1}^{\infty}\dfrac{g_k}{\exp{\left(\dfrac{k}{T}\right)}-1}.}

Suma ta zależy wyłącznie od temperatury! Wykrzyknik oznacza nasze (i Einsteina) zdziwienie w tym miejscu. Zobaczmy, jak wygląda ta suma w funkcji temperatury.

Przedstawiliśmy tu obliczenia numeryczne (punkty) oraz przybliżenie analityczne:

N_{max}\approx 1.202 T^3\equiv 1.202 \left(\dfrac{kT}{h\nu}\right)^3.

Czemu ten wynik jest dziwny? Ano dlatego, że dla danej temperatury mamy pewną maksymalną liczbę cząstek, jakie można umieścić w danym potencjale. Tymczasem liczba N powinna być dowolnie duża. Ostatnie równanie oznacza, że obniżając temperaturę, osiągniemy w końcu sytuację, w której mamy mniej miejsc do obsadzenia niż cząstek. To oczywiście niemożliwe. Poniżej temperatury zadanej ostatnim równaniem, jakaś część atomów musi znajdować się w stanie podstawowym, i to część makroskopowo zauważalna. Inaczej mówiąc, atomy zaczną się kondensować w stanie o energii zerowej. W tym obszarze temperatur, parametr \lambda jest praktycznie równy 1. Mamy więc warunek

N\approx 1.202 T_{0}^3, \,\, \mbox{(**)}

określający temperaturę krytyczną T_0 przy danej liczbie atomów oraz liczbę atomów w stanach wzbudzonych poniżej temperatury krytycznej:

N_{exc}=N_{max}(T)=N \left(\dfrac{T}{T_0}\right)^3.

Atomy, które nie są wzbudzone, są w stanie podstawowym, zatem ich liczba równa się

N_0=N\left(1-\left(\dfrac{T}{T_0}\right)^3\right).

Funkcję tę przedstawiliśmy na wykresie.

Ważne jest, aby odróżniać kondensację Bosego-Einsteina od zwykłego wzrostu liczby obsadzeń stanu podstawowego wraz ze spadkiem temperatury. Tutaj mamy do czynienia z przejściem fazowym, pierwszym, jakie zostało opisane w fizyce statystycznej. Rozumowanie Einsteina było nieoczywiste dla kolegów. Nie było wcale jasne, czy formalizm fizyki statystycznej w ogóle może opisać przejścia fazowe. Tutaj w dodatku Einstein zaproponował nową statystykę, która mogła, ale wcale nie musiała okazać się prawdziwa. Ponadto model nieoddziałujących atomów jest nadmiernie uproszczony, co jest zarzutem technicznym, ale potencjalnie istotnym dla słuszności konkluzji. Sam Einstein nie był pewien i podkreślał, że tak może być, lecz nie ma co do tego pewności. Jednak jego dwudziestoletnie doświadczenie z fizyką statystyczną nie zawiodło. Statystyka okazała się prawdziwa (dla bozonów). Przejścia fazowe zaczęto na serio badać dopiero w latach trzydziestych (por. Lars Onsager i model Isinga). Jedna ze współpracowniczek Einsteina w latach czterdziestych Bruria Kaufman współpracowała z Larsem Onsagerem przy uproszczeniu jego monumentalnej pracy nt. modelu Isinga w dwóch wymiarach. Także Chen Ning Yang zajmował się modelem Isinga i nawet starał się zainteresować tym tematem Einsteina, gdy pracował w IAS w Princeton.

Ze współczesnego punktu widzenia faza skondensowana jest makroskopowo widocznym stanem kwantowym. Pewien odsetek atomów znajduje się w tym samym stanie, w przypadku pułapki harmonicznej gęstość atomów zarówno w przestrzeni położeń, jak i pędów, jest gaussowska, co odpowiada funkcji falowej stanu podstawowego oscylatora.

Wygląda to jak na obrazkach: w miarę obniżania temperatury pojawia się gaussowskie wąskie skupienie atomów, które rośnie w miarę zbliżania się do zera bezwzględnego. Czerwona linia pionowa obrazuje temperaturę. Widzimy też skok ciepła właściwego, co jest jednym ze wskaźników przejścia fazowego (Obrazki wg Bose-Einstein Condensation in a Harmonic Trap).

Atomy rubidu 87 użyte przez odkrywców kondensacji mają 37 elektronów i 87 nukleonów w jądrze, a więc parzystą liczbę fermionów, dlatego są bozonami. Pułapki stosowane w eksperymencie mają nieco odmienne częstości w różnych kierunkach, przez co rozkłady są iloczynami trzech funkcji Gaussa z róńymi szerokościami wzdłuż osi x,y,z.

(*) Obowiązują w historii nauki dwie zasady:
Zasada Arnolda: Jeśli jakieś pojęcie nazwano czyimś imieniem, to nie jest to imię odkrywcy.
Zasada Berry’ego: Zasada Arnolda stosuje się do samej siebie.
(Chodzi o Michaela Berry’ego i Vladimira Arnolda)

(**) W niskich temperaturach suma może być zastąpiona całką, ponieważ funkcja zmienia się bardzo wolno. Otrzymuje się wówczas

{\displaystyle N_{max}(T)\approx\dfrac{T^3}{2}\int_{0}^{\infty}\dfrac{x^2 dx}{e^{x}-1}= \dfrac{T^3}{2} \Gamma(3)\zeta(3),}

gdzie \Gamma i \zeta to funkcje Eulera i Riemanna.

Co to jest ciemna energia?

Ciemna energia to ponad dwie trzecie energii wszechświata. Wyjaśnienie jej pochodzenia jest zapewne największym wyzwaniem fizyki i kosmologii. Pokażemy krótko, o co chodzi, gdy mówimy o ciemnej energii.

1. Prawo Hubble’a

Edwin Hubble odkrył, że wszystkie dalekie obiekty oddalają się od nas z prędkością, która jest proporcjonalna do odległości. Wektorowo możemy to zapisać następująco:

\vec{v}=H\vec{R}.

Parametr H nazywamy parametrem Hubble’a. Gdybyśmy się przenieśli do galaktyki położonej w punkcie \vec{R_1}, prawo Hubble’a nadal będzie obowiązywało dla prędkości i położeń liczonych od galaktyki nr 1:

\vec{v}=\vec{v}_2-\vec{v}_1=H\vec{R}_2-H\vec{R}_1=h(\vec{R}_2-\vec{R}_1)=H\vec{R}.

hubble_Law

Na prawo Hubble’a należy patrzeć jak na rozszerzanie się przestrzeni: galaktyki są w stałych położeniach (jak rodzynki w cieście drożdżowym), a odległości między nimi stale rosną (całe ciasto „rośnie”). Skoro odległości te obecnie rosną, to znaczy, że w przeszłości były mniejsze. Łatwo obliczyć, jak dawno temu wszystkie galaktyki powinny być „obok siebie”. Wystarczy podzielić odległość przez prędkość:

t_H=\dfrac{R}{v}=\dfrac{1}{H}.

Czas ten nie zależy od tego, którą konkretnie galaktykę wybierzemy do obliczeń. Nazywamy go czasem Hubble’a, jego wartość równa się około 14 mld. lat. Zatem t_H lat temu cały wszechświat powinien być bardzo gęsty. Oczywiście, czas Hubble’a nie musi być równy wiekowi wszechświata. Byłoby tak, gdyby w przeszłości galaktyki oddalały się z taką samą prędkością jak dziś. Jednak prędkość ich oddalania się stopniowo maleje za sprawą grawitacji, która jest siłą przyciągającą. Oczekujemy więc, że wiek wszechświata jest mniejszy od czasu Hubble’a.

2. Od czego zależy parametr Hubble’a?

Obserwacje wskazują, że we wszechświecie gęstość materii jest wszędzie stała (oczywiście w odpowiednio dużej skali; nieco podobnie jak możemy uważać, że gaz ma stałą gęstość w skali znacznie większej niż odległość pojedynczych atomów). Pole grawitacyjne ma specyficzną własność: jeśli wyobrazimy sobie kulistą wnękę opróżnioną z materii, to w każdym jej punkcie przyciąganie grawitacyjne jakiejś małej próbnej masy będzie równe zeru.

dziura sferyczna1Oznacza to, że rozpatrując, co się dzieje z całym nieskończonym wszechświatem o stałej gęstości, wystarczy zająć się zachowaniem wybranej kuli – cała materia na zewnątrz tej kuli nie będzie wywierała żadnej siły wypadkowej. Rozpatrzmy więc kulę z galaktykami, która rozszerza się razem z całym wszechświatem. Galaktyki na powierzchni tej kuli mają pewną prędkość oddalania się, jest to zarazem prędkość ekspansji naszej kuli.

kula expandujaca

Możliwe są trzy przypadki: prędkość (dowolnej) galaktyki na powierzchni kuli może być większa, równa albo mniejsza od prędkości ucieczki z kuli. Sytuacja jest dokładnie taka, jak w przypadku wystrzeliwania jakiegoś ciała z powierzchni Ziemi: jego prędkość może być większa, równa albo mniejsza od prędkości ucieczki i nasze ciało albo oddali się nieograniczenie (w dwóch pierwszych wypadkach), albo oddali się na pewną maksymalną odległość, a potem zawróci. Obserwacje wskazują, że nasz wszechświat z jakichś powodów zachowuje się tak, że galaktyki mają dokładnie prędkość graniczną: prędkość ucieczki. Nie jest to oczywiste, wygląda na to, że warunki początkowe Wielkiego Wybuchu zostały w precyzyjny sposób wybrane właśnie tak, aby prędkość galaktyk była równa prędkości ucieczki. Wybrane – nie znaczy: wybrane przez Stwórcę, ale jakoś fizycznie wyróżnione. Objaśniają to teorie tzw. inflacji, którymi tutaj nie będziemy się zajmować.
Prędkość ucieczki z powierzchni kuli o masie M i promieniu R równa się (zob. dowolny podręcznik fizyki albo stosowne hasło Wikipedii):

v=\sqrt{\dfrac{2GM}{R}},

gdzie G jest stałą grawitacyjną. Ponieważ w naszej rozszerzającej się kuli są wciąż te same galaktyki, jej masa jest stała i wobec tego prędkość maleje w miarę ekspansji – czegoś takiego oczekujemy od grawitacji. Ktoś, kto zna pochodne, łatwo sprawdzi, że rozwiązaniem tego równania jest R\sim t^{\frac{2}{3}}, (a pochodna v=R^{\prime}\sim t^{-\frac{1}{3}}). Na wykresie wygląda to tak.

einstein de sitter

Masę kuli można zapisać jako iloczyn gęstości \rho i objętości, otrzymamy wówczas prawo Hubble’a:

v=\sqrt{\dfrac{8\pi G\rho}{3}}R\equiv HR.

Ze wzoru tego wynikają dwie rzeczy: bez względu na to jak dużą weźmiemy kulę, otrzymamy tę samą wartość parametru H, jak być powinno, jeśli nasze rozumowanie ma być prawdziwe. Po drugie, w miarę jak kula będzie się rozszerzać, gęstość materii będzie maleć (wciąż ta sama masa przypada bowiem na coraz większą objętość). Zatem parametr Hubble’a też będzie maleć z czasem. Cofając się w czasie, otrzymamy coraz mniejsze promienie i coraz większe gęstości oraz prędkości. Widać, że model ten traci sens, gdy promień równa się zeru, odpowiada to bowiem nieskończonej gęstości. To właśnie jest Wielki Wybuch. Nasz model, podobnie jak ogólna teoria względności, traci sens dla R=0. Możemy natomiast przewidywać, co się będzie działo po Wielkim Wybuchu, a więc dla t>0. I jeszcze jedno: Wielki Wybuch jest granicą czasową naszego wszechświata, ale nie jest związany z żadnym miejscem w przestrzeni. Moglibyśmy naszą kulę wybrać ze środkiem w dowolnym punkcie i wyniki byłyby takie same. Zatem Wielki Wybuch dokonał się jednocześnie w całej przestrzeni: to nie był wybuch jakiejś bomby w pewnym punkcie.

3. Ciemna energia

Parametr Hubble’a H maleje, gdy maleje gęstość wszechświata. Tak być powinno, grawitacja spowalnia ekspansję. Ponieważ nasz wszechświat rozszerza się z prędkością ucieczki, powinien spowalniać coraz bardziej, a parametr Hubble’a powinien dążyć asymptotycznie do zera, nigdy go nie osiągając. Obserwacje (Nobel 2011) wykazały jednak, że do gęstości materii galaktyk \rho należy w ostatnim wzorze na H dodać pewną dodatkową stałą gęstość \rho_{vac} – jest to energia próżni albo inaczej ciemna energia. Nie jest to jakaś drobna poprawka, w dzisiejszym wszechświecie stanowi około 70% całości. Co taki wyraz oznacza? Mamy nową stałą fizyczną, przynajmniej w naszym wszechświecie. Z czasem gęstość ciemnej energii będzie jeszcze bardziej dominować (bo gęstość materii ciągle maleje wskutek ekspansji). Stała Hubble’a nie dąży więc do zera, lecz do pewnej wartości stałej

H_0=\sqrt{\dfrac{8\pi G\rho_{vac}}{3}}> 0.

Prędkość ekspansji będzie więc proporcjonalna do rozmiarów kuli wszechświata. Im większa kula, tym szybciej będzie się nadymać. Oznacza to wzrost wykładniczy, a więc wszechświat rozszerzający się wciąż szybciej i szybciej. Ciemna energia działa zatem jak dodatkowa siła odpychająca, która w końcu przeważa nad grawitacją. Gdyby już dziś liczyła się tylko ciemna energia, dalsze losy wszechświata wyglądałyby następująco.

dark-energy

Jest to zupełnie rozsądne przybliżenie naszej kosmicznej przyszłości. Naprawdę oba wykresy z punktów 2 i 3 gładko w siebie przechodzą, dając tzw. Model uzgodniony (The Concordance Model).
Co może znaczyć taka stała gęstość energii (bo energia i masa są proporcjonalne: E=mc^2)? Może to być np. energia drgań zerowych pól kwantowych. W mechanice kwantowej niemożliwy jest absolutny spoczynek: dlatego np. elektron w atomie stale się porusza. Spoczynek oznaczałby naruszenie zasady nieoznaczoności Heisenberga. Z podobnego powodu atomy w krysztale drgają nawet w temperaturze zera bezwzględnego. No dobrze, ale tu mówimy o pustej przestrzeni. Co ma się w niej poruszać, gdy zabierzemy wszelkie cząstki? Z kwantowego punktu widzenia każda cząstka jest kwantem pewnego pola. Np. fotony są kwantami pola elektromagnetycznego. Pola takie muszą drgać nawet wówczas, gdy nie ma ani jednego fotonu. A muszą drgać, bo inaczej naruszona zostałaby zasada nieoznaczoności. Drgające pole ma pewną energię, więc pola kwantowe powinny mieć energię nawet wtedy, gdy usuniemy wszystkie cząstki. Tak to powinno wglądać, kłopot w tym, że nikt nie potrafi zamienić intuicji tego rodzaju na jakiś rachunek, który by pokazywał, jakie to konkretnie pola dają obserwowaną energię próżni, czyli ciemną energię.

Równania, które napisaliśmy, wynikają także z ogólnej teorii względności, ale wtedy rachunki są bardziej złożone technicznie.

Więcej: Kosmologia relatywistyczna w kwadrans I, Kosmologia relatywistyczna w kwadrans II

Co maszyny parowe mówią nam o czarnych dziurach? (Carnot, 1824, Hawking 1974)

Termodynamika jest dziedziną zdumiewającą. Wyprowadzone z niej zależności pojawiają się w najróżniejszych dziedzinach fizyki. Pokażemy tu mały przykład: rozumowanie Sadiego Carnota dotyczące sprawności maszyn parowych i pewien eksperyment myślowy zaproponowany przez Roberta Gerocha w 1971 r., który doprowadził do odkrycia niezerowej temperatury czarnych dziur. Pracowało nad tym zagadnieniem kilku uczonych, najważniejszy wkład wnieśli Jacob Beckenstein i Stephen Hawking. Ten ostatni końcową formułę uznał za tak ważną, że pragnął, by mu ją wyryto na nagrobku. Odkrycie to oznaczało, że czarne dziury nie są zupełnie czarne, wysyłają bowiem promieniowanie cieplne i kiedyś, po bardzo długim czasie, wyparują.

Angielski napis: Tu spoczywa to, co było śmiertelne w Stephenie Hawkingu. Słowa powtarzają po angielsku to, co wyryto kiedyś na nagrobku Isaaca Newtona nieopodal: Hic depositum est quod mortale fuit Isaaci Newtoni.

Zaczniemy od Carnota. Sadi, był synem Lazare’a Carnota, generała-matematyka, polityka i organizatora, dzięki któremu armia rewolucyjna odnosiła sukcesy i który później służył Napoleonowi Bonaparte, póki ten nie zdradził ideałów rewolucji dla osobistej władzy. Lazare Carnot napisał znany podręcznik mechaniki maszyn. Jego syn, Sadi, absolwent École Polytechnique, także został inżynierem wojskowym. Nie mógł raczej liczyć na karierę we Francji w czasach restauracji monarchii Burbonów, zajmował więc jakieś niewiele znaczące stanowiska w Sztabie Generalnym i rozwijał się intelektualnie. Mając 27 lat, w 1824 roku opublikował niewielką książeczkę Réflexions sur la Puissance Motrice du Feu (Rozważania o sile poruszającej ognia). Nie została ona doceniona przez współczesnych, a kilka lat później Carnot zmarł na cholerę. Pracę Carnota odkryło dopiero następne pokolenie fizyków, w tym William Thomson, późniejszy lord Kelvin.

Carnot rozumiał, jak ogromną rolę odgrywają maszyny parowe: w jego czasach znajdowały one wciąż nowe zastosowania, zwłaszcza Anglia korzystała na rozpowszechnieniu nowych technologii, bez nich nie byłoby Imperium Brytyjskiego. Toteż Carnot spróbował zbudować naukową teorię wydajności maszyn cieplnych. Posługiwał się zresztą teorią cieplika, nieznana była bowiem jeszcze zasada zachowania energii, lecz rozumowania Carnota można było łatwo zmodyfikować, tak też poniżej zrobimy. Odkrycie Carnota jest równoważne temu, co później stało się II zasadą termodynamiki

Rozumiano oczywiście, że nie może istnieć maszyna, która wiecznie będzie się poruszać: perpetuum mobile. Paryska Akademia nauk w roku 1775 uchwaliła, że zaprzestaje analizowania nadsyłanych wciąż rozwiązań problemu podwojenia sześcianu, kwadratury koła i trysekcji kąta, a także wynalazków umożliwiających wieczny ruch bez napędu z zewnątrz. Problemy geometryczne znane były od starożytności i coraz bardziej się przekonywano, że są nierozwiązalne jako konstrukcje za pomocą liniału i cyrkla. Maszyny parowe (oraz wszelkie silniki cieplne, a także zwierzęta) zamieniają ciepło na pracę. Z dzisiejszego punktu widzenia rzec można, iż zamieniają nieuporządkowany ruch cząsteczek i atomów na uporządkowany ruch tłoka. Tutaj także obowiązuje pewien zakaz: nie można zamienić bez strat ciepła na energię mechaniczną. Czasem mówi się, że niemożliwe jest perpetuum mobile drugiego rodzaju, czyli urządzenie, które pobierałoby ciepło wyłącznie z jednego źródła, a następnie zamieniało je w całości na pracę. Jest to istota II zasady termodynamiki. Gdyby możliwe było np. pobranie z oceanów światowych ilości ciepła odpowiadającej zmianie temperatury o 1 K i zamiana go w całości na pracę, uzyskalibyśmy około 1025 J, czyli mniej więcej sto tysięcy razy więcej, niż roczna produkcja energii elektrycznej na świecie w 2013 roku. Zasada zachowania energii byłaby przy tym spełniona, naruszałoby to jedynie II zasadę termodynamiki.

Carnot podszedł do zagadnienia w duchu kartezjańskim i matematycznym. Pominął wszelkie szczegóły konstrukcyjne, sprowadzając maszynę parową do takiego działania cyklicznego, w którym pobieramy najpierw pewną ilość ciepła Q w wyższej temperaturze, a następnie oddajemy mniejszą ilość ciepła q w temperaturze niższej.

Konieczne są tu obiekty o dwóch różnych temperaturach: źródło ciepła i chłodnica. Intuicyjnie jasne jest, że gdy ciepło przepływa wprost z ciała o wyższej temperaturze do ciała o niższej temperaturze, to tracimy możliwość wykonania użytecznej pracy – mamy do czynienia z procesem nieodwracalnym. Maszyna cieplna o największej wydajności, to taka, w której ciepło przepływa zawsze między ciałami o praktycznie tej samej temperaturze: wystarczy wówczas nieznacznie zmienić jedną z temperatur, by odwrócić kierunek przepływu ciepła. W przypadku silnika cieplnego najpierw należy mu dostarczyć ciepła w sytuacji, gdy substancja robocza (np. para wodna) ma temperaturę nieznacznie mniejszą od temperatury źródła ciepła T_1, następnie wykonuje ona pracę, a potem oddaje pewną ilość ciepła do chłodnicy, przy czym substancja robocza powinna mieć temperaturę nieznacznie tylko wyższą niż T_2. Łatwo wyobrazić sobie odwrócenie takiego cyklu, nasza maszyna pracowałaby wówczas jak lodówka.

Carnot udowodnił, że maszyna odwracalna nie może mieć mniejszej wydajności niż nieodwracalna. Gdyby tak było, moglibyśmy obie maszyny sprząc ze sobą: pierwszą w kierunku normalnym, a drugą działającą odwrotnie (lodówka) i jeszcze uzyskalibyśmy pewną dodatkową pracę zewnętrzną.

Widać z obrazka, że takie urządzenie (niebieski prostokąt) wykonuje cykl, w którym zamienia na pracę ciepło pobrane z chłodnicy, a to jest niemożliwe. Musi więc zachodzić nierówność W\le W', a więc także i wydajność silnika cieplnego

\eta=\dfrac{W}{Q}\le\dfrac{W'}{Q}=\eta_{odwr}.

Ponieważ dwie maszyny odwracalne pracujące między danymi temperaturami muszą spełnić takie nierówności w obie strony, więc muszą mieć jednakową wydajność. Wydajność maszyny odwracalnej jest wyłącznie funkcją obu temperatur. Sprawność takiej maszyny odwracalnej jest granicą teoretyczną wydajności maszyn rzeczywistych i równa jest

\eta_{odwr}=\dfrac{W'}{Q}=1-\dfrac{q'}{Q}=1-\dfrac{T_2}{T_1}.

Ostatnia równość jest zarazem definicją skali temperatur absolutnych. Wprowadził ją Thomson w 1848 roku. Jego oraz Rudolfa Clausiusa uważa się za odkrywców II zasady termodynamiki, odkryli oni na nowo fakty znane Carnotowi, a także rozwinęli tę dziedzinę. II zasadę można sformułować także w ten sposób, że całkowita suma entropii świata rośnie.

Przenosimy się teraz o 150 lat w przód. Wiadomo, że zasady termodynamiki mają zastosowanie powszechne, niezależnie od tego, z jakim obszarem zjawisk mamy do czynienia: elektromagnetyzm, reakcje chemiczne, grawitacja – fizyka nie jest zbiorem niezależnych poddziedzin, lecz spójną całością. W latach szęśćdziesiątych ubiegłego wieku fizycy zrozumieli, że we wszechświecie powinny w pewnych warunkach tworzyć się czarne dziury. Jedną z najważniejszych postaci w tej nowej astrofizyce był John Wheeler, autor określenia „czarne dziury“ i mentor całej plejady wybitnych relatywistów. Jego doktorantem był Ja’akow Beckenstein. Kiedyś Wheeler w niezobowiązującej pogawędce zauważył, że zawsze czuje się jak przestępca, kiedy stawia filiżankę gorącej herbaty obok filiżanki mrożonej herbaty i pozwala im wyrównać temperatury.

Moja zbrodnia zostawia ślad aż po kres czasu i nie ma sposobu, by ją zatrzeć albo odwrócić. Wystarczy jednak, by w pobliżu przepływała akurat jakaś czarna dziura i żebym wrzucił do niej gorącą herbatę i tę mrożoną, a dowody mojej zbrodni zostałyby zatarte na zawsze.

Należy przy tym wyobrazić sobie Johna Wheelera, ubranego w nienaganny garnitur, konserwatystę z przekonań, który rzeczywiście mógłby odczuwać moralny dyskomfort z powodu beztroskiego powiększania entropii świata. Oczywiście treść fizyczna tej wypowiedzi była jak najbardziej serio: znikanie różnych obiektów za horyzontem zdarzeń sprawia, że z bilansu entropii wszechświata znika to, co wpadło do dziury. W ten sposób II zasada termodynamiki traci ważność, bo nie możemy sporządzić pełnego bilansu entropii świata. Wiadomo było, że czarne dziury zacierają jakikolwiek ślad tego, co do nich wpada i jedynym śladem jest zmiana masy, momentu pędu i ładunku dziury. Czy obiekty tak proste mogą być obdarzone entropią, która jest miarą liczby mikrostanów danego obiektu? Wiadomo było dzięki Stephenowi Hawkingowi, że pole powierzchni horyzontu czarnej dziury zawsze rośnie, przypominając pod tym względem entropię. Ale tylko przypominając – nikt bowiem nie chciał uwierzyć, że dziury naprawdę mają entropię. Gdyby miały, powinny też mieć niezerową temperaturę, a każdy obiekt o niezerowej temperaturze wysyła promieniowanie cieplne. Tymczasem dziura ma jedynie pochłaniać cząstki i promieniowanie. 

Robert Geroch przedstawił tę sytuację za pomocą silnika cieplnego. Wyglądałoby to jakoś tak:

Rysunek Louisa Fulgoniego

Napełniamy pudło promieniowaniem o pewnej temperaturze T z dala od dziury tak, że energia promieniowania równa się E. Pudło ma masę m=E/c^2. Następnie powoli opuszczamy na lince nasze pudło. Opuszczaniu masy w polu grawitacyjnym towarzyszy wykonanie pewnej pracy i np. wygenerowanie prądu zasilającego żarówkę, jak na rysunku. Jeśli opuścimy pudło aż do horyzontu zdarzeń, jego energia całkowita stanie się równa zero (jakby do energii spoczynkowej mc^2 doszła energia potencjalna grawitacji równa -mc^2).  Znaczy to, że całą energię E udało nam się zamienić na pracę. Otwieramy teraz pudło, pozwalając promieniowaniu wpaść do dziury i podnosimy z powrotem puste, lekkie pudło. Cykl się zamyka. Stworzyliśmy idealny silnik cieplny.

Jacob Beckenstein, analizując sytuacje takie jak powyższa, pierwszy zasugerował, że czarna dziura powinna mieć entropię i ustalił, jaki wzór powinien ją opisywać. Był wtedy młodym uczonym tuż po doktoracie i musiał wytrzymać ciśnienie zmasowanej krytyki uznanych ekspertów, w tym Stephena Hawkinga. W końcu to Hawking rozstrzygnął problem, wykazując, ku własnemu zdumieniu, że czarne dziury promieniują i obliczył stosowną temperaturę. Praca ta powstała na gruncie kwantowej teorii pola, rozszerzając jej zastosowanie na zakrzywioną czasoprzestrzeń. 

Silnik Gerocha nie ma stuprocentowej sprawności. Jeśli promieniowanie ma temperaturę T, to samo pudło musi mieć rozmiar przynajmniej typowej długości fali L. Najniższe możliwe położenie pudła osiągniemy, gdy jego dolna ścianka dotknie horyzontu zdarzeń. Środek masy pudła znajduje się wtedy na pewnej wysokości L/2 i energia całkowita pudła równa się mgL/2 (g jest natężeniem pola grawitacyjnego na powierzchni horyzontu). 

Toteż praca uzyskana podczas opuszczania pudła równa jest

W=mc^2-mg\dfrac{L}{2},

a sprawność maszyny wynosi

\eta=\dfrac{W}{mc^2}=1-\dfrac{gL}{2c^2}.

Typową długość fali odpowiadającą temperaturze T możemy znaleźć jako warunek równości energii cieplnej k_{B}T (k_B jest stałą Boltzmanna – czyli w zasadzie przelicznikiem energii na temperaturę i odwrotnie) i energii fotonu (jest to też treść tzw. prawa Wiena dla promieniowania cieplnego):

k_{B}T=\dfrac{\hbar c}{L}.

Sprawność silnika przyjmuje więc postać

\eta=1-\dfrac{g\hbar }{2ck_B T}\equiv 1-\dfrac{T_{BH}}{T}.

Z porównania otrzymujemy oszacowanie temperatury Hawkinga

T_{BH}=\dfrac{g\hbar}{2k_B c}.

Oczywiście niezbyt przejmowaliśmy się stałymi liczbowymi, toteż nie należy się spodziewać, że wynik ten będzie dokładny. Wartość dokładna okazuje się mniejsza o czynnik \pi:

T_{BH}=\dfrac{g\hbar}{2\pi k_B c}.

William Unruh udowodnił, że jeśli poruszamy się z przyspieszeniem g w pustej przestrzeni, to zaobserwujemy w naszym układzie odniesienia promieniowanie o takiej temperaturze jak we wzorze Hawkinga. Jest to tzw. efekt Unruh. Zgodnie z zasadą równoważności pole grawitacyjne i przyspieszenie są lokalnie równoważne.

Temperatura Hawkinga w przypadku czarnych dziur o masach astrofizycznych jest skrajnie mała i zdecydowanie poza zasięgiem obserwacji. Osiągnięciem Hawkinga było pokazanie, że i w tym przypadku obowiązuje II zasada termodynamiki. Fakt, że czarna dziura promieniuje, i to tym silniej, im mniejszą ma masę, oznacza, że po bardzo długim czasie czarne dziury wyparują i wszechświat wypełniony będzie samym promieniowaniem. Taki kres wszechświata, według ulubionej hipotezy Rogera Penrose’a, byłby możliwym początkiem następnego wszechświata. 

Żeby otrzymać temperaturę w postaci z nagrobka w Westminster Abbey, należy wstawić za g wartość 

g=\dfrac{GM}{r_S^2},

gdzie r_S to promień Schwarzschilda:

r_S=\dfrac{2GM}{c^2},

a G\, M oznaczają odpowiednio stałą grawitacyjną i masę dziury. Wzór opisujący g jest (przypadkowo) taki sam jak w teorii klasycznej dla grawitacji na powierzchni kuli o promieniu r_S

O temperaturze Hawkinga pisałem już wcześniej.

Kwantowa gra Johna Bella

John Stuart Bell był tylko o rok starszy od Petera Higgsa. Zajmowali się różnymi dziedzinami fizyki. W roku 1964 obaj ogłosili prace, które mogły przynieść im Nagrodę Nobla, choć zapewne żaden z nich z początku w to nie wierzył. Higgs doczekał się odkrycia „swojego” bozonu w Zderzaczu Hadronów w CERN-ie w roku 2015. Eksperymentalne potwierdzenia pracy Bella zaczęły się pojawiać od początku lat siedemdziesiątych XX w., lecz dopiero kilka lat temu zamknięto wszelkie luki aparaturowe, które mogłyby prowadzić do innego wyjaśnienia wyników, niż przewiduje mechanika kwantowa. Bell nie doczekał się Nagrody Nobla, zmarł niespodziewanie w roku 1990. Wiadomo, że wysuwano jego kandydaturę do szwedzkiej nagrody w owym roku. Gdyby żył, zapewne by ją wtedy albo później otrzymał.

Osiągnięcia Bella przyjmowane były z oporami, ponieważ dotyczyły podstaw mechaniki kwantowej, a więc dziedziny, która mimo rozmaitych zastrzeżeń filozoficznych świetnie funkcjonuje w praktyce. Po wczesnych dyskusjach z lat dwudziestych i trzydziestych, gdy swoje zastrzeżenia wysuwali uczeni tacy jak Albert Einstein i Erwin Schrödinger, zwyciężyła postawa praktyczna: wyniki eksperymentów zgadzały się z obliczeniami, nie warto więc dzielić włosa na czworo. Bell należał pod tym względem do dysydentów, podstawy mechaniki kwantowej nie dawały mu spokoju. Pracując w CERN-ie na codzień  zajmował się fizyką cząstek i budową akceleratorów, sam mówił żartobliwie o sobie, że jest inżynierem kwantowym, ale przy niedzieli miewa także zasady. I właśnie te jego uboczne prace okazały się najważniejsze. (Jest tu pewne podobieństwo z Peterem Higgsem, który zajmował się w latach sześćdziesiątych kwantową teorią pola – dziedziną wówczas niemodną i spisaną, zdawało się, na straty, królowało bowiem podejście oparte na własnościach macierzy S.)

Bell znalazł sposób, by wyrazić ilościowo różnicę między przewidywaniami mechaniki kwantowej i tzw. lokalnym realizmem, czyli w praktyce jakąś wersją klasycznego zdrowego rozsądku. Chodzi o pewne korelacje między wynikami pomiarów, które kłócą się z naiwnym rozumieniem pojęcia cząstki kwantowej jako bytu w zasadzie punktowego. Cząstki kwantowe mogą bowiem występować w stanach splątanych ze sobą pomimo przestrzennego oddalenia. Zjawisko splątania jest podstawą idei komputera kwantowego. Gdybyśmy potrafili kontrolować i utrzymywać dostatecznie długo takie stany splątane, można by rozwiązywać zagadnienia niedostępne klasycznym komputerom. Przykładem jest tzw. algorytm Shora, który pozwalałby komputerowi kwantowemu szybko znajdować podzielniki wielkich liczb, co jest zagadnieniem praktycznie niewykonalnym dla klasycznych komputerów i fakt ten wykorzystywany jest w szyfrowaniu danych. Komputer kwantowy odpowiednich rozmiarów mógłby w zasadzie złamać te wykorzystywane powszechnie kody (lecz zarazem technologie kwantowe mogą służyć do przesyłania danych  w taki sposób, że niemożliwe jest ich podglądanie przez niepowołanych). Są i inne problemy, w których komputery kwantowe potrafiłby zdziałać znacznie więcej niż klasyczne, toteż nic dziwnego, że dziedzina ta jest w ostatnich latach finansowana na świecie jak bodaj żadne inne badania z fizyki.

Poniżej opiszemy pewną dziwaczną grę, grę Bella, w której wszelkie strategie klasyczne są mniej wydajne niż strategia wykorzystująca kwantowomechaniczne stany splątane. Jest to więc przykład czegoś, co dzięki mechanice kwantowej można robić lepiej, niż to jest możliwe w świecie klasycznym. Sama gra jest dość sztuczna, jednak owa kwantowa nadwyżka efektywności jest czymś realnie istniejącym i obserwowanym w eksperymentach. Mówimy o pewnym zachowaniu przyrody, które przed pracami Bella nikomu nie przyszło do głowy. (Dokładnie biorąc, nasza gra oparta jest na tzw. nierówności CHSH – od nazwisk: Johna Clausera, Michaela Horne’a, Abnera Shimony’ego i Richarda Holta.)

Najpierw parę słów o stanach kwantowych na przykładzie polaryzacji fotonu. Światło, czyli klasycznie rzecz biorąc fala elektromagnetyczna może być spolaryzowana liniowo – znaczy to tyle, że drgania pola elektrycznego zachodzą w pewnej ustalonej płaszczyźnie (prostopadłej do kierunku rozchodzenia się fali, mówimy, że fale elektromagnetyczne są poprzeczne). Istnieją urządzenia, zwane polaryzatorami, które przepuszczają jedynie składową pola wzdłuż pewnej osi. Jeśli wchodząca fala jest spolaryzowana pod kątem \varphi do osi polaryzatora, to z fali o amplitudzie E zostaje przepuszczona tylko składowa E\cos\varphi.

Ponieważ natężenie fali (energia przez nią przenoszona) jest proporcjonalne do kwadratu amplitudy, więc natężenie I światła przepuszczonego przez polaryzator jest mniejsze od natężenia I_0 światła wchodzącego do polaryzatora:

I=I_0\cos^2\varphi.

Jest to znane z fizyki klasycznej prawo Malusa (od francuskiego badacza z początku XIX wieku). Jak wygląda kwantowy opis takiej sytuacji? Mamy teraz osobne cząstki, fotony. Foton może przejść przez polaryzator w całości albo wcale. W naszym przypadku, oznaczając stan fotonu przed polaryzatorem |\varphi\rangle, a stany z polaryzacją pionową i poziomą odpowiednio |V\rangle oraz | H\rangle, możemy to zapisać następująco:

|\varphi\rangle=\cos\varphi |V\rangle+\sin\varphi |H\rangle.

Foton jest stanie zawierającym w części \cos\varphi stan o polaryzacji pionowej oraz w części \sin\varphi stan o polaryzacji poziomej. Przejście przez polaryzator należy z punktu widzenia mechaniki kwantowej traktować jako pomiar. Polaryzator zadaje pytanie: czy twoja polaryzacja jest pionowa? Prawdopodobieństwo odpowiedzi TAK=1 równe jest \cos^2\varphi, a prawdopodobieństwo odpowiedzi NIE=0 równe jest \sin^2\varphi. Teoria nie daje nam wskazówek, jak zachowa się pewien konkretny foton: wiadomo, że obserwując fotony za polaryzatorem, otrzymamy chaotyczny ciąg bitów: zer i jedynek, przy czym częstość występowania jedynek będzie równa \cos^2\varphi. W ten sposób odtwarza się klasyczne prawo Malusa.

Stany układu są wektorami w pewnej abstrakcyjnej przestrzeni, w przypadku polaryzacji przestrzeń ta jest dwuwymiarowa i każdy wektor można zapisać jako kombinację wektorów |H\rangle oraz |V\rangle. Kwadraty współczynników w tym rozwinięciu mają sens prawdopodobieństw. Pomiar powoduje redukcję stanu: nie wiemy z góry, czy foton pojawi się za polaryzatorem, ale jeśli się w ogóle pojawi, to jego polaryzacja będzie |V\rangle. Oczywiście polaryzacja nie opisuje wszystkiego, co można wiedzieć o fotonie, ale my będziemy się interesowali jedynie stanami polaryzacyjnymi.

Jak opisuje się parę cząstek, np. dwa fotony? Możemy podać po prostu stany obu fotonów, pojawią się wtedy cztery stany bazowe: |H\rangle|H\rangle,\, |H\rangle|V\rangle,\, |V\rangle|H\rangle,\,|V\rangle|V\rangle. Wyobraźmy sobie np. układ dwóch fotonów w stanie |\varphi\rangle|V\rangle. Jeśli pierwszy z tych fotonów przepuścimy przez polaryzator przepuszczający polaryzację pionową, to tak samo jak poprzednio nastąpi redukcja stanu |\varphi\rangle\rightarrow|V\rangle, druga część natomiast się nie zmieni, bo przecież nic z tym drugim fotonem nie robiliśmy, w rezultacie otrzymamy stan |V\rangle|V\rangle z prawdopodobieństwem \cos^2\varphi. Nowa przestrzeń stanów jest rozpięta przez cztery wektory bazowe i dowolna ich kombinacja jest dopuszczalnym stanem fizycznym. Np. stan

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|H\rangle|H\rangle+\dfrac{1}{\sqrt{2}}|V\rangle|V\rangle.

Ten stan nie daje się zapisać jako iloczyn dwóch czynników odpowiadających poszczególnym fotonom. Jest to właśnie stan splątany. Jeśli pierwszy foton przepuścimy przez polaryzator przepuszczający pionową polaryzację, to z prawdopodobieństwem \frac{1}{2}=\frac{1}{\sqrt{2}^2} pierwszy foton przejdzie w stan |V\rangle, drugi nie ma wyjścia i też okaże się stanem |V\rangle. Co to oznacza? Stan drugiego fotonu znany jest bez mierzenia, po prostu dlatego że był splątany z pierwszym. Oba fotony mogą znajdować się dowolnie daleko od siebie. Z chwilą gdy dokonamy pomiaru polaryzacji pierwszego fotonu, znamy też polaryzację drugiego (jest taka sama). Oba fotony tworzą pewną skorelowaną z sobą całość. Co więcej, nasz stan |\Psi\rangle jest w istocie niezależny od kierunku. Jeśli za nowe wektory bazowe weźmiemy wyżej zapisany stan |\varphi\rangle i stan prostopadłej do niego polaryzacji

|\varphi_{\perp}\rangle=-\sin\varphi|V\rangle+\cos\varphi|H\rangle,

to okazuje się, że stan splątany możemy zapisać w postaci

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|\varphi\rangle|\varphi\rangle+\dfrac{1}{\sqrt{2}}|\varphi_{\perp}\rangle|\varphi_{\perp}\rangle.

Oznacza to, że gdy wykonamy pomiar polaryzacji pierwszego fotonu za pomocą dowolnie zorientowanego polaryzatora i ów foton przejdzie przez polaryzator (z prawdopodobieństwem \frac{1}{2}), to wiemy na pewno, że drugi ma dokładnie taką samą polaryzację, choćby znajdował się już w galaktyce Andromedy. Zachodzą więc związki między cząstkami, które mogą być daleko od siebie. To z tej okazji Einstein mówił o niesamowitym oddziaływaniu na odległość (spukhafte Fernwirkung). Jednak nie chodzi tu o żadne oddziaływania, lecz o pewne korelacje. Nie można za pomocą splątania przekazywać informacji, niemniej zachodzą korelacje, które można próbować wykorzystać, czym zajmuje się cała dziedzina komputerów kwantowych.

Przejdźmy wreszcie do gry Bella. Mamy dwa identyczne urządzenia obsługiwane przez parę uczonych Alicję i Bartka. Każde z nich składa się z dźwigni przełączanej między dwoma stanami x=0,1 (Alicja), y=0,1 (Bartek). Wynikiem działalności każdego z nich jest także jeden bit informacji: a=0,1 (Alicja), b=0,1 (Bartek). Nasi obserwatorzy znajdują się daleko od siebie i nie mogą na siebie wpływać. Ich zadaniem jest uzyskanie jak największej liczby punktów w kooperatywnej grze. Zdobywają punkt, jeśli uda im się spełnić równanie

x\cdot y=a+b \mod{2}.

Dodawanie modulo 2 różni się od zwykłego tylko w jednym przypadku: 1+1=0. Gra jest statystyczna, każde z nich generuje w sposób przypadkowy x (albo y), po czym za pomocą dowolnej procedury opartej na znajomości tego bitu oraz reguł gry generuje bit a (albo b). Na końcu ich serie wyników są porównywane i oblicza się liczbę zdobytych punktów.

Jeśli bity a,b będą generowane przypadkowo, prawdopodobieństwo wygranej będzie równe \frac{1}{2}. Proste strategie deterministyczne albo i nie prowadzą do prawdopodobieństwa wygranej \frac{3}{4}. Jest to nierówność Bella dla tej sytuacji:

P(a=b|0,0)+P(a=b|0,1)+P(a=b|1,0)+P(a\neq b|1,1)\leq\dfrac{3}{4}.

Istnieje oparta na mechanice kwantowej strategia zapewniająca większe prawdopodobieństwo wygranej i naruszająca nierówność Bella. Należy zaopatrzyć naszych graczy w każdej turze w parę fotonów w stanie splątanym |\Psi\rangle. Dalej powinni postąpić następująco: oboje zależnie od wartości swojego bitu x,y powinni wybrać odpowiedni kąt ustawienia polaryzatora: \alpha_0,\alpha_1 (Alicja) oraz \beta_0,\beta_1 (Bartek). Dla wybranego kierunku dokonują oni pomiaru na stanie splątanym |\Psi\rangle i w ten sposób ustalają wartość swojego bitu a albo b. Okazuje się, że taka strategia daje prawdopodobieństwo wygranej

Q=\cos^2(\alpha_0-\beta_0)+\cos^2(\alpha_0-\beta_1)+\cos^2(\alpha_1-\beta_0)+\sin^2(\alpha_1-\beta_1).

Dla wartości \alpha_0=0, \alpha_1=\frac{\pi}{4}, \beta_0=-\beta_1=\frac{\pi}{8} otrzymujemy

Q=\dfrac{2+\sqrt{2} }{4} >\dfrac{3}{4}.

Przed pracami Johna Bella nikt nawet nie przypuszczał, że można badać takie korelacje kwantowe ani że może to być wykorzystane, najpierw do lepszego zrozumienia przyrody, a z czasem także i do zastosowań technicznych. Niewielu jest  uczonych, którzy dają początek nowej dziedzinie wiedzy i John Stuart Bell należy do tego elitarnego grona.

Szczegóły rachunków można znaleźć tutaj. Nicolas Gisin, jeden z uczestników eksperymentów i prac teoretycznych w tej dziedzinie napisał książkę popularną niemal w całości poświęconą grze Bella: Quantum Chance. Nonlocality, Teleportation and Other Quantum Marvels (Springer, 2014).

Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.

Jakob Hermann pisze do Johanna Bernoulliego na temat ruchu planet, 12 lipca 1710 r.

Ulmenses sunt mathematici – mieszkańcy Ulm to matematycy – głosiło stare porzekadło. Znamy jednego matematyka z Ulm Johannesa Faulhabera, który miał kontakty z Keplerem i być może z Kartezjuszem. Słynna ogrzewana komora, w której rozmyślał francuski filozof pewnej jesieni, mieściła się w Neuburgu niezbyt oddalonym od Ulm. No i w Ulm urodził się Albert Einstein, lecz rodzina rok później się przeprowadziła i uczony jako człowiek dorosły nigdy potem nie odwiedził już swego miasta rodzinnego.

Prawdziwą kolebką matematyków była natomiast leżąca niezbyt daleko od Ulm Bazylea. Stąd pochodziła rozgałęziona rodzina Bernoullich, a także Leonhard Euler i Jakob Hermann. Protoplastą naukowego rodu był Jakob Bernoulli, to od niego uczyli się matematyki jego brat Johann oraz Jakob Hermann. Johann z kolei był ojcem wybitnego Daniela i nauczycielem genialnego Eulera. Ponieważ posad dla matematyków nie było w Europie wiele, więc wszyscy ci matematycy sporo podróżowali. Dzięki bazylejskim matematykom rachunek różniczkowy i całkowy Leibniza stał się podstawą nowożytnej matematyki.

Drugim wielkim zadaniem uczonych od końca XVII wieku stało się przyswojenie osiągnięć Isaaca Newtona. Matematyczne zasady filozofii przyrody zawierały rewolucyjną fizykę przedstawioną za pomocą indywidualnego języka matematycznego, stworzonego przez autora. Nie było w historii nauki traktatu tak oryginalnego zarówno pod względem treści fizycznej, jak i matematycznej. Toteż jego zrozumienie i opanowanie zajmowało całe lata nawet wybitnym uczonym. Na kontynencie panował matematyczny idiom Leibniza i twierdzenia Newtona tłumaczono niejako na tę zrozumiałą wśród uczonych symbolikę.

Jakob Hermann pierwszy podał różniczkowe sformułowanie II zasady dynamiki. Miało ono u niego postać

G=M dV: dT,

gdzie G,M oznaczały siłę i masę, a dV, dT – różniczki prędkości i czasu. Zapis ten pojawił się dopiero na 57 stronie jego traktatu Phoronomia (1716) i odnosił się do siły ciężkości zależnej od położenia. Oczywiście, Newton już w 1687 r. rozważał takie siły, ale wyłącznie w postaci geometrycznej. Jego II prawo brzmiało: „Zmiana ruchu jest proporcjonalna do przyłożonej siły poruszającej i następuje w kierunku prostej, wzdłuż której siła ta jest przyłożona.” Newton miał na myśli zmiany pędu ciała w pewnym krótkim czasie. Jednym problemem tego sformułowania była kwestia opisywania zmian w czasie, drugim problemem był wektorowy charakter siły: ilość ruchu, pęd, zmienia się w kierunku przyłożonej siły.

Pokażemy, jak Hermann rozwiązał problem ruchu ciała przyciąganego siłą odwrotnie proporcjonalną do kwadratu odległości od nieruchomego centrum. Zwolennicy Leibniza mieli zastrzeżenia do Newtonowskiego dowodu tego faktu, zbyt szkicowego. Pragnęli wyraźnego wykazania, że tylko stożkowe (albo część linii prostej) mogą być torem ciała. Opisywałem kiedyś rozwiązanie tego problemu podane w XIX wieku przez Williama Rowana Hamiltona.

Wyobrażamy sobie przyciągane przez centrum S ciało zakreślające krzywą CD. Jego ruch w nieskończenie krótkim czasie dt można przedstawić jako sumę wektorową ruchu bezwładnego od C do E oraz spadania od E do D wzdłuż kierunku siły w punkcie C, tzn. odcinki SC i DE są równoległe. Zmiana współrzędnej x w ruchu bezwładnym byłaby równa dx. Efekt działania siły przyciągającej to różniczka drugiego rzędu ddx (co później zapisywano d^{2}x). Oczywiście do ddx wchodzi tylko x-owa składowa siły.

Dziś narysowalibyśmy to tak, Hermann odnajduje trójkąty podobne na swoim rysunku i dochodzi do wniosku, że

ddx \propto F\dfrac{x}{r} dt^2.

Pole SCD zakreślane w czasie dt można przedstawić jako pole trójkąta o bokach [x,y] oraz [dx,dy], a więc jest ono równe połowie pola równoległoboku dt\propto y dx-x dy.
Ostatecznie różniczkę ddx możemy zapisać następująco (siła jest odwrotnie proporcjonalna do kwadratu odległości):

-a ddx=\dfrac{x}{r^3}(y dx-x dy)^2,

gdzie a jest stałą proporcjonalności. Naszym zadaniem jest znalezienie równania krzywej.
Całką tego równania jest

a dx=\dfrac{y}{r}(ydx-xdy).

Dzieląc obustronnie przez x^2 i całkując ponownie, otrzymujemy

-\dfrac{a}{x}+c=-\dfrac{r}{x}\;\Rightarrow\; a-cx=r,

gdzie c jest stałą całkowania. Jest to równanie stożkowej (po obustronnym podniesieniu do kwadratu otrzymamy wielomian kwadratowy w zmiennych x,y).

Postępowanie Hermanna jest pomysłowe, choć całkowania są nieintuicyjne. Można jednak, jak zawsze, sprawdzić je, idąc od końca do początku, tzn. wykonując dwa kolejne różniczkowania. Tak naprawdę sztuka rozwiązywania równań różniczkowych jest często zamaskowanym odgadywaniem całek. Różniczkowania wynikają z reguły Leibniza dla iloczynu d(uv)=v du+u dv.
W naszym przypadku mamy np. dla drugiego równania

d\left(\dfrac{y}{r}\right)=\dfrac{rdy-ydr}{r^2}=\dfrac{r^2 dy-y rdr}{r^3}.

Pamiętając, że r^2=x^2+y^2, mamy rdr=xdx+ydy. Itd. itp. rachunki „od końca” są łatwe. W pierwszym całkowaniu przyjęliśmy stałą całkowania równą zeru, co nie zmniejsza ogólności wyniku, bo Hermann zakłada, iż oś Sx jest osią toru planety, tzn. przecięcie z osią x z lewej strony punktu S następuje w peryhelium albo aphelium, czyli przy y=0 powinno być dx=0.
Johann Bernoulli, który miał dość nieznośny charakter (nigdy nie dość wypominania mu, jak to konkurował ze swym synem Danielem) odpowiedział wybrzydzaniem na procedurę Hermanna i przedstawił swoją ogólniejszą, opartą na innym podejściu.

Z dzisiejszego punktu widzenia Hermann odkrył pewną całkę pierwszą problemu Keplera (tak się dziś nazywa problem ruchu wokół centrum przyciągającego jak 1/r^2). Całka pierwsza to wyrażenie, którego wartość nie zmienia się podczas ruchu. U Hermanna jest to

-\dfrac{dx}{dt}L_{z}-\dfrac{y}{r}=A_{y}=const.

W wyrażeniu tym L_z=xp_{y}-yp_{x}. Gdyby zająć się przyspieszeniem wzdłuż osi Sy, otrzymalibyśmy drugą całkę. Razem składają się one na wektor

\vec{A}=\vec{p}\times \vec{L}-\dfrac{\vec{r}}{r}.

Nazywa się go wektorem Rungego-Lenza, choć odkrył go właściwie Jakob Hermann. W pełni zdał sobie sprawę z faktu, że mamy trzy takie całki pierwsze, czyli w istocie wektor, Joseph Lagrange, a po nim Pierre Simon Laplace. Laplace przedyskutował też systematycznie wszystkie całki pierwsze problemu Keplera (trzy to moment pędu, trzy to nasz wektor, jedna to energia całkowita planety). Carl David Runge (ur. 1856) oraz Wilhelm Lenz (ur. 1888) pojawiają się w tej historii późno i w rolach dość przypadkowych. Pierwszy (znany z algorytmu Rungego-Kutty) użył tego wektora w swoim podręczniku analizy wektorowej, drugi zastosował go do pewnego problemu w starej teorii kwantów, przepisując go z podręcznika Rungego. Zupełnie niekosztowny sposób wejścia do historii. Wilhelm Lenz jest natomiast autorem tzw. modelu Isinga (Ernst Ising był jego doktorantem). Wektor odegrał pewną rolę w powstaniu mechaniki kwantowej. Stosując go, Wolfgang Pauli otrzymał wartości energii w atomie wodoru na podstawie formalizmu macierzowego Heisenberga. Chwilę później Erwin Schrödinger zrobił to samo w swoim formalizmie i wielu fizyków nie wiedziało, co o tym myśleć, bo na pierwszy rzut oka oba podejścia różniły się kompletnie.

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

Oppenheimer o Einsteinie (1965 r.)

Robert Oppenheimer dziś znany jest głównie z kierowania Projektem Manhattan, czyli programem budowy pierwszych bomb atomowych. Wcześniej jednak, w latach trzydziestych, stworzył pierwszą amerykańską szkołę fizyki teoretycznej. Był charyzmatycznym wykładowcą, który zarażał entuzjazmem, nawet jeśli studenci nie byli pewni, czy się czegoś nauczyli – wykłady bardziej przypominały misteria niż systematyczne wprowadzanie materiału krok po kroku. Zgromadził wokół siebie grono studentów i doktorantów jeżdżących za nim między Caltechem a Berkeley. Znał świetnie i z pierwszej ręki osiągnięcia kwantowe: między 1925 a 1929 rokiem, a więc wtedy gdy powstawała mechanika kwantowa, pracował i dyskutował z Ralphem Fowlerem i Paulem Dirakiem w Cambridge, spędził jakiś czas w Lejdzie u Paula Ehrenfesta, potem w Getyndze zrobił doktorat u Maksa Borna, współpracował także z Wolfgangiem Paulim, poznał też wszystkich innych wielkich fizyków tego okresu. Gdy wracał do Stanów Zjednoczonych, miał już spory i interesujący dorobek. W latach trzydziestych raczej kierował pracą swoich młodych kolegów. Sam rzadko wykonywał jakieś obliczenia i w dodatku często się przy tym mylił. Miał wszakże nosa do wyszukiwania ważnych problemów, a intuicja pozwalała mu podążać w dobrym kierunku. Jego wadą było nietrzymanie się ziemi i brak zainteresowania systematycznymi rachunkami, lecz jako duchowy przewodnik grona młodych sprawdzał się znakomicie. Szerokie zainteresowania humanistyczne wzbudzały często w kolegach mieszane uczucia, lecz magnetyczna osobowość i neurotyczna wrażliwość przyciągała do niego kobiety. Historia jego związków erotycznych jest długa, powikłana i niezbyt nadaje się na przykład dla młodzieży.

Po wojnie i zakończeniu Projektu Manhattan Oppenheimer stał się sławny wśród szerokiej publiczności, uważano go za głównego autora bomby atomowej. Oczywiście, bomba była dziełem zbiorowym, ale też należy przyznać, że niestabilny emocjonalnie i przed wojną komunizujący fizyk przekształcił się w energicznego patriotę i inteligentnego przywódcę grona ludzi o wybujałych osobowościach, którzy niełatwo poddawali się czyimkolwiek poleceniom. W 1947 r. Oppenheimer został dyrektorem Institute for Advanced Study w Princeton i pełnił tę funkcję niemal dwadzieścia lat, najdłużej w dziejach Instytutu. Po raz pierwszy znalazł się tam jeszcze w 1935 r., donosił wtedy bratu w liście:

Princeton to dom wariatów: jego solipsystyczni luminarze błyszczą, każdy odobno, w nieuleczalnej pustce. Einstein jest zupełnie stuknięty.

Albert Einstein był pierwszą i największą gwiazdą IAS, placówki szczególnej, zatrudniających wyłącznie uczonych bardzo wybitnych, niemających żadnych obowiązków dydaktycznych i mogących za znaczne pieniądze w pełni poświęcić się pracy naukowej. Z początku oprócz Einsteina pracowali tam głównie matematycy. Do dziś zresztą fizyka teoretyczna i matematyka jest tam znakomita. Pracują tam Edward Witten, fizyk matematyczny o najwyższym indeksie Hirscha na świecie (158), Nima Arkani-Hamed czy Juan Maldacena, autor zasady holograficznej (najliczniej cytowana praca z fizyki, ponad 10 000 cytowań w niecałe dwadzieścia lat). Do tego mnóstwo medalistów Fieldsa, z których większość jakoś związana była z IAS w pewnym momencie.

Skąd więc negatywna opinia Oppenheimera? Z jego punktu widzenia – fizyka, dla którego w 1925 r. zaczął się najbardziej ekscytujący okres: stworzenie mechaniki kwantowej, ktoś taki jak Einstein, kto ignorując te najnowsze osiągnięcia, prowadził badania na swój własny sposób, mógł się wydawać dziwakiem. Prace Einsteina z tego okresu nie były zresztą całkowicie chybione, przyczyniły się bowiem do wyjaśnienia pewnych kwestii w ogólnej teorii względności. Sama jednak ta teoria była wówczas niezmiernie daleko od obserwacji i eksperymentów, przetestowano ją jedynie w przypadku dość słabych pól grawitacyjnych, a więc nie były to testy zbyt wymagające. Zastosowania kosmologiczne mogły wydawać się zbyt daleko idącą generalizacją: za pomocą mocno spekulatywnej teorii staramy się opisać wszechświat jako całość.

Chyba dopiero po wojnie Einstein zetknął się bliżej z Oppenheimerem, który starał się zdyskontować sławę starszego uczonego. Oto np. zdjęcie z tygodnika „Life”, gdzie ukazał się ilustrowany reportaż z IAS.

Podpis pod tym zdjęciem głosił: „Einstein opowiada Oppenheimerowi o swych najnowszych próbach objaśnienia materii w kategoriach przestrzeni”. Najprawdopodobniej obaj nie rozmawiali na tematy naukowe, dzieliło ich zbyt wiele. Zresztą Oppenheimer w zasadzie przestał już publikować i poświęcił się działalności administracyjnej oraz politycznej. Co ciekawe, choć Oppenheimer nie był jastrzębiem, jak np. Edward Teller, nie bardzo potrafili z Einsteinem uzgodnić poglądy na to, co należy robić w świecie, w którym wraz z bronią atomową pojawiło się niebezpieczeństwo zniszczenia cywilizacji. Anarchiczny Einstein nie potrafił zrozumieć słabości Oppenheimera do kuluarów waszyngtońskich i jego pragnienia odegrania roli w kształtowaniu polityki bezpieczeństwa. Z kolei Oppenheimer miał mu za złe publiczne wystąpienia, wzbudzające wielką wrzawę medialną. Einstein mógł sobie jednak pozwolić, by robić to, co uważał za słuszne, a nie to, co komuś się spodoba bądź nie spodoba.

W 1965 r. Oppenheimer wziął udział w dość dziwacznym międzynarodowym kolokwium w Paryżu poświęconym dziesięcioleciu śmierci Einsteina i Teilharda de Chardin, dziś już zapomnianego jezuity, filozofującego na temat ewolucji w duchu chrześcijańskim pod bożą opieką. Obu myślicieli nie łączyło nic prócz daty śmierci. Robert Oppenheimer postanowił przy tej okazji zdemitologizować postać Einsteina. Jego wystąpienie stało się znane, ukazało się bowiem w „The New York Review of Books” i odnotowała je prasa na całym świecie. Albert Einstein jawi się w nim jako uczony wyrastający z pewnej tradycji: teorii pola w fizyce i determinizmu w filozofii. I to właśnie owa tradycja stała się źródłem jego naukowej klęski w późniejszych latach.

Spędził te lata najpierw na próbach wykazania, że teoria kwantowa jest niekonsekwentna. Nikt nie potrafiłby obmyślić bardziej pomysłowych, nieoczekiwanych i sprytnych przykładów; okazało się jednak, że nie ma żadnych niekonsekwencji, a rozwiązania często można było znaleźć we wcześniejszych pracach samego Einsteina.

Historię piszą zwycięzcy, mechanika kwantowa okazała się niezwykle skuteczna, więc nie zwracano uwagi na trudności pojęciowe, jakie zawiera. Nurt głębokich wątpliwości odżył w ostatnich latach, nie wszystkie zastrzeżenia Einsteina były chybione. Oppenheimer patrzył jak szeregowy fizyk zaangażowany w bieżące osiągnięcia, Einsteina interesowały kwestie strategiczne: tworzenie teorii i szukanie pojęciowej jedności w naszej wiedzy o świecie.

Chociaż Einstein budził u wszystkich ciepłe uczucia, a nawet miłość za swą determinację w wypełnianiu własnego programu, stracił w dużym stopniu kontakt z profesją fizyka, ponieważ niektóre rzeczy przyszły w jego życiu zbyt późno, by mógł się nimi przejąć.

Znów: jest to część prawdy, lecz wypowiedziana w sposób cokolwiek arogancki jak na kogoś, kto od piętnastu lat sam nic nie opublikował. Einstein pracował do końca życia naukowo, nie zamienił się w działacza społecznego czy politycznego. Czy jego prace były świadectwem utraty kontaktu z profesją fizyka? Z pewnością nie były to prace nadzwyczajne czy przełomowe. Einstein przez jakieś dwadzieścia lat publikował prace wielkie. To bardzo długo, niektórzy wybitni uczeni są twórcami kilku ważnych prac. Żaden z twórców mechaniki kwantowej: ani Heisenberg, ani Schrödinger, ani nawet Dirac nie wpływali tak długo na rozwój fizyki. Zazwyczaj dziesięć twórczych lat to skala uczonego genialnego. Późne prace Einsteina nie miały wpływu na naukę, ale tak jest z ogromną większością prac – niech nas nie zwiodą ogromne liczby publikacji w dzisiejszym świecie, naprawdę ważnych prac ukazuje się niezbyt wiele, nawet w najlepszych czasopismach. Najlepszą pracą Oppenheimera okazała się paradoksalnie jego analiza (ze Snyderem) kolapsu grawitacyjnego gwiazdy z punktu widzenia ogólnej teorii względności. Sam chyba nie wierzył w jej prawdziwość. Można by więc orzec, że Oppenheimer stracił kontakt z profesją fizyka już po 1939 roku, a ostatnie ćwierć wieku był jedynie organizatorem i mówcą na konferencjach niewiążących się ściśle z fizyką.

Chyba tylko kompleksami uzasadnić można inne stwierdzenie Oppenheimera, że wczesne prace Einsteina były „olśniewająco piękne, ale z licznymi błędami”.

Po tym, co usłyszeliście, nie muszę dodawać jak błyskotliwa była jego inteligencja. Był niemal całkiem pozbawiony wyrafinowania i wyzbyty światowości. Myślę, że w Anglii określono by to jako brak wychowania, a w Ameryce jako brak edukacji.

Oppenheimer pochodził z rodziny bogatych Żydów nowojorskich, Einstein z żydowskiej drobnej burżuazji niemieckiej. Oczywiście, Einstein nie był jakimś prostaczkiem obdarzonym geniuszem naukowym. Jednak studiowanie Bhadgavadgity czy poezji T.S. Eliota niekoniecznie oznacza intelektualną rafinadę. Zdaniem Oppenheimera Einstein był dwudziestowiecznym Eklezjastesem, który z nieustępliwą i nieposkromioną radością powtarza: „Marność nad marnościami i wszystko marność”. Niewykluczone, że Oppenheimer nie potrafił uwolnić się od myśli o przemijalności własnych osiągnięć. Dowiedział się w tym czasie, że jest chory na raka krtani. Z pewnością jednak nie potrafił się zdobyć na spokojny obiektywizm, który był jedną z piękniejszych cech osobowości Einsteina.