Jak Bóg gra w kości: Czemu wzbudzony atom promieniuje? (1927-1930)

Stany elektronu związanego w atomie są w mechanice kwantowej dyskretne, tzn. energia przyjmuje ciąg ściśle określonych wartości. Np. w atomie wodoru jest to ciąg

E=-\dfrac{13,6\;{\rm eV}}{n^2},\;\; \mbox{gdzie}\;\; n=1,2,\ldots.

Konsekwencją tego faktu są linie widmowe: atom wysyła promieniowanie o energii ściśle odpowiadającej różnicy dwóch poziomów energetycznych. Może też pochłaniać promieniowanie o takiej energii. W roku 1916 Albert Einstein, zastanawiając się nad oddziaływaniem światła z materią, odkrył, że mamy tu do czynienia z trzema możliwymi procesami: gdy oświetlimy grupę atomów promieniowaniem o odpowiedniej energii, możemy wywołać przejścia między wyższym i niższym poziomem energetycznym w obie strony, tzw. przejścia wymuszone. Jeśli atom był w stanie podstawowym, może przejść do stanu wzbudzonego i odwrotnie: jeśli początkowo był w stanie wzbudzonym, może przejść do stanu podstawowego. Znaczy to, że jeśli początkowo większość atomów była w stanie o niższej energii (typowa sytuacja), to pod wpływem promieniowania pewna ich część przejdzie do stanu wzbudzonego, a część promieniowania zostanie pochłonięta. Oba procesy: absorpcji i emisji zachodzą z jednakową intensywnością, co Einstein odkrył (jednakowe są współczynniki wymuszonej emisji i absorpcji: B_{1\rightarrow 2}=B_{2\rightarrow 1}.) Czasem mówi się, że w ten sposób pojawiła się teoretyczna możliwość zbudowania lasera. Chodzi o to, że jeśli wytworzymy sytuację, w której większość atomów znajduje się w stanie wzbudzonym, to pod wpływem światła o ustalonej energii atomy zaczną wysyłać jeszcze więcej takiego samego światła. Tak właśnie działa laser, oczywiście wytworzenie i podtrzymanie tej specyficznej sytuacji, gdy stan wzbudzony obsadzony jest liczniej niż stan podstawowy, wymaga dostarczania energii z zewnątrz.

Trzeci proces odkryty przez Einsteina to emisja spontaniczna. Jeśli atom znajduje się w stanie wzbudzonym, to prędzej czy później wyemituje on spontanicznie foton i elektron przejdzie do stanu podstawowego. Spontanicznie, znaczy tu bez żadnego oddziaływania z zewnątrz. Żadnego promieniowania, żadnych pól zewnętrznych itd. itp. W przypadkowo wybranej chwili nasz atom wysyła foton. Dokładnie takie samo zjawisko zachodzi w rozpadzie promieniotwórczym np. radu. Jądro radu jest niestabilne i w przypadkowo wybranej chwili ulega rozpadowi z wysłaniem cząstki alfa, czyli jądra helu. Prawdopodobieństwo, że wybrany atom (jądro) nie ulegnie rozpadowi przez czas t jest równe

p(t)=e^{-\gamma t},

gdzie \gamma jest pewną stałą. Jest to prawo rozpadu promieniotwórczego albo prawdopodobieństwo przeżycia czasu t w rosyjskiej ruletce. Przypadek atomu i jądra różni się tylko rodzajem obiektu i sił oddziaływania, ale fizyka kwantowa jest taka sama. Einstein oznaczał stałą emisji spontanicznej literą A zamiast \gamma. Emisja spontaniczna odpowiada za większość promieniowania obserwowanego wokół nas, np. większość fotonów ze Słońca powstaje w emisji spontanicznej. Zjawisko to odpowiada za fakt, że każdy układ fizyczny z czasem przechodzi do stanu o niższej energii. Tylko stan o najniższej energii jest stabilny.

Einstein w roku 1916 nie zdawał sobie zapewne sprawy, jak niebezpieczny proces zapoczątkował. Szukał bowiem fizyki deterministycznej, w które skutek zawsze jest poprzedzony przyczyną. A tu mamy do czynienia z czymś, co nie ma żadnej określonej przyczyny. Jakby w przypadku wzbudzonego atomu czy jądra natura sama grała bezustannie w rodzaj rosyjskiej ruletki aż do skutku, tzn. aż do chwili gdy nasz układ przejdzie do stanu podstawowego. Co jest przyczyną emisji spontanicznej (rozpadu promieniotwórczego)? Nie ma tu zewnętrznego oddziaływania, tzn. musimy przyjąć, że nawet gdy nie ma zewnętrznych pól, „coś” zostaje: próżnia kwantowa. W roku 1927 Paul Dirac uzyskał teoretyczne wartości współczynników A, B Einsteina, stosując mechanikę kwantową, a właściwie zapoczątkowując kwantową elektrodynamikę.

Atom nigdy nie jest izolowany, istnieje bowiem pole elektromagnetyczne, które może zostać wzbudzone, nawet jeśli z początku nie było. Przyjmiemy, że stan wzbudzony ma energię E=0, a stan podstawowy energię E=-\hbar\omega_0 (istotna jest tylko różnica obu energii, a nie ich wartości z osobna). Znaczy to, że oczekujemy wyemitowania fotonu o częstości (kołowej) \omega_0. Oprócz atomu mamy też pole elektromagnetyczne, możemy je sobie wyobrażać np. jako fale stojące w wielkim pudle (technicznie: wnęce rezonansowej). Jeśli pole elektryczne znika na ściankach wnęki, fale stojące wyglądają następująco: 

tmp_44l2z5nv

Przedstawiliśmy cztery mody o najdłuższych falach i najniższych częstościach. Będą one dane funkcjami sinus: \sin kx, gdzie

kL=m\pi,\;\;\mbox{gdzie}\;\; m=1,2,3,\ldots

Częstości odpowiadające kolejnym wartościom m będą równe \omega_k =ck, gdzie c jest prędkością światła. Ciąg dopuszczalnych częstości jest nieograniczony z góry. Dowolne pole elektryczne w pustym pudle możemy przedstawić jako szereg takich sinusów, jest to matematycznie rzecz biorąc rozwinięcie w szereg Fouriera. Analogiczne rozwinięcie można przeprowadzić w pudle trójwymiarowym, szczegóły nie są nam potrzebne. Skwantowanie pola elektromagnetycznego polega na zastąpieniu zbioru dozwolonych modów fal przez zbiór oscylatorów kwantowych. Energia własna każdego oscylatora jest równa

E_n=\hbar\omega_k n, \;\;\mbox{gdzie}\;\; n=0,1,2,3,\ldots.

Matematyka oscylatorów jest bardzo prosta i omawialiśmy ją już kiedyś. Każdy stan o energii E_n możemy uważać za stan, w którym mamy n fotonów o energii \hbar\omega_k każdy. Przestrzeń stanów oscylatora możemy sobie wyobrażać jako liniowe kombinacje stanów |n\rangle odpowiadających energiom n \hbar\omega_k , czyli stanów różnych liczbach fotonów:

|\psi\rangle={\displaystyle \sum_{n=0}^{\infty}c_n|n\rangle.}

Stan kwantowy pola w pudle podamy określając stan każdego oscylatora-modu z osobna. Stanem o najniższej energii będzie zbiór stanów podstawowych każdego z oscylatorów. Oznacza to w języku kwantowym, że żaden oscylator nie jest wzbudzony albo inaczej: mamy zero fotonów każdego modu. Taki jest stan wyjściowy pola elektromagnetycznego w naszym pudle.

Gdyby pole elektromagnetyczne nie oddziaływało z żadnym elektronem, nie byłoby powodu, aby opuściło ono stan próżni. Podobnie, gdyby atom w stanie wzbudzonym nie oddziaływał z polem elektromagnetycznym, tkwiłby w tym stanie na wieczność. Wiemy jednak, że elektron ma ładunek, a ładunki oddziałują z polem elektromagnetycznym. Oznacza to, że w równaniu Schrödingera musimy uwzględnić dodatkowe wyrazy sprzęgające oba układy: atom i pole. Nie będziemy zajmować się tu konkretną postacią tego oddziaływania, wystarczy nam, by sprzęgało ono oba układy. Najpierw zapiszemy sytuację bez oddziaływania. Stan kwantowy naszego połączonego układu można opisać jako iloczyn stanu atomowego: wzbudzonego |1\rangle (energia E=0) bądź podstawowego |2\rangle (energia E=-\hbar\omega_0) oraz stanu próżni pola elektromagnetycznego |\Phi_0\rangle (energia pola E=0) bądź stanu jednofotonowego |k\rangle (energia pola E=\hbar\omega_k):

|\Psi\rangle=a(t)| 1\rangle | \Phi_0\rangle+{\displaystyle \sum_{k}b_k(t) | 2\rangle | k\rangle},

gdzie stanowi wzbudzonemu towarzyszą próżniowe stany fotonowe, a stanowi podstawowemu – stany  z jednym fotonem o energii \hbar\omega_k. Kwadraty modułu współczynników a, b_k są proporcjonalne do prawdopodobieństwa znalezienia układu odpowiednio w stanie wzbudzonym oraz podstawowym po wypromieniowaniu konkretnego fotonu o wektorze falowym k. Jeśli ograniczymy się tylko do takich stanów (to pierwsze z naszych przybliżeń), równanie Schrödingera sprowadza się do układu równań liniowych:

\dfrac{da}{dt}=-\dfrac{i}{\hbar}{\displaystyle \sum_{k}H_{1k}b_k, }

\dfrac{db_k}{dt}=-i(\omega_k-\omega_0)b_k-\dfrac{i}{\hbar}H_{k1}a.

Bez wyrazów sprzęgających atom z polem elektromagnetycznym, mielibyśmy a(t)=const jako rozwiązanie pierwszego równania, rozwiązanie drugiego miałoby zaś postać

b_k(t)=Ce^{-i(\omega_k-\omega_0)t}.

Oznaczałoby to stan stacjonarny, prawdopodobieństwo nie zmienia się z czasem. Szukamy rozwiązań, dla których a(0)=1 oraz b_k(0)=0. Łatwo jest znaleźć rozwiązanie drugiego równania w takiej sytuacji: ma ono postać pewnej funkcji czasu razy powyższy czynnik eksponencjalny:

b_k(t)=-\dfrac{i}{\hbar} e^{-i(\omega_k-\omega_0)t} {\displaystyle \int_{0}^{t} dt' H_{k1}a(t')e^{i(\omega_k-\omega_0)t'},}

co łatwo sprawdzić różniczkowaniem po t. Wstawiając to rozwiązanie do pierwszego równania otrzymujemy

\dfrac{da}{dt}=-\dfrac{1}{\hbar^2}{\displaystyle \sum_{k}|H_{1k}|^2  \int_{0}^{t} dt' a(t')e^{i(\omega_k-\omega_0)(t'-t)}}.

Skorzystaliśmy z faktu, że H_{1k}=H_{k1}^{\star}. Wyrażenie podcałkowe gwałtownie oscyluje i rozsądnie jest oczekiwać, że największy wkład wniosą wyrazy z t\approx t', wobec tego możemy przyjąć przybliżenie: a(t')=a(t) i wyraz zawierający a(t) wyłączyć przed całkę (przybliżenie Weisskopffa-Wignera, 1930). Zostaje wtedy

\dfrac{da}{dt}=-a(t)\dfrac{1}{\hbar^2}{\displaystyle \sum_{k}|H_{1k}|^2  \int_{0}^{t} dt' e^{i(\omega_k-\omega_0)(t'-t)}}.

Chcielibyśmy mieć

\dfrac{da}{dt}=-\dfrac{\gamma}{2}a,

bo wtedy prawdopodobieństwo przetrwania atomu w stanie wzbudzonym jest równe |a(t)|^2=\exp{(-\gamma t)}. Sumę po dozwolonych wartościach k możemy zapisać za pomocą funkcji gęstości stanów fotonowych. Liczba stanów w przedziale energii dE jest z definicji równa \rho(E)dE=\rho(\hbar\omega)\hbar d\omega. Dostajemy następujące wyrażenie dla stałej \gamma:

\gamma=\dfrac{2}{\hbar} {\displaystyle \int_{0}^{\infty} d\omega \rho(\hbar \omega) |H(\omega)|^2 \;\dfrac{ \sin(\omega-\omega_0)t }{\omega-\omega_0 }}.

Dla dużych wartości t funkcja podcałkowa jest iloczynem potęgowo zmieniającej się funkcji oraz ilorazu z funkcją sinus, który gwałtownie oscyluje. Wkład wnoszą tylko wyrazy \omega\approx \omega_0.

tmp_6gawvumr

Ostatecznie

\gamma=\dfrac{2\pi}{\hbar} |H(\hbar\omega_0)|^2\rho(\hbar\omega_0).

Jest to wynik uzyskany po raz pierwszy przez Diraca, ale zwany zwykle złotą regułą Fermiego. Liczba \pi pojawiła się jako całka 

{\displaystyle \int_{-\infty}^{\infty}dx\; \dfrac{\sin x}{x}=\pi.}

Można też obliczyć współczynniki b_k(t) w granicy dużych czasów. Okazuje się, że

|b(\omega)|^2\sim \dfrac{1}{(\omega-\omega_0)^2+\frac{\gamma^2}{4}}.

Daje to tzw. krzywą Lorentza na obrazku. Jest to naturalny kształt linii widmowej emitowanej przez nasz atom. Szerokość rozkładu równa jest \gamma.

tmp_540sr5iv

Wartość \gamma jest odwrotnością średniego czasu życia \tau stanu wzbudzonego:

\gamma=\dfrac{1}{\tau}.

Z obserwacyjnego punktu widzenia stan wzbudzony ma energię rozmytą z szerokością \Delta E= \hbar\gamma. Otrzymujemy zasadę nieoznaczoności dla energii: \Delta E\,\tau=\hbar. W przypadku cząstek elementarnych, które rozpadają się na jakieś inne cząstki będzie to znaczyć, że ich masa nie jest ściśle określona (bo E=mc^2). Ściśle określoną energię może mieć tylko stan podstawowy danego układu.

Kwantowa teoria pola stanowi odpowiedź na pytania stawiane przez Einsteina od roku 1905: Jak zmodyfikować teorię Maxwella, żeby uwzględniała ona efekty kwantowe. Fotony, zjawisko fotoelektryczne, oddziaływanie promieniowania z atomami itd. – wszystkie te kwestie zostały stopniowo rozstrzygnięte w sposób zgodny z obserwacjami. Postęp był tu pełen wahań i pojawiających się trudności natury zarówno fizycznej, jak matematycznej. W naszym przykładzie milcząco przyjęliśmy, że \gamma jest liczbą rzeczywistą, tzn. wzięliśmy część rzeczywistą całki. Jeśli obliczymy jej część urojoną, okaże się ona nieskończona w przypadku emisji w pustym pudle. Fizycznie część urojona współczynnika \gamma oznacza przesunięcie w energii wywołane oddziaływaniem z polem elektromagnetycznym. Takie przesunięcie zostało zaobserwowane w roku 1947 przez Willisa Lamba i zwane przesunięciem Lamba. Jest ono w rzeczywistości niewielkie i dopiero po wojnie udało się je obliczyć teoretycznie. Najpierw zrobił to Hans Bethe, potem inni twórcy elektrodynamiki kwantowej: Julian Schwinger, Sin-Itiro Tomonaga, Richard Feynman i inni. Albert Einstein wyłączył się z rozwijania fizyki kwantowej na początku lat trzydziestych i nie śledził jej kolejnych osiągnięć. Einstein nie zgadzał się z odrzuceniem przyczynowości, właśnie takim jak w emisji spontanicznej. Na jego usprawiedliwienie można dodać, że nie wszyscy fizycy młodszego – „kwantowego” – pokolenia wierzyli w prawdziwość elektrodynamiki kwantowej. Nawet Paul Dirac, który zapoczątkował tę drogę, nie wierzył, by znaleziono zadowalającą odpowiedź. Ostatecznie elektrodynamika kwantowa okazała się najdokładniejszą teorią, jaką stworzono w historii fizyki.

Prawdopodobieństwo wyemitowania fotonu w czasie (t,t+dt) jest równe \exp{(-\gamma t)}\gamma dt (prawdopodobieństwo dotrwania do chwili t razy prawdopodobieństwo rozpadu w przedziale czasu o długości dt, czyli \gamma dt), wobec tego średni czas życia atomu/cząstki jest równy

\tau={\displaystyle \int_{0}^{\infty} t \exp{(-\gamma t)} \gamma dt}=\dfrac{1}{\gamma}.

Oppenheimer o Einsteinie (1965 r.)

Robert Oppenheimer dziś znany jest głównie z kierowania Projektem Manhattan, czyli programem budowy pierwszych bomb atomowych. Wcześniej jednak, w latach trzydziestych, stworzył pierwszą amerykańską szkołę fizyki teoretycznej. Był charyzmatycznym wykładowcą, który zarażał entuzjazmem, nawet jeśli studenci nie byli pewni, czy się czegoś nauczyli – wykłady bardziej przypominały misteria niż systematyczne wprowadzanie materiału krok po kroku. Zgromadził wokół siebie grono studentów i doktorantów jeżdżących za nim między Caltechem a Berkeley. Znał świetnie i z pierwszej ręki osiągnięcia kwantowe: między 1925 a 1929 rokiem, a więc wtedy gdy powstawała mechanika kwantowa, pracował i dyskutował z Ralphem Fowlerem i Paulem Dirakiem w Cambridge, spędził jakiś czas w Lejdzie u Paula Ehrenfesta, potem w Getyndze zrobił doktorat u Maksa Borna, współpracował także z Wolfgangiem Paulim, poznał też wszystkich innych wielkich fizyków tego okresu. Gdy wracał do Stanów Zjednoczonych, miał już spory i interesujący dorobek. W latach trzydziestych raczej kierował pracą swoich młodych kolegów. Sam rzadko wykonywał jakieś obliczenia i w dodatku często się przy tym mylił. Miał wszakże nosa do wyszukiwania ważnych problemów, a intuicja pozwalała mu podążać w dobrym kierunku. Jego wadą było nietrzymanie się ziemi i brak zainteresowania systematycznymi rachunkami, lecz jako duchowy przewodnik grona młodych sprawdzał się znakomicie. Szerokie zainteresowania humanistyczne wzbudzały często w kolegach mieszane uczucia, lecz magnetyczna osobowość i neurotyczna wrażliwość przyciągała do niego kobiety. Historia jego związków erotycznych jest długa, powikłana i niezbyt nadaje się na przykład dla młodzieży.

Po wojnie i zakończeniu Projektu Manhattan Oppenheimer stał się sławny wśród szerokiej publiczności, uważano go za głównego autora bomby atomowej. Oczywiście, bomba była dziełem zbiorowym, ale też należy przyznać, że niestabilny emocjonalnie i przed wojną komunizujący fizyk przekształcił się w energicznego patriotę i inteligentnego przywódcę grona ludzi o wybujałych osobowościach, którzy niełatwo poddawali się czyimkolwiek poleceniom. W 1947 r. Oppenheimer został dyrektorem Institute for Advanced Study w Princeton i pełnił tę funkcję niemal dwadzieścia lat, najdłużej w dziejach Instytutu. Po raz pierwszy znalazł się tam jeszcze w 1935 r., donosił wtedy bratu w liście:

Princeton to dom wariatów: jego solipsystyczni luminarze błyszczą, każdy odobno, w nieuleczalnej pustce. Einstein jest zupełnie stuknięty.

Albert Einstein był pierwszą i największą gwiazdą IAS, placówki szczególnej, zatrudniających wyłącznie uczonych bardzo wybitnych, niemających żadnych obowiązków dydaktycznych i mogących za znaczne pieniądze w pełni poświęcić się pracy naukowej. Z początku oprócz Einsteina pracowali tam głównie matematycy. Do dziś zresztą fizyka teoretyczna i matematyka jest tam znakomita. Pracują tam Edward Witten, fizyk matematyczny o najwyższym indeksie Hirscha na świecie (158), Nima Arkani-Hamed czy Juan Maldacena, autor zasady holograficznej (najliczniej cytowana praca z fizyki, ponad 10 000 cytowań w niecałe dwadzieścia lat). Do tego mnóstwo medalistów Fieldsa, z których większość jakoś związana była z IAS w pewnym momencie.

Skąd więc negatywna opinia Oppenheimera? Z jego punktu widzenia – fizyka, dla którego w 1925 r. zaczął się najbardziej ekscytujący okres: stworzenie mechaniki kwantowej, ktoś taki jak Einstein, kto ignorując te najnowsze osiągnięcia, prowadził badania na swój własny sposób, mógł się wydawać dziwakiem. Prace Einsteina z tego okresu nie były zresztą całkowicie chybione, przyczyniły się bowiem do wyjaśnienia pewnych kwestii w ogólnej teorii względności. Sama jednak ta teoria była wówczas niezmiernie daleko od obserwacji i eksperymentów, przetestowano ją jedynie w przypadku dość słabych pól grawitacyjnych, a więc nie były to testy zbyt wymagające. Zastosowania kosmologiczne mogły wydawać się zbyt daleko idącą generalizacją: za pomocą mocno spekulatywnej teorii staramy się opisać wszechświat jako całość.

Chyba dopiero po wojnie Einstein zetknął się bliżej z Oppenheimerem, który starał się zdyskontować sławę starszego uczonego. Oto np. zdjęcie z tygodnika „Life”, gdzie ukazał się ilustrowany reportaż z IAS.

Podpis pod tym zdjęciem głosił: „Einstein opowiada Oppenheimerowi o swych najnowszych próbach objaśnienia materii w kategoriach przestrzeni”. Najprawdopodobniej obaj nie rozmawiali na tematy naukowe, dzieliło ich zbyt wiele. Zresztą Oppenheimer w zasadzie przestał już publikować i poświęcił się działalności administracyjnej oraz politycznej. Co ciekawe, choć Oppenheimer nie był jastrzębiem, jak np. Edward Teller, nie bardzo potrafili z Einsteinem uzgodnić poglądy na to, co należy robić w świecie, w którym wraz z bronią atomową pojawiło się niebezpieczeństwo zniszczenia cywilizacji. Anarchiczny Einstein nie potrafił zrozumieć słabości Oppenheimera do kuluarów waszyngtońskich i jego pragnienia odegrania roli w kształtowaniu polityki bezpieczeństwa. Z kolei Oppenheimer miał mu za złe publiczne wystąpienia, wzbudzające wielką wrzawę medialną. Einstein mógł sobie jednak pozwolić, by robić to, co uważał za słuszne, a nie to, co komuś się spodoba bądź nie spodoba.

W 1965 r. Oppenheimer wziął udział w dość dziwacznym międzynarodowym kolokwium w Paryżu poświęconym dziesięcioleciu śmierci Einsteina i Teilharda de Chardin, dziś już zapomnianego jezuity, filozofującego na temat ewolucji w duchu chrześcijańskim pod bożą opieką. Obu myślicieli nie łączyło nic prócz daty śmierci. Robert Oppenheimer postanowił przy tej okazji zdemitologizować postać Einsteina. Jego wystąpienie stało się znane, ukazało się bowiem w „The New York Review of Books” i odnotowała je prasa na całym świecie. Albert Einstein jawi się w nim jako uczony wyrastający z pewnej tradycji: teorii pola w fizyce i determinizmu w filozofii. I to właśnie owa tradycja stała się źródłem jego naukowej klęski w późniejszych latach.

Spędził te lata najpierw na próbach wykazania, że teoria kwantowa jest niekonsekwentna. Nikt nie potrafiłby obmyślić bardziej pomysłowych, nieoczekiwanych i sprytnych przykładów; okazało się jednak, że nie ma żadnych niekonsekwencji, a rozwiązania często można było znaleźć we wcześniejszych pracach samego Einsteina.

Historię piszą zwycięzcy, mechanika kwantowa okazała się niezwykle skuteczna, więc nie zwracano uwagi na trudności pojęciowe, jakie zawiera. Nurt głębokich wątpliwości odżył w ostatnich latach, nie wszystkie zastrzeżenia Einsteina były chybione. Oppenheimer patrzył jak szeregowy fizyk zaangażowany w bieżące osiągnięcia, Einsteina interesowały kwestie strategiczne: tworzenie teorii i szukanie pojęciowej jedności w naszej wiedzy o świecie.

Chociaż Einstein budził u wszystkich ciepłe uczucia, a nawet miłość za swą determinację w wypełnianiu własnego programu, stracił w dużym stopniu kontakt z profesją fizyka, ponieważ niektóre rzeczy przyszły w jego życiu zbyt późno, by mógł się nimi przejąć.

Znów: jest to część prawdy, lecz wypowiedziana w sposób cokolwiek arogancki jak na kogoś, kto od piętnastu lat sam nic nie opublikował. Einstein pracował do końca życia naukowo, nie zamienił się w działacza społecznego czy politycznego. Czy jego prace były świadectwem utraty kontaktu z profesją fizyka? Z pewnością nie były to prace nadzwyczajne czy przełomowe. Einstein przez jakieś dwadzieścia lat publikował prace wielkie. To bardzo długo, niektórzy wybitni uczeni są twórcami kilku ważnych prac. Żaden z twórców mechaniki kwantowej: ani Heisenberg, ani Schrödinger, ani nawet Dirac nie wpływali tak długo na rozwój fizyki. Zazwyczaj dziesięć twórczych lat to skala uczonego genialnego. Późne prace Einsteina nie miały wpływu na naukę, ale tak jest z ogromną większością prac – niech nas nie zwiodą ogromne liczby publikacji w dzisiejszym świecie, naprawdę ważnych prac ukazuje się niezbyt wiele, nawet w najlepszych czasopismach. Najlepszą pracą Oppenheimera okazała się paradoksalnie jego analiza (ze Snyderem) kolapsu grawitacyjnego gwiazdy z punktu widzenia ogólnej teorii względności. Sam chyba nie wierzył w jej prawdziwość. Można by więc orzec, że Oppenheimer stracił kontakt z profesją fizyka już po 1939 roku, a ostatnie ćwierć wieku był jedynie organizatorem i mówcą na konferencjach niewiążących się ściśle z fizyką.

Chyba tylko kompleksami uzasadnić można inne stwierdzenie Oppenheimera, że wczesne prace Einsteina były „olśniewająco piękne, ale z licznymi błędami”.

Po tym, co usłyszeliście, nie muszę dodawać jak błyskotliwa była jego inteligencja. Był niemal całkiem pozbawiony wyrafinowania i wyzbyty światowości. Myślę, że w Anglii określono by to jako brak wychowania, a w Ameryce jako brak edukacji.

Oppenheimer pochodził z rodziny bogatych Żydów nowojorskich, Einstein z żydowskiej drobnej burżuazji niemieckiej. Oczywiście, Einstein nie był jakimś prostaczkiem obdarzonym geniuszem naukowym. Jednak studiowanie Bhadgavadgity czy poezji T.S. Eliota niekoniecznie oznacza intelektualną rafinadę. Zdaniem Oppenheimera Einstein był dwudziestowiecznym Eklezjastesem, który z nieustępliwą i nieposkromioną radością powtarza: „Marność nad marnościami i wszystko marność”. Niewykluczone, że Oppenheimer nie potrafił uwolnić się od myśli o przemijalności własnych osiągnięć. Dowiedział się w tym czasie, że jest chory na raka krtani. Z pewnością jednak nie potrafił się zdobyć na spokojny obiektywizm, który był jedną z piękniejszych cech osobowości Einsteina.

Arnold Sommerfeld i zagadka widma wodoru (1916)

Miał historycznego pecha: był 81 razy nominowany do Nagrody Nobla z fizyki, ale nigdy jej nie dostał. „Planck był autorytetem, Einstein – geniuszem, a Sommerfeld – nauczycielem”, jak ujął to historyk Armin Hermann. Nauczycielem noblistów, trzeba dodać. Czterech jego doktorantów i trzech postdoków zostało później laureatami Nobla, a do tego dochodzi mnóstwo nazwisk uczniów i współpracowników, które i dziś znane są fizykowi. Jego ośrodek w Monachium obok Getyngi Maksa Borna i Kopenhagi Nielsa Bohra wychował całe pokolenie genialnych chłopców lat dwudziestych (osobny był tylko Paul Dirac, ale on był zawsze osobny). Sommerfelda wyjaśnienie struktury subtelnej widma wodoru było eleganckie i niezwykle dokładne. Jednak osiągnięcia Sommerfelda nie stanowiły zamkniętej teorii, było jeszcze za wcześnie na mechanikę kwantową. Trudno czynić mu z tego zarzut: ani Planck, ani Einstein nie posunęli się dalej.

Sommerfeld był właściwie matematykiem zajmującym się zagadnieniami fizyki matematycznej. Gdy w 1906 r. objął katedrę fizyki teoretycznej w Monachium nie było jeszcze fizyki kwantowej oprócz pionierskich prac Plancka i Einsteina. Dopiero podczas wojny Sommerfeld zainteresował się serio zagadnieniami kwantowymi. 

Czterdziestopięcioletni profesor nie został powołany do wojska ze względu na wiek, zresztą pomimo swego patriotyzmu nie był entuzjastą wojny, jak większość jego rodaków. Wkrótce jednak i jemu udzieliła się nieuchronna atmosfera paranoi i oblężonej twierdzy, podpisał np. antybrytyjski apel Wilhelma Wiena wzywający, by niemieccy uczeni nie publikowali w angielskich czasopismach i odrzucali „nieuzasadnione wpływy naukowe Anglików”. Było więcej tego rodzaju wstydliwych wystąpień, zresztą po obu stronach konfliktu. Zaledwie rok wcześniej, w roku 1913, zarówno Wien, jak Sommerfeld brali udział w drugim Kongresie Solvaya, gdzie spotykała się elita ówczesnych fizyków i mogło się wydawać, że nauki ścisłe nie mają narodowości.

855px-Solvay_conference_1913

Sommerfeld znany był z otwartości i bliskich kontaktów ze swymi studentami. Chodził z nimi na piwo i jeździli wspólnie na narty, w tamtych czasach taka postawa była rzadkością. Einstein, kiedy poznał Sommerfelda, obiecywał sobie, że będzie miał podobne podejście do studentów. Podczas wojny Sommerfeld prowadził wprawdzie nadal wykłady, ale wielu studentów i młodszych kolegów było na froncie. Chętnie jednak w miarę możliwości korespondowali na tematy naukowe, pozwalało im to na chwilę zapomnieć o toczącej się wciąż wojnie.

Sommerfeld stosował metodę, którą później wielokrotnie stosował Steven Weinberg: jeśli chcesz nauczyć się jakiegoś przedmiotu, wygłoś na ten temat cykl wykładów. W przypadku Sommerfelda wynikiem jest wielotomowy kurs fizyki teoretycznej, a także monografia Atombau und Spektrallinien („Budowa atomu i linie widmowe”), biblia pierwszych lat fizyki kwantowej. W przypadku Weinberga to seria znakomitych solidnych podręczników na różnym poziomie, a także zarys historii fizyki.

W lutym 1915 roku Sommerfeld pisał do Wiena: „W tym semestrze prowadziłem wykłady na temat [modelu] Bohra i interesuję się tą kwestią, na ile wojna pozwala. Dzisiejsze 100 000 Rosjan to z pewnością piękniejsza wiadomość niż wyjaśnienie serii Balmera przez Bohra. Mam jednak piękne nowe wyniki na ten temat.” Owe 100 000 Rosjan to jeńcy po bitwie nad jeziorami mazurskimi. Przez cały rok 1915 Sommerfeld pracował, choć z przerwami, nad zagadnieniem atomu. Udało mu się uogólnić warunki kwantowania Bohra, a następnie zastosował do elektronu mechanikę szczególnej teorii względności (którą także w owym czasie wykładał). Model relatywistyczny pozwolił wyjaśnić rozszczepienie optycznych linii widmowych wodoru, a także optycznych i rentgenowskich linii cięższych pierwiastków. Wyjaśniła się w ten sposób kwestia znana od wielu lat: linie widmowe pierwiastków mają często kilka blisko położonych składowych widocznych przy dużej zdolności rozdzielczej (np. żółta linia sodu świecąca w lampach sodowych jest dubletem). Tę strukturę subtelną wodoru odkryli Albert Michelson i Edward Morley jeszcze w roku 1887. Dzięki Sommerfeldowi wyjaśniło się, że odgrywa tu rolę szczególna teoria względności, w latach 1915-1916 jej słuszność wcale nie była jeszcze oczywista, obie teorie względności jeszcze długo później uchodziły za „kontrowersyjne”, pamiętajmy, że Nagrodę Nobla przyznano Einsteinowi z wyraźnym zastrzeżeniem, iż nie jest nagrodą za teorię względności. Wspominany w tym blogu kilkukrotnie Ernst Gehrcke, zaciekły przeciwnik teorii Einsteina, był specjalistą od pomiarów widmowych. Przez lata spierał się z Friedrichem Paschenem, który zmierzył wielkość rozszczepienia linii zgodną z wynikami Sommerfelda. Gehrcke otrzymywał wciąż nieco inną wartość. I to z pozornie obiektywnych pomiarów, w których widmo było rejestrowane przez przyrząd. Nienawiść zaślepia. 

Wynik Sommerfelda niemal pokrywa się z tym, co uzyskano później z równania Diraca. Eleganckie i zgodne z obserwacjami wyniki Sommerfelda stały się największym sukcesem tzw. starej teorii kwantów, czyli fizyki sprzed powstania mechaniki kwantowej. Co ciekawe, twórcy mechaniki kwantowej, Schrödinger i Pauli, publikując rozwiązania dla atomu wodoru w styczniu 1926 roku, nie do końca byli usatysfakcjonowani. Obaj bowiem, zupełnie niezależnie, próbowali osiągnąć wynik Sommerfelda i im się to nie udało. Musieli zadowolić się podejściem nierelatywistycznym, bez struktury subtelnej. Mieli więc świadomość, że górują pod względem metody, ale nie dorównują wynikom Sommerfelda. Relatywistyczną mechanikę kwantową zapoczątkował w 1928 r. Paul Dirac, lecz okazało się dość szybko, jeszcze w latach trzydziestych, że potrzebna jest tu kwantowa teoria pola. Obliczenia w ramach teorii pola szybko doprowadziły do impasu: niektóre wyniki okazywały się nieskończone. Wyjście z tego impasu znaleziono dopiero po II wojnie światowej: było nim sformułowanie elektrodynamiki kwantowej przez Juliana Schwingera, Shin’ichirō Tomonagę i Richarda Feynmana. Dopiero wtedy dokładność teorii (a także pomiarów) wyprzedziła wyniki Sommerfelda i Diraca.

W modelu Bohra dozwolone są orbity kołowe, które spełniają warunek

L=mrv=n\dfrac{h}{2\pi},

gdzie L,r,m,v,h to odpowiednio moment pędu, promień orbity, masa i prędkość elektronu oraz stała Plancka, a n jest dodatnią liczbą całkowitą. Max Planck interesował się zagadnieniem oscylatora harmonicznego – oscylatory takie emitują bądź pochłaniają fale elektromagnetyczne. Można opisać je w przestrzeni fazowej, gdzie współrzędnymi są położenie q oraz pęd p. Jeśli położenie w zależności od czasu opisane jest równaniem q=A \sin 2\pi\nu t (\nu jest częstością), to pęd elektronu jest równy p=m2\pi\nu A \cos 2\pi\nu t i łatwo sprawdzić, że tor w przestrzeni fazowej jest elipsą (wystarczy skorzystać z jedynki trygonometrycznej). Warunek kwantowania Plancka ma postać następującą:

quantum action

Pole zakreślane w przestrzeni fazowej przez elektron jest wielokrotnością stałej h. Można ten warunek zapisać w postaci

W={\displaystyle \int dp dq =nh.}

Zastanawiano się także nad dodaniem jakiejś stałej w rodzaju 1/2 do n, ale na razie zostawmy to bez stałej. Dla eliptycznego toru w przestrzeni fazowej, mamy więc W=\pi A (m\omega A)=nh. Obliczając energię oscylatora, otrzymamy

E=\dfrac{p_{max}^2}{2m}= nh\nu.

Jest to zgodne z tym, co na temat oscylatorów twierdzili Planck i Einstein.

Warunek kwantowania można zapisać także w postaci:

W={\displaystyle \int (p_{+}-p_{-})dq=\oint p dq=nh.}

Druga całka jest po zamkniętym konturze, jej sens geometryczny jest taki sam.

quantum_action_3

quantum_action_2

Sommerfeld zastosował warunki kwantowania w tej drugiej postaci do ruchu elektronu w polu kulombowskim. Ruch klasyczny jest płaski, mamy więc dwa stopnie swobody. Położenie elektronu określają np. współrzędne biegunowe: odległość od jądra r oraz kąt \varphi z ustalonym kierunkiem. Odpowiadają tym zmiennym dwa pędy: składowa radialna p_r oraz składowa styczna p_{\varphi}. W naszym przypadku element odległości ds w zmiennych biegunowych ma postać

ds^2=dr^2+r^2 d\varphi^2.

polar coordinates

Iloczyn p dq w przypadku składowej radialnej przyjmuje postać m\frac{dr}{dt} dr=p_r dr, a w przypadku składowej stycznej p_{\perp}r d\varphi = p_{\varphi} d\varphi \equiv L d\varphi, pędem skojarzonym z kątem jest po prostu moment pędu. Można to uzasadnić ściślej, istnieje w mechanice precyzyjny przepis, jak dowolnej zmiennej uogólnionej przypisać odpowiedni pęd, por. niżej (*).

Przestrzeń fazowa jest teraz czterowymiarowa. Mamy dwa warunki kwantowania dla obu par zmiennych. Dla kąta \varphi i L warunek jest trywialny i pokrywa się z warunkiem Bohra:

{\displaystyle \oint L d\varphi=L2\pi=n_{\varphi}h.}

Dla zmiennych radialnych otrzymujemy coś nowego:

{\displaystyle \oint p_r dr=n_{\varphi} h}

gdzie liczby kwantowe n_r, n_{\varphi} mogą się różnić. Ponieważ dopuszczamy teraz zmiany odległości od jądra, należy się spodziewać, że podobnie jak w przypadku ruchu planet wokół Słońca dopuszczalne ruchy elektronu będą zachodzić po elipsach (mówimy tylko o stanach związanych, warunki kwantowania dotyczą tylko takiej sytuacji). 

Energia kinetyczna elektronu jest zatem równa

E_k=\dfrac{m}{2}\dfrac{ds^2}{dt^2}=\dfrac{m}{2}(\dot{r}^2+r^2\dot{\varphi}^2)=\dfrac{p_r^2}{2m}+\dfrac{p_{\varphi}^2}{2mr^2}.

Całkowita energia elektronu w atomie wodoru (pomijamy ruch jądra) dana jest wyrażeniem

E=\dfrac{p_r^2}{2m}+\dfrac{p_{\varphi}^2}{2mr^2}-\dfrac{e^2}{r},

gdzie piszemy e^2\equiv\dfrac{q_e^2}{4\pi\varepsilon_0} (q_e, \varepsilon_0 to ładunek elementarny i przenikalność dielektryczna próżni). Możemy wyznaczyć p_r z równania energii i wstawić do warunku kwantowania. Obliczając całkę (**) i wyznaczając E dostajemy wynik Bohra:

E=-\dfrac{me^4}{2\hbar^2 (n_r+n_{\varphi})^2}\equiv-mc^2\dfrac{\alpha^2}{2n^2}.

Zamiast jednej liczby kwantowej, mamy teraz sumę dwóch liczb kwantowych: n=n_r+n_{\varphi}. Stała \alpha jest bezwymiarowa i równa

\alpha=\dfrac{e^2}{\hbar c}\approx 1/137.

Stała ta zwana stałą struktury subtelnej nabiera znaczenia w teorii relatywistycznej, jak zobaczymy niżej. Istnieje więc pewna liczba stanów o tej samej energii: wszystkie odpowiadają orbitom o tej samej dużej osi i różnym spłaszczeniu. Łatwo pokazać, że stosunek długości osi małej b i dużej a jest równy

\dfrac{b}{a}=\dfrac{n_{\varphi}}{n_r+n_{\varphi}}.

Sommerfeld wykluczył stany o zerowym momencie pędu, gdy tor elektronu jest odcinkiem o końcu w jądrze atomu. W ten sposób zamiast trzeciej orbity Bohra mamy zestaw okręgu i dwóch elips (jądro jest zawsze w ognisku elipsy). Mamy więc w ogólności wiele stanów o tej samej energii: zdegenerowanych.

sommerfeld 3

Nietrudno procedurę Sommerfelda uogólnić na przypadek relatywistyczny. Klasyczne elipsy ulegają teraz precesji. Nie jest to precesja Einsteina z ogólnej teorii względności, Sommerfeld, śledzący na bieżąco postępy Einsteina, doskonale wiedział o różnicy. Obliczył nawet, że w przypadku Merkurego precesja byłaby równa 7 sekund kątowych na stulecie.

p0347-sel

Rysunek z Atombau Sommerfelda

Wystarczy wstawić mc^2+E=\sqrt{p^2c^2+m^2c^4} do równania na energię, E jest ujemną energią wiązania. Ponownie wyznaczając p_r i całkując warunek kwantowy, otrzymamy

E+mc^2=mc^2\left\{ 1+\dfrac{\alpha^2}{\left( n_r+\sqrt{n_{\varphi}^2-\alpha^2}\right)^2} \right\}^{-\frac{1}{2}}.

W bardziej przejrzystym przybliżeniu w postaci szeregu w stałej struktury subtelnej:

E\approx -mc^2\dfrac{\alpha^2}{2n^2}-mc^2\dfrac{\alpha^4}{2n^4}\left( \dfrac{n_r+n_\varphi}{n_{\varphi}}-\dfrac{3}{4}\right).

Wyniki te niewiele zmieniają się w teorii Diraca, należy tylko zastąpić n_{\varphi} przez j+\frac{1}{2}, gdzie j jest liczbą kwantową całkowitego momentu pędu z uwzględnieniem spinu. Oczywiście w roku 1916 o spinie jeszcze nikt nie słyszał. W elektrodynamice kwantowej wyniki uzyskuje się w postaci szeregu potęgowego względem \alpha. Dzięki takim rozwinięciom można elektrodynamikę potwierdzić z dokładnością kilkunastu cyfr znaczących.

 

(*) W przypadku współrzędnych uogólnionych pędy zdefiniowane są jako

p_i=\dfrac{\partial E_k}{\partial \dot{q_i}},

gdzie E_k jest energią kinetyczną, a \dot{q_i} pochodną czasową zmiennej q_i.

(**) Całki występujące w obu wersjach kwantowania Sommerfelda są postaci

{\displaystyle \oint \dfrac{dx}{x}\sqrt{-Ax^2+2Bx-C}=2\pi\left(\dfrac{B}{\sqrt{A}}-\sqrt{C}\right) }.

Współczynniki A,B,C są dodatnie i wyrażenie podcałkowe ma dwa miejsca zerowe. Można w tym przypadku znaleźć całkę nieoznaczoną i wziąć ją w odpowiednich granicach. Metoda elegancka to scałkowanie wyrażenia na płaszczyźnie zespolonej z rozcięciem wzdłuż osi rzeczywistej między dwoma pierwiastkami. Można też użyć pakietu Sagemath, Maxima albo Mathematica.

Widmo wodoru i symetrie (1/2)

I. Od Balmera do Bohra

Naszym bohaterem jest zbiór linii widmowych wodoru i proste wyrażenie, które go opisuje. Widmo składa się z serii, z których najbardziej znana jest seria Balmera przypadająca na obszar widzialny i bliski nadfiolet.

 

Długości fali w angstremach (1 {\rm \AA}=10^{-10} {\rm m}).

Jakob Balmer, znając długości czterech pierwszych linii, odgadł ukrytą w nich prawidłowość. Długości fal spełniają równanie

\lambda=h\,\dfrac{n^2}{n^2-4},\;\;n=3,4,5,6,

gdzie h jest stałą. Okazało się, że seria linii jest nieskończona, jeszcze za życia Balmera jego wzór potwierdził się dla kilkunastu linii. Okazało się też, że istnieją inne serie widmowe. Wszystkie można opisać wzorem

\dfrac{1}{\lambda}=R\left(\dfrac{1}{m^2}-\dfrac{1}{n^2}\right),\; n=m+1,\,m+2,\,\ldots,

gdzie m=1,2,3, \ldots, a stała R zwana jest stałą Rydberga. Co ważne, wzór Balmera, w tej wersji zwany najczęściej wzorem Rydberga, w przypadku wodoru spełniony jest bardzo dokładnie, choć jeszcze pod koniec XIX wieku zaobserwowano, że linie widmowe wodoru są naprawdę dubletami: parami bardzo blisko położonych linii. Tą tzw. strukturą subtelną nie będziemy się tu zajmować. Wyjaśnia ją równanie Diraca, a więc uwzględnienie efektów relatywistycznych oraz spinu elektronu. Efekty relatywistyczne są jednak poprawkami do energii rzędu \alpha^2, gdzie \alpha\approx\frac{1}{137} jest stałą struktury subtelnej, a więc pięć rzędów wielkości mniejszymi.

Postać wzoru Rydberga łatwo zrozumieć jako zapis zasady zachowania energii, jeśli posłużymy się pojęciem fotonu, wprowadzonym przez Alberta Einsteina w 1905 r. (określenie foton jest dużo późniejsze). Cząstki światła mają energię

E=h\nu=\dfrac{h c}{\lambda},

h, c, \nu oznaczają odpowiednio stałą Plancka, prędkość światła i częstość fotonu. Zatem wzór Rydberga oznacza, że poziomy energetyczne elektronu w atomie wodoru dane są równaniem

E_n=-\dfrac{hcR}{n^2},\,\, n=1,2,3,\ldots.

Dlaczego taka, a nie inna wartość R? Dlaczego pojawia się tu kwadrat liczby naturalnej? Tak proste wyrażenie powinno mieć jakieś uzasadnienie. 

Niels Bohr pierwszy podał teoretyczne wyjaśnienie wartości stałej Rydberga w swoim planetarnym modelu atomu. Energie elektronu na dozwolonych orbitach są w nim równe

E_n=-\dfrac{me^4}{2\hbar^2 n^2},

tutaj m oznacza masę elektronu, e^2=\frac{q_e^2}{4\pi\epsilon_0} to kwadrat ładunku elementarnego razy stała z prawa Coulomba, \hbar\equiv h/2\pi. Liczba naturalna n jest u niego po prostu numerem orbity i konsekwencją postulatu kwantowego:

L=mvr=n\hbar.

Słowami: moment pędu L elektronu na orbicie o promieniu r i prędkości v jest wielokrotnością stałej Plancka. Postulat ten nie wynikał z głębszych rozważań, trzeba go było przyjąć, aby otrzymać prawidłowe wyniki. Można powiedzieć, że Bohr przesunął zgadywankę Balmera z numerologii na teren fizyki.

Ogromnym sukcesem było powiązanie stałej Rydberga z wielkościami elementarnymi: masą i ładunkiem elektronu, stałą Plancka i siłą oddziaływań elektrostatycznych. Zawsze kiedy uda się tego rodzaju sztuka, znaczy, że jesteśmy blisko jakieś bardziej fundamentalnej prawdy. Jednak model Bohra od początku był prowizoryczny. W myśl klasycznej elektrodynamiki elektron krążący po orbicie z pewną częstością f powinien promieniować falę elektromagnetyczną o częstości f. Tymczasem w jego modelu do emisji promieniowania dochodzi, gdy elektron przeskakuje między dwiema orbitami, z których każda charakteryzuje się jakąś częstością krążenia f_n. Podobieństwo do fizyki klasycznej pojawia się dopiero, gdy weźmiemy dwie orbity o dużych numerach, wtedy

\nu_{n+1 n}\approx f_{n}\approx f_{n+1}.

Niels Bohr bardzo niechętnie pogodził się z ideą fotonu. Rozumiał oczywiście, że eksperyment potwierdza proste równanie h\nu=E_n-E_m, tajemnicą był jednak mechanizm fizyczny, jaki za tym stał. Nie znał go ani Einstein, ani Bohr, foton wszedł do fizyki na dobre dopiero w roku 1925. Teorią, która poprawnie przewiduje wartości energii w atomie wodoru, jest mechanika kwantowa. A w pełni konsekwentny opis emisji fotonu daje dopiero kwantowa teoria pola, w której foton jest kwantem pola elektromagnetycznego.

II. Erwin Schrödinger, 1925

W połowie roku 1925 Werner Heisenberg wpadł na pomysł, aby wprowadzić do fizyki wielkości, których mnożenie jest nieprzemienne: operatory albo macierze. W krótkim czasie powstały trzy na pozór niezależne formalizmy do opisania fizyki kwantowej: macierze Heisenberga (oraz Maksa Borna i Pascuala Jordana, którzy wraz z Heisenbergiem rozwinęli tę ideę), funkcje falowe Erwina Schrödingera oraz abstrakcyjny formalizm Paula Diraca.

Krótkie omówienie formalizmu mechaniki kwantowej znajduje się na końcu wpisu.

Wersja Schrödingera najbardziej przypominała klasyczną fizykę drgań. Aby znaleźć dozwolone energie elektronu należy rozwiązać równanie 

-\dfrac{\hbar^2}{2m}\Delta\psi-\dfrac{e^2}{r}\psi=E\psi,

gdzie r jest odległością od jądra, a \Delta to laplasjan, czyli suma drugich pochodnych:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}.

Wyraz z laplasjanem odpowiada energii kinetycznej, drugi wyraz po lewej stronie odpowiada energii potencjalnej. Szukamy takich funkcji \psi(x,y,z), które wstawione po lewej stronie dadzą po prawej liczbę pomnożoną przez tę samą funkcję \psi. Funkcja taka to funkcja własna, a energia jest wartością własną. Otrzymujemy w ten sposób stany niezależne od czasu, stacjonarne, i tylko takimi będziemy się zajmować.

Funkcje falowe \psi powinny znikać w nieskończoności oraz nie mieć osobliwości. Warunki te prowadzą do skwantowanych poziomów energetycznych. Ponieważ problem jest sferycznie symetryczny (energia potencjalna zależy tylko od odległości elektronu od protonu r), więc można wprowadzić współrzędne sferyczne: odległość od początku układu r, dopełnienie szerokości geograficznej do 90^{\circ} oznaczane \vartheta oraz długość geograficzną oznaczaną \varphi.

spherical

Korzystamy z tożsamości

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{L^2}{\hbar^2},

gdzie L^2 jest operatorem zależnym tylko od kątów, a nie od r. Możemy zapisać równanie Schrödingera w postaci

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Sama funkcja falowa nie musi być jednak sferycznie symetryczna i można ją zapisać w postaci iloczynu funkcji zależnych od promienia i od kątów:

\psi(r,\vartheta,\varphi)=R(r)Y(\vartheta,\varphi).

Podstawiając tę funkcję do równania Schrödingera i dzieląc obustronnie przez \psi możemy doprowadzić je do postaci:

\dfrac{L^2 Y}{Y}=\lambda=\dfrac{1}{R}\, \hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right).

Po lewej stronie mamy funkcje zależne od kątów, po skrajnej prawej zależne od odległości. Rozseparowaliśmy zmienne, oba wyrażenia muszą równać się wspólnej stałej \lambda. Mamy więc dwa prostsze równania:

\begin{array}{c} -\dfrac{\hbar^2}{2m}\,\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial R}{\partial r}\right)+\left(\dfrac{\lambda}{2m r^2}-\dfrac{e^2}{r}\right)R=ER \\[20pt] L^2 Y=\lambda Y. \end{array}

Drugie z tych równań nie zawiera potencjału i jest stałym punktem programu dla wszystkich sytuacji z symetrią sferyczną. Rozwiązaniami są tzw. harmoniki sferyczne Y_{lm}(\vartheta,\varphi), gdzie l=0,1,2,\ldots, a dla każdej wartości l mamy 2l+1 różnych wartości m=-l,-l+1,\ldots. l Dozwolone wartości własne równe są \lambda=\hbar^2 l(l+1). Kształt przestrzenny tych funkcji każdy widział jako obrazki orbitali s,p,d itd. Funkcje te przydają się zawsze, gdy mamy do czynienia z rozkładem jakiejś wielkości na sferze, np. mapy promieniowania tła w kosmologii albo szczegóły ziemskiego pola grawitacyjnego z uwzględnieniem niesferyczności Ziemi itp (Wtedy oczywiście nie pojawia się w tych wzorach stała Plancka, ale to szczegół techniczny).

Spójrzmy raz jeszcze na pierwsze równanie (radialne), w którym wprowadzamy nową funkcję radialną: u(r)\equiv rR(r):

-\dfrac{\hbar^2}{2m}\,\dfrac{\partial^2 u}{\partial r^2}+\left(\dfrac{\hbar^2 l(l+1)}{2m r^2}-\dfrac{e^2}{r}\right)u=Eu.

Jest to równanie Schrödingera jednowymiarowe. mamy teraz jeden wymiar: radialny, ale bardziej skomplikowany potencjał: do energii elektrostatycznej doszedł dodatni człon z l(l+1). Jego znaczenie fizyczne dość łatwo zidentyfikować przez analogię do mechaniki klasycznej. W ruchu w polu kulombowskim możemy w każdej chwili rozłożyć wektor pędu elektronu na składową radialną p_r i prostopadłą do niego składową styczną p_t. Zgodnie z tw. Pitagorasa energia kinetyczna ma postać

E_k=\dfrac{p_r^2}{2m}+\dfrac{p_t^2}{2m}=\dfrac{p_r^2}{2m}+\dfrac{L^2}{2mr^2},

w ostatniej równości skorzystaliśmy z faktu, że moment pędu elektronu L=rp_{t}. Gdybyśmy dla takiego radialnego problemu napisali równanie Schrödingera, byłoby to właśnie równanie, które uzyskaliśmy w wyniku separacji zmiennych. Zatem dozwolone kwantowe wartości kwadratu momentu pędu są równe L^2=\hbar^2 l(l+1). Nie jest to, rzecz jasna, dowód, lecz wskazanie prawdopodobnej (i prawdziwej) interpretacji fizycznej naszego równania. Mamy więc efektywne potencjały zależne od nieujemnej całkowitej liczby kwantowej l. Wyglądają one w przypadku atomu wodoru następująco:

tmp_iispvexy

Studnia potencjału tylko w przypadku l=0 jest nieskończenie głęboka, wraz z rosnącym l staje się ona coraz płytsza. Nie będziemy rozwiązywać do końca tego równania radialnego. Okazuje się, że aby uzyskać funkcje znikające w nieskończoności i nie wybuchające w pobliżu r=0, rozwiązania mają postać

R_{nl}(r)=W_{n-1 l}(r)e^{-r/na_0},

gdzie n jest tzw. główną liczbą kwantową, a_0 promieniem Bohra (promieniem pierwszej orbity w modelu Bohra), a W jest wielomianem stopnia n-1. Dozwolone wartości l=0,1,\ldots, n-1. Prawdopodobieństwa dane są kwadratami funkcji falowej. Np. dla stanu podstawowego wodoru wygląda to tak.

tmp_72yjso5t

Pionowa linia wskazuje granicę obszaru dozwolonego klasycznie, tzn. takiego, że energia całkowita jest większa od energii potencjalnej (poza tym obszarem energia kinetyczna powinna być ujemna). Falowy charakter równania przejawia się w tym, że nic nie dzieje się nagle, funkcja zanika płynnie w pewnym obszarze. Fizycznie oznacza to możliwość przenikania barier potencjału, czyli efekt tunelowy, odpowiedzialny m.in. za świecenie gwiazd.

Energie stanów równe są dokładnie temu, co obliczył Bohr. Zależą one tylko od n, a nie zależą od wartości l, mimo że potencjał efektywny jest zupełnie inny przy różnych l. Łącznie danej wartości n odpowiada n^2 różnych rozwiązań. Bezpośrednie rozwiązanie równania Schrödingera nie bardzo pozwala zrozumieć, skąd się bierze aż taka rozmaitość. Te same energie powinniśmy otrzymywać dla jednakowego l i różnych wartości m, bo oznaczają one różne wartości rzutu momentu pędu na oś z. Zatem symetria obrotowa wyjaśnia tylko część degeneracji stanów w atomie wodoru. Jeśli weźmiemy pod uwagę potencjał inny niż kulombowski, to ta dodatkowa degeneracja zniknie: stany o różnych l rozszczepią się energetycznie. Tak jest np. w atomie litu, gdzie elektron walencyjny porusza się w efektywnym polu jądra oraz dwóch pozostałych elektronów. Z daleka mamy więc tylko ładunek (3-2)q_e=q_e, tak jak w atomie wodoru, z bliska jednak potencjał jest inny, choć nadal sferycznie symetryczny.

lithlev

Nawet po rozwiązaniu zagadnienia atomu wodoru za pomocą równania Schrödingera nadal niezbyt dobrze rozumiemy, dlaczego stany są zdegenerowane: E_{2s}=E_{2p}, E_{3s}=E_{3p}=E_{3d}, itd. W przyszłości pokażemy, że stany związane atomu wodoru wykazują  dodatkową symetrię i że łącznie grupą symetrii jest tu grupa obrotów w przestrzeni czterowymiarowej. Dopiero ten fakt wyjaśnia głębiej wzór Balmera.

Poniżej przedstawiłem niektóre szczegóły matematyczne dla zainteresowanych.

Zasady mechaniki kwantowej w przypadku jednej cząstki

Stany cząstki

Stan elektronu w formalizmie Schrödingera opisujemy za pomocą pewnej funkcji (zespolonej) falowej \psi(x,y,z,t). Rozmaite dopuszczalne funkcje można traktować jak wektory: dodawanie funkcji i mnożenie przez liczbę (zespoloną) daje inną dopuszczalną funkcję. Zbiorem funkcji może być np. zbiór funkcji znikających dostatecznie szybko w nieskończoności:

{\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \, dV<\infty.

Określamy także operację iloczynu skalarnego dwóch funkcji:

(\psi,\chi)={\displaystyle \int_{{\bf R}^3}}\; \psi^{\star}\chi\, dV.

Iloczyn wektora przez siebie jest kwadratem jego długości, czyli normy:

\lVert \psi \rVert^2=(\psi,\psi)={\displaystyle \int_{{\bf R}^3}}\; |\psi(x,y,z)|^2 \,dV.

Definiując odległość dwóch wektorów \psi, \chi jako \Vert \psi-\chi\rVert otrzymujemy przestrzeń Hilberta (do definicji należy jeszcze dodać warunek zupełności: żeby ciągi zbieżne w normie nie wyprowadzały poza naszą przestrzeń).

Wielkości fizyczne

Wielkościom fizycznym odpowiadają operatory, czyli przekształcenia liniowe określone na przestrzeni funkcji. Liniowość oparatora A oznacza, że dla dowolnych dwóch wektorów \psi,\chi i dowolnych dwóch liczb zespolonych \alpha,\beta, mamy

A(\alpha \psi+\beta\chi)=\alpha A\psi+\beta A\chi.

Łatwo to sprawdzić w poszczególnych przypadkach, np. dla składowej x pędu otrzymamy: p_x(\psi_1+\psi_2)=p_x\psi_1+p_x\psi_2, bo pochodna sumy funkcji, to suma pochodnych itd. Operatory odpowiadające wielkościom fizycznym muszą być hermitowskie, tzn. dla dowolnych wektorów mamy

(\chi, A\psi)=(A\chi,\psi).

Warunek ten zapewnia, że mierzone wartości wielkości fizycznych są rzeczywiste, mimo że cały formalizm oparty jest na liczbach zespolonych.

Operatory można składać, czyli mnożyć, wykonując po prostu jedną operację po drugiej. Składając więc operator B i następnie operator A otrzymujemy AB, który działa następująco na wektor:

(AB)\psi=A(B\psi).

Jasne jest, że tak określone mnożenie operatorów na ogół jest nieprzemienne, tzn. wynik zależy od kolejności. W fizyce kwantowej szczególne znaczenie mają tzw. komutatory operatorów, zdefiniowane jako różnica między pomnożeniem ich w odmiennej kolejności: [A,B]=AB-BA.

Komutatory tej samej składowej współrzędnej i pędu nie komutują i muszą spełniać warunek odkryty przez Heisenberga:

[x,p_x]=i\hbar,

ale [x,p_y]=[x,p_z]=0. Komutują też między sobą operatory różnych składowych współrzędnej albo pędu. Z operatorów pędu i współrzędnych budować możemy operatory innych wielkości fizycznych, np. momentu pędu badź energii (hamiltonian). Wszystkie one muszą być hermitowskie. Szczególną rolę odgrywa hamiltonian H({\bf x},{\bf p}), gdyż określa ewolucję czasową układu. Spełnione musi być w każdej chwili równanie Schrödingera

i\hbar\dfrac{\partial\psi}{\partial t}=H\psi.

Gdy hamiltonian nie zależy od czasu, możemy szukać funkcji spełniających równanie 

H\chi=E\chi,

tzw. równanie Schrödingera bez czasu. Wówczas 

\psi(t)= \exp{\left(-\dfrac{iEt}{\hbar}\right)}\chi,

jest rozwiązaniem ogólniejszego równania Schrödingera. Ewolucja w czasie polega wówczas tylko na zmianie fazy zespolonej, jest to stan kwantowy o ustalonej energii, stan stacjonarny.

Postulat interpretacyjny

Wartość oczekiwana wielkości fizycznej A w stanie \psi dana jest równaniem

\langle A\rangle=\dfrac{(\psi,A\psi)}{(\psi,\psi)}.

Gdy używamy funkcji unormowanej (\psi,\psi)=1 z wyrażenia tego zostaje tylko licznik. Widzimy, że zawsze można funkcję falową pomnożyć przez dowolny niezerowy czynnik, nie zmieniając wyników doświadczenia. Jeśli interesuje nas pytanie, czy cząstka znajduje się w obszarze V możemy za operator A_V wziąć mnożenie przez funkcję charakterystyczną tego obszaru (równą 1 dla {\bf x}\in V oraz 0 poza obszarem), wtedy prawdopodobieństwo znalezienia cząstki wenątrz V dane jest

Pr(V)={\displaystyle \int_V}|\psi|^2\, dV.

(Zakładamy unormowanie funkcji \psi.)

Widać też szczególną rolę wektorów i stanów własnych. Jeśli spełnione jest równanie 

A\psi=a\psi,

to mówimy, że funkcja \psi jest wektorem własnym, a wartość a wartością własną. Z postulatu interpretacyjnego wynika, że w wyniku pomiaru wielkości A otrzymamy wartość a. A więc w tym przypadku wielkość fizyczna przyjmuje ściśle określoną wartość, nie ma żadnego kwantowego rozmycia. Łatwo zauważyć, że tylko w takim przypadku możemy mówić o ściśle określonej wartości wielkości fizycznej. Tworząc operator (A-a)^2 widzimy, że

\langle (A-a)^2\rangle=0 \Leftrightarrow A\psi=a\psi.

W sytuacji takiej nie ma żadnego rozrzutu wyników, otrzymujemy zawsze tylko i wyłącznie wartość a.

Dwa fakty matematyczne

Gdy pewien stan \psi jest jednocześnie stanem własnym dwóch operatorów A\psi=a\psi oraz B\psi=b\psi, to operatory te komutują na tym stanie:

AB\psi=Ab\psi=ab\psi=ba\psi=BA\psi.

Z kolei stany należące do różnych wartości własnych danego operatora A są ortogonalne, tzn. gdy A\psi=a\psi oraz A\chi=b\chi, to mamy

a(\psi,\chi)=(A\psi,\chi)=(\psi, A\chi)=b(\psi,\chi) \Leftrightarrow (a-b)(\psi,\chi)=0.

Szczegóły matematyczne problemu atomu wodoru

Laplasjan

Dla laplasjanu mamy tożsamość:

\Delta\equiv \dfrac{\partial^2}{\partial x^2}+\dfrac{\partial^2}{\partial y^2}+\dfrac{\partial^2}{\partial z^2}=\dfrac{1}{r^2}\dfrac{\partial}{\partial r}\left(r^2 \dfrac{\partial}{\partial r}\right)-\dfrac{({\bf x}\times {\bf \nabla})^2}{\hbar^2},

Najłatwiej sprawdzić to we współrzędnych kartezjańskich, licząc operator ({\bf x}\times {\bf \nabla})^2 i wyrażając operator r\frac{\partial}{\partial r} przez pochodne kartezjańskie:

r\dfrac{\partial }{\partial r}=x\dfrac{\partial }{\partial x}+y\dfrac{\partial }{\partial y}+z\dfrac{\partial }{\partial z},

gdzie korzystamy wielokrotnie z równości r^2=x^2+y^2+z^2. Podobnie możemy obliczyć kwadrat operatora po lewej stronie.

Moment pędu

Procedura przejścia do mechaniki kwantowej polega na zastąpieniu każdej zmiennej fizycznej odpowiednim operatorem. Każdą ze współrzędnych x,y,z zastępujemy mnożeniem przez odpowiednią współrzędną. Działając na funkcję \psi dają one nowe funkcję, x\psi,y\psi, z\psi. Podobnie operatory składowych pędu działając na funkcję, dają pochodne, \frac{\hbar}{i}\frac{\partial\psi}{\partial x} itd. 

W przypadku atomu wodoru z punktowym protonem w początku układu dowolny obrót wokół początku układu nie powinien zmieniać fizyki. W fizyce klasycznej oznacza to, że moment pędu układu jest stały. Jest on zdefiniowany jako

{\bf L}={\bf x} \times {\bf p}, \, \Leftrightarrow L_x=y p_z-z p_y, \, L_y=z p_x-x p_z, \, L_z=x p_y-y p_x,

w ostatnich trzech równaniach możemy cyklicznie przestawiać wskaźniki x\rightarrow y\rightarrow\ z\rightarrow x \ldots. Krócej zapisać można te związki w postaci:

L_i=\varepsilon_{ijk}x_jp_k,

gdzie zamiast x,y,z piszemy x_i, a symbol całkowicie antysymetryczny \varepsilon_{123}=1 i zmienia znak przy każdym przestawieniu dwóch wskaźników oraz \varepsilon_{ijk}=0, gdy jakieś wskaźniki się powtarzają. Zakładamy sumowanie po każdej parze powtarzających się wskaźników.

W mechanice kwantowej operatory L_i tworzymy dokładnie tak samo, tyle że teraz musimy pamiętać, że kolejność operatorów może być istotna. Operatory momentu pędu komutują z hamiltonianem atomu wodoru:

[H,L_i]=0,

Także operator kwadratu momentu pędu L^2=L_1^2+L_2^2+L_3^2 komutuje z hamiltonianem, a także z poszczególnymi składowymi momentu pędu:

[L^2,H]=0,\;\; [L^2,L_i]=0, \,\, i=1,2,3.

Jednakże operatory L_i nie komutują ze sobą:

[L_i,L_j]=i\hbar\varepsilon_{ijk} L_k.

Maksymalnym zbiorem komutujących operatorów jest więc H, L^2 oraz jedna z trzech składowych momentu pędu. Standardowo wybiera się tu L_3\equiv L_z. Możemy więc szukać funkcji własnych hamiltonianu, które będą zarazem funkcjami własnymi L^2 oraz L_3.

Wprowadzimy współrzędne sferyczne punktu,  Łatwo sprawdzić, że operatory momentu pędu zależą tylko od kątów, nie od r  Np.

L_3=\dfrac{\hbar}{i} \dfrac{\partial}{\partial \varphi}.

Możemy to sprawdzić, korzystając z wyrażeń na współrzędne kartezjańskie:

\left\{ \begin{array}{l} x=r\sin\vartheta\cos\varphi \\ y=r\sin\vartheta\sin\varphi \\ z=r\cos\vartheta. \end{array}\right.

Obliczamy, stosując wzór na pochodną funkcji złożonej:

\dfrac{\partial}{\partial \varphi}=\dfrac{\partial x}{\partial \varphi}\dfrac{\partial}{\partial x}+\dfrac{\partial y}{\partial \varphi}\dfrac{\partial}{\partial y}=-y\dfrac{\partial}{\partial x}+x\dfrac{\partial}{\partial y}.

W pozostałych składowych momentu pędy odległość r pojawia się raz w liczniku, a drugi raz w mianowniku przy różniczkowaniu, ostatecznie zostają wyrażenia zależne wyłącznie od kątów \vartheta, \varphi. Wracając do naszego równania z głównego tekstu:

L^2 \psi=\hbar^2\dfrac{\partial}{\partial r}\left(r^2\dfrac{\partial\psi}{\partial r}\right)+2mr^2\left(E+\dfrac{e^2}{r}\right)\psi.

Funkcja falowa \psi powinna być w pobliżu początku układu analityczna, tzn. zachowywać się jak wielomian stopnia l (może być stała, wtedy l=0) plus wyrazy wyższego stopnia. Można ją w pobliżu r=0 zapisać jako \psi=r^{l}Y(\frac{ {\bf x}}{r}) – wyłączyliśmy przed funkcję wszystkie potęgi r, pozostała część jest funkcją wektora jednostkowego, tzn. zależy tylko od kierunku. Drugi składnik po prawej stronie zawiera r w potęgach wyższych niż l-2, jest więc do pominięcia blisko początku układu. Obliczając pierwszy składnik po prawej stronie, dostaniemy

L^2 Y \rightarrow \hbar l(l+1) Y.

Funkcje własne kwadratu momentu pędu to wielomiany jednorodne (wszystkie składniki są tego samego stopnia  l) zmiennych x,y,z. Łatwo sprawdzić, że spełniają one warunek

\Delta(r^l Y)=0.

Funkcje Y_{lm} nazywane są harmonikami sferycznymi. Drugi wskaźnik informuje o wartości L_3\equiv L_z. Dla l=1 mamy funkcje (nie wypisujemy stałych normalizacyjnych), tzw. orbitale p:

\left\{ \begin{array}{l} Y_{1\pm 1} \sim\dfrac{x\pm iy}{r}= \sin\vartheta e^{\pm i\varphi}\\[5pt] Y_{10} \sim\dfrac{z}{r}=\cos\vartheta.\end{array}\right.

Dla l=2 otrzymujemy pięć orbitali d:

\left\{ \begin{array}{l} Y_{2\pm 2} \sim\dfrac{(x\pm iy)^2}{r^2}= \sin^2\vartheta e^{\pm i2\varphi}\\[8pt]Y_{2\pm 1} \sim\dfrac{(x\pm iy)z}{r^2}=\sin\theta\cos\vartheta e^{\pm i\varphi}\\[8pt] Y_{20}\sim \dfrac{2z^2-x^2-y^2}{r^2}=3\cos^2\vartheta-1.\end{array}\right.

Czynnik e^{im\varphi} określa wartość składowej z momentu pędu:

\dfrac{\hbar}{i}(e^{im\varphi})=m\hbar e^{im\varphi}.

Dla każdej wartości l mamy 2l+1 dopuszczalnych wartości L_z. Stany te powinny mieć taką samą energię.

 

 

Dlaczego atomy są trwałe?

Atomów nie można opisać za pomocą dziewiętnastowiecznej fizyki klasycznej. W doświadczeniach Hansa Geigera i Ernesta Marsdena, prowadzonych pod kierunkiem Ernesta Rutherforda w Manchesterze w latach 1909-1913, okazało się, że praktycznie cała masa atomu mieści się w bardzo małym obszarze o promieniu pojedynczych femtometrów (1 {\rm fm}=10^{-15} {\rm m}). Przedtem sądzono (model J.J. Thomsona), że atom zawiera rozmyty ładunek dodatni, w którym znadują się, niczym rodzynki w cieście, lekkie punktowe elektrony. Przy bombardowaniu cienkiej złotej folii za pomocą cząstek α (jąder helu) zdarzało się jednak, że cząstki te rozpraszały się pod wielkimi kątami, niemal zawracały. Byłoby to niemożliwe, gdyby dodatni ładunek rozmyty był na znacznym obszarze. Tak silne pole elektryczne wymagało niemal punktowego ładunku – atom musi więc zawierać niewielkie jądro. Tak narodził się model planetarny Ernesta Rutherforda.

Na rysunku nie można oddać różnicy skali między modelami Thomsona i Rutherforda. Elektrony krążą w znacznie większym obszarze kilkudziesięciu pikometrów (1 {\rm pm}=10^{-12} {\rm m}): w przypadku wodoru objętość atomu jest 2\cdot 10^{14} razy większa od objętości protonu w centrum. Znaczy to, że atom jest praktycznie pusty. Analogia z planetami krążącymi wokół Słońca niezbyt się tu jednak stosuje, ponieważ poruszający się z  przyspieszeniem elektron powinien emitować energię w postaci fal elektromagnetycznych. Z teorii Maxwella wynika, że w czasie rzędu 10^{-11} \,{\rm s} elektron powinien spaść na jądro. Atomy nie są stabilne – do takiego wniosku prowadzi Newtonowska mechanika w połączeniu z elektrodynamiką Maxwella.

Prowizorycznym wyjściem z sytuacji był model Nielsa Bohra: wprowadzał on dozwolone orbity elektronów i jakimś cudem przewidywał prawidłowo długości fal w widmie wodoru. Postulat kwantowania orbit jest nie do pogodzenia z fizyką klasyczną: trzeba bowiem założyć, że elektrodynamika czasem działa, a czasem nie. Jej prawa są z jakiegoś powodu zawieszone w przypadku orbit Bohra.

 Problem rozwiązała dopiero mechanika kwantowa. Przyjrzymy się, jak objaśnia ona stabilność atomu wodoru. Dla uproszczenia będziemy mówić o ruchu elektronu w polu elektrostatycznym nieruchomego jądra (wprowadzane w ten sposób przybliżenie łatwo zastąpić dokładniejszymi rachunkami). Mamy więc elektron o energii składającej się z energii kinetycznej oraz elektrostatycznej energii potencjalnej:

E=\dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r},

gdzie {\mathbf p} oraz m są odpowiednio pędem i masą elektronu, r jest jego odległością od punktowego jądra, a stała e^2\equiv\frac{q_e^2}{4\pi\varepsilon_0}. Nasz problem stabilności łatwiej zrozumieć, patrząc na wykres energii potencjalnej. 

Energia potencjalna w funkcji odległości elektronu od protonu (zaznaczone są dwa najniższe poziomy energetyczne atomu wodoru)

Zaznaczone są dozwolone wartości energii całkowitej. Energia krążącego elektronu jest stała tylko pod warunkiem pominięcia promieniowania. Inaczej będzie ona szybko się zmniejszać, a więc jak widać z wykresu nasz elektron będzie coraz ciaśniej okrążał proton. Studnia potencjału jest nieskończenie głęboka, bez dna (w przybliżeniu punktowego protonu). 

Mechanika kwantowa opisuje stany elektronu za pomocą funkcji falowej \psi(x,y,z)=\psi({\mathbf r}). Jej znaczenie jest statystyczne, pozwala ona obliczać rozmaite wartości średnie: np. średnią wartość energii kinetycznej, albo potencjalnej. Prawdopodobieństwo znalezienia elektronu w danym obszarze przestrzeni V jest równe

Pr(V)={\displaystyle \int_{V} |\psi|^2 dV}.

Oznacza to, że całka po całej przestrzeni musi być równa 1, mówimy wtedy, że funkcja falowa jest unormowana. Aby otrzymać rozmaite wartości średnie, musimy mieć przepis na ich tworzenie. Jest on następujący: każdej wielkości fizycznej przypisuje się operator. Np. operatorem składowej x położenia jest mnożenie przez x. Znaczy to, że pod działaniem tego operatora funkcja \psi przechodzi w x\psi. Bardziej skomplikowanym przypadkiem jest pęd. Składowa x pędu zastępowana jest braniem pochodnej po x:

\psi \mapsto \dfrac{\hbar}{i} \dfrac{\partial\psi}{\partial x}.

Pojawia się tutaj stała Plancka \hbar znak niechybny, że mamy do czynienia z fizyką kwantową, i jest tu jednostką urojoną – nasza funkcja \psi ma wartości zespolone. Z początku budziło to pewne zdumienie ojców mechaniki kwantowej, dziś wiemy, że liczby zespolone są tu nieodzowne. 

Mając pęd i położenie, możemy zbudować operator energii, czyli hamiltonian: zastępujemy po prostu pędy i położenia ich operatorami.  W jednym wymiarze wyglądałoby to następująco

H=-\dfrac{\hbar^2}{2m}\dfrac{\partial ^2}{\partial x^2}- \dfrac{e^2}{x}.

Pierwszy składnik oznacza, że należy dea razy wziąć pochodną po x i pomnożyć przez odpwoednią stałą, drugi składnik jest zwykłym mnożeniem funkcji. W trzech wymiarach mamy trzy składowe pędu, czyli trzy pochodne składające się w symbol zwany laplasjanem (czyli operatorem Laplace’a):

\Delta=\dfrac{\partial ^2}{\partial x^2}+\dfrac{\partial ^2}{\partial y^2}+\dfrac{\partial ^2}{\partial z^2}.

Zapisany w ten sposób hamiltonian ma postać:

H=-\dfrac{\hbar^2}{2m}\Delta-\dfrac{e^2}{r}.

Ostatni potrzebny nam składnik formalizmu to przepis na znajdowanie wartości średnich. Jeśli operator przypisany szukanej zmiennej nazwiemy A, to wartość średnia zmiennej jest równa

\langle A \rangle={\bf \int }\psi^{\star}A\psi dV.

Pojawia się tu funkcja zespolona sprzężona \psi^{\star}. Operatory odpowiadające wielkościom mierzalnym fizycznie (obserwablom) to tzw. operatory hermitowskie, które dają w powyższym przepisie wynik rzeczywisty, tak jak tego oczekujemy w eksperymencie. Hermitowskie są w szczególności operatory pędu, położenia i hamiltonian.

W zasadzie tyle formalizmu wystarczy, bez rozwiązywania równań różniczkowych, by pokazać, że dla dowolnej rozsądnej funkcji falowej (normowalnej) energia ograniczona jest z dołu. Czyli nie możemy uzyskać w żadnym eksperymencie mniej niż owo dolne ograniczenie. Co więcej, w każdym stanie związanym prawdopodobieństwo, że elektron znajdzie się bardzo blisko jądra jest znikome. Formalizm mechaniki kwantowej osiąga to dzięki wprowadzeniu funkcji \psi, która skoncentrowana w małym obszarze wymusza dużą energię kinetyczną. Jakościowo odpowiada to zasadzie nieoznaczoności: mała nieoznaczoność położenia oznacza dużą nieoznaczoność pędu, a więc i energii kinetycznej. Jednak zasady nieoznaczoności nie możemy tu zastosować wprost. 

Rozpatrzmy operator {\bf A} dany równaniem

{\bf A}={\bf p}-i\beta \dfrac{{\bf r}}{r},

gdzie \beta jest dowolną liczbą rzeczywistą. Ponieważ całka z kwadratu modułu {\bf A}\psi nie może być ujemna, otrzymujemy nierówność

\langle {\bf p}^2\rangle-2\beta\hbar\left\langle\dfrac{1}{r}\right\rangle+\beta^2\ge 0,\mbox{(*)}

słuszną dla każdego \beta. Bierzemy najpierw \beta=\hbar\langle\frac{1}{r}\rangle. Dostajemy nierówność

\langle {\bf p}^2\rangle\ge \hbar^2\left\langle \dfrac{1}{r}\right\rangle^2.

Dla dowolnej wartości r_0>0 możemy ograniczyć wartość całki do obszaru r<r_0, gdzie 1/r>1/r_0, otrzymujemy w ten sposób nierówność

\langle {\bf p}^2\rangle^{\frac{1}{2}}\ge \dfrac{\hbar}{r_0} Pr(r<r_0). 

Wrócimy do niej za chwilę. Raz jeszcze korzystamy z (*), tym razem dla \beta=\frac{me^2}{\hbar}. Porządkując wyrazy, otrzymujemy wartość oczekiwaną energii:

\boxed{ \left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle\ge -\dfrac{me^4}{2\hbar^2.}}

Mechanika kwantowa przewiduje zatem dolną wartość energii, równą -13,6\, \rm{eV}.

Aby oszacować \langle{\mathbf p}^2\rangle , założymy, że mamy elektron w stanie związanym, a więc całkowita energia jest ujemna – klasycznie znaczy to, że elektron nie może uciec z pola elektrostatycznego protonu. 

Mamy

\left\langle \dfrac{{\mathbf p}^2}{2m}-\dfrac{e^2}{r}\right\rangle<0,

co można przepisać w postaci

\left\langle \dfrac{{\mathbf p}^2}{4m}\right\rangle<-\left\langle \dfrac{{\mathbf p}^2}{4m}-\dfrac{e^2}{r}\right\rangle.

Do prawej strony możemy zastosować nierówność z ramki przy masie cząstki równej 2m. Otrzymujemy stąd szacowanie dla

\left\langle {\mathbf p}^2\right\rangle \le \dfrac{2me^2}{\hbar}.

Ostatecznie, prawdopodobieństwo znalezienia elektronu nie dalej niż r_0 od jądra spełnia nierówność

\boxed{Pr(r<r_0)<\dfrac{2 r_0}{a_0},}

gdzie a_0\equiv \frac{\hbar}{me^2}\approx 53 \,{\rm pm} zwane jest promieniem Bohra. Jest to promień pierwszej orbity w modelu Bohra.

Widzimy więc, że formalizm mechaniki kwantowej dostarcza wyjaśnienia, czemu atomy są trwałe, co jest niezmiernie ważnym faktem. Uwzględnienie poprawek relatywistycznych itd. niewiele tu zmienia. Można udowodnić więcej: także w układzie wielu jąder i wielu oddziałujących ze sobą elektronów kolaps jest niemożliwy. W tym przypadku ważną rolę odgrywa także fakt, iż elektrony są fermionami, tzn. żadne dwa z nich nie mogą zajmować tych samych stanów (wliczając spin). Podstawowe wyniki w tym obszarze należą do Elliotta Lieba i Waltera Thirringa. Rozważania takie są interesujące ze względów poznawczych, ale także pomagają zrozumieć zachowanie dużych układów, dla których bezpośrednie rachunki bez żadnych przybliżeń są niemożliwe.

Korzystałem z książki E. B. Manoukian, 100 Years of Fundamental Theoretical Physics in the Palm of Your Hand.
Integrated Technical Treatment, Springer Nature 2020.

Satyendra Nath Bose i ostatnia wielka praca Alberta Einsteina (1925)

Einstein w latach dwudziestych zasypywany był listami. Pisali do niego tacy, którzy właśnie rozwiązali zagadkę świata, inni znaleźli błędy w teorii względności i żądali, by się do nich ustosunkował, ktoś prosił o wsparcie albo pomoc w dostaniu się na uczelnię. Pisali także oczywiście nieznani naukowcy. W czerwcu 1924 roku otrzymał list z Indii od Satyendry Bosego wraz z załączoną pracą. Autor pragnął ni mniej, ni więcej, tylko by Einstein przełożył jego pracę na niemiecki oraz posłał do druku w „Zeitschrift für Physik” (nie wspomniał przy tym, że praca została odrzucona przez „Philosophical Magazine”):

Wielce szanowny panie, ośmielam się przesłać panu załączony artykuł do przejrzenia i zaopiniowania. Chciałbym wiedzieć, co pan o nim sądzi. (…) Nie znam niemieckiego w stopniu wystarczającym, aby przetłumaczyć artykuł. Jeśli uważa pan, że artykuł wart jest publikacji, to będę wdzięczny, jeśli przekaże go pan do publikacji w «Zeitschrift für Physik». Choć zupełnie mnie pan nie zna, to bez wahania proszę pana o taką rzecz. Gdyż wszyscy jesteśmy pańskimi uczniami poprzez pańskie prace. Nie wiem, czy jeszcze pan pamięta, że ktoś z Kalkuty prosił o pozwolenie na przekład pańskich prac z teorii względności na angielski. Udzielił pan zgody. Książka została opublikowana. Ja przełożyłem pański artykuł na temat ogólnej względności.

Rzeczywiście, praca Bosego na początku lipca została posłana do druku, pod tekstem jest notka: „przełożone przez A. Einsteina” oraz uwaga tłumacza, iż praca stanowi „ważny postęp”. Warto zwrócić uwagę na pokorę Alberta Einsteina: był najsławniejszym uczonym świata, niedawno przyznano mu Nagrodę Nobla, lecz zdecydował się na przekład i zarekomendowanie pracy kogoś zupełnie nieznanego (w dodatku jego znajomość angielskiego nie była zbyt dobra, więc rzecz nastręczała kłopoty praktyczne, podejrzewam, że pomagała mu jego pasierbica Ilse albo sekretarka Betty Neumann). Niewątpliwie uczynił to w interesie nauki, ponieważ praca Bosego wydała mu się oryginalna. Trzydziestoletni Bose uczył fizyki na uniwersytecie w Dakce i przedstawił nowe wyprowadzenie wzoru Plancka dla promieniowania cieplnego. Wzór ten wyprowadzano wciąż na nowo, nie tylko dlatego, że był ważny, ale i dlatego że te wszystkie wyprowadzenia nie były do końca zadowalające. Praca Bosego zawierała istotny szczegół techniczny, który zainteresował Einsteina, a mianowicie inne liczenie stanów dla gazu fotonów. Najkrócej mówiąc, Bose obliczał liczbę stanów gazu tak, jakby fotony były nierozróżnialne. Wyobraźmy sobie rzut monetą: mamy dwa wyniki (stany monety): orzeł albo reszka. Rozważmy teraz jednoczesny rzut dwiema monetami. Jakie są możliwe stany? dwa orły; dwie reszki; orzeł i reszka. W przypadku monet zawsze możemy odróżnić od siebie dwa wyniki: reszka na pierwszej i orzeł na drugiej oraz orzeł na pierwszej i reszka na drugiej. Gdy obliczamy prawdopodobieństwa, mamy 4 stany. W przypadku fotonów należy liczyć tak, jakby był tylko jeden stan orzeł-reszka, bo nasze monety są z natury nierozróżnialne.

satyendra
Einstein przełożył na niemiecki jeszcze jedną pracę Bosego, choć się z nią nie zgadzał. Hinduski uczony na podstawie pocztówki od Einsteina uzyskał na uczelni dwuletnie stypendium do Europy oraz – na tej samej podstawie – bezpłatną wizę niemiecką. Przyjechał do Europy, ale nie zrobił już nic podobnej wagi.

Einstein natomiast zastosował podejście Bosego do gazu kwantowego, tzn. zwykłego gazu atomów, lecz potraktowanego kwantowo. Okazało się, że ma on pewną niezwykłą własność: w dostatecznie niskiej temperaturze pewien ułamek atomów zgromadzi się w stanie o najniższej energii, a reszta będzie nadal tworzyć gaz, czyli przyjmować rozmaite dostępne energie. Było to przejście fazowe, jak skraplanie pary albo pojawianie się namagnesowania w żelazie, gdy obniżamy temperaturę. Zjawisko znane jest pod nazwą kondensacji Bosego-Einsteina, choć Bose nie ma z nim zupełnie nic wspólnego(*).

Kondensacja Bosego-Einsteina zachodzi tylko z tego powodu, że atomy „chętnie” zajmują ten sam stan, nie muszą się wcale przyciągać. Praca Einsteina stanowiła pierwszy przykład teoretycznego opisu przejścia fazowego i z tego powodu była zamieszczana w podręcznikach. Wyjaśniło się później, że nie wszystkie atomy będą się tak zachowywać, bo cząstki kwantowe dzielą się na dwie grupy: bozony i fermiony. Pierwsze mogą obsadzać licznie ten sam stan, drugie – tylko pojedynczo – jak np. elektrony. Tylko bozony mogą podlegać kondensacji, chyba że fermiony połączą się np. w pary, które będą już bozonami.

W roku 1925 Einstein zajmował się głównie nie fizyką kwantową, lecz konstruowaniem jednolitej teorii grawitacji i pola elektromagnetycznego. Miał to robić bez powodzenia przez następne 30 lat. W lipcu 1925 zaczęła się kwantowa rewolucja – Werner Heisenberg wysłał pierwszą pracę nt. mechaniki kwantowej, w ciągu miesięcy rozpoczął się najważniejszy przewrót w fizyce XX wieku. Einstein obserwował go z bliska, lecz nie wziął w nim udziału. Nie podzielał entuzjazmu młodszych kolegów i Nielsa Bohra dla nowej fizyki. Dlatego ta praca o gazie kwantowym jest ostatnią, która ma znaczenie, by tak rzec, podręcznikowe.
W końcu roku 1924 Einstein zapisał równania dla takiego gazu nieoddziałujących bozonów i przewidział kondensację (praca została opublikowana w styczniu 1925 r.). W roku 1995, równo siedemdziesiąt lat później, udało się ten podręcznikowy przykład zrealizować doświadczalnie. Wygląda to tak:

640px-Bose_Einstein_condensate

Widzimy tu rozkład prędkości atomów rubidu dla kilku zmniejszających się temperatur. Temperatura kondensatu to 170 nK (nanokelwinów, czyli 10^{-9} K). Atomy kondensują w stanie podstawowym, który ma postać spłaszczonej górki: odzwierciedla to kształt pułapki, w jednym kierunku bardziej stromej niż w drugim (prędkości zachowują się odwrotnie: rozkład jest szerszy w tym kierunku, w którym pułapka jest bardziej stroma – jest to przejaw zasady nieoznaczoności).

Autorzy tych eksperymentów, Eric Cornell i Carl Wieman, kilka lat później dostali Nagrodę Nobla, jest to obecnie cała dziedzina badań eksperymentalnych i teoretycznych.

Przyjrzyjmy się bliżej efektowi odkrytemu przez Einsteina. Bose najprawdopodobniej nie zdawał sobie sprawy, że traktuje fotony jak cząstki nierozróżnialne. Einstein zastosował podejście Bosego do cząstek „zwykłego” gazu jednoatomowego (można wtedy nie zajmować się drganiami i obrotami, które ważne są w przypadku cząsteczek chemicznych). Otrzymał zmodyfikowane równanie stanu gazu doskonałego, w którym ciśnienie jest mniejsze niż wynikałoby z równania Clapeyrona (pV=nRT). Koledzy, m.in. Paul Ehrenfest i Erwin Schrödinger, zwrócili mu uwagę, że licząc stany gazu na sposób Bosego, odchodzi od przyjętych zasad mechaniki statystycznej Boltzmanna. Można to przedstawić na obrazku. Mamy tu dwa stany i dwie cząstki do rozmieszczenia.

W statystyce Bosego-Einsteina cząstki są nierozróżnialne. To nowa cecha mechaniki kwantowej (której, pamiętajmy, wciąż jeszcze nie ma). Wiadomo było, że atomy są jednakowe, ale fizyka klasyczna nie bardzo potrafiła sobie z tym faktem poradzić. James Clerk Maxwell porównywał atomy do standaryzowanych wytworów fabrycznych (fabrykantem byłby tu Bóg). W zasadzie jednak atomy klasyczne powinny być rozróżnialne, co na obrazku statystyki Boltzmanna zaznaczyłem kolorami. Klasyczna fizyka statystyczna Boltzmanna była tu nie do końca konsekwentna, ponieważ we wzorach na entropię, należało wprowadzić dodatkowy czynnik ad hoc (tzw. poprawne zliczanie boltzmannowskie). W roku 1926 pojawił się drugi rodzaj statystyki, obowiązujący dla fermionów. Paul Dirac zauważył, że chodzi o symetrię funkcji falowej, która w przypadku bozonów jest całkowicie symetryczna na przestawienia cząstek identycznych, a w przypadku fermionów – antysymetryczna. Zapełnianie powłok elektronowych i orbitali w chemii są konsekwencją faktu, że elektrony są fermionami.

W świecie kwantowym (czyli naszym) każda cząstka jest albo bozonem, albo fermionem. Jest to fakt fundamentalny. Einstein, idąc w ślady Bosego, wprowadził do fizyki cząstki identyczne. Sam Bose prawdopodobnie nie zdawał sobie sprawy z konsekwencji nowego sposobu liczenia stanów. Zdroworozsądkowe liczenie stanów jak u Boltzmanna nie odpowiada rzeczywistości i nie jest zgodne z doświadczeniem. 

Wróćmy do gazu atomowych bozonów. Różni się on od fotonów tym, że liczba cząstek powinna być zachowana: atomy w naczyniu nie znikają ani nie pojawiają się znienacka, podczas gdy fotony mogą być emitowane i pochłaniane przez ścianki naczynia. W danej temperaturze T średnie zapełnienie stanów o energii \varepsilon_i jest równe wg statystyki Boltzmanna

\overline{n}_i=\lambda g_i \exp{\left(-\dfrac{\varepsilon_i}{kT}\right)},

gdzie \lambda jest pewną stałą normalizacyjną, g_i – liczbą stanów o energii \varepsilon_i, a k – stałą Boltzmanna. Iloczyn kT jest temperaturą wyrażoną w jednostkach energii i co do rzędu wielkości jest równy średniej energii cząstek w danej temperaturze (np. w jednoatomowym gazie doskonałym średnia energia kinetyczna atomów jest równa \frac{3}{2}kT).

Wynik otrzymany przez Einsteina dla gazu bozonów miał postać następującą:

\overline{n}_i=\dfrac{g_i}{\lambda^{-1}\exp{\left(\dfrac{\varepsilon_i}{kT}\right)}-1}.

Łatwo zauważyć, że oba wyrażenia dadzą ten sam wynik, gdy wartość eksponenty jest dużo większa od 1 i można tę jedynkę w mianowniku pominąć. Na ogół średnia liczba obsadzonych stanów bozonowych jest większa, niż przewiduje to statystyka Boltzmanna. Podobne wyrażenie można też uzyskać dla fermionów, mamy wtedy do czynienia z gazem fermionów. Przykłady to gaz elektronów w metalu albo białym karle. Wyrażenie różni się znakiem jedynki w mianowniku, ale nie bedziemy tej kwestii rozwijać.

Einstein zastosował statystykę BE do gazu nieoddziałujących atomów zamkniętych w pudle. My zastosujemy ją do innej sytuacji, a mianowicie nieoddziałujących bozonów zamkniętych w parabolicznym potencjale. Jest to zwykły oscylator harmoniczny. Okazuje się, że sytuację taką można zrealizować eksperymentalnie, a w dodatku jest ona fizycznie przejrzysta i Einstein nie miałby żadnych trudności z zapisaniem wyrażeń, które rozpatrzymy niżej. Po prostu nikomu się wówczas nie śniło, że można będzie taki eksperyment zrealizować, więc nie miało sensu robić obliczenia dla tego przypadku. Choć mechaniki kwantowej ciągle jeszcze nie było, to wiadomo było, że energia oscylatora jest skwantowana i równa

E=h\nu(n_x+n_y+n_z),

gdzie h jest stałą Plancka, \nu – częstością oscylatora, a liczby kwantowe n_i są całkowite i nieujemne, przy czym . Kolejne dozwolone tworzą drabinę stanów oddalonych o h\nu. Inaczej mówiąc, dozwolone energie są równe

E=nh\nu,\,\,\, \mbox{gdzie}\,\,\, n=n_x+n_y+n_z.

Jak łatwo obliczyć, liczba stanów o takiej energii równa jest

g_n=\dfrac{(n+1)(n+2)}{2}.

Jeśli do takiego harmonicznego potencjału wprowadzimy N bozonów, to suma średnich liczb obsadzeń musi się równać N:

{\displaystyle N=\sum_{k=0}^{\infty}\overline{n}_k=\sum_{k=0}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}.}

W ostatnim wyrażeniu wprowadziliśmy temperaturę mierzoną w jednostkach h\nu, tzn. nasze nowe T jest równe \frac{kT}{h\nu}. Jest to jedyny parametr teorii. Wartość \lambda musi być taka, żeby ostatnie równanie było spełnione. Ponadto mianownik z funkcją wykładniczą musi być dodatni, więc \lambda<1 (średnie liczby obsadzeń nie mogą być ujemne, tak samo jak np. średnia liczba brunetów w próbce ludzi).

Dalej niesie nas już formalizm, tak jak poniósł Einsteina w grudniu 1924 roku. Możemy z N wydzielić obsadzenie stanu postawowego N_0:

{\displaystyle N=N_0+ \sum_{k=1}^{\infty}\dfrac{g_k}{\lambda^{-1}\exp{\left(\dfrac{k}{T}\right)}-1}\equiv N_0+N_{exc}(T,\lambda).}

Suma N_{exc}(T,\lambda) osiąga maksymalną wartość przy \lambda=1:

{\displaystyle N_{max}(T)=\sum_{k=1}^{\infty}\dfrac{g_k}{\exp{\left(\dfrac{k}{T}\right)}-1}.}

Suma ta zależy wyłącznie od temperatury! Wykrzyknik oznacza nasze (i Einsteina) zdziwienie w tym miejscu. Zobaczmy, jak wygląda ta suma w funkcji temperatury.

Przedstawiliśmy tu obliczenia numeryczne (punkty) oraz przybliżenie analityczne:

N_{max}\approx 1.202 T^3\equiv 1.202 \left(\dfrac{kT}{h\nu}\right)^3.

Czemu ten wynik jest dziwny? Ano dlatego, że dla danej temperatury mamy pewną maksymalną liczbę cząstek, jakie można umieścić w danym potencjale. Tymczasem liczba N powinna być dowolnie duża. Ostatnie równanie oznacza, że obniżając temperaturę, osiągniemy w końcu sytuację, w której mamy mniej miejsc do obsadzenia niż cząstek. To oczywiście niemożliwe. Poniżej temperatury zadanej ostatnim równaniem, jakaś część atomów musi znajdować się w stanie podstawowym, i to część makroskopowo zauważalna. Inaczej mówiąc, atomy zaczną się kondensować w stanie o energii zerowej. W tym obszarze temperatur, parametr \lambda jest praktycznie równy 1. Mamy więc warunek

N\approx 1.202 T_{0}^3, \,\, \mbox{(**)}

określający temperaturę krytyczną T_0 przy danej liczbie atomów oraz liczbę atomów w stanach wzbudzonych poniżej temperatury krytycznej:

N_{exc}=N_{max}(T)=N \left(\dfrac{T}{T_0}\right)^3.

Atomy, które nie są wzbudzone, są w stanie podstawowym, zatem ich liczba równa się

N_0=N\left(1-\left(\dfrac{T}{T_0}\right)^3\right).

Funkcję tę przedstawiliśmy na wykresie.

Ważne jest, aby odróżniać kondensację Bosego-Einsteina od zwykłego wzrostu liczby obsadzeń stanu podstawowego wraz ze spadkiem temperatury. Tutaj mamy do czynienia z przejściem fazowym, pierwszym, jakie zostało opisane w fizyce statystycznej. Rozumowanie Einsteina było nieoczywiste dla kolegów. Nie było wcale jasne, czy formalizm fizyki statystycznej w ogóle może opisać przejścia fazowe. Tutaj w dodatku Einstein zaproponował nową statystykę, która mogła, ale wcale nie musiała okazać się prawdziwa. Ponadto model nieoddziałujących atomów jest nadmiernie uproszczony, co jest zarzutem technicznym, ale potencjalnie istotnym dla słuszności konkluzji. Sam Einstein nie był pewien i podkreślał, że tak może być, lecz nie ma co do tego pewności. Jednak jego dwudziestoletnie doświadczenie z fizyką statystyczną nie zawiodło. Statystyka okazała się prawdziwa (dla bozonów). Przejścia fazowe zaczęto na serio badać dopiero w latach trzydziestych (por. Lars Onsager i model Isinga). Jedna ze współpracowniczek Einsteina w latach czterdziestych Bruria Kaufman współpracowała z Larsem Onsagerem przy uproszczeniu jego monumentalnej pracy nt. modelu Isinga w dwóch wymiarach. Także Chen Ning Yang zajmował się modelem Isinga i nawet starał się zainteresować tym tematem Einsteina, gdy pracował w IAS w Princeton.

Ze współczesnego punktu widzenia faza skondensowana jest makroskopowo widocznym stanem kwantowym. Pewien odsetek atomów znajduje się w tym samym stanie, w przypadku pułapki harmonicznej gęstość atomów zarówno w przestrzeni położeń, jak i pędów, jest gaussowska, co odpowiada funkcji falowej stanu podstawowego oscylatora.

Wygląda to jak na obrazkach: w miarę obniżania temperatury pojawia się gaussowskie wąskie skupienie atomów, które rośnie w miarę zbliżania się do zera bezwzględnego. Czerwona linia pionowa obrazuje temperaturę. Widzimy też skok ciepła właściwego, co jest jednym ze wskaźników przejścia fazowego (Obrazki wg Bose-Einstein Condensation in a Harmonic Trap).

Atomy rubidu 87 użyte przez odkrywców kondensacji mają 37 elektronów i 87 nukleonów w jądrze, a więc parzystą liczbę fermionów, dlatego są bozonami. Pułapki stosowane w eksperymencie mają nieco odmienne częstości w różnych kierunkach, przez co rozkłady są iloczynami trzech funkcji Gaussa z róńymi szerokościami wzdłuż osi x,y,z.

(*) Obowiązują w historii nauki dwie zasady:
Zasada Arnolda: Jeśli jakieś pojęcie nazwano czyimś imieniem, to nie jest to imię odkrywcy.
Zasada Berry’ego: Zasada Arnolda stosuje się do samej siebie.
(Chodzi o Michaela Berry’ego i Vladimira Arnolda)

(**) W niskich temperaturach suma może być zastąpiona całką, ponieważ funkcja zmienia się bardzo wolno. Otrzymuje się wówczas

{\displaystyle N_{max}(T)\approx\dfrac{T^3}{2}\int_{0}^{\infty}\dfrac{x^2 dx}{e^{x}-1}= \dfrac{T^3}{2} \Gamma(3)\zeta(3),}

gdzie \Gamma i \zeta to funkcje Eulera i Riemanna.

Co to jest ciemna energia?

Ciemna energia to ponad dwie trzecie energii wszechświata. Wyjaśnienie jej pochodzenia jest zapewne największym wyzwaniem fizyki i kosmologii. Pokażemy krótko, o co chodzi, gdy mówimy o ciemnej energii.

1. Prawo Hubble’a

Edwin Hubble odkrył, że wszystkie dalekie obiekty oddalają się od nas z prędkością, która jest proporcjonalna do odległości. Wektorowo możemy to zapisać następująco:

\vec{v}=H\vec{R}.

Parametr H nazywamy parametrem Hubble’a. Gdybyśmy się przenieśli do galaktyki położonej w punkcie \vec{R_1}, prawo Hubble’a nadal będzie obowiązywało dla prędkości i położeń liczonych od galaktyki nr 1:

\vec{v}=\vec{v}_2-\vec{v}_1=H\vec{R}_2-H\vec{R}_1=h(\vec{R}_2-\vec{R}_1)=H\vec{R}.

hubble_Law

Na prawo Hubble’a należy patrzeć jak na rozszerzanie się przestrzeni: galaktyki są w stałych położeniach (jak rodzynki w cieście drożdżowym), a odległości między nimi stale rosną (całe ciasto „rośnie”). Skoro odległości te obecnie rosną, to znaczy, że w przeszłości były mniejsze. Łatwo obliczyć, jak dawno temu wszystkie galaktyki powinny być „obok siebie”. Wystarczy podzielić odległość przez prędkość:

t_H=\dfrac{R}{v}=\dfrac{1}{H}.

Czas ten nie zależy od tego, którą konkretnie galaktykę wybierzemy do obliczeń. Nazywamy go czasem Hubble’a, jego wartość równa się około 14 mld. lat. Zatem t_H lat temu cały wszechświat powinien być bardzo gęsty. Oczywiście, czas Hubble’a nie musi być równy wiekowi wszechświata. Byłoby tak, gdyby w przeszłości galaktyki oddalały się z taką samą prędkością jak dziś. Jednak prędkość ich oddalania się stopniowo maleje za sprawą grawitacji, która jest siłą przyciągającą. Oczekujemy więc, że wiek wszechświata jest mniejszy od czasu Hubble’a.

2. Od czego zależy parametr Hubble’a?

Obserwacje wskazują, że we wszechświecie gęstość materii jest wszędzie stała (oczywiście w odpowiednio dużej skali; nieco podobnie jak możemy uważać, że gaz ma stałą gęstość w skali znacznie większej niż odległość pojedynczych atomów). Pole grawitacyjne ma specyficzną własność: jeśli wyobrazimy sobie kulistą wnękę opróżnioną z materii, to w każdym jej punkcie przyciąganie grawitacyjne jakiejś małej próbnej masy będzie równe zeru.

dziura sferyczna1Oznacza to, że rozpatrując, co się dzieje z całym nieskończonym wszechświatem o stałej gęstości, wystarczy zająć się zachowaniem wybranej kuli – cała materia na zewnątrz tej kuli nie będzie wywierała żadnej siły wypadkowej. Rozpatrzmy więc kulę z galaktykami, która rozszerza się razem z całym wszechświatem. Galaktyki na powierzchni tej kuli mają pewną prędkość oddalania się, jest to zarazem prędkość ekspansji naszej kuli.

kula expandujaca

Możliwe są trzy przypadki: prędkość (dowolnej) galaktyki na powierzchni kuli może być większa, równa albo mniejsza od prędkości ucieczki z kuli. Sytuacja jest dokładnie taka, jak w przypadku wystrzeliwania jakiegoś ciała z powierzchni Ziemi: jego prędkość może być większa, równa albo mniejsza od prędkości ucieczki i nasze ciało albo oddali się nieograniczenie (w dwóch pierwszych wypadkach), albo oddali się na pewną maksymalną odległość, a potem zawróci. Obserwacje wskazują, że nasz wszechświat z jakichś powodów zachowuje się tak, że galaktyki mają dokładnie prędkość graniczną: prędkość ucieczki. Nie jest to oczywiste, wygląda na to, że warunki początkowe Wielkiego Wybuchu zostały w precyzyjny sposób wybrane właśnie tak, aby prędkość galaktyk była równa prędkości ucieczki. Wybrane – nie znaczy: wybrane przez Stwórcę, ale jakoś fizycznie wyróżnione. Objaśniają to teorie tzw. inflacji, którymi tutaj nie będziemy się zajmować.
Prędkość ucieczki z powierzchni kuli o masie M i promieniu R równa się (zob. dowolny podręcznik fizyki albo stosowne hasło Wikipedii):

v=\sqrt{\dfrac{2GM}{R}},

gdzie G jest stałą grawitacyjną. Ponieważ w naszej rozszerzającej się kuli są wciąż te same galaktyki, jej masa jest stała i wobec tego prędkość maleje w miarę ekspansji – czegoś takiego oczekujemy od grawitacji. Ktoś, kto zna pochodne, łatwo sprawdzi, że rozwiązaniem tego równania jest R\sim t^{\frac{2}{3}}, (a pochodna v=R^{\prime}\sim t^{-\frac{1}{3}}). Na wykresie wygląda to tak.

einstein de sitter

Masę kuli można zapisać jako iloczyn gęstości \rho i objętości, otrzymamy wówczas prawo Hubble’a:

v=\sqrt{\dfrac{8\pi G\rho}{3}}R\equiv HR.

Ze wzoru tego wynikają dwie rzeczy: bez względu na to jak dużą weźmiemy kulę, otrzymamy tę samą wartość parametru H, jak być powinno, jeśli nasze rozumowanie ma być prawdziwe. Po drugie, w miarę jak kula będzie się rozszerzać, gęstość materii będzie maleć (wciąż ta sama masa przypada bowiem na coraz większą objętość). Zatem parametr Hubble’a też będzie maleć z czasem. Cofając się w czasie, otrzymamy coraz mniejsze promienie i coraz większe gęstości oraz prędkości. Widać, że model ten traci sens, gdy promień równa się zeru, odpowiada to bowiem nieskończonej gęstości. To właśnie jest Wielki Wybuch. Nasz model, podobnie jak ogólna teoria względności, traci sens dla R=0. Możemy natomiast przewidywać, co się będzie działo po Wielkim Wybuchu, a więc dla t>0. I jeszcze jedno: Wielki Wybuch jest granicą czasową naszego wszechświata, ale nie jest związany z żadnym miejscem w przestrzeni. Moglibyśmy naszą kulę wybrać ze środkiem w dowolnym punkcie i wyniki byłyby takie same. Zatem Wielki Wybuch dokonał się jednocześnie w całej przestrzeni: to nie był wybuch jakiejś bomby w pewnym punkcie.

3. Ciemna energia

Parametr Hubble’a H maleje, gdy maleje gęstość wszechświata. Tak być powinno, grawitacja spowalnia ekspansję. Ponieważ nasz wszechświat rozszerza się z prędkością ucieczki, powinien spowalniać coraz bardziej, a parametr Hubble’a powinien dążyć asymptotycznie do zera, nigdy go nie osiągając. Obserwacje (Nobel 2011) wykazały jednak, że do gęstości materii galaktyk \rho należy w ostatnim wzorze na H dodać pewną dodatkową stałą gęstość \rho_{vac} – jest to energia próżni albo inaczej ciemna energia. Nie jest to jakaś drobna poprawka, w dzisiejszym wszechświecie stanowi około 70% całości. Co taki wyraz oznacza? Mamy nową stałą fizyczną, przynajmniej w naszym wszechświecie. Z czasem gęstość ciemnej energii będzie jeszcze bardziej dominować (bo gęstość materii ciągle maleje wskutek ekspansji). Stała Hubble’a nie dąży więc do zera, lecz do pewnej wartości stałej

H_0=\sqrt{\dfrac{8\pi G\rho_{vac}}{3}}> 0.

Prędkość ekspansji będzie więc proporcjonalna do rozmiarów kuli wszechświata. Im większa kula, tym szybciej będzie się nadymać. Oznacza to wzrost wykładniczy, a więc wszechświat rozszerzający się wciąż szybciej i szybciej. Ciemna energia działa zatem jak dodatkowa siła odpychająca, która w końcu przeważa nad grawitacją. Gdyby już dziś liczyła się tylko ciemna energia, dalsze losy wszechświata wyglądałyby następująco.

dark-energy

Jest to zupełnie rozsądne przybliżenie naszej kosmicznej przyszłości. Naprawdę oba wykresy z punktów 2 i 3 gładko w siebie przechodzą, dając tzw. Model uzgodniony (The Concordance Model).
Co może znaczyć taka stała gęstość energii (bo energia i masa są proporcjonalne: E=mc^2)? Może to być np. energia drgań zerowych pól kwantowych. W mechanice kwantowej niemożliwy jest absolutny spoczynek: dlatego np. elektron w atomie stale się porusza. Spoczynek oznaczałby naruszenie zasady nieoznaczoności Heisenberga. Z podobnego powodu atomy w krysztale drgają nawet w temperaturze zera bezwzględnego. No dobrze, ale tu mówimy o pustej przestrzeni. Co ma się w niej poruszać, gdy zabierzemy wszelkie cząstki? Z kwantowego punktu widzenia każda cząstka jest kwantem pewnego pola. Np. fotony są kwantami pola elektromagnetycznego. Pola takie muszą drgać nawet wówczas, gdy nie ma ani jednego fotonu. A muszą drgać, bo inaczej naruszona zostałaby zasada nieoznaczoności. Drgające pole ma pewną energię, więc pola kwantowe powinny mieć energię nawet wtedy, gdy usuniemy wszystkie cząstki. Tak to powinno wglądać, kłopot w tym, że nikt nie potrafi zamienić intuicji tego rodzaju na jakiś rachunek, który by pokazywał, jakie to konkretnie pola dają obserwowaną energię próżni, czyli ciemną energię.

Równania, które napisaliśmy, wynikają także z ogólnej teorii względności, ale wtedy rachunki są bardziej złożone technicznie.

Więcej: Kosmologia relatywistyczna w kwadrans I, Kosmologia relatywistyczna w kwadrans II

Co maszyny parowe mówią nam o czarnych dziurach? (Carnot, 1824, Hawking 1974)

Termodynamika jest dziedziną zdumiewającą. Wyprowadzone z niej zależności pojawiają się w najróżniejszych dziedzinach fizyki. Pokażemy tu mały przykład: rozumowanie Sadiego Carnota dotyczące sprawności maszyn parowych i pewien eksperyment myślowy zaproponowany przez Roberta Gerocha w 1971 r., który doprowadził do odkrycia niezerowej temperatury czarnych dziur. Pracowało nad tym zagadnieniem kilku uczonych, najważniejszy wkład wnieśli Jacob Beckenstein i Stephen Hawking. Ten ostatni końcową formułę uznał za tak ważną, że pragnął, by mu ją wyryto na nagrobku. Odkrycie to oznaczało, że czarne dziury nie są zupełnie czarne, wysyłają bowiem promieniowanie cieplne i kiedyś, po bardzo długim czasie, wyparują.

Angielski napis: Tu spoczywa to, co było śmiertelne w Stephenie Hawkingu. Słowa powtarzają po angielsku to, co wyryto kiedyś na nagrobku Isaaca Newtona nieopodal: Hic depositum est quod mortale fuit Isaaci Newtoni.

Zaczniemy od Carnota. Sadi, był synem Lazare’a Carnota, generała-matematyka, polityka i organizatora, dzięki któremu armia rewolucyjna odnosiła sukcesy i który później służył Napoleonowi Bonaparte, póki ten nie zdradził ideałów rewolucji dla osobistej władzy. Lazare Carnot napisał znany podręcznik mechaniki maszyn. Jego syn, Sadi, absolwent École Polytechnique, także został inżynierem wojskowym. Nie mógł raczej liczyć na karierę we Francji w czasach restauracji monarchii Burbonów, zajmował więc jakieś niewiele znaczące stanowiska w Sztabie Generalnym i rozwijał się intelektualnie. Mając 27 lat, w 1824 roku opublikował niewielką książeczkę Réflexions sur la Puissance Motrice du Feu (Rozważania o sile poruszającej ognia). Nie została ona doceniona przez współczesnych, a kilka lat później Carnot zmarł na cholerę. Pracę Carnota odkryło dopiero następne pokolenie fizyków, w tym William Thomson, późniejszy lord Kelvin.

Carnot rozumiał, jak ogromną rolę odgrywają maszyny parowe: w jego czasach znajdowały one wciąż nowe zastosowania, zwłaszcza Anglia korzystała na rozpowszechnieniu nowych technologii, bez nich nie byłoby Imperium Brytyjskiego. Toteż Carnot spróbował zbudować naukową teorię wydajności maszyn cieplnych. Posługiwał się zresztą teorią cieplika, nieznana była bowiem jeszcze zasada zachowania energii, lecz rozumowania Carnota można było łatwo zmodyfikować, tak też poniżej zrobimy. Odkrycie Carnota jest równoważne temu, co później stało się II zasadą termodynamiki

Rozumiano oczywiście, że nie może istnieć maszyna, która wiecznie będzie się poruszać: perpetuum mobile. Paryska Akademia nauk w roku 1775 uchwaliła, że zaprzestaje analizowania nadsyłanych wciąż rozwiązań problemu podwojenia sześcianu, kwadratury koła i trysekcji kąta, a także wynalazków umożliwiających wieczny ruch bez napędu z zewnątrz. Problemy geometryczne znane były od starożytności i coraz bardziej się przekonywano, że są nierozwiązalne jako konstrukcje za pomocą liniału i cyrkla. Maszyny parowe (oraz wszelkie silniki cieplne, a także zwierzęta) zamieniają ciepło na pracę. Z dzisiejszego punktu widzenia rzec można, iż zamieniają nieuporządkowany ruch cząsteczek i atomów na uporządkowany ruch tłoka. Tutaj także obowiązuje pewien zakaz: nie można zamienić bez strat ciepła na energię mechaniczną. Czasem mówi się, że niemożliwe jest perpetuum mobile drugiego rodzaju, czyli urządzenie, które pobierałoby ciepło wyłącznie z jednego źródła, a następnie zamieniało je w całości na pracę. Jest to istota II zasady termodynamiki. Gdyby możliwe było np. pobranie z oceanów światowych ilości ciepła odpowiadającej zmianie temperatury o 1 K i zamiana go w całości na pracę, uzyskalibyśmy około 1025 J, czyli mniej więcej sto tysięcy razy więcej, niż roczna produkcja energii elektrycznej na świecie w 2013 roku. Zasada zachowania energii byłaby przy tym spełniona, naruszałoby to jedynie II zasadę termodynamiki.

Carnot podszedł do zagadnienia w duchu kartezjańskim i matematycznym. Pominął wszelkie szczegóły konstrukcyjne, sprowadzając maszynę parową do takiego działania cyklicznego, w którym pobieramy najpierw pewną ilość ciepła Q w wyższej temperaturze, a następnie oddajemy mniejszą ilość ciepła q w temperaturze niższej.

Konieczne są tu obiekty o dwóch różnych temperaturach: źródło ciepła i chłodnica. Intuicyjnie jasne jest, że gdy ciepło przepływa wprost z ciała o wyższej temperaturze do ciała o niższej temperaturze, to tracimy możliwość wykonania użytecznej pracy – mamy do czynienia z procesem nieodwracalnym. Maszyna cieplna o największej wydajności, to taka, w której ciepło przepływa zawsze między ciałami o praktycznie tej samej temperaturze: wystarczy wówczas nieznacznie zmienić jedną z temperatur, by odwrócić kierunek przepływu ciepła. W przypadku silnika cieplnego najpierw należy mu dostarczyć ciepła w sytuacji, gdy substancja robocza (np. para wodna) ma temperaturę nieznacznie mniejszą od temperatury źródła ciepła T_1, następnie wykonuje ona pracę, a potem oddaje pewną ilość ciepła do chłodnicy, przy czym substancja robocza powinna mieć temperaturę nieznacznie tylko wyższą niż T_2. Łatwo wyobrazić sobie odwrócenie takiego cyklu, nasza maszyna pracowałaby wówczas jak lodówka.

Carnot udowodnił, że maszyna odwracalna nie może mieć mniejszej wydajności niż nieodwracalna. Gdyby tak było, moglibyśmy obie maszyny sprząc ze sobą: pierwszą w kierunku normalnym, a drugą działającą odwrotnie (lodówka) i jeszcze uzyskalibyśmy pewną dodatkową pracę zewnętrzną.

Widać z obrazka, że takie urządzenie (niebieski prostokąt) wykonuje cykl, w którym zamienia na pracę ciepło pobrane z chłodnicy, a to jest niemożliwe. Musi więc zachodzić nierówność W\le W', a więc także i wydajność silnika cieplnego

\eta=\dfrac{W}{Q}\le\dfrac{W'}{Q}=\eta_{odwr}.

Ponieważ dwie maszyny odwracalne pracujące między danymi temperaturami muszą spełnić takie nierówności w obie strony, więc muszą mieć jednakową wydajność. Wydajność maszyny odwracalnej jest wyłącznie funkcją obu temperatur. Sprawność takiej maszyny odwracalnej jest granicą teoretyczną wydajności maszyn rzeczywistych i równa jest

\eta_{odwr}=\dfrac{W'}{Q}=1-\dfrac{q'}{Q}=1-\dfrac{T_2}{T_1}.

Ostatnia równość jest zarazem definicją skali temperatur absolutnych. Wprowadził ją Thomson w 1848 roku. Jego oraz Rudolfa Clausiusa uważa się za odkrywców II zasady termodynamiki, odkryli oni na nowo fakty znane Carnotowi, a także rozwinęli tę dziedzinę. II zasadę można sformułować także w ten sposób, że całkowita suma entropii świata rośnie.

Przenosimy się teraz o 150 lat w przód. Wiadomo, że zasady termodynamiki mają zastosowanie powszechne, niezależnie od tego, z jakim obszarem zjawisk mamy do czynienia: elektromagnetyzm, reakcje chemiczne, grawitacja – fizyka nie jest zbiorem niezależnych poddziedzin, lecz spójną całością. W latach szęśćdziesiątych ubiegłego wieku fizycy zrozumieli, że we wszechświecie powinny w pewnych warunkach tworzyć się czarne dziury. Jedną z najważniejszych postaci w tej nowej astrofizyce był John Wheeler, autor określenia „czarne dziury“ i mentor całej plejady wybitnych relatywistów. Jego doktorantem był Ja’akow Beckenstein. Kiedyś Wheeler w niezobowiązującej pogawędce zauważył, że zawsze czuje się jak przestępca, kiedy stawia filiżankę gorącej herbaty obok filiżanki mrożonej herbaty i pozwala im wyrównać temperatury.

Moja zbrodnia zostawia ślad aż po kres czasu i nie ma sposobu, by ją zatrzeć albo odwrócić. Wystarczy jednak, by w pobliżu przepływała akurat jakaś czarna dziura i żebym wrzucił do niej gorącą herbatę i tę mrożoną, a dowody mojej zbrodni zostałyby zatarte na zawsze.

Należy przy tym wyobrazić sobie Johna Wheelera, ubranego w nienaganny garnitur, konserwatystę z przekonań, który rzeczywiście mógłby odczuwać moralny dyskomfort z powodu beztroskiego powiększania entropii świata. Oczywiście treść fizyczna tej wypowiedzi była jak najbardziej serio: znikanie różnych obiektów za horyzontem zdarzeń sprawia, że z bilansu entropii wszechświata znika to, co wpadło do dziury. W ten sposób II zasada termodynamiki traci ważność, bo nie możemy sporządzić pełnego bilansu entropii świata. Wiadomo było, że czarne dziury zacierają jakikolwiek ślad tego, co do nich wpada i jedynym śladem jest zmiana masy, momentu pędu i ładunku dziury. Czy obiekty tak proste mogą być obdarzone entropią, która jest miarą liczby mikrostanów danego obiektu? Wiadomo było dzięki Stephenowi Hawkingowi, że pole powierzchni horyzontu czarnej dziury zawsze rośnie, przypominając pod tym względem entropię. Ale tylko przypominając – nikt bowiem nie chciał uwierzyć, że dziury naprawdę mają entropię. Gdyby miały, powinny też mieć niezerową temperaturę, a każdy obiekt o niezerowej temperaturze wysyła promieniowanie cieplne. Tymczasem dziura ma jedynie pochłaniać cząstki i promieniowanie. 

Robert Geroch przedstawił tę sytuację za pomocą silnika cieplnego. Wyglądałoby to jakoś tak:

Rysunek Louisa Fulgoniego

Napełniamy pudło promieniowaniem o pewnej temperaturze T z dala od dziury tak, że energia promieniowania równa się E. Pudło ma masę m=E/c^2. Następnie powoli opuszczamy na lince nasze pudło. Opuszczaniu masy w polu grawitacyjnym towarzyszy wykonanie pewnej pracy i np. wygenerowanie prądu zasilającego żarówkę, jak na rysunku. Jeśli opuścimy pudło aż do horyzontu zdarzeń, jego energia całkowita stanie się równa zero (jakby do energii spoczynkowej mc^2 doszła energia potencjalna grawitacji równa -mc^2).  Znaczy to, że całą energię E udało nam się zamienić na pracę. Otwieramy teraz pudło, pozwalając promieniowaniu wpaść do dziury i podnosimy z powrotem puste, lekkie pudło. Cykl się zamyka. Stworzyliśmy idealny silnik cieplny.

Jacob Beckenstein, analizując sytuacje takie jak powyższa, pierwszy zasugerował, że czarna dziura powinna mieć entropię i ustalił, jaki wzór powinien ją opisywać. Był wtedy młodym uczonym tuż po doktoracie i musiał wytrzymać ciśnienie zmasowanej krytyki uznanych ekspertów, w tym Stephena Hawkinga. W końcu to Hawking rozstrzygnął problem, wykazując, ku własnemu zdumieniu, że czarne dziury promieniują i obliczył stosowną temperaturę. Praca ta powstała na gruncie kwantowej teorii pola, rozszerzając jej zastosowanie na zakrzywioną czasoprzestrzeń. 

Silnik Gerocha nie ma stuprocentowej sprawności. Jeśli promieniowanie ma temperaturę T, to samo pudło musi mieć rozmiar przynajmniej typowej długości fali L. Najniższe możliwe położenie pudła osiągniemy, gdy jego dolna ścianka dotknie horyzontu zdarzeń. Środek masy pudła znajduje się wtedy na pewnej wysokości L/2 i energia całkowita pudła równa się mgL/2 (g jest natężeniem pola grawitacyjnego na powierzchni horyzontu). 

Toteż praca uzyskana podczas opuszczania pudła równa jest

W=mc^2-mg\dfrac{L}{2},

a sprawność maszyny wynosi

\eta=\dfrac{W}{mc^2}=1-\dfrac{gL}{2c^2}.

Typową długość fali odpowiadającą temperaturze T możemy znaleźć jako warunek równości energii cieplnej k_{B}T (k_B jest stałą Boltzmanna – czyli w zasadzie przelicznikiem energii na temperaturę i odwrotnie) i energii fotonu (jest to też treść tzw. prawa Wiena dla promieniowania cieplnego):

k_{B}T=\dfrac{\hbar c}{L}.

Sprawność silnika przyjmuje więc postać

\eta=1-\dfrac{g\hbar }{2ck_B T}\equiv 1-\dfrac{T_{BH}}{T}.

Z porównania otrzymujemy oszacowanie temperatury Hawkinga

T_{BH}=\dfrac{g\hbar}{2k_B c}.

Oczywiście niezbyt przejmowaliśmy się stałymi liczbowymi, toteż nie należy się spodziewać, że wynik ten będzie dokładny. Wartość dokładna okazuje się mniejsza o czynnik \pi:

T_{BH}=\dfrac{g\hbar}{2\pi k_B c}.

William Unruh udowodnił, że jeśli poruszamy się z przyspieszeniem g w pustej przestrzeni, to zaobserwujemy w naszym układzie odniesienia promieniowanie o takiej temperaturze jak we wzorze Hawkinga. Jest to tzw. efekt Unruh. Zgodnie z zasadą równoważności pole grawitacyjne i przyspieszenie są lokalnie równoważne.

Temperatura Hawkinga w przypadku czarnych dziur o masach astrofizycznych jest skrajnie mała i zdecydowanie poza zasięgiem obserwacji. Osiągnięciem Hawkinga było pokazanie, że i w tym przypadku obowiązuje II zasada termodynamiki. Fakt, że czarna dziura promieniuje, i to tym silniej, im mniejszą ma masę, oznacza, że po bardzo długim czasie czarne dziury wyparują i wszechświat wypełniony będzie samym promieniowaniem. Taki kres wszechświata, według ulubionej hipotezy Rogera Penrose’a, byłby możliwym początkiem następnego wszechświata. 

Żeby otrzymać temperaturę w postaci z nagrobka w Westminster Abbey, należy wstawić za g wartość 

g=\dfrac{GM}{r_S^2},

gdzie r_S to promień Schwarzschilda:

r_S=\dfrac{2GM}{c^2},

a G\, M oznaczają odpowiednio stałą grawitacyjną i masę dziury. Wzór opisujący g jest (przypadkowo) taki sam jak w teorii klasycznej dla grawitacji na powierzchni kuli o promieniu r_S

O temperaturze Hawkinga pisałem już wcześniej.

Kwantowa gra Johna Bella

John Stuart Bell był tylko o rok starszy od Petera Higgsa. Zajmowali się różnymi dziedzinami fizyki. W roku 1964 obaj ogłosili prace, które mogły przynieść im Nagrodę Nobla, choć zapewne żaden z nich z początku w to nie wierzył. Higgs doczekał się odkrycia „swojego” bozonu w Zderzaczu Hadronów w CERN-ie w roku 2015. Eksperymentalne potwierdzenia pracy Bella zaczęły się pojawiać od początku lat siedemdziesiątych XX w., lecz dopiero kilka lat temu zamknięto wszelkie luki aparaturowe, które mogłyby prowadzić do innego wyjaśnienia wyników, niż przewiduje mechanika kwantowa. Bell nie doczekał się Nagrody Nobla, zmarł niespodziewanie w roku 1990. Wiadomo, że wysuwano jego kandydaturę do szwedzkiej nagrody w owym roku. Gdyby żył, zapewne by ją wtedy albo później otrzymał.

Osiągnięcia Bella przyjmowane były z oporami, ponieważ dotyczyły podstaw mechaniki kwantowej, a więc dziedziny, która mimo rozmaitych zastrzeżeń filozoficznych świetnie funkcjonuje w praktyce. Po wczesnych dyskusjach z lat dwudziestych i trzydziestych, gdy swoje zastrzeżenia wysuwali uczeni tacy jak Albert Einstein i Erwin Schrödinger, zwyciężyła postawa praktyczna: wyniki eksperymentów zgadzały się z obliczeniami, nie warto więc dzielić włosa na czworo. Bell należał pod tym względem do dysydentów, podstawy mechaniki kwantowej nie dawały mu spokoju. Pracując w CERN-ie na codzień  zajmował się fizyką cząstek i budową akceleratorów, sam mówił żartobliwie o sobie, że jest inżynierem kwantowym, ale przy niedzieli miewa także zasady. I właśnie te jego uboczne prace okazały się najważniejsze. (Jest tu pewne podobieństwo z Peterem Higgsem, który zajmował się w latach sześćdziesiątych kwantową teorią pola – dziedziną wówczas niemodną i spisaną, zdawało się, na straty, królowało bowiem podejście oparte na własnościach macierzy S.)

Bell znalazł sposób, by wyrazić ilościowo różnicę między przewidywaniami mechaniki kwantowej i tzw. lokalnym realizmem, czyli w praktyce jakąś wersją klasycznego zdrowego rozsądku. Chodzi o pewne korelacje między wynikami pomiarów, które kłócą się z naiwnym rozumieniem pojęcia cząstki kwantowej jako bytu w zasadzie punktowego. Cząstki kwantowe mogą bowiem występować w stanach splątanych ze sobą pomimo przestrzennego oddalenia. Zjawisko splątania jest podstawą idei komputera kwantowego. Gdybyśmy potrafili kontrolować i utrzymywać dostatecznie długo takie stany splątane, można by rozwiązywać zagadnienia niedostępne klasycznym komputerom. Przykładem jest tzw. algorytm Shora, który pozwalałby komputerowi kwantowemu szybko znajdować podzielniki wielkich liczb, co jest zagadnieniem praktycznie niewykonalnym dla klasycznych komputerów i fakt ten wykorzystywany jest w szyfrowaniu danych. Komputer kwantowy odpowiednich rozmiarów mógłby w zasadzie złamać te wykorzystywane powszechnie kody (lecz zarazem technologie kwantowe mogą służyć do przesyłania danych  w taki sposób, że niemożliwe jest ich podglądanie przez niepowołanych). Są i inne problemy, w których komputery kwantowe potrafiłby zdziałać znacznie więcej niż klasyczne, toteż nic dziwnego, że dziedzina ta jest w ostatnich latach finansowana na świecie jak bodaj żadne inne badania z fizyki.

Poniżej opiszemy pewną dziwaczną grę, grę Bella, w której wszelkie strategie klasyczne są mniej wydajne niż strategia wykorzystująca kwantowomechaniczne stany splątane. Jest to więc przykład czegoś, co dzięki mechanice kwantowej można robić lepiej, niż to jest możliwe w świecie klasycznym. Sama gra jest dość sztuczna, jednak owa kwantowa nadwyżka efektywności jest czymś realnie istniejącym i obserwowanym w eksperymentach. Mówimy o pewnym zachowaniu przyrody, które przed pracami Bella nikomu nie przyszło do głowy. (Dokładnie biorąc, nasza gra oparta jest na tzw. nierówności CHSH – od nazwisk: Johna Clausera, Michaela Horne’a, Abnera Shimony’ego i Richarda Holta.)

Najpierw parę słów o stanach kwantowych na przykładzie polaryzacji fotonu. Światło, czyli klasycznie rzecz biorąc fala elektromagnetyczna może być spolaryzowana liniowo – znaczy to tyle, że drgania pola elektrycznego zachodzą w pewnej ustalonej płaszczyźnie (prostopadłej do kierunku rozchodzenia się fali, mówimy, że fale elektromagnetyczne są poprzeczne). Istnieją urządzenia, zwane polaryzatorami, które przepuszczają jedynie składową pola wzdłuż pewnej osi. Jeśli wchodząca fala jest spolaryzowana pod kątem \varphi do osi polaryzatora, to z fali o amplitudzie E zostaje przepuszczona tylko składowa E\cos\varphi.

Ponieważ natężenie fali (energia przez nią przenoszona) jest proporcjonalne do kwadratu amplitudy, więc natężenie I światła przepuszczonego przez polaryzator jest mniejsze od natężenia I_0 światła wchodzącego do polaryzatora:

I=I_0\cos^2\varphi.

Jest to znane z fizyki klasycznej prawo Malusa (od francuskiego badacza z początku XIX wieku). Jak wygląda kwantowy opis takiej sytuacji? Mamy teraz osobne cząstki, fotony. Foton może przejść przez polaryzator w całości albo wcale. W naszym przypadku, oznaczając stan fotonu przed polaryzatorem |\varphi\rangle, a stany z polaryzacją pionową i poziomą odpowiednio |V\rangle oraz | H\rangle, możemy to zapisać następująco:

|\varphi\rangle=\cos\varphi |V\rangle+\sin\varphi |H\rangle.

Foton jest stanie zawierającym w części \cos\varphi stan o polaryzacji pionowej oraz w części \sin\varphi stan o polaryzacji poziomej. Przejście przez polaryzator należy z punktu widzenia mechaniki kwantowej traktować jako pomiar. Polaryzator zadaje pytanie: czy twoja polaryzacja jest pionowa? Prawdopodobieństwo odpowiedzi TAK=1 równe jest \cos^2\varphi, a prawdopodobieństwo odpowiedzi NIE=0 równe jest \sin^2\varphi. Teoria nie daje nam wskazówek, jak zachowa się pewien konkretny foton: wiadomo, że obserwując fotony za polaryzatorem, otrzymamy chaotyczny ciąg bitów: zer i jedynek, przy czym częstość występowania jedynek będzie równa \cos^2\varphi. W ten sposób odtwarza się klasyczne prawo Malusa.

Stany układu są wektorami w pewnej abstrakcyjnej przestrzeni, w przypadku polaryzacji przestrzeń ta jest dwuwymiarowa i każdy wektor można zapisać jako kombinację wektorów |H\rangle oraz |V\rangle. Kwadraty współczynników w tym rozwinięciu mają sens prawdopodobieństw. Pomiar powoduje redukcję stanu: nie wiemy z góry, czy foton pojawi się za polaryzatorem, ale jeśli się w ogóle pojawi, to jego polaryzacja będzie |V\rangle. Oczywiście polaryzacja nie opisuje wszystkiego, co można wiedzieć o fotonie, ale my będziemy się interesowali jedynie stanami polaryzacyjnymi.

Jak opisuje się parę cząstek, np. dwa fotony? Możemy podać po prostu stany obu fotonów, pojawią się wtedy cztery stany bazowe: |H\rangle|H\rangle,\, |H\rangle|V\rangle,\, |V\rangle|H\rangle,\,|V\rangle|V\rangle. Wyobraźmy sobie np. układ dwóch fotonów w stanie |\varphi\rangle|V\rangle. Jeśli pierwszy z tych fotonów przepuścimy przez polaryzator przepuszczający polaryzację pionową, to tak samo jak poprzednio nastąpi redukcja stanu |\varphi\rangle\rightarrow|V\rangle, druga część natomiast się nie zmieni, bo przecież nic z tym drugim fotonem nie robiliśmy, w rezultacie otrzymamy stan |V\rangle|V\rangle z prawdopodobieństwem \cos^2\varphi. Nowa przestrzeń stanów jest rozpięta przez cztery wektory bazowe i dowolna ich kombinacja jest dopuszczalnym stanem fizycznym. Np. stan

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|H\rangle|H\rangle+\dfrac{1}{\sqrt{2}}|V\rangle|V\rangle.

Ten stan nie daje się zapisać jako iloczyn dwóch czynników odpowiadających poszczególnym fotonom. Jest to właśnie stan splątany. Jeśli pierwszy foton przepuścimy przez polaryzator przepuszczający pionową polaryzację, to z prawdopodobieństwem \frac{1}{2}=\frac{1}{\sqrt{2}^2} pierwszy foton przejdzie w stan |V\rangle, drugi nie ma wyjścia i też okaże się stanem |V\rangle. Co to oznacza? Stan drugiego fotonu znany jest bez mierzenia, po prostu dlatego że był splątany z pierwszym. Oba fotony mogą znajdować się dowolnie daleko od siebie. Z chwilą gdy dokonamy pomiaru polaryzacji pierwszego fotonu, znamy też polaryzację drugiego (jest taka sama). Oba fotony tworzą pewną skorelowaną z sobą całość. Co więcej, nasz stan |\Psi\rangle jest w istocie niezależny od kierunku. Jeśli za nowe wektory bazowe weźmiemy wyżej zapisany stan |\varphi\rangle i stan prostopadłej do niego polaryzacji

|\varphi_{\perp}\rangle=-\sin\varphi|V\rangle+\cos\varphi|H\rangle,

to okazuje się, że stan splątany możemy zapisać w postaci

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|\varphi\rangle|\varphi\rangle+\dfrac{1}{\sqrt{2}}|\varphi_{\perp}\rangle|\varphi_{\perp}\rangle.

Oznacza to, że gdy wykonamy pomiar polaryzacji pierwszego fotonu za pomocą dowolnie zorientowanego polaryzatora i ów foton przejdzie przez polaryzator (z prawdopodobieństwem \frac{1}{2}), to wiemy na pewno, że drugi ma dokładnie taką samą polaryzację, choćby znajdował się już w galaktyce Andromedy. Zachodzą więc związki między cząstkami, które mogą być daleko od siebie. To z tej okazji Einstein mówił o niesamowitym oddziaływaniu na odległość (spukhafte Fernwirkung). Jednak nie chodzi tu o żadne oddziaływania, lecz o pewne korelacje. Nie można za pomocą splątania przekazywać informacji, niemniej zachodzą korelacje, które można próbować wykorzystać, czym zajmuje się cała dziedzina komputerów kwantowych.

Przejdźmy wreszcie do gry Bella. Mamy dwa identyczne urządzenia obsługiwane przez parę uczonych Alicję i Bartka. Każde z nich składa się z dźwigni przełączanej między dwoma stanami x=0,1 (Alicja), y=0,1 (Bartek). Wynikiem działalności każdego z nich jest także jeden bit informacji: a=0,1 (Alicja), b=0,1 (Bartek). Nasi obserwatorzy znajdują się daleko od siebie i nie mogą na siebie wpływać. Ich zadaniem jest uzyskanie jak największej liczby punktów w kooperatywnej grze. Zdobywają punkt, jeśli uda im się spełnić równanie

x\cdot y=a+b \mod{2}.

Dodawanie modulo 2 różni się od zwykłego tylko w jednym przypadku: 1+1=0. Gra jest statystyczna, każde z nich generuje w sposób przypadkowy x (albo y), po czym za pomocą dowolnej procedury opartej na znajomości tego bitu oraz reguł gry generuje bit a (albo b). Na końcu ich serie wyników są porównywane i oblicza się liczbę zdobytych punktów.

Jeśli bity a,b będą generowane przypadkowo, prawdopodobieństwo wygranej będzie równe \frac{1}{2}. Proste strategie deterministyczne albo i nie prowadzą do prawdopodobieństwa wygranej \frac{3}{4}. Jest to nierówność Bella dla tej sytuacji:

P(a=b|0,0)+P(a=b|0,1)+P(a=b|1,0)+P(a\neq b|1,1)\leq\dfrac{3}{4}.

Istnieje oparta na mechanice kwantowej strategia zapewniająca większe prawdopodobieństwo wygranej i naruszająca nierówność Bella. Należy zaopatrzyć naszych graczy w każdej turze w parę fotonów w stanie splątanym |\Psi\rangle. Dalej powinni postąpić następująco: oboje zależnie od wartości swojego bitu x,y powinni wybrać odpowiedni kąt ustawienia polaryzatora: \alpha_0,\alpha_1 (Alicja) oraz \beta_0,\beta_1 (Bartek). Dla wybranego kierunku dokonują oni pomiaru na stanie splątanym |\Psi\rangle i w ten sposób ustalają wartość swojego bitu a albo b. Okazuje się, że taka strategia daje prawdopodobieństwo wygranej

Q=\cos^2(\alpha_0-\beta_0)+\cos^2(\alpha_0-\beta_1)+\cos^2(\alpha_1-\beta_0)+\sin^2(\alpha_1-\beta_1).

Dla wartości \alpha_0=0, \alpha_1=\frac{\pi}{4}, \beta_0=-\beta_1=\frac{\pi}{8} otrzymujemy

Q=\dfrac{2+\sqrt{2} }{4} >\dfrac{3}{4}.

Przed pracami Johna Bella nikt nawet nie przypuszczał, że można badać takie korelacje kwantowe ani że może to być wykorzystane, najpierw do lepszego zrozumienia przyrody, a z czasem także i do zastosowań technicznych. Niewielu jest  uczonych, którzy dają początek nowej dziedzinie wiedzy i John Stuart Bell należy do tego elitarnego grona.

Szczegóły rachunków można znaleźć tutaj. Nicolas Gisin, jeden z uczestników eksperymentów i prac teoretycznych w tej dziedzinie napisał książkę popularną niemal w całości poświęconą grze Bella: Quantum Chance. Nonlocality, Teleportation and Other Quantum Marvels (Springer, 2014).

Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.