Jak Albert Einstein wymyślił ruchy Browna (1905)

Albert Einstein kojarzy się głównie z teorią względności: szczególną i potem ogólną. Jego zainteresowania obejmowały jednak całość gmachu fizyki, jak nikt bowiem troszczył się o logiczną spójność i prostotę całości, wiele jego prac brało początek nie tyle z konkretnych problemów, ile raczej z potrzeby uzgodnienia różnych punktów widzenia. Tematyka teorii względności nie pochłaniała też większości jego czasu i uwagi. W pierwszym, najbardziej twórczym, ćwierćwieczu swej działalności był Einstein jednym z pionierów i mistrzów fizyki statystycznej. Dziedzina ta wyrosła z kinetycznej teorii gazów w sposób prawie niezauważalny w pierwszych latach XX wieku. Metody statystyczne zastosowane do gazów i rozwinięte przez Ludwiga Boltzmanna uogólnił Einstein w latach 1902-1904 na dowolne układy składające się z wielu cząstek. Nie wiedział wówczas, że dobiegający kresu życia Josiah Willard Gibbs sformułował tę samą teorię w książce Elementary Principles in Statistical Mechanics wydanej w Stanach Zjednoczonych w roku 1902. Gibbs, który spędził niemal całe życie w New Haven w Connecticut jako profesor uniwersytetu Yale, był pierwszym i aż do lat trzydziestych jedynym wybitnym teoretykiem amerykańskim. Jego prace znane były w Europie, lecz Einstein zapoznał się z książką Gibbsa dopiero po ukazaniu się jej niemieckiego przekładu i stwierdził, że gdyby znał ją wcześniej, to nie napisałby swoich trzech wczesnych prac dotyczących podstaw fizyki statystycznej. Bez wątpienia przyczyniły się one wszakże do jego naukowego rozwoju, technikami statystycznymi posługiwał się bowiem później z wielkim wyczuciem i pewnością.

Lata 1896-1905 są w rozwoju naukowym Einsteina okresem bodaj najciekawszym, wtedy właśnie ukształtował się uczony, który w roku 1905 ogłosił cztery przełomowe prace stawiające w nowym świetle kilka naraz dziedzin fizyki. Pierwsza z nich dotyczyła cząstkowej natury światła i była najbardziej może rewolucyjna. Czwarta dotyczyła teorii względności, czyli jak to wtedy mówiono, elektrodynamiki ciał w ruchu. Do swego przyjaciela Conrada Habichta Einstein pisał wtedy:

Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast dowodzi, iż z założeń molekularnej [kinetycznej] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy]; w rzeczy samej, fizjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna.

Robert Brown, wybitny botanik, zaobserwował to zjawisko w roku 1827, badając pod mikroskopem pyłki klarkii nadobnej i wydzielane przez nie drobne cząstki (amyloplasty i sferosomy). Otóż cząstki te wykonywały nieustający zygzakowaty ruch. Brown sumiennie i metodycznie podszedł do swego odkrycia, stwierdzając, że podobne ruchy obserwuje się także w przypadku drobnych cząstek nieorganicznych, nie mają więc one nic wspólnego z życiem. Do końca wieku XIX zjawiskiem ruchów Browna zajmowali się od czasu do czasu fizycy, nie zaowocowało to jednak żadnymi charakterystykami ilościowymi. Mimo że rozwinęła się wówczas kinetyczna teoria gazów i powtarzano od czasu do czasu wyjaśnienie zjawiska za pomocą zderzeń z cząsteczkami cieczy, nikomu nie udało się wyjść poza ogólniki. Charakterystyczne są tu uwagi Henri Poincarégo w książce Nauka i hipoteza. Matematyk pisze tu o zjawiskach nieodwracalnych, podlegają one prawu wzrostu entropii, trudno więc uzgodnić je z zasadami mechaniki, które są odwracalne:

Przez długi czas termodynamika ograniczała się do badań nad rozszerzaniem się ciał i zmian w ich stanie. Od pewnego czasu stała się ona zuchwalszą i znacznie rozszerzyła swój zakres. Zawdzięczamy jej teorię stosu, teorię zjawisk termoelektrycznych; nie ma w całej fizyce kąta, który by nie był objęty jej badaniami; zaatakowała ona nawet chemię. Wszędzie panują te same prawa; wszędzie pod rozmaitością pozorów odnajdujemy zasadę Carnota [tj. drugą zasadę termodynamiki], wszędzie również owo tak niesłychanie abstrakcyjne pojęcie entropii, równie powszechne jak pojęcie energii i jak ono posiadające cechy czegoś realnego. Ciepło promieniste zdawało się jej nie podlegać; przekonano się niedawno, że i ono znajduje się pod panowaniem tych samych praw. (…)

Usiłowano również znaleźć wytłumaczenie mechaniczne tych zjawisk [nieodwracalnych] we właściwym znaczeniu. Nie nadawały się one jednak do tego. Aby wytłumaczenie to znaleźć, należało np. przypuścić, że nieodwracalność jest tylko pozorna, że zjawiska elementarne są odwracalne i ulegają znanym prawom dynamiki. Lecz elementy są nadzwyczaj liczne i mieszają się ze sobą coraz bardziej, tak iż dla tępych naszych oczu wszystko zdaje się zdążać do jednostajności, czyli wszystko zdaje się postępować w jednym kierunku, bez nadziei powrotu. Pozorna nieodwracalność jest tedy po prostu przejawem prawa wielkich liczb. Jedynie istota o zmysłach nieskończenie subtelnych, w rodzaju urojonego demona Maxwella, potrafiłaby rozwikłać tę poplątaną sieć i zawrócić świat wstecz.

Koncepcja ta, związana z teorią kinetyczną gazów, powstała kosztem wielkich wysiłków i ostatecznie okazała się mało płodną, może się stać nią jednak. Nie tutaj miejsce rozpatrywać, czy nie prowadzi ona do sprzeczności, i czy odpowiada ściśle rzeczywistej naturze rzeczy.

Wspomnijmy przecież o oryginalnych pomysłach fizyka Gouy’ego, dotyczących ruchu brownowskiego. Według tego badacza osobliwy ten rodzaj ruchu uchyla się od zasady Carnota. Cząstki, które wprawia on we wstrząśnienie, mają być mniejsze niż oka tej tak gęsto zasnutej sieci; mogą one przeto oka te rozwikłać i w ten sposób kazać światu postępować wstecz. [Nauka i hypoteza, przeł. M.H. Horwitza pod red. L. Silbersteina, Warszawa-Lwów 1908, pisownia uwspółcześniona]

Zaprezentowaliśmy ten cytat nie tylko dla zobrazowania poglądów panujących w pierwszych latach XX wieku, ale i dlatego, że książkę Poincarégo czytał Einstein z przyjaciółmi, Conradem Habichtem (adresatem listu powyżej) i Mauricem Solovine. Utworzyli oni nieformalną grupę samokształceniową, którą nazywali żartobliwie Akademią Olympia – wszyscy trzej byli raczej bez grosza i postrzegali siebie jako outsiderów wobec rozmaitych szacownych ciał oficjalnych. Niewykluczone, że Einstein wiedział na temat ruchów Browna tyle albo niewiele więcej niż można znaleźć u Poincarégo. 

Akademia Olympia w pełnym składzie, pierwszy z lewej Conrad Habicht.

W odróżnieniu od franuskiego luminarza nauki młody Einstein nie miał wątpliwości, że metody statystyczne Boltzmanna, czyli mechanika statystyczna, mogą objaśnić także zjawiska nieodwracalne (np. zamianę pracy na ciepło pod wpływem tarcia albo oporu ośrodka). Na poziomie molekularnym nie widać zresztą, w którą stronę płynie czas. Nie widać tego także w ruchach Browna. Drobna, lecz ogromna w skali molekularnej, cząstka pod mikroskopem porusza się pod wpływem chaotycznych zderzeń z cząsteczkami cieczy bądź gazu. Zderzenia te przekazują obserwowanej cząstce pewien pęd, ruch wypadkowy jest tu skutkiem nierównomierności tych zderzeń: czasem przekazują one pęd w jednym kierunku, czasem w innym. W rezultacie cząstka porusza się osobliwym zygzakowatym ruchem. Uczeni badający to zjawisko przed Einsteinem starali się np. zmierzyć prędkość ruchów Browna, otrzymywali jednak wyniki niespójne i nie dające się ująć w żadne prawidłowości. W ruchach Browna decydujące znaczenie mają odchylenia od średnich – fluktuacje statystyczne, a nie same średnie. Badanie fluktuacji metodami fizyki statystycznej stało się ulubionym podejściem Einsteina w wielu zagadnieniach. Nastawienie to odróżniało go nie tylko od konserwatystów w rodzaju Poincarégo, ale także od pionierów: Boltzmanna i Gibbsa, którzy koncentrowali się raczej na tym, jak metodami statystycznymi powtórzyć wyniki termodynamiczne. Młody uczony, którego na razie nikt nie traktował na tyle serio, by dać mu posadę na uczelni, szedł więc tutaj zupełnie samodzielną drogą. Można powiedzieć, że był prekursorem stosowania prawdopodobieństw w fizyce. Metody probabilistyczne odróżniają zdecydowanie fizykę XX wieku od szukającej wszędzie absolutnej pewności fizyki dziewiętnastowiecznej. Choć Einstein nigdy nie pogodził się z brakiem determinizmu na poziomie zjawisk podstawowych (słynne „Bóg nie gra w kości!”), to sam przyczynił się w znacznym stopniu do zmiany podejścia uczonych i wprowadzenia metod statystycznych. 

W pracy z 1905 roku Einstein nie był pewien, czy to, co opisuje to owe słynne ruchy Browna. Pisze:

Niewykluczone, że omawiane tu ruchy są identyczne z tak zwanymi molekularnymi ruchami Browna, ale dostępne mi dane na ich temat są tak nieprecyzyjne, iż nie mogłem w tej sprawie sformułować opinii. (przeł. P. Amsterdamski)

Warto zauważyć, że sto lat temu dostęp do informacji naukowej był zgoła niełatwy, zwłaszcza dla kogoś, kto pracował przez cały dzień w biurze i w godzinach pracy nie mógł chodzić do biblioteki naukowej. Oczywiście Einsteinowi chodzi tu o coś więcej niż samą kwestię ruchów Browna:

Jeżeli ruchy, które tu omówimy, rzeczywiście można zaobserwować i jeżeli spełnione są prawa, którym powinny podlegać, to nie sposób dalej utrzymywać, że termodynamika klasyczna zachowuje ważność w sytuacji, gdy poszczególne obiekty dają się odróżnić nawet za pomocą mikroskopu, i ścisłe wyznaczenie rzeczywistych rozmiarów atomowych staje się możliwe. Z drugiej strony, jeżeli przewidywania dotyczące tych ruchów okażą się błędne, fakt ten stanowiłby bardzo poważny argument przeci molekularno-kinetycznej teorii ciepła. (przekł. jw.)

Einstein stosuje do opisu ruchu cząstki brownowskiej rachunek prawdopodobieństwa. W jednym wymiarze rozkład prawdopodobieństwa zależny od położenia x i czasu t opisany jest funkcją p(x,t). Zakładamy, że położenia cząstki w chwili późniejszej t+\tau są statystycznie niezależne od położeń w chwili t. Mamy wtedy równanie:

p(x,t+\tau)={\displaystyle \int_{-\infty}^{\infty} p(x+\Delta, t)\phi(\Delta)d\Delta},

gdzie \phi(\Delta) jest pewnym symetrycznym rozkładem prawdopodobieństwa. Czytelnik zechce zauważyć podobieństwo do podejścia Louisa Bacheliera, o którym Einstein nic nie wiedział wtedy ani zresztą także i później, ich trajektorie naukowe nigdy się nie przecięły. Einstein rozwija w szereg Taylora funkcję po lewej stronie względem czasu, a po prawej względem położenia, ograniczając się do najniższych pochodnych dających nietrywialny wynik:

p(x,t+\tau)=p(x,t)+\tau\dfrac{\partial p}{\partial t}=p(x,t)+\dfrac{1}{2}{\displaystyle \dfrac{\partial^2 p}{\partial x^2} \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Po uproszczeniu otrzymujemy równanie dyfuzji:

\dfrac{\partial p}{\partial t}=D \dfrac{\partial^2 p}{\partial x^2}, \mbox{  gdzie  } D=\dfrac{1}{2\tau} {\displaystyle \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Jest to równanie opisujące rozkład prawdopodobieństwa położeń pojedynczej cząstki (jeśli cząstek jest niewiele, to ich ruchy powinny być niezależne). Rozwiązanie znane było powszechnie i można je zapisać następująco:

{\displaystyle p(x,t)=\dfrac{1}{\sqrt{4\pi Dt}}\exp{\left(-\dfrac{x^2}{4Dt}\right)}.}

 

Mamy więc mały cud: bardzo nieregularne ruchy odpowiadają gładkiemu rozkładowi gaussowskiemu, który rozpływa się z czasem. Wygląda to jakoś tak.

Biorąc pewną próbkę błądzących cząstek, otrzymamy histogram częstości, który dla wielu prób zbieżny będzie do rozkładu Gaussa. Jest to zagadnienie błądzenia przypadkowego, o którym pisaliśmy niedawno. Z punktu widzenia Einsteina najważniejsza była wartość średnia x^2, czyli dyspersja rozkładu (kwadrat odchylenia standardowego):

\langle x^2\rangle=2Dt.

Einstein powiązał współczynnik D z lepkością ośrodka \eta i promieniem cząstek brownowskich r oraz temperaturą T, otrzymując

\langle x^2\rangle=\dfrac{kT}{3\pi \eta r}t.

Zależność tę przetestował później Jean Perrin, potwierdzając wyniki Einsteina i Mariana Smoluchowskiego, który trochę później ogłosił równoważną teorię ruchów Browna. Dzięki temu potwierdzono istnienie atomów, a także słuszność fizyki statystycznej jako metody badania obiektów makro− i mezoskopowych. 

 

 

 

 

Lars Onsager i model Isinga, czyli fizyka statystyczna a przejścia fazowe

Jesienią 1945 roku także uczeni wracali do pokojowego życia. Hendrik Casimir, doktorant Ehrenfesta i asystent Wolfganga Pauliego w ETH w Zurychu, lata wojny spędził w okupowanej Holandii, pragnął się więc dowiedzieć od swego dawnego szefa, co wydarzyło się w fizyce po stronie alianckiej: w Wielkiej Brytanii i w Stanach Zjednoczonych. Pauli, który spędził ten czas w Princeton, stwierdził, że w gruncie rzeczy niewiele się wydarzyło, prowadzono wprawdzie wiele prac nad radarem czy bombą atomową, ale w oczach Pauliego niezbyt się te kwestie liczyły. Dla niego ważne były dokonania intelektualne, a nie techniczne zastosowania. Właśnie jako dokonanie tego rodzaju – „arcydzieło analizy matematycznej” wyróżnił Pauli pracę Larsa Onsagera nad modelem Isinga z roku 1941. Na pochwałę ze strony Pauliego wyjątkowo trudno było zasłużyć, słynął on z ostrych ocen wygłaszanych często wprost w oczy („to nawet nie jest źle”). Był też wirtuozem trudnych technik, to on pierwszy rozwiązał problem atomu wodoru w mechanice kwantowej, w jej wersji macierzowej, zanim jeszcze powstało równanie Schrödingera.

Norweg pracujący w Stanach Zjednoczonych, Lars Onsager należał do wielkich dziwaków nauki. Karierę zaczął od tego, że zgłosił się do Petera Debye’a w ETH, by mu powiedzieć, że jego teoria elektrolitów jest błędna. Szybko przeniósł się za ocean. Studenci nazywali prowadzony przez niego przedmiot „sadistical mechanics” – wykłady były trudne, matematyczne, wykładowca mówił z norweskim akcentem, a do tego zasłaniał swą dużą sylwetką tablicę. W Yale dopiero po zaoferowaniu mu posady postdoca zorientowano się, że Onsager, mimo dorobku naukowego wciąż nie ma doktoratu. Napisał więc doktorat o funkcjach Mathieu, z którym wydział chemii nie wiedział, co zrobić. W tej sytuacji matematycy zaproponowali, że mogą tę pracę uznać za doktorat na ich wydziale. Ostatecznie przyznano mu doktorat z chemii. Onsager w latach czterdziestych wykazał, że dwuwymiarowy model Isinga wykazuje przejście fazowe. Całości bardzo długiej pracy nigdy zresztą nie opublikował, lubił podsycać zainteresowanie kolegów na konferencjach, pisząc np. na tablicy postać uzyskanego przez siebie ścisłego wyniku. Konkurowali pod tym względem z Feynmanem, który też lubił nagle wtrącić w dyskusji jakiś niepublikowany dotąd wynik. Przez pewien czas obaj zajmowali się nadciekłością helu i nabrali do siebie wzajemnego respektu.

Przez ostatnie kilkadziesiąt lat podano wiele rozwiązań problemu Isinga, jednak choć krótsze niż oryginalna praca Onsagera, nadal wymagają one sporo pracy i dość zaawansowanych technik, toteż ograniczymy się poniżej do zarysowania kontekstu, w którym ta praca się pojawiła.

Model Isinga to wyprany z wszelkich zbędnych szczegółów model ferromagnetyka, czyli materiału takiego jak np. żelazo, wykazującego namagnesowanie. Każdy atom stanowi dla nas strzałkę, która może być skierowana do góry albo na dół, czyli przeciwnie do wektora pola magnetycznego \vec{B} albo zgodnie z nim. Nasze strzałki są skrajnie uproszczoną wersją igły kompasu: mogą mieć tylko dwa zwroty. Gdy strzałka skierowana jest zgodnie z polem, ma niższą energię, gdy przeciwnie – wyższą.

Energie równe są odpowiednio \pm \mu B, gdzie \mu jest tzw. momentem magnetycznym (np. elektron ma ściśle określony moment magnetyczny). Na razie mamy do czynienia z paramagnetykiem, bo nasze strzałki zwracają się chętniej równolegle do wektora pola niż antyrównolegle. Gdy jednak pole wyłączymy, prawdopodobieństwa obu orientacji staną się równe.

Model Isinga opisuje styuację, gdy rozmieszczone w sieci krystalicznej spiny-strzałki położone najbliżej siebie wolą ustawiać się zgodnie. Równoległe ustawienie najbliższych sąsiadów ma energię -J, antyrównoległe J. Zauważmy, że teraz do energii dają wkład wszystkie pary najbliższych sąsiadów, czyli całkowita energia będzie sumą po linkach między sąsiadami (linki te zaznaczone są na czerwono). W przypadku dwywymiarowym zaznaczyliśmy energie dla tylko jednego spinu i jego sąsiadów, żeby nie zaśmiecać rysunku.

Ponieważ sąsiednie spiny chętnie ustawiają się równolegle, mamy w takim układzie do czynienia z bliskim porządkiem: nasi sąsiedzi mają te same poglądy co my, a przynajmniej korzystniejsze energetycznie jest, żeby mieli takie same poglądy. Pytanie podstawowe dla takiego układu brzmi: w jakich sytuacjach ten bliski porządek rozciągnie się na całą wielką sieć, dając zgodne uporządkowanie większości spinów – daleki porządek („prawie wszyscy mają takie same poglądy”). Mówimy tu o poglądach, bo model Isinga można stosować do opisu każdej sytuacji, gdy bliski porządek może wytworzyć porządek daleki. Stosuje się pewne warianty modelu Isinga do badania rozpowszechniania się plotek albo aktywności neuronów w mózgu. Rzecz więc nie musi dotyczyć tylko naszych strzałek-spinów i fizyki. My ograniczymy się tutaj do fizyki, ale warto sobie zdawać sprawę, że wiele zjawisk zbiorowych, kolektywnych można opisywać metodami fizyki.

Wracając do modelu Isinga: jego zachowanie będzie zależeć od temperatury, a ściślej mówiąc od porównania dwóch charakterystycznych energii: energii oddziaływania J z energią termiczną kT, gdzie k to stała Boltzmanna (inaczej mówiąc kT to temperatura wyrażona nie w stopniach, lecz w jednostkach energii). W niskich temperaturach dominować powinno uporządkowanie, w wysokich nieuporządkowanie. Gdzieś pomiędzy tymi dwoma obszarami następuje przejście fazowe ferromagnetyk-paramagnetyk (ferromagnetyk jest uporządkowany, ferrum to żelazo). Na symulacjach komputerowych sieci 400×400 atomów wygląda to tak.

kT=2,0JkT=2,27J

konfiguracja całkiem chaotyczna, bez bliskiego porządku

kT=2,5J

(Obrazki uzyskane za pomocą programu Dana Schroedera)

Przed drugą wojną światową nie można było oczywiście zrobić takiej symulacji komputerowej. Poza tym istotne jest udowodnienie, czy rzeczywiście model Isinga wykazuje przejście fazowe, a jeśli tak to w jakiej temperaturze, co dzieje się w jej pobliżu itp. itd.

Zacznijmy od spinów nieoddziałujących, czyli pierwszego obrazka u góry. Podstawowe prawo fizyki statystycznej mówi, że prawdopodobieństwo danego stanu układu zależy od energii tego stanu:

p=C\exp{\left( -\frac{E}{kT}\right)},

gdzie C jest stałą proporcjonalności. Jest to rozkład Gibbsa albo Boltzmanna-Gibbsa, choć można by go też nazywać rozkładem Boltzmanna-Gibbsa-Einsteina, ponieważ Einstein, pracownik Urzędu Patentowego, rozwinął tę technikę w wolnych od pracy chwilach. Boltzmann był tu prekursorem, ale zajmował się wyłącznie przypadkiem gazu. Gibbs uogólnił jego podejście i opublikował o tym książkę w Stanach Zjednoczonych, Einstein poznał ją po kilku latach i nawet stwierdził, że gdyby znał ją wcześniej, nie ogłosiłby trzech swoich prac z lat 1902-1904.

Dla spinu w polu magnetycznym mamy tylko dwa przypadki:

p_{\pm}=C\exp{\left(\mp \frac{\mu B}{kT}\right)}\Rightarrow C=\dfrac{1}{Z},\, \mbox{gdzie }\, Z=\cosh \left({\frac{\mu B}{kT}}\right).

Średnia wartość spinu w kierunku pola równa jest

M=(+1)p_{+}+(-1)p_{-}= \mbox{tgh}\left(\frac{\mu B}{kT}\right).

Dla układu N spinów należy po prostu tę wartość przemnożyć przez liczbę spinów. Gdy wyrazimy pole w jednostkach \frac{kT}{\mu}, a wartość spinu jako ułamek wartości maksymalnej M_0, otrzymamy po prostu wykres tangensa hiperbolicznego.

Gdy nie ma pola magnetycznego B, wypadkowy kierunek spinu jest równy M=0. Przy niewielkich wartościach pola M (magnetyzacja) jest proporcjonalna do B. Przy dużych wartościach osiągamy nasycenie – praktycznie wszystkie spiny ułożone są wówczas w jednym kierunku. (Tak się składa, że dla prawdziwego elektronu w polu magnetycznym wynik jest ten sam, choć spin elektronu różni się technicznie od naszej strzałki. Ale to tylko nawiasem. Pozostajemy przy strzałkach).

Uwzględnienie oddziaływań między spinami bardzo komplikuje problem, gdyż nie możemy już traktować spinów jako niezależne statystycznie. Na symulacjach u góry widać, że w różnych temperaturach wyniki są odległe od całkiem przypadkowego ułożenia, mamy do czynienia z bliskim porządkiem. Rozkład Gibbsa daje nam wtedy prawdopodobieństwa z osobna dla każdej konfiguracji spinów – jest ich 2^{N}. W dodatku, żeby uzyskać wiarygodne wyniki musimy uwzględnić dużo spinów, w skończonych próbkach przejścia fazowe się rozmywają. Jeśli chcemy coś udowodnić, trzeba umieć obliczyć granicę przy N dążącym do nieskończoności (co było główną trudnością Onsagera przy rozwiązywaniu modelu 2D).

Prosty przybliżony sposób poradzenia sobie z uwzględnieniem oddziaływań podał Pierre Weiss. Nazywa to się dziś przybliżeniem pola molekularnego. Otóż orientacja sąsiadów wpływa na energię danego spinu poprzez wartości \pm J. Jeśli spin środkowy zwrócony jest ku górze, to energia oddziaływań z sąsiadami jest równa

E_{+}=-Js_{+}+Js_{-}=-J(s_{+}-s_{-}),

gdzie s_{\pm} to liczba sąsiadów z odpowiednią orientacją. Podobnie

E_{-}=Js_{+}-Js_{-}=J(s_{+}-s_{-}).

Zauważmy, że obie nasz spin środkowy ma takie energie, jakby był w zewnętrznym polu magnetycznym o wartości \mu B=J(s_{+}-s_{-}). Jak dotąd wszystko jest ściśle, ale też i nic nie obliczyliśmy. Krok decydujący i przybliżony polega teraz na uznaniu, że możemy po prawej stronie ostatnich wyrażeń wstawić wartości średnie. Wtedy nasz spin znajduje się niejako w uśrednionym polu zewnętrznym – im bardziej spolaryzowani sąsiedzi, tym większa presja energetyczna na ustawienie się tak jak i oni. Zatem oddziaływania mogą wywierać taki sam skutek jak zewnętrzne pole magnetyczne. Uśrednione wartości liczby sąsiadów każdej orientacji są równe sp_{\pm}, gdzie s jest całkowitą liczbą sąsiadów (dla łańcucha 1D s=2, dla sieci kwadratowej 2D s=4). Możemy teraz wykorzystać wynik dla nieoddziałujących spinów i otrzymać równanie, które zawiera M po obu stronach. Rozwiązując to równanie, dostaje się magnetyzację jako funkcję temperatury w tym przybliżeniu. Wygląda ona następująco (nie ma tu zewnętrznego pola magnetycznego, to, co obserwujemy jest wyłącznie skutkiem oddziaływania spinów):

Temperatura, przy której magnetyzacja spada do zera, to tzw. temperatura Curie (chodzi o doktorat Pierre’a Curie jeszcze przed ślubem z naszą rodaczką Marią Skłodowską). Oczywiście magnetyzacje dodatnie i ujemne są tak samo możliwe. Układ ochładzany poniżej T_{c} ma tutaj dwie możliwości: zależnie od tego, co przeważy, wartości będą dodatnie bądź ujemne. Temperatura Curie równa jest

kT_c=Js.

Opisane zachowanie jest całkiem rozsądne z eksperymentalnego punktu widzenia. Jednak ścisłe rozpatrzenie modelu Isinga dla przypadku łańcucha 1D przynosi niezbyt przyjemny wniosek: układ nie ma w ogóle fazy ferromagnetycznej. A więc w tym przypadku przybliżenie pola molekularnego zawodzi kompletnie. Wynik ten był treścią doktoratu Ernsta Isinga w roku 1924. Podał on też argumenty na rzecz braku uporządkowania dalekiego zasięgu (ferromagnetyzmu) także w przypadku 2D.

Następnym wydarzeniem w dziejach tego modelu był argument Rudolfa Peierlsa opublikowany w roku 1936. Peierls, wychowanek Sommerfelda i Heisenberga, asystent Pauliego w ETH, nie miał po roku 1933 czego szukać w swej ojczyźnie, stając się jeszcze jednym z wielkich uczonych wypchniętych z Niemiec nazistowskich na emigrację. Z czasem pracował on w programie Manhattan i brytyjskim Tube Alloys, otrzymał brytyjski tytuł szlachecki. Niemcy już nigdy nie odzyskały swoich uczonych i swojej pozycji naukowej sprzed wojny. Argument Peierlsa, choć nie do końca prawidłowy w jego sformułowaniu, dowodził, że w dostatecznie niskich temperaturach 2D model Isinga ma fazę ferromagnetyczną.

OPiszemy krótko argument Peierlsa w wersji Wipfa (Statistical Approach to Quantum Field Theory, 2013). Wybierzmy na początek wszystkie spiny do góry, jest to stan o najniższej energii. Stany o orientacji ujemnej będą tworzyły wyspy rozmaitej wielkości, które można zamknąć konturem. Zbiór takich zamkniętych konturów określa jednoznacznie konfigurację spinów. Kontury ważne są dlatego, że po ich obu stronach mamy spiny skierowane antyrównolegle, czyli utworzenie takiego kontury, ściany domenowej, wymaga energii 2Jn, gdzie n to długość konturu.

 

.

Można następnie pokazać, że prawdopodobieństwo utworzenia konturu o długości n jest nie większe niż \exp{\left(-\frac{2Jn}{kT} \right)}. Wynika to z rozkładu Gibbsa, po drodze robi się następującą sztuczkę: zmieniamy znaki wszystkich spinów wewnątrz konturu: sam kontur wówczas znika, natomiast pozostałe energie się nie zmieniają.

Następny krok to wybranie jakiegoś spinu nie leżącego na krawędzi. Chcemy oszacować prawdopodobieństwo, że nasz spin będzie ujemny. Musi on leżeć wewnątrz jakiejś ściany domenowej o pewnej długości n. Możliwe wartości n są parzyste, począwszy od n=4 (samotny spin ujemny). Oszacujmy liczbę konturów A(n) zawierających nasz spin i mających długość n.

 

 

W tym celu prowadzimy od naszego spinu półprostą w prawo (szary kolor na rysunku). Musi ona przecinać jakiś pionowy kontur w jednej z odległości: \frac{1}{2},\frac{3}{2},\ldots, \frac{n-3}{2}. Ostatnia z odległości odpowiada konturowi prostokątnemu o wysokości 1 i długości \frac{n-2}{2}. Mamy więc tutaj (n-1) możliwości. Startując z tego przecięcia i wykonując pętlę, mamy do zrobienia (n-1) kroków, a w każdym nie więcej niż trzy możliwości. Zatem

A(n)\le \frac{n-2}{2} \cdot 3^{n-1}.

Prawdopodobieństwo, że nasz wybrany spin jest ujemny jest więc mniejsze niż

\displaystyle \sum_{n=4}^{\infty}\frac{n-2}{2}3^{n-1} \exp{\left(-\frac{2Jn}{kT}\right)}\le \dfrac{y^2}{3(1-y)^2},

gdzie y=9\exp{(-\frac{2J}{kT})}. Łatwo sprawdzić, że prawa strona nierówności maleje z temperaturą, a więc dla dostatecznie niskiej temperatury prawdopodobieństwo może stać się mniejsze niż \frac{1}{2}. Dotyczy to wszystkich spinów oprócz brzegu. A więc w dostatecznie niskiej temperaturze większość spinów będzie zwrócona tak jak na brzegu, czyli do góry.

W przypadku 2D wystąpuje więc faza ferromagnetyczna wbrew wnioskom Isinga. Onsager potrafił obliczyć funkcję Z=\sum_{\sigma} \exp{-\frac{E_\sigma}{kT}} po wszystkich konfiguracjach \sigma całej sieci. W roku 1948 obliczył też magnetyzację jako funkcję temperatury w tym modelu i napisał wynik na tablicy na dwóch różnych konferencjach. Ma ona następujący kształt.

Mimo upływu lat nie można uzyskać ścisłego rozwiązania 2D szybko, wszystkie metody są dość techniczne. Nie udało się też otrzymać rozwiązania w obecności pola magnetycznego. Także przypadek 3D pozostaje nierozwiązany, i to nie dlatego że nikt nie próbował. Kenneth Wilson, laureat Nobla za zjawiska krytyczne (a więc takie jak w modelu Isinga), wspominał w swoim wykładzie noblowskim, że kiedy jako świeżo upieczony naukowiec zastanawiał się nad przedmiotem badań dla siebie, poszedł zapytać Murraya Gell-Manna i Richarda Feynmana, nad czym aktualnie pracują. Gell-Mann pokazał mu model Isinga i powiedział, że gdyby udało mu się uzyskać rozwiązanie dla przypadku 3D, byłoby miło. Feynman, jak to Feynman – odrzekł, że nic nie robi.

Josef Loschmidt i wielkość cząsteczek powietrza (1865)

Richard Feynman pisał, że gdyby cała obecna nauka miała ulec zniszczeniu w jakimś kataklizmie i można było ocalić tylko jedno zdanie, to powinno ono brzmieć: „Wszystko składa się z atomów – małych cząstek, poruszających się bezładnie, przyciągających się, gdy są od siebie nieco oddalone, odpychających się zaś, gdy je zbytnio ścieśnić”.

Pomysł istnienia takich cząstek, jak i ich nazwę: atomy, czyli „niepodzielne” (a to zaprzeczenie, tomos – cięty, tnący, dzielący się na części, stąd np. określenia anatomia i tomografia) zawdzięczamy starożytnym Grekom Leucypowi i Demokrytowi. Rzeczy zbudowane są z atomów jak słowa z liter. Pisma atomistów były już w starożytności atakowane za wizję świata bez bogów, poddanego tylko konieczności. Istniała w nim tylko materia, nawet dusze, czyli zasady ruchu, miały być bowiem materialne.

Żyjący w I w. p.n.e. Rzymianin Lukrecjusz opisał tę wizję w długim i dydaktycznym, i o dziwo poetycko wybitnym, poemacie heksametrem. Lukrecjusz był epikurejczykiem, a więc nie tylko atomistą, lecz także wyznawcą etyki opartej na wartościach doczesnych – bogowie nie zajmują się bowiem ludźmi, a ci powinni sami zadbać o swe szczęście, żyć tak, by o ile to możliwe szukać przyjemności i unikać cierpienia. Etyka epikurejska była rozsądna i wyważona, obce im było wszelkie zatracanie się w pogoni za szczęściem, jak i nadużycia zmysłowe. Ceniono natomiast proste przyjemności i czystą radość życia. Atomizm, objaśniając funkcjonowanie świata, miał dopomóc ludziom w uwolnieniu się od lęku przed śmiercią, zemstą bogów i wizją wiecznego cierpienia po śmierci. Z tego względu już w starożytności epikureizm uznawano za filozofię bezbożną.

Kanoniczny obraz atomizmu to drobinki pyłu wirujące w smudze światła słonecznego. W mikroskali tak miały wyglądać wszystkie zjawiska: wiecznie poruszające się i zderzające atomy. Niezmienność ukryta pod zmieniającą się powierzchnią zjawisk.

Bo spojrzyj jeno, gdy promienie słonecznego światła wedrą się i rozleją po mrocznym domostwie! Zobaczysz w tym promiennym snopie wiele maleńkich ciałek, mieszających się w próżni na wiele sposobów. Jakoby w wiekuistej wojnie staczają potyczki i bitwy, walczą całymi hufcami bez chwili spoczynku, w utrapieniu ustawicznych skupień i rozłączeń. Z tego więc możesz zmiarkować, jak wygląda wieczne miotanie się zarodków rzeczy w ogromie próżni, o ile mała rzecz może dać przykład i tropy poznania wielkich. A jeszcze z tego powodu winieneś zwrócić baczniejszą uwagę na owe ciałka, co wichrzą dostrzegalnie w promieniach słonecznych, że takie wichrzenia zdradzają nadto istnienie tajnych i niewidocznych ruchów materii. Zobaczysz tam bowiem, że wiele ciałek, podrażnionych niewidzialnymi ciosami, zmienia drogę i w tył zawraca po odepchnięciu, to tu to tam, na wszystkie zewsząd strony. (Lukrecjusz, ks. II, przeł. A. Krokiewicz) (*)

Po Rzymianach rzeczywiście wydarzył się kataklizm: starożytna cywilizacja upadła, o atomistach wiedziano niewiele więcej niż to, że Arystoteles ich zwalczał. Ich pisma przepadły. Półtora tysiąca lat później, w 1417 r., osobliwy poemat Lukrecjusza odnalazł humanista i „łowca rękopisów”, papieski sekretarz, Poggio Bracciolini, prawdopodobnie w alzackim klasztorze w Murbach, gdzie dobrzy mnisi nie bardzo rozumieli, co za tekst przechowują na półkach. Przez następne wieki poemat był wielokrotnie wydawany i tłumaczony na języki narodowe, w tym na język angielski po raz pierwszy w XVII wieku. Atomizm nadal wzbudzał lęk: zderzające się atomy trudno było pogodzić z Opatrznością, choć niektórzy uczeni, jak Isaac Newton, potrafili zbudować jakąś chwiejną syntezę obu koncepcji. Jego Bóg był jednak surowym Pantokratorem, Wszechwładnym Ojcem, nie znoszącym sprzeciwu.

Benjamin Franklin, bystry i zaradny drukarz z Filadelfii, jeden z ojców założycieli Stanów Zjednoczonych, nie był zawodowym uczonym, nigdy nie miał takich ambicji. Ze swoim sposobem uprawiania nauki mieścił się zresztą znakomicie w tradycji Towarzystwa Królewskiego, które od samego początku zrzeszało przede wszystkim hobbystów i amatorów: lekarzy, pastorów, wiejskich dżentelmenów, podróżników (co zresztą nie przeszkadzało niektórym z nich dokonać ważnych odkryć).

Interesował się on legendarnym zjawiskiem uśmierzania fal przez rozlewanie oleju i poczynił w związku z tym pewne obserwacje. Wyniki doświadczeń Franklina przedstawione zostały w listach wymienianych między nim a medykiem Williamem Brownriggiem oraz wielebnym Farishem, opublikowanych w „Philosophical Transactions”. Po opisaniu swych wcześniejszych obserwacji podczas podróży morskich Franklin relacjonuje:

Będąc w Clapham, gdzie na wspólnych gruntach znajduje się duży staw, i widząc pewnego dnia, iż jego powierzchnia jest bardzo wzburzona wiatrem, przyniosłem ampułkę oleju i wylałem go trochę na wodę. Widziałem, jak rozprzestrzenia się on ze zdumiewającą szybkością po powierzchni; lecz efekt uspokojenia fal nie powstał, gdyż zastosowałem go początkowo po nawietrznej stronie stawu, gdzie fale były największe i wiatr zwiewał mój olej z powrotem na brzeg. Następnie przeszedłem na stronę zawietrzną, gdzie [fale] się tworzyły, i tam olej, w ilości nie większej niż łyżeczka do herbaty, spowodował natychmiastowe uspokojenie na obszarze wielu jardów kwadratowych; poszerzało się ono stopniowo w zadziwiający sposób, aż dotarło do przeciwnego brzegu, czyniąc jedną czwartą stawu, jakieś pół akra, gładką jak zwierciadło.

Franklin zwrócił uwagę na zdumiewająco wielką powierzchnię plamy oleju na wodzie.

Jeśli upuścić kroplę oleju na gładki marmurowy stół czy na zwierciadło, kropla pozostanie na swoim miejscu, tylko nieznacznie się rozszerzając. Lecz gdy upuścić ją na wodę, rozprzestrzenia się na wiele stóp dookoła i staje się tak cienka, że na znacznym obszarze wytwarza barwy pryzmatyczne, a jeszcze dalej staje się tak cienka, że aż niewidoczna, prócz efektu wygładzania fal na znacznie większych odległościach. Wydaje się, że wzajemne odpychanie cząsteczek pojawia się, kiedy tylko dotkną one wody, i że jest ono tak silne, iż działa także na inne ciała znajdujące się na powierzchni, takie jak słomki, liście, wióry itp., zmuszając je do ustąpienia ze wszystkich stron wokół kropli niczym centrum i pozostawiając duży pusty obszar.

Te obserwacje z roku 1773 zostały podjęte po przeszło stu latach przez wybitnego fizyka brytyjskiego lorda Rayleigha, w celu oszacowania rozmiarów cząsteczek oleju. Jeśli przyjąć, że zgodnie z tym, co spostrzegł Franklin, 2 cm3 oleju rozprzestrzeniają się na powierzchni pół akra, czyli 2000 m2, otrzymujemy grubość warstwy równą 1 nm. Wiemy obecnie, że olej tworzy na wodzie warstwę o grubości jednej cząsteczki, więc dane te pozwalają oszacować jej rozmiary. Amerykanin nie wykonał jednak tego rachunku, zadowolił się samą obserwacją.

Atomy zaczęły odgrywać bardziej konkretną rolę dzięki chemii Johna Daltona. W drugiej połowie XIX wieku fizycy tacy, jak James Clerk Maxwell i Rudolf Clausius, zauważyli, że obraz zderzających się molekuł można rozwinąć w teorię kinetyczną gazów. Ciśnienie gazu było objaśniane bombardowaniem ścianek naczynia przez jego cząsteczki poruszające się z ogromnymi prędkościami (rzędu prędkości dźwięku w danym gazie). Teoria ta dawała też zaskakujący wynik: otóż lepkość gazu miała być niezależna od jego gęstości. Maxwell z pomocą żony przeprowadził odpowiednie pomiary, które potwierdziły teorię. Znając lepkość, można było obliczyć średnią drogę swobodną cząsteczek. W powietrzu w warunkach normalnych wynosiła ona wg Maxwella \lambda=620 \mbox{ nm} .

Pierwszym fizykiem, który wyznaczył wielkość cząsteczek powietrza, był Josef Loschmidt. Urodzony w 1821 r. niedaleko Karlsbadu (dziś Karlovy Vary) w rodzinie chłopskiej, przeszedł długą i nieoczywistą drogę do działalności naukowej, pracował nad zagadnieniami z pogranicza matematyki i psychologii, skończył studia politechniczne w Wiedniu, założył własną firmę, zbankrutował, potem był nauczycielem i dopiero w 1866 r., a więc dobrze po czterdziestce, zaczął uczyć na Uniwersytecie Wiedeńskim, zrobił doktorat i został profesorem. Z młodym Ludwigiem Boltzmannem chodzili na koncerty i spierali się o Eroikę Beethovena.

Praca dotycząca wielkości cząsteczek była pionierska, do dziś mówi się czasem o liczbie Loschmidta (liczba cząsteczek gazu w 1 cm3 w warunkach normalnych), choć sam uczony nie podał jej wartości w swej pracy. Znany był związek między koncentracją n, drogą swobodną \lambda oraz przekrojem czynnym cząsteczek \sigma:

n\sigma \lambda=\dfrac{1}{\sqrt{2}}. \mbox{ (**)}

Zakładając, że cząsteczki są kuliste o średnicy s, przekrój czynny zapisać można jako pole powierzchni koła o  średnicy 2s (cząsteczki zderzają się, gdy ich środki są w odległości s od siebie). Nie znamy koncentracji ani promienia, potrzebne jest więc jeszcze jedno równanie. Loschmidt przyjął, że w stanie ciekłym cząsteczki upakowane są ciasno, a więc porównując objętość grama cieczy do objętości gazu, możemy określić, jaką część \varepsilon objętości gazu zajmują cząsteczki. Mamy więc

\varepsilon=n \dfrac{\pi s^3}{6}.

Wyznaczając z obu równań s, otrzymujemy

s=6\sqrt{2}\varepsilon \lambda.

W przypadku powietrza, które nie było jeszcze wtedy skroplone (Wróblewski, Olszewski 1883 r.), Loschmidt wyznaczył wartość \varepsilon pośrednio, uzyskując 0,000866 zamiast 0,0014. Wyznaczona przez niego średnica cząsteczki równa była około 1 nm, a więc nieco za dużo. Drugą nieznaną wielkością w tym układzie równań jest koncentracja powietrza w warunkach normalnych, czyli właśnie liczba Loschmidta.

Ludwig Boltzmann po śmierci przyjaciela wygłosił wspomnienie o nim. Znalazły się w nim słowa:

Ciało Loschmidta rozpadło się już na atomy: na ile konkretnie atomów – możemy obliczyć, korzystając z ustanowionych przez niego zasad. I aby w przemówieniu dotyczącym fizyka eksperymentatora, nie obyło się bez pokazu, poprosiłem, by napisano tę liczbę na tablicy: 10^{25}. (***)

Sprawa istnienia atomów nie była wszakże wtedy przesądzona. Boltzmann wierzył w ich istnienie, ale Ernst Mach, fizyk i filozof z tego samego uniwersytetu w nie nie wierzył. Dopiero doświadczenia Jeana Perrina przypieczętowały tę kwestię już w XX wieku.

(*) W przekładzie wierszowanym fragment ten brzmi następująco:

Przypatrz się bowiem promieniom słonecznym, kiedy wtargnęły

Do domu i rozlewają światło po ciemnych zakątkach:

Zobaczysz w strumieniu światła bez liku drobniutkich pyłków,

Które mieszają się z sobą w próżni na wiele sposobów;

I jakby ścierał się zastęp z zastępem w wieczystej wojnie,

Wiodąc potyczki i bitwy bez jednej chwili wytchnienia,

Tak one na przemian ciągle to schodzą się, to rozchodzą;

Gdyś widział to, możesz sobie przedstawić, jak w wielkiej próżni

Miotają się bez żadnego przestanku zarodki rzeczy –

O ile rzecz drobna może wystarczyć za podobiznę

Rzeczy ogromnych i wskazać drogę do ich zrozumienia.

Z jednego jeszcze powodu winieneś zwrócić uwagę

Na pyłki, które widomie się kłębią w promieniach słońca:

Ich pomieszanie oznacza, że również wewnątrz materii

Istnieją ruchy, tajemne dla oczu, niedostrzegalne.

Zobaczysz, że wiele pyłków, niedostrzegalnie rażonych,

Odmienia drogę, że wiele pchniętych do tyłu zawraca,

Pędzą to w jedną, to w drugą stronę, we wszystkich kierunkach.

(przeł. G. Żurek, T. Lucretius Carus, O naturze rzeczy, ks. II, w. 113-141)

(**) Sens tego równania jest bardzo prosty: cząsteczka poruszając się, zakreśla w ruchu miedzy zderzeniami walec o objętości \sigma\lambda , średnia liczba cząsteczke w takim walcu równa jest n\sigma\lambda i powinna być rzędu jedności, dokładny współczynnik dają ściślejsze rozważania, nb. Loschmidt użył w tym miejscu współczynnika \frac{3}{4} wynikającego z pracy Clausiusa.

(***) Ciało ludzkie liczy jakieś 7\cdot 10^{27} atomów. Boltzmann nie był tu zbyt precyzyjny.

 

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)

Model Ehrenfesta: w którą stronę płynie czas?

Tylko jedno prawo fizyki odróżnia przeszłość od przyszłości: II zasada termodynamiki. Mówi ona z grubsza tyle, że temperatury z czasem się wyrównują, różnice stężeń też, a bałagan wypiera porządek. Można temu ogólnemu kierunkowi opierać się przez jakiś czas, ale trzeba z zewnątrz czerpać uporządkowanie. Np. żeby żyć, trzeba jeść, a żeby było co jeść, tzn. do wytworzenia cukrów rośliny korzystają ze źródła uporządkowanego promieniowania, jakim jest Słońce. Technicznie mówiąc, potrzeba źródła niskiej entropii. Entropia mierzy nieuporządkowanie – im jest większa, tym większy bałagan. II zasada termodynamiki mówi, że entropia rośnie (dla układu izolowanego).

Prawa mechaniki, elektrodynamiki i wszelkie inne prawa opisujące oddziaływania nie wyróżniają kierunku czasu. Gdy popatrzeć na film z kilkoma poruszającymi się i oddziałującymi cząstkami, nie można poznać, czy film puszczony jest do przodu, czy do tyłu. Chyba że film przedstawia jakieś ogromne zbiorowisko cząstek, np. jajko rozbijane na jajecznicę. Wtedy od razu poznamy, czy film puszczony został prawidłowo, czy wstecz.

Jak to się dzieje, że entropia rośnie, mimo że podstawowe prawa oddziaływania cząstek nie wyróżniają czasu? Na pytanie to odpowiedział Ludwig Boltzmann. Jego uczniem był Paul Ehrenfest, znakomity nauczyciel i przyjaciel Einsteina. Ehrenfest lubił docierać do istoty zagadnienia bez długich rachunków, miał nawet kłopot z uzyskiwaniem właściwej odpowiedzi w wyprowadzeniach podczas wykładów, zwykle gdzieś zgubił jakieś 2\pi albo znak minus. Mimo to jego studenci wspominali go jako wybitnego wykładowcę, dwóch z nich otrzymało Nagrodę Nobla, inny Casimir, też był wybitnym fizykiem.

Ehrenfest obmyślił kiedyś model pokazujący, skąd się bierze nieodwracalność czasu. Wyobraźmy sobie dwa leżące koło siebie psy: Azora i Burka. Na Azorze siedzi N pcheł, Burek jest wolny od pcheł. Co jednostkę czasu zostaje wylosowana w sposób przypadkowy jedna pchła (są one ponumerowane). Wylosowana pchła przeskakuje na drugiego psa. Jasne jest, że z czasem liczby pcheł na obu psach mniej więcej się wyrównają. Wygląda to np. tak (wzięliśmy N=50):

Obraz6

Jak można opisać dochodzenie do „równowagi” w liczbie pcheł na obu czworonogach? W każdej chwili mikrostan naszego układu złożonego z obu psów można scharakteryzować, podając, na którym psie przebywa każda z N pcheł. Mamy tu 2^N takich mikrostanów. Nie możemy w ramach naszego modelu podać żadnej bardziej szczegółowej informacji. Nawet jednak przy pięćdziesięciu pchłach jest to 2^{50}\approx 10^{15} stanów. Zbyt wiele na praktyczne potrzeby. Możemy ograniczyć się do odnotowania jedynie liczby pcheł na Azorze, jak na wykresach. Tak scharakteryzowane stany są zwykle znacznie ciekawsze, bo np. można je łatwo zmierzyć. Kiedy robimy doświadczenie na gazie w zbiorniku, nie obchodzi nas każda cząsteczka z osobna, lecz tylko pewne globalne charakterystyki, jak temperatura (w istocie jest to średnia energia owych cząsteczek, których nie widzimy i nawet nie chcemy oglądać).

Łatwo zauważyć, że w naszym modelu wszystkie mikrostany są jednakowo prawdopodobne: powstają one przez losowanie. Inaczej jest z makrostanami. Jeśli wiemy, że na Azorze siedzi N_A pcheł, to liczba mikrostanów odpowiadających tej sytuacji jest równa liczbie kombinacji:

W=\binom{N}{N_A}=\dfrac{N!}{N_A!(N-N_A)!}.

Inaczej mówiąc, jest to liczba sposobów wybrania podzbioru pcheł na Azorze ze zbioru wszystkich pcheł (pamiętamy, że są one ponumerowane i potrafimy je odróżniać). Jasne jest, że najwięcej sposobów realizacji takiego podzbioru będzie wówczas, gdy pchły rozłożą się po równo (pomijamy przypadek, gdy ich liczba jest nieparzysta i nie mogą się rozłożyć dokładnie po równo). Ale także makrostany w pobliżu tego równego podziału będą dość prawdopodobne. Można obliczyć rozkład prawdopodobieństwa po danej liczbie jednostek czasu. Wygląda on tak:

Pchly_prawdopodobienstwo

Zaczynaliśmy od wszystkich pcheł na Azorze, ale po pewnym czasie układ osiąga równowagę i najbardziej prawdopodobny jest rozkład, w którym połowa pcheł przebywa na Burku albo jakiś do niego podobny. Trzeba pamiętać, że nawet jeśli w jakiejś chwili dokładnie połowa pcheł będzie na Azorze, to stan ten nie utrzyma się na stałe, liczba pcheł będzie się zmieniać w przypadkowy sposób.

Obraz4

Jest oczywiście możliwe, że w pewnej chwili wszystkie pchły znajdą się z powrotem na Azorze, a nawet wiadomo, że tak kiedyś będzie. Nasz model nie ma wbudowanego kierunku czasu, każdy z przebiegów mógłby równie dobrze wydarzyć się w odwrotnej kolejności. Oto wielka tajemnica czasu: czas płynie tak, że zaczynając od sytuacji, gdy wszystkie pchły siedziały na Azorze, po pewnym czasie (najprawdopodobniej) zastaniemy nasz układ w jednym ze stanów bliskich „równowagi”. Czas płynie tak, aby liczba pcheł się wyrównywała. I to właściwie wszystko, co trzeba wiedzieć o II zasadzie termodynamiki. Jeśli odczekamy dostatecznie długo, to (na ogół) zastaniemy układ w jakimś stanie spośród tych najbardziej prawdopodobnych. Czas płynie w określonym kierunku nie z powodu praw fizyki, ale z tego powodu, że nasz świat zaczął się w stanie, gdy wszystkie pchły siedziały na Azorze. Zatem nie prawa fizyki, lecz warunki początkowe. Kolejne „dlaczego” w tej sprawie przenoszą nas aż do Wielkiego Wybuchu i w tym punkcie możemy odpowiedzieć: „nie wiemy”. Jak ktoś lubi wyobrażać sobie Stwórcę, może uznać, że wybrał On bardzo szczególny rodzaj wszechświata.

creator

W przestrzeni stanów równowaga termiczna zajmuje najwięcej miejsca, więc od jeśli zaczniemy od stanu dalekiego od równowagi, to w końcu na nią natrafimy.

equilibrium

(Rysunki Rogera Penrose’a)

Trzy uwagi na koniec:

1. Czemu nie obserwuje się spontanicznego powrotu wszystkich pcheł na Azora? Dlatego, że jest to jeden z 10^{15} stanów, a wszystkie są tak samo prawdopodobne. Gdy weźmiemy za N np. liczbę Avogadro, okaże się, że wieku wszechświata za mało, byśmy doczekali takiej sytuacji.

2. Entropia naszego ukladu jest równa

S=k\ln W.

Jest to najważniejsze odkrycie Boltzmanna. Wynika z niego w szczególności, że entropia nie rośnie zawsze, lecz tylko przeważnie. II zasada termodynamiki obowiązuje nadal, gdy układ jest duży.

(Stała k, zwana stałą Boltzmanna, potrzebna jest, żeby tak zdefiniowana entropia była dokładnie tym samym, czego używano przed Boltzmannem.)

3. Czemu odpowiadają pchły w „poważnej” fizyce? Można sobie wyobrażać spiny \frac{1}{2} w kontakcie z termostatem o bardzo wysokiej temperaturze, żeby zmiany entropii termostatu można było pominąć w rozważaniach.

Albert Einstein każe Bogu grać w kości (1916)

Słynne jest powiedzenie Einsteina, że Bóg nie gra w kości – chodziło mu o to, że prawa rządzące najmniejszymi, elementarnymi cząstkami powinny być przyczynowe. Prawami takimi są zasady dynamiki Newtona: jeśli znamy położenie i prędkość różnych ciał dziś, to w zasadzie moglibyśmy obliczyć, co się z tymi ciałami stanie w przyszłości. Pierre Simon de Laplace sformułował to następująco:

Inteligencja, która by w danej chwili znała wszystkie siły, które działają w przyrodzie, oraz wzajemne położenia bytów ją tworzących i była przy tym dostatecznie dostatecznie rozległa, by te dane poddać analizie, mogłaby w jednej formule zawrzeć ruch największych ciał wszechświata i najmniejszych atomów: nic nie byłoby dla niej niepewne i zarówno przyszłość, jak przeszłość byłyby dostępne dla jej oczu. Umysł ludzki daje słabe pojęcie owej inteligencji, której doskonałość osiągnąć potrafił jedynie w astronomii. [Théorie analytique des probabilités (1812)]

Otóż Einstein jako najwybitniejszy fizyk XIX wieku (podobnie jak Jarosław Iwaszkiewicz nazwany został, nie bez pewnej racji, najwybitniejszym polskim pisarzem dziewiętnastowiecznym) wierzył w słowa Laplace’a, technicznie rzecz ujmując, sądził, że równania różniczkowe mogą ściśle opisać rzeczywistość. Był w tym spadkobiercą Laplace’a i Jamesa Clerka Maxwella oraz całej plejady wybitnych fizyków wieku pary i elektryczności.

Jednak już sam Laplace zastanawiał się nad zdarzeniami przypadkowymi, w cytowanej książce podał klasyczną definicję prawdopodobieństwa, której każdy się uczył. Fizycy zastosowali prawdopodobieństwa do opisu obiektów zbyt złożonych, aby znać szczegóły ich ruchu, jak np. gaz doskonały. Nie musimy znać szczegółów zderzeń wszystkich cząstek w gazie, wystarczy, jeśli znamy pewne charakterystyki średnie, np. średnią energię. Metodę tę rozwinął zwłaszcza Ludwig Boltzmann, a także Josiah Willard Gibbs w Stanach Zjednoczonych oraz Albert Einstein.

W ostatnich latach wieku XIX odkryto radioaktywność niektórych pierwiastków, a Ernest Rutherford podał prawo rozpadu promieniotwórczego: liczba pozostałych jąder maleje wykładniczo z czasem t, tzn. po pewnym czasie \tau pozostaje połowa jąder, po następnym czasie \tau połowa tej połowy, czyli 1/4 itd. Wygląda to tak:

Halflife-sim

Animacja z Wikipedii, z lewej strony na początku mamy 4 atomy, z prawej 400, u góry wyświetla się liczba półokresów rozpadu.

A matematycznie można zapisać następująco:

N=N_0 2^{-\dfrac{t} {\tau} }=N_0 \exp{(-\lambda t)}.

Przez N_0 oznaczona jest początkowa liczba jąder. Ostatnia równość jest tożsamościowa: możemy po prostu zapisać naszą funkcję w obu tych postaciach, jeśli odpowiednio wybrać stałą rozpadu \lambda. Gdy przyjrzymy się przez chwilę animacji powyżej, nasuwa się pytanie: skąd dane jądro wie, kiedy ma się rozpaść? Ponieważ wszystko wskazuje, że jądra rozpadają się niezależnie od siebie, więc oznacza to, iż prawdopodobieństwo przeżycia czasu t przez dowolne jądro równe jest

p(t)=2^{-\dfrac{t}{\tau} }=\exp{(-\lambda t)}.

Jest to bardzo dziwne prawo: znaczy bowiem, że każde jądro, niezależnie od tego, jak długo już istnieje, ma ciągle takie same prawdopodobieństwo rozpadu w nadchodzącym przedziale czasu. To jak gra w ruletkę: jeśli nawet 10 razy z rzędu wypadło czerwone, to za jedenastym razem prawdopodobieństwo, że i tym razem wypadnie czerwone jest wciąż takie samo jak przedtem. Każde zakręcenie koła ruletki rozpoczyna cykl od nowa i jego wynik nie zależy od tego, co wypadło poprzednio. Prawdopodobieństwo rozpadu jądra w małym przedziale czasu (t, t+\Delta t) jest równe

p(t)-p(t+\Delta t)=\exp{(-\lambda t)}-\exp{(-\lambda (t+\Delta t))}=\\ \\p(t)(1-\exp{(-\lambda \Delta t)}\approx p(t)\lambda \Delta t.

Jest ono iloczynem prawdopodobieństwa dotrwania do chwili t i prawdopodobieństwa rozpadu w krótkim czasie \Delta t. Zatem prawdopodobieństwo rozpadu (pod warunkiem, że w chwili t że jądro nadal istnieje) jest proporcjonalne do długości przedziału \Delta t i nie zależy wcale od tego, jak długo już obserwujemy tę sytuację:

p_{rozpadu}=\lambda\Delta t.

Inaczej mówiąc, prawdopodobieństwo rozpadu na jednostkę czasu jest stałe i równe \lambda. Kiedy Rutherford podał prawo rozpadu promieniotwórczego, zastanawiano się nad tym, że wygląda ono tak, jakby rozpad nie miał konkretnej przyczyny. Nie potrafiono w każdym razie wskazać takiej przyczyny. Nie znaczy to bynajmniej, że rozpad danego jądra nie nastąpi. Sytuacja przypomina grę w rosyjską ruletkę: bierzemy rewolwer bębenkowy i ładujemy kulę do jednej komory, po czym kręcimy komorą, aż zatrzyma się w przypadkowym położeniu. Przykładamy sobie do głowy i naciskamy spust: albo przeżyliśmy, albo nie. Jeśli tak, to możemy ten zabieg powtarzać, aż w końcu nam się uda. Można pokazać, że przypadku rosyjskiej ruletki średnia liczba prób będzie równa 6 (jest to liczba komór w bębenku). Wcale to jednak nie znaczy, że konkretny gracz nie przetrwa np. 24 prób. Nie jest to bardzo prawdopodobne, ale jest możliwe.

I tu dochodzimy do pracy Einsteina z roku 1916. Pół roku wcześniej podał on równania teorii grawitacji, zrobił parę mniejszych prac i zajął się oddziaływaniem promieniowania z materią. Trzy lata wcześniej Niels Bohr ogłosił swój model atomu. Wynikało z niego, że każdy atom powinien mieć pewien zbiór określonych – skwantowanych – energii. Rozpatrzmy atomy pewnego rodzaju, a w nich dowolną parę stanów o dwóch różnych energiach E_1 < E_2. Jeśli nasze atomy znajdą się w zbiorniku z promieniowaniem o temperaturze T, to liczba atomów w stanie o wyższej energii będzie mniejsza niż tych w stanie o niższej energii:

\dfrac{N_2}{N_1}=\dfrac{\exp{(-\dfrac{E_2}{kT}})}{\exp{(-\dfrac{E_1}{kT}})}=\exp{(-\dfrac{E_2-E_1}{kT})}.

Stała k zwana jest stałą Boltzmanna, a sam rozkład liczby atomów od energii także nazywany jest rozkładem Boltzmanna. Co oznacza taka równowaga cieplna? Ano tyle, że czasem nasz atom w stanie E_1 pochłonie promieniowanie i przejdzie do stanu E_2, a czasem na odwrót (wtedy energia zostanie oddana w postaci promieniowania). W równowadze oba procesy powinny zachodzić z taką samą szybkością.

emisja

Einstein założył – i to jest punkt zasadniczy – że możliwe są procesy jak na rysunku: dwa pierwsze oznaczają przejścia między poziomami wymuszone promieniowaniem – tzw. absorpcję i emisję wymuszoną. Prawdopodobieństwa tych procesów na jednostkę czasu będą równe iloczynowi odpowiedniej stałej B oraz gęstości energii promieniowania u(\nu). Mamy tu jeszcze jeden proces: emisję spontaniczną. Jej prawdopodobieństwo na jednostkę czasu jest równe A_{2\rightarrow 1} – tutaj prawo jest takie samo jak w rozpadzie promieniotwórczym. Wiedząc to wszystko, możemy zapisać ilość przejść 1\rightarrow 2 oraz 2\rightarrow 1 na jednostkę czasu:

N_1 B_{1\rightarrow 2}u(\nu)=N_2 B_{2\rightarrow 1}u(\nu)+N_2 A_{2\rightarrow 1}.

Obliczamy stąd funkcję u(\nu) i porównujemy ze znanym rozkładem Plancka:

u(\nu)=\dfrac{A_{2\rightarrow 1}}{B_{1\rightarrow 2}\exp{(\frac{E_2-E_1}{kT})}-B_{2\rightarrow 1}}=\dfrac{8\pi h\nu^3}{c^3}\dfrac{1}{\exp{(\frac{h\nu}{kT})}-1}.

Łatwo z tej równości wysnuć pewne wnioski nt. zależności między współczynnikami A, B. Np. zgodność obu równań jest możliwa tylko wówczas, gdy

E_2-E_1=h\nu.

Niels Bohr założył słuszność takiego równania, tutaj pojawia się ono jako wniosek. Nie będziemy wchodzić w szczegóły. Rzec można, Einstein obliczył maksimum tego, co było możliwe bez mechaniki kwantowej. Jedenaście lat później P.A.M. Dirac pokazał, jak wartości einsteinowskich współczynników wynikają z teorii kwantowej. Równania Einsteina prawidłowo opisują oddziaływanie atomów i promieniowania. Np. działanie lasera opiera się na emisji wymuszonej, opisywanej współczynnikiem B_{2\rightarrow 1}. Nie znaczy to, że Einstein zbudował laser, ale z pewnością zrozumiałby, gdyby jakiś mądry ET opisał mu taki wynalazek.

Dlaczego Einstein każe tu Bogu grać w kości? Współczynnik emisji spontanicznej musi być niezerowy i taki też zazwyczaj jest w przyrodzie (chyba że są powody, aby jakieś przejście było niemożliwe, np. ze względu na symetrię). To wszystko znaczy, że atom w wyższym stanie energetycznym kiedyś przejdzie do stanu niższego: tak samo jak gracz w rosyjskiej ruletce kiedyś się zastrzeli. Tyle że w przypadku atomu nikt nie pociąga za spust. Nie ma żadnej doświadczalnie możliwej do wykrycia przyczyny tego przejścia. Okazało się, że te współczynniki Einsteina to wszystko, co możemy wiedzieć i nie ma żadnej lepszej teorii, która by nam powiedziała, kiedy dany atom wyśle foton albo kiedy dane jądro się rozpadnie. Einstein w roku 1916 jeszcze nie rozumiał, że osiągnął granicę możliwości fizyki. Nigdy się z tym zresztą nie pogodził, stając się pogodnym dziwakiem w oczach kolegów i pracując wytrwale nad teorią, która by usunęła te probabilistyczne rozważania raz na zawsze. Jak wiemy, nigdy mu się to nie udało, dziś chyba mało kto wierzy, aby przedsięwzięcie tego rodzaju było wykonalne. Laplace i Einstein nie mieli racji, Bóg najwyraźniej gra w kości.

Student Einstein, profesor Weber i diamenty (1906)

Albert Einstein miał trudności z dostaniem się na studia. Po pierwsze nie miał matury: gimnazjum w Monachium porzucił – nie podobała mu się sztywna atmosfera, a i on niezbyt się podobał nauczycielom. „ …Kiedy tak siedzisz w tylnej ławce i się uśmiechasz, to sama twoja obecność podważa mój autorytet wobec reszty uczniów” – oświadczył mu jeden z profesorów. Po drugie należało zdać egzaminy wstępne z wielu przedmiotów: historii politycznej, historii literatury, biologii, chemii, języków i rysunku. Einstein, wybitny z fizyki i matematyki, miał braki w niektórych innych przedmiotach. Zdawał na politechnikę w Zurychu, ETH (która nie wymagała świadectwa maturalnego) i oblał. Poradzono mu, aby poszedł jeszcze na rok do szkoły. Miał czas: skończył dopiero 16 lat. Za drugim razem go przyjęto. Były to w zasadzie studia nauczycielskie, po których otrzymywało się tytuł uprawniający do uczenia w szkole średniej.

Na politechnice zetknął się z profesorem Heinrichem Weberem, który prowadził wiele kursów i laboratoriów. Einstein z początku wyrażał się o Weberze w samych superlatywach, profesor także cenił zdolnego studenta. Po jakimś jednak czasie ich stosunki mocno się ochłodziły. Einstein przestał chodzić na wykłady, odkąd stwierdził, że niczego nowego się nie uczy – Weber za zbyt nowomodną uznawał np. teorię elektromagnetyzmu Maxwella, liczącą sobie ponad dwadzieścia lat. W dodatku student Einstein w pracowni chciał przeprowadzać wszystkie eksperymenty po swojemu, co prowadziło do konfliktów. Na domiar złego tytułował profesora: Herr Weber zamiast obowiązkowego Professor Weber. Toteż z pracy dyplomowej otrzymał zaledwie 4,5 (w skali do sześciu) i była to najsłabsza z jego ocen. Z takim dyplomem miał niewielkie szanse na zostanie na uczelni. Nigdy chyba Weberowi nie darował, bo wspominał go zawsze źle, co u Einsteina było raczej rzadkie. Prawdopodobnie profesor nie mógł wybaczyć studentowi, że ten śmie być od niego inteligentniejszy – zjawisko znane nie tylko w Zurychu z roku 1900.

Weberowi więc zawdzięczamy ten urzekający biografów obrazek: oto urzędnik Biura Patentowego w Bernie publikuje w 1905 roku przełomowe odkrycia z fizyki, których dokonał po godzinach pracy (osiem godzin, sześć dni w tygodniu). Oprócz teorii względności, będącej niemal w całości jego dziełem, Einstein zajmuje się w tym czasie wieloma zagadnieniami, wystarczyłoby ich na dorobek bardzo wybitnego uczonego (zresztą nagrodę Nobla dostał właśnie za te „inne” prace, teoria względności wydawała się bowiem kontrowersyjna).

W roku 1906 ukazuje się przełomowa praca Einsteina na temat ciepła właściwego kryształów, która do dziś stanowi rozdział podręczników. W pracy tej raz jeszcze skrzyżowały się losy profesora Webera i młodego doktora Einsteina.

Ciepło właściwe to ciepło potrzebne, aby ogrzać ustaloną ilość substancji o jeden stopień. Wiadomo było, że wiele kryształów ma takie same ciepło właściwe, jeśli tylko przeliczymy je na mol substancji. Prawidłowość ta została od nazwisk odkrywców nazwana prawem Dulonga-Petita. Ciepło molowe równe jest 3R=5,96 cal/mol·K (takich jednostek używał Einstein na wykresie poniżej). Stała R jest to stała gazowa, znana ze szkoły. Prawidłowość tę można wyjaśnić teoretycznie, jeśli przyjąć, że atomy w krysztale drgają wokół położeń równowagi. Gdy dostarczamy kryształowi energię (a więc go ogrzewamy), drgania stają się coraz intensywniejsze. Przy pewnej wielkości tych drgań kryształ się zdestabilizuje i ciało się stopi.Każdy atom stanowi więc oscylator powiązany z sąsiednimi atomami: jak układ mas połączonych sprężynami. Fizyka klasyczna (tzw. zasada ekwipartycji energii) przewiduje taką jak trzeba wartość ciepła właściwego. Tę elegancką zgodność teorii z eksperymentem popsuły (jak zwykle) dalsze eksperymenty. Okazało się, że niektóre kryształy, np. diament, mają ciepło właściwe dużo mniejsze niż 6 cal/mol·K. W latach siedemdziesiątych wieku XIX zagadnieniem tym zajmował się Heinrich Weber, wówczas asystent Hermanna von Helmholtza w Berlinie. Ciepło właściwe diamentu, a także niektórych innych ciał stałych wyraźnie maleje wraz z temperaturą. Jak się wydaje, także i tego faktu Einstein nie dowiedział się od Webera.

Niewielu fizyków zdawało sobie sprawę, jak bardzo ambarasujący są te wyniki eksperymentalne. Chodziło nie o jakąś anomalię budowy niektórych kryształów, lecz o kwestię zupełnie fundamentalną. Fizyka klasyczna, przedkwantowa, nie potrafi tego zjawiska wyjaśnić. W roku 1906 nie było też żadnej fizyki kwantowej ani poczucia, że jest ona do czegoś potrzebna. Kilka lat wcześniej Max Planck w innym zagadnieniu (promieniowania termicznego) przyjął założenie, że drgające ładunki emitujące promieniowanie nie mogą mieć dowolnej energii, lecz tylko pewien ich ciąg – energia jest skwantowana. Było to jednak inne zagadnienie, niemające wiele wspólnego z drganiami atomów w krysztale diamentu oprócz tego, że w obu przypadkach chodziło o drgania. Einstein przyjął, że drgania atomów w krysztale diamentu są skwantowane: tzn. atom taki nie może drgać z dowolną amplitudą, dozwolone są jedynie pewne skokowe jej wartości. To tak jakby wahadło mogło mieć tylko pewien skwantowany ciąg amplitud. Brzmi to cokolwiek szaleńczo, ale okazało się prawdą. Jeśli przyjmiemy, że energia drgań atomu może być równa tylko n\varepsilon, gdzie n jest liczbą naturalną (od zera począwszy), a \varepsilon pewną stałą energią charakterystyczną dla kryształów diamentu, to można wyjaśnić, czemu ciepło właściwe maleje z temperaturą. Przy wysokich temperaturach skok energii o \varepsilon staje się niezauważalny i wracamy do klasycznego wyniku.(*)

annalen_1906

Obliczenia Einsteina zostały na wykresie zestawione z wynikami uzyskanymi przez Webera. Einstein wykorzystał dane z powszechnie znanych tablic, nic nie wskazuje, aby przy tej okazji zwrócił się osobiście do Webera. Temperatura jest podana jako ułamek pewnej temperatury charakterystycznej dla diamentu i równej 1300 K. Ciepło właściwe wyrażone jest w kaloriach i dąży do wartości bliskiej 6 przy wysokich temperaturach. Wyjątkowość diamentu polega jedynie na tym, że owa charakterystyczna temperatura jest stosunkowo wysoka, nie potrzeba więc pomiarów w bardzo niskich temperaturach, aby wykryć odchylenia od prawa Dulonga-Petita.

Praca Einsteina na temat drgań w kryształach jest świetnym przykładem czegoś, co Arthur Koestler nazywał „sleepwalking”: chodzeniem przez sen. Twórcy teorii kwantowej: Planck, Einstein, Bohr poruszali się jak somnabulicy chodzący po dachu, którzy jakimś cudem nie robią sobie krzywdy i docierają szczęśliwie do nieznanego celu. Einstein miał dużo szczęścia w przypadku tej pracy: dane dla innych kryształów i ogólnie dla niskich temperatur nie potwierdzają jego zbyt uproszczonego modelu (choć niezbędne poprawki są czysto techniczne, chodzi o tzw. model Debye’a). Miał jednak rację co do zasady: drgania są skwantowane i w niskich temperaturach przejawia się to w cieple właściwym. Miał też rację przewidując, że ciepło właściwe powinno dążyć do zera, gdy temperatura dąży do zera bezwzględnego. Jego wyniki wykorzystał W. Nernst, formułując III zasadę termodynamiki.

(*)

Pokażemy, jak obliczyć ciepło właściwe kryształu. Korzystamy z podstawowego prawa fizyki statystycznej, że prawdopodobieństwo znalezienia układu w stanie o energii E_n jest równe

p_n=\dfrac{\exp(-E_n/kT)}{Z}.

Z jest tu pewną stałą zależną od temperatury, ale nie od energii E_n; k to stała Boltzmanna, T – temperatura. Z warunku unormowania prawdopodobieństw (suma wszystkich prawdopodobieństw musi być równa 1) otrzymujemy

Z=\exp(-E_1/kT)+\exp(-E_2/kT)+\ldots

W naszym przypadku średnią energię drgającego atomu możemy zapisać jako

E=p_1 E_1+p_2 E_2+\ldots=\dfrac{\varepsilon\exp(-\varepsilon/kT)+2\varepsilon\exp(-2\varepsilon/kT)+\ldots}{\exp(-\varepsilon/kT)+\exp(-2\varepsilon/kT)+\ldots}.

Jest to w zasadzie średnia ważona z energii, w której wagami są eksponenty. Musimy wysumować dwa szeregi: w liczniku i w mianowniku. Prostszy jest ten w mianowniku, oznaczając x=\exp(-\varepsilon/kT) otrzymujemy dla mianownika

Z=1+x+x^2+\ldots=\dfrac{1}{1-x}.

Jest to suma szeregu geometrycznego. Sumę w liczniku możemy uzyskać albo różniczkując ostatnią równość po x, albo zauważając, że można ją zapisać jako

x+2x^2+3x^3+\ldots=
=(x+x^2+x^3+x^4+\ldots)+(x^2+x^3+x^4+\ldots)+(x^3+x^4+\ldots)+\ldots=
=xZ+x^2 Z +x^2 Z+\ldots=x(1+x+x^2+\ldots)Z=xZ^2.

Ostatecznie więc dostajemy energię średnią drgającego atomu równą

E=\dfrac{\varepsilon}{\exp\frac{\varepsilon}{kT}-1}

Ciepło właściwe przedstawione na wykresie to pochodna tej funkcji po temperaturze.

Jean Perrin i atomy, 1913

Zeszłoroczne odkrycie bozonu Higgsa przez dwa niezależne zespoły w LHC w CERN-ie ożywiło debatę nad znaczeniem tego wyniku. Z punktu widzenia teoretyków pracujących w dziedzinie cząstek elementarnych sytuacja jest nieco frustrująca: oto potwierdza się model zbudowany jakieś 40 lat temu – mniej więcej tyle, ile trwa profesjonalne życie badacza. Teoretycy przez ten cały czas wciąż pracowali, głównie pod dwoma sztandarami: supersymetrii i teorii strun. Najwybitniejsi, a także najlepiej zabiegający o popularność, badacze stworzyli całe multiświaty różnych wersji tych idei. Oprócz niezliczonych artykułów i monografii napisano całe mnóstwo książek popularnonaukowych, nakręcono trochę filmów. I jest tylko jeden mały kłopot: ta góra nie urodziła nawet myszy. Nie ma jak dotąd żadnych śladów supersymetrii w przyrodzie. Nie ma też żadnych przewidywań teorii strun – to znaczy istnieje ona w tylu wersjach, że pozwala, jak się wydaje, przewidzieć wszystko, trzeba tylko wiedzieć, do jakich faktów należy ją dopasować. Stąd dość ostry czasami ton dyskusji ekspertów. Por. np. blog Not Even Wrong.

Niewykluczone, że mieliśmy w XX wieku niespotykane szczęście do fizyki: udało się bowiem w ciągu tego stulecia poznać elementarne składniki materii, przede wszystkim atomy, których budowa i zachowanie nie ma już przed nami tajemnic. To niesłychanie wiele, jeśli weźmiemy pod uwagę, że praktycznie cała materia wokół nas to właśnie atomy. To także niesłychanie wiele, jeśli pomyśleć, że od starożytności aż do początku wieku XX atomy były właściwie hipotezą, jak cząstka Higgsa do zeszłego roku. Np. radca dworu i profesor uniwersytetu w Wiedniu Ernest Mach uważał, że nauka powinna zajmować się jedynie ekonomicznym i jak najprostszym opisem faktów doświadczalnych. Wobec tego teorie wyjaśniające np. zachowanie gazów za pomocą ruchu niewidocznych atomów uważał za nienaukowe. Pytał szyderczo Ludwiga Boltzmanna, pioniera fizyki statystycznej: „Czy widział Pan może jakiś atom?” Mach był konserwatywny, ale na początku XX wieku nie był zupełnie odosobniony w swoich poglądach, przeciwnikiem atomów był także Wilhelm Ostwald, wybitny chemik.

Okazało się niebawem, że choć samych atomów i cząsteczek chemicznych nie można zobaczyć pod mikroskopem (optycznym), to można obserwować skutki ich chaotycznych, bezładnych ruchów termicznych. Są to ruchy Browna, ruchy cząstek różnych zawiesin (np. dymu). Cząstki te są na tyle wielkie w sensie atomowym, że można je bez trudu obserwować bezpośrednio, a zarazem na tyle małe, by reagować na bombardowanie przez otaczające cząsteczki. Statystyczne charakterystyki ruchów Browna zostały w roku 1905 objaśnione w niezależnych pracach Alberta Einsteina i Mariana Smoluchowskiego. Jean Perrin wykonał słynne doświadczenia, które rozwiały ostatnie wątpliwości co do istnienia atomów. Opisał je kilka lat później w książce Les atomes (1913). Pisze w niej, że w nauce można postępować dwojako. Niektórzy, jak Galileusz czy Sadi Carnot, potrafią wyabstrahować prawa z obserwowanych zjawisk, dostrzegając niewidoczne dla innych analogie czy powiązania. Inni starają się objaśnić skomplikowane zjawiska zakładając ukrytą prostotę na innym poziomie – jest to droga Daltona i Boltzmanna, pionierów atomizmu w XIX wieku.

PerrinPlot2.svg

Tory cząstek mastyksu obserwowanych przez Perrina co 30 s. Jedna podziałka skali równa jest 3,125 μm (Les atomes, s. 165)

Charakterystyczną cechą ruchów Browna jest ich skrajna nieregularność, Perrin pisze, że robiąc obserwacje 100 razy częściej, dostalibyśmy zamiast każdego z odcinków poszarpaną linię łamaną. Tory cząstek nie są regularne w żadnej obserwowanej skali. Zjawisko to ilustruje rysunek poniżej, gdzie różnymi kolorami zaznaczono tory uzyskiwane przy obserwacjach z różnym krokiem czasowym. Przypominają one np. linię brzegową przedstawianą na mapach o różnej skali: im dokładniejsza mapa, tym dłuższa linia brzegowa. Tor cząstki jest fraktalem.

Brownian_hierarchical

Źródło: Wikipedia

Pomiary Perrina przypieczętowały sukces teorii atomowej i pozwoliły wyznaczyć liczbę Avogadro, a tym samym masy atomów. Dwadzieścia lat później powstała mechanika kwantowa, która początkowo miała być tylko teorią atomów, słuszną dla zjawisk w skali energii pojedynczych elektronowoltów (eV), a ostatecznie okazała się skuteczna nawet w skali TeV, czyli 10^{12} razy większej.
W jakimś sensie dzisiejsi fizycy, narzekając na Model Standardowy cząstek, cierpią na zawrót głowy od sukcesów. Miejmy nadzieję, że LHC pozwoli jeszcze odkryć jakąś nową fizykę, inaczej trudno będzie przekonać polityków i podatników do następnych, jeszcze kosztowniejszych projektów tego typu i stagnacja może potrwać długo.