Josef Loschmidt i wielkość cząsteczek powietrza (1865)

Richard Feynman pisał, że gdyby cała obecna nauka miała ulec zniszczeniu w jakimś kataklizmie i można było ocalić tylko jedno zdanie, to powinno ono brzmieć: „Wszystko składa się z atomów – małych cząstek, poruszających się bezładnie, przyciągających się, gdy są od siebie nieco oddalone, odpychających się zaś, gdy je zbytnio ścieśnić”.

Pomysł istnienia takich cząstek, jak i ich nazwę: atomy, czyli „niepodzielne” (a to zaprzeczenie, tomos – cięty, tnący, dzielący się na części, stąd np. określenia anatomia i tomografia) zawdzięczamy starożytnym Grekom Leucypowi i Demokrytowi. Rzeczy zbudowane są z atomów jak słowa z liter. Pisma atomistów były już w starożytności atakowane za wizję świata bez bogów, poddanego tylko konieczności. Istniała w nim tylko materia, nawet dusze, czyli zasady ruchu, miały być bowiem materialne.

Żyjący w I w. p.n.e. Rzymianin Lukrecjusz opisał tę wizję w długim i dydaktycznym, i o dziwo poetycko wybitnym, poemacie heksametrem. Lukrecjusz był epikurejczykiem, a więc nie tylko atomistą, lecz także wyznawcą etyki opartej na wartościach doczesnych – bogowie nie zajmują się bowiem ludźmi, a ci powinni sami zadbać o swe szczęście, żyć tak, by o ile to możliwe szukać przyjemności i unikać cierpienia. Etyka epikurejska była rozsądna i wyważona, obce im było wszelkie zatracanie się w pogoni za szczęściem, jak i nadużycia zmysłowe. Ceniono natomiast proste przyjemności i czystą radość życia. Atomizm, objaśniając funkcjonowanie świata, miał dopomóc ludziom w uwolnieniu się od lęku przed śmiercią, zemstą bogów i wizją wiecznego cierpienia po śmierci. Z tego względu już w starożytności epikureizm uznawano za filozofię bezbożną.

Kanoniczny obraz atomizmu to drobinki pyłu wirujące w smudze światła słonecznego. W mikroskali tak miały wyglądać wszystkie zjawiska: wiecznie poruszające się i zderzające atomy. Niezmienność ukryta pod zmieniającą się powierzchnią zjawisk.

Bo spojrzyj jeno, gdy promienie słonecznego światła wedrą się i rozleją po mrocznym domostwie! Zobaczysz w tym promiennym snopie wiele maleńkich ciałek, mieszających się w próżni na wiele sposobów. Jakoby w wiekuistej wojnie staczają potyczki i bitwy, walczą całymi hufcami bez chwili spoczynku, w utrapieniu ustawicznych skupień i rozłączeń. Z tego więc możesz zmiarkować, jak wygląda wieczne miotanie się zarodków rzeczy w ogromie próżni, o ile mała rzecz może dać przykład i tropy poznania wielkich. A jeszcze z tego powodu winieneś zwrócić baczniejszą uwagę na owe ciałka, co wichrzą dostrzegalnie w promieniach słonecznych, że takie wichrzenia zdradzają nadto istnienie tajnych i niewidocznych ruchów materii. Zobaczysz tam bowiem, że wiele ciałek, podrażnionych niewidzialnymi ciosami, zmienia drogę i w tył zawraca po odepchnięciu, to tu to tam, na wszystkie zewsząd strony. (Lukrecjusz, ks. II, przeł. A. Krokiewicz) (*)

Po Rzymianach rzeczywiście wydarzył się kataklizm: starożytna cywilizacja upadła, o atomistach wiedziano niewiele więcej niż to, że Arystoteles ich zwalczał. Ich pisma przepadły. Półtora tysiąca lat później, w 1417 r., osobliwy poemat Lukrecjusza odnalazł humanista i „łowca rękopisów”, papieski sekretarz, Poggio Bracciolini, prawdopodobnie w alzackim klasztorze w Murbach, gdzie dobrzy mnisi nie bardzo rozumieli, co za tekst przechowują na półkach. Przez następne wieki poemat był wielokrotnie wydawany i tłumaczony na języki narodowe, w tym na język angielski po raz pierwszy w XVII wieku. Atomizm nadal wzbudzał lęk: zderzające się atomy trudno było pogodzić z Opatrznością, choć niektórzy uczeni, jak Isaac Newton, potrafili zbudować jakąś chwiejną syntezę obu koncepcji. Jego Bóg był jednak surowym Pantokratorem, Wszechwładnym Ojcem, nie znoszącym sprzeciwu.

Benjamin Franklin, bystry i zaradny drukarz z Filadelfii, jeden z ojców założycieli Stanów Zjednoczonych, nie był zawodowym uczonym, nigdy nie miał takich ambicji. Ze swoim sposobem uprawiania nauki mieścił się zresztą znakomicie w tradycji Towarzystwa Królewskiego, które od samego początku zrzeszało przede wszystkim hobbystów i amatorów: lekarzy, pastorów, wiejskich dżentelmenów, podróżników (co zresztą nie przeszkadzało niektórym z nich dokonać ważnych odkryć).

Interesował się on legendarnym zjawiskiem uśmierzania fal przez rozlewanie oleju i poczynił w związku z tym pewne obserwacje. Wyniki doświadczeń Franklina przedstawione zostały w listach wymienianych między nim a medykiem Williamem Brownriggiem oraz wielebnym Farishem, opublikowanych w „Philosophical Transactions”. Po opisaniu swych wcześniejszych obserwacji podczas podróży morskich Franklin relacjonuje:

Będąc w Clapham, gdzie na wspólnych gruntach znajduje się duży staw, i widząc pewnego dnia, iż jego powierzchnia jest bardzo wzburzona wiatrem, przyniosłem ampułkę oleju i wylałem go trochę na wodę. Widziałem, jak rozprzestrzenia się on ze zdumiewającą szybkością po powierzchni; lecz efekt uspokojenia fal nie powstał, gdyż zastosowałem go początkowo po nawietrznej stronie stawu, gdzie fale były największe i wiatr zwiewał mój olej z powrotem na brzeg. Następnie przeszedłem na stronę zawietrzną, gdzie [fale] się tworzyły, i tam olej, w ilości nie większej niż łyżeczka do herbaty, spowodował natychmiastowe uspokojenie na obszarze wielu jardów kwadratowych; poszerzało się ono stopniowo w zadziwiający sposób, aż dotarło do przeciwnego brzegu, czyniąc jedną czwartą stawu, jakieś pół akra, gładką jak zwierciadło.

Franklin zwrócił uwagę na zdumiewająco wielką powierzchnię plamy oleju na wodzie.

Jeśli upuścić kroplę oleju na gładki marmurowy stół czy na zwierciadło, kropla pozostanie na swoim miejscu, tylko nieznacznie się rozszerzając. Lecz gdy upuścić ją na wodę, rozprzestrzenia się na wiele stóp dookoła i staje się tak cienka, że na znacznym obszarze wytwarza barwy pryzmatyczne, a jeszcze dalej staje się tak cienka, że aż niewidoczna, prócz efektu wygładzania fal na znacznie większych odległościach. Wydaje się, że wzajemne odpychanie cząsteczek pojawia się, kiedy tylko dotkną one wody, i że jest ono tak silne, iż działa także na inne ciała znajdujące się na powierzchni, takie jak słomki, liście, wióry itp., zmuszając je do ustąpienia ze wszystkich stron wokół kropli niczym centrum i pozostawiając duży pusty obszar.

Te obserwacje z roku 1773 zostały podjęte po przeszło stu latach przez wybitnego fizyka brytyjskiego lorda Rayleigha, w celu oszacowania rozmiarów cząsteczek oleju. Jeśli przyjąć, że zgodnie z tym, co spostrzegł Franklin, 2 cm3 oleju rozprzestrzeniają się na powierzchni pół akra, czyli 2000 m2, otrzymujemy grubość warstwy równą 1 nm. Wiemy obecnie, że olej tworzy na wodzie warstwę o grubości jednej cząsteczki, więc dane te pozwalają oszacować jej rozmiary. Amerykanin nie wykonał jednak tego rachunku, zadowolił się samą obserwacją.

Atomy zaczęły odgrywać bardziej konkretną rolę dzięki chemii Johna Daltona. W drugiej połowie XIX wieku fizycy tacy, jak James Clerk Maxwell i Rudolf Clausius, zauważyli, że obraz zderzających się molekuł można rozwinąć w teorię kinetyczną gazów. Ciśnienie gazu było objaśniane bombardowaniem ścianek naczynia przez jego cząsteczki poruszające się z ogromnymi prędkościami (rzędu prędkości dźwięku w danym gazie). Teoria ta dawała też zaskakujący wynik: otóż lepkość gazu miała być niezależna od jego gęstości. Maxwell z pomocą żony przeprowadził odpowiednie pomiary, które potwierdziły teorię. Znając lepkość, można było obliczyć średnią drogę swobodną cząsteczek. W powietrzu w warunkach normalnych wynosiła ona wg Maxwella \lambda=620 \mbox{ nm} .

Pierwszym fizykiem, który wyznaczył wielkość cząsteczek powietrza, był Josef Loschmidt. Urodzony w 1821 r. niedaleko Karlsbadu (dziś Karlovy Vary) w rodzinie chłopskiej, przeszedł długą i nieoczywistą drogę do działalności naukowej, pracował nad zagadnieniami z pogranicza matematyki i psychologii, skończył studia politechniczne w Wiedniu, założył własną firmę, zbankrutował, potem był nauczycielem i dopiero w 1866 r., a więc dobrze po czterdziestce, zaczął uczyć na Uniwersytecie Wiedeńskim, zrobił doktorat i został profesorem. Z młodym Ludwigiem Boltzmannem chodzili na koncerty i spierali się o Eroikę Beethovena.

Praca dotycząca wielkości cząsteczek była pionierska, do dziś mówi się czasem o liczbie Loschmidta (liczba cząsteczek gazu w 1 cm3 w warunkach normalnych), choć sam uczony nie podał jej wartości w swej pracy. Znany był związek między koncentracją n, drogą swobodną \lambda oraz przekrojem czynnym cząsteczek \sigma:

n\sigma \lambda=\dfrac{1}{\sqrt{2}}. \mbox{ (**)}

Zakładając, że cząsteczki są kuliste o średnicy s, przekrój czynny zapisać można jako pole powierzchni koła o  średnicy 2s (cząsteczki zderzają się, gdy ich środki są w odległości s od siebie). Nie znamy koncentracji ani promienia, potrzebne jest więc jeszcze jedno równanie. Loschmidt przyjął, że w stanie ciekłym cząsteczki upakowane są ciasno, a więc porównując objętość grama cieczy do objętości gazu, możemy określić, jaką część \varepsilon objętości gazu zajmują cząsteczki. Mamy więc

\varepsilon=n \dfrac{\pi s^3}{6}.

Wyznaczając z obu równań s, otrzymujemy

s=6\sqrt{2}\varepsilon \lambda.

W przypadku powietrza, które nie było jeszcze wtedy skroplone (Wróblewski, Olszewski 1883 r.), Loschmidt wyznaczył wartość \varepsilon pośrednio, uzyskując 0,000866 zamiast 0,0014. Wyznaczona przez niego średnica cząsteczki równa była około 1 nm, a więc nieco za dużo. Drugą nieznaną wielkością w tym układzie równań jest koncentracja powietrza w warunkach normalnych, czyli właśnie liczba Loschmidta.

Ludwig Boltzmann po śmierci przyjaciela wygłosił wspomnienie o nim. Znalazły się w nim słowa:

Ciało Loschmidta rozpadło się już na atomy: na ile konkretnie atomów – możemy obliczyć, korzystając z ustanowionych przez niego zasad. I aby w przemówieniu dotyczącym fizyka eksperymentatora, nie obyło się bez pokazu, poprosiłem, by napisano tę liczbę na tablicy: 10^{25}. (***)

Sprawa istnienia atomów nie była wszakże wtedy przesądzona. Boltzmann wierzył w ich istnienie, ale Ernst Mach, fizyk i filozof z tego samego uniwersytetu w nie nie wierzył. Dopiero doświadczenia Jeana Perrina przypieczętowały tę kwestię już w XX wieku.

(*) W przekładzie wierszowanym fragment ten brzmi następująco:

Przypatrz się bowiem promieniom słonecznym, kiedy wtargnęły

Do domu i rozlewają światło po ciemnych zakątkach:

Zobaczysz w strumieniu światła bez liku drobniutkich pyłków,

Które mieszają się z sobą w próżni na wiele sposobów;

I jakby ścierał się zastęp z zastępem w wieczystej wojnie,

Wiodąc potyczki i bitwy bez jednej chwili wytchnienia,

Tak one na przemian ciągle to schodzą się, to rozchodzą;

Gdyś widział to, możesz sobie przedstawić, jak w wielkiej próżni

Miotają się bez żadnego przestanku zarodki rzeczy –

O ile rzecz drobna może wystarczyć za podobiznę

Rzeczy ogromnych i wskazać drogę do ich zrozumienia.

Z jednego jeszcze powodu winieneś zwrócić uwagę

Na pyłki, które widomie się kłębią w promieniach słońca:

Ich pomieszanie oznacza, że również wewnątrz materii

Istnieją ruchy, tajemne dla oczu, niedostrzegalne.

Zobaczysz, że wiele pyłków, niedostrzegalnie rażonych,

Odmienia drogę, że wiele pchniętych do tyłu zawraca,

Pędzą to w jedną, to w drugą stronę, we wszystkich kierunkach.

(przeł. G. Żurek, T. Lucretius Carus, O naturze rzeczy, ks. II, w. 113-141)

(**) Sens tego równania jest bardzo prosty: cząsteczka poruszając się, zakreśla w ruchu miedzy zderzeniami walec o objętości \sigma\lambda , średnia liczba cząsteczke w takim walcu równa jest n\sigma\lambda i powinna być rzędu jedności, dokładny współczynnik dają ściślejsze rozważania, nb. Loschmidt użył w tym miejscu współczynnika \frac{3}{4} wynikającego z pracy Clausiusa.

(***) Ciało ludzkie liczy jakieś 7\cdot 10^{27} atomów. Boltzmann nie był tu zbyt precyzyjny.

 

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

Ludwig Boltzmann: Jak świat pogrąża się w chaosie (1877)

Atomizm był od starożytności doktryną szczególnie ostro zwalczaną. Wydawało się bowiem – i zapewne słusznie – że w świecie z atomów nie ma miejsca na duszę, która może przetrwać śmierć ciała. Jednak odkrycie w XV w. poematu Lukrecjusza O rzeczywistości (nb. przez papieskiego sekretarza, Gianfrancesco Braccioliniego) wywarło spory wpływ na dzieje idei. W Anglii Isaaca Newtona udało się pogodzić bożą wszechmoc z atomizmem, ale nie wszyscy zwolennicy nowej nauki byli przekonani do takich kompromisów. Do nieprzejednanych oponentów atomizmu należeli m.in. René Descartes i Gottfied Wilhelm Leibniz.

Naukowa kariera atomizmu złączona była z chemią oraz nauką o cieple. Od czasu Johna Daltona atomy okazały się niezwykle przydatnym narzędziem dla chemików. Fizycy dopiero w drugiej połowie XIX wieku zaczęli rozwijać teorię kinetyczną, czyli w gruncie rzeczy konsekwencje cząstkowego obrazu materii obdarzonej ruchem. Szczególnie prosta okazała się teoria kinetyczna gazów, ponieważ wystarczyło założyć, że cząsteczki gazów oddziałują tylko za pomocą zderzeń. Ten sposób myślenia przebijał się wszakże bardzo powoli, jak świadczy przykład Johna Waterstona. Kilkanaście lat później James Clerk Maxwell zapoczątkował nowoczesną teorię kinetyczną.

Teoria gazów stała się głównym tematem badań Ludwiga Boltzmanna, wiedeńczyka, który co kilka lat przenosił się niespokojnie z jednego uniwersytetu na drugi, pracując w Wiedniu, Grazu, potem znowu w Wiedniu, znowu w Grazu, w Monachium, jeszcze raz w Wiedniu, w Lipsku i ponownie w Wiedniu. Boltzmann stworzył całą nową dziedzinę wiedzy: fizykę statystyczną – czyli mikroskopowy statystyczny opis zjawisk cieplnych. Głównym zastosowaniem była dla niego teoria gazów, w istocie jednak teorię tę stosować można do wszelkich układów wielu cząstek. Wyjaśnia ona własności makroskopowe różnych ciał: kryształów, cieczy, metali, półprzewodników, magnetyków itd. Pokazuje, jak z poziomu oddziaływań między atomami i cząsteczkami przejść na poziom własności materii obserwowanej w laboratorium.

Zjawiska cieplne podlegają zasadom termodynamiki. Pierwsza z nich to po prostu zasada zachowania energii. Druga jest znacznie bardziej interesująca: mówi bowiem o kierunku możliwych przemian w świecie. Można zdefiniować wielkość zwaną entropią S, która jest funkcją stanu ciała, czyli np. w przypadku gazu zawartego w objętości V i mającego energię E: S=S(V,E). Otóż druga zasada termodynamiki mówi, że entropia układu izolowanego cieplnie nie może maleć, a zazwyczaj rośnie. Intuicyjnie wzrost entropii odpowiada temu, że większa część energii ciała ma postać chaotycznych ruchów cieplnych i trudniej ją wykorzystać do uporządkowanych zmian typu np. zmiany objętości (dlatego nie można zbudować np. silnika samochodowego, który wykorzystywałby w 100% energię uzyskaną ze spalania; samochody elektryczne przenoszą ten problem do elektrowni, które też zazwyczaj coś spalają, z nieco większą wydajnością, ale także daleką od 100%).

Entropia jest wielkością tzw. ekstensywną, to znaczy entropia układu złożonego z dwóch części będzie sumą entropii obu części:

S=S_1+S_2.

Jak na poziomie cząsteczkowym opisać wzrost entropii? Boltzmannowi udało się powiązać entropię z prawdopodobieństwem, a właściwie z liczbą mikrostanów odpowiadających danemu makrostanowi. Rozważmy naczynie z gazem, w którym znajduje się N cząstek o łącznej energii E. Tej samej wartości energii całkowitej odpowiada bardzo wiele różnych konfiguracji cząstek (mikrostanów). Gaz dąży spontanicznie do równowagi cieplnej, ponieważ jest to stan najbardziej prawdopodobny. Wzrost entropii nie jest więc tajemniczym prawem przyrody, lecz konsekwencją trywialnego faktu matematycznego, że zdarzenia bardziej prawdopodobne realizują się częściej niż wyjątkowe.

Jak można to opisać ilościowo? Stan ruchu jednej cząstki możemy opisać, podając jej położenie \vec{r} oraz pęd \vec{p}. Załóżmy, że całą przestrzeń dostępnych stanów podzieliliśmy na komórki o jednakowej objętości. Stan makroskopowy gazu znamy, gdy podana zostanie liczba cząstek gazu w każdej komórce. Wyobrażamy sobie przy tym, że liczby te są duże (w jednym molu mamy N_A=6\cdot 10^{23} cząstek, więc nawet po rozdzieleniu tych cząstek na bardzo wielką liczbę komórek, możemy wciąż mieć dużo cząstek w każdej komórce). Stan makroskopowy będzie więc listą liczb cząstek w kolejnych komórkach: (n_1, n_2,\ldots, n_r), gdzie r jest całkowitą liczbą komórek (jeśli całkowita energia gazu równa jest E, to żadna cząstka nie może mieć energii większej niż E, a więc obszar przestrzeni stanów potrzebny nam w rozważaniach jest ograniczony).

Schematyczny rysunek obszaru w przestrzeni stanów (jest on sześciowymiarowy, a więc trudny do narysowania). Zaznaczyliśmy jedną z komórek, na jakie dzielimy całą przestrzeń stanów wraz z liczbą cząstek w tej komórce.

Jeśli znamy poszczególne n_i, to możemy także obliczyć całkowitą liczbę cząstek N:

N=n_1+n_2+\ldots n_r

oraz całkowitą energię E:

E=\varepsilon_1 n_1+\varepsilon_2 n_2+\ldots+\varepsilon_r n_r,

gdzie \varepsilon_i oznacza energię w  i-tej komórce. Dalej zakładamy, że N oraz E (a także objętość gazu) są ustalone. Ilu konfuguracjom cząstek (mikrostanom) będzie odpowiadać dana lista (n_1, n_2,\ldots, n_r)? Zakładając, że cząstki są rozróżnialne, lecz jednakowe, liczba konfiguracji W prowadzących do tej samej listy równa jest

W=\dfrac{N!}{n_1! n_2!\ldots n_r!}.

Nietrudno zrozumieć sens tego wyrażenia: liczbę permutacji wszystkich cząstek dzielimy przez liczby permutacji wewnątrz kolejnych komórek, bo nie zmieniają one wartości n_i. Liczba konfiguracji jest proporcjonalna do prawdopodobieństwa. Możemy poszukać takiej listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), dla której W będzie maksymalne. Fizycznie powinno to odpowiadać stanowi równowagi termodynamicznej. Ów rozkład najbardziej prawdopodobny jest tzw. rozkładem Maxwella-Boltzmanna:

\bar{n}_i=C\exp(-\beta \varepsilon_i),

gdzie stałe C,\beta określone są warunkami stałości całkowitej liczby cząstek i energii. Boltzmann wcześniej uzyskał ten rozkład z innych rozważań. Można teraz zdefiniować entropię następującym wzorem:

S=k \ln W\equiv k \ln \dfrac{N!}{n_1! n_2!\ldots n_r!}.

Pojawienie się logarytmu jest tu całkiem oczekiwane, ponieważ gdy weźmiemy dwa układy o liczbach konfiguracji odpowiednio W_1, W_2, to całkowita liczba konfiguracji będzie równa

W=W_1W_2,

a chcemy żeby entropie w takiej sytuacji się sumowały: S=S_1+S_2. Zdefiniowaliśmy entropię nie tylko w stanach równowagowych, którym odpowiadają listy (\bar{n}_1, \bar{n}_2, \ldots, \bar{n}_r), ale także w dowolnych innych, którym odpowiadają listy (n_1, n_2,\ldots, n_r). Żeby nowa definicja miała sens, trzeba było oczywiście wykazać, że w sytuacjach równowagowych, otrzymuje się znane wcześniej wyrażenia. Wzór Boltzmanna

S=k\ln W,

stał się nową definicją entropii, dziś uważaną za podstawową. W istocie wzór Boltzmanna ma znacznie szersze pole zastosowań niż fizyka klasyczna znana w jego czasach. Jeśli rozważymy np. cząstki nierozróżnialne, można z analogicznych rozważań otrzymać prawa obowiązujące dla gazu fermionów (np. elektrony w metalu albo w białym karle) albo gazu bozonów (z czego wynikają prawa promieniowania cieplnego oraz, w innej nieco sytuacji, kondensacja Bosego-Einsteina). Wzór Boltzmanna pozwala też wyprowadzić wniosek, że w niskich temperaturach, gdy układ znajduje się w stanie podstawowym, entropia powinna być równa zeru – jest to treścią trzeciej zasady termodynamiki sformułowanej przez Wilhelma Nernsta.

W czasach Boltzmanna teoria kinetyczna była wysoce spekulatywna. Nie było pewności, czy w ogóle istnieją cząstki składające się na gaz. A więc znajdowanie liczby ich konfiguracji mogło wydawać się liczeniem diabłów na łebku szpilki. Ludwig Boltzmann przez całe życie odpierać musiał rozmaite zarzuty i brać udział w polemikach. Część dotyczyła spraw istotnych: w jaki sposób z odwracalnej mechaniki dochodzi się do procesów nieodwracalnych jak stygnięcie herbaty w kubku albo przewidywane wówczas przez niektórych uczonych stygnięcie, śmierć cieplna całego wszechświata? Najbardziej zjadliwe były polemiki filozoficzne. Zaciętym wrogiem Boltzmanna był tu Ernst Mach, dziś znany głównie za sprawą liczby Macha w lotnictwie ponaddźwiękowym. Fotografował on kule w locie.

Chciał też rewizji całej fizyki. Sądził, że posługuje się ona mnóstwem pojęć nie wytrzymujących krytyki. Np. przestrzeń absolutna u Newtona. Rozważania Macha zainspirowały Alberta Einsteina, choć w sposób bardzo swoisty. Sam Mach nie chciał słyszeć o teorii względności. Filozofia Macha miała ambicję wyrugowania z nauki pojęć nieopartych na bezpośrednim doświadczeniu. Chciał on niejako spojrzeć na świat od nowa. Dostrzegał w nim jedynie swoje wrażenia i ich wiązki.

Rysunek Ernsta Macha: jego pokój widziany lewym okiem

Dlatego koncepcja atomów była przez niego uważana za fikcję. Boltzmanna traktował jak naiwnego materialistę, nieświadomego subtelności pojęciowych. Przyszłość należała do fizyki statystycznej i atomów. „Naiwne” koncepcje fizyków zadziwiająco często sprawdzały się w praktyce. Co oczywiście, zdaniem filozofów, niczego nie dowodzi.

Skłonny do zmian nastrojów, Boltzmann cierpiał na napady depresji. W 1906 roku, przebywając na wakacjach w Duino nieopodal Triestu, popełnił samobójstwo, w czasie gdy żona i córka pływały w morzu. Nie dowiemy się, ile zdołałby osiągnąć, gdyby znano wtedy leki antydepresyjne.

Zaprawdę, to osobliwe, nie przebywać już odtąd na ziemi,

wyuczone zaledwie porzucić zwyczaje,

różom i innym odrębnie obiecującym rzeczom

nie dawać znaczeń ludzkiej przyszłości, już nigdy.

Tym, czym się było w dłoniach tak nieskończenie trwożnych,

nie być już więcej i nawet własne swe imię

porzucić, jak się porzuca połamaną zabawkę.

To osobliwe, już nie mieć życzeń. To osobliwe,

wszystko, co było związane, ujrzeć w przestrzeni

rozpierzchłe…

(przeł. M. Jastrun)

Model Ehrenfesta: w którą stronę płynie czas?

Tylko jedno prawo fizyki odróżnia przeszłość od przyszłości: II zasada termodynamiki. Mówi ona z grubsza tyle, że temperatury z czasem się wyrównują, różnice stężeń też, a bałagan wypiera porządek. Można temu ogólnemu kierunkowi opierać się przez jakiś czas, ale trzeba z zewnątrz czerpać uporządkowanie. Np. żeby żyć, trzeba jeść, a żeby było co jeść, tzn. do wytworzenia cukrów rośliny korzystają ze źródła uporządkowanego promieniowania, jakim jest Słońce. Technicznie mówiąc, potrzeba źródła niskiej entropii. Entropia mierzy nieuporządkowanie – im jest większa, tym większy bałagan. II zasada termodynamiki mówi, że entropia rośnie (dla układu izolowanego).

Prawa mechaniki, elektrodynamiki i wszelkie inne prawa opisujące oddziaływania nie wyróżniają kierunku czasu. Gdy popatrzeć na film z kilkoma poruszającymi się i oddziałującymi cząstkami, nie można poznać, czy film puszczony jest do przodu, czy do tyłu. Chyba że film przedstawia jakieś ogromne zbiorowisko cząstek, np. jajko rozbijane na jajecznicę. Wtedy od razu poznamy, czy film puszczony został prawidłowo, czy wstecz.

Jak to się dzieje, że entropia rośnie, mimo że podstawowe prawa oddziaływania cząstek nie wyróżniają czasu? Na pytanie to odpowiedział Ludwig Boltzmann. Jego uczniem był Paul Ehrenfest, znakomity nauczyciel i przyjaciel Einsteina. Ehrenfest lubił docierać do istoty zagadnienia bez długich rachunków, miał nawet kłopot z uzyskiwaniem właściwej odpowiedzi w wyprowadzeniach podczas wykładów, zwykle gdzieś zgubił jakieś 2\pi albo znak minus. Mimo to jego studenci wspominali go jako wybitnego wykładowcę, dwóch z nich otrzymało Nagrodę Nobla, inny Casimir, też był wybitnym fizykiem.

Ehrenfest obmyślił kiedyś model pokazujący, skąd się bierze nieodwracalność czasu. Wyobraźmy sobie dwa leżące koło siebie psy: Azora i Burka. Na Azorze siedzi N pcheł, Burek jest wolny od pcheł. Co jednostkę czasu zostaje wylosowana w sposób przypadkowy jedna pchła (są one ponumerowane). Wylosowana pchła przeskakuje na drugiego psa. Jasne jest, że z czasem liczby pcheł na obu psach mniej więcej się wyrównają. Wygląda to np. tak (wzięliśmy N=50):

Obraz6

Jak można opisać dochodzenie do „równowagi” w liczbie pcheł na obu czworonogach? W każdej chwili mikrostan naszego układu złożonego z obu psów można scharakteryzować, podając, na którym psie przebywa każda z N pcheł. Mamy tu 2^N takich mikrostanów. Nie możemy w ramach naszego modelu podać żadnej bardziej szczegółowej informacji. Nawet jednak przy pięćdziesięciu pchłach jest to 2^{50}\approx 10^{15} stanów. Zbyt wiele na praktyczne potrzeby. Możemy ograniczyć się do odnotowania jedynie liczby pcheł na Azorze, jak na wykresach. Tak scharakteryzowane stany są zwykle znacznie ciekawsze, bo np. można je łatwo zmierzyć. Kiedy robimy doświadczenie na gazie w zbiorniku, nie obchodzi nas każda cząsteczka z osobna, lecz tylko pewne globalne charakterystyki, jak temperatura (w istocie jest to średnia energia owych cząsteczek, których nie widzimy i nawet nie chcemy oglądać).

Łatwo zauważyć, że w naszym modelu wszystkie mikrostany są jednakowo prawdopodobne: powstają one przez losowanie. Inaczej jest z makrostanami. Jeśli wiemy, że na Azorze siedzi N_A pcheł, to liczba mikrostanów odpowiadających tej sytuacji jest równa liczbie kombinacji:

W=\binom{N}{N_A}=\dfrac{N!}{N_A!(N-N_A)!}.

Inaczej mówiąc, jest to liczba sposobów wybrania podzbioru pcheł na Azorze ze zbioru wszystkich pcheł (pamiętamy, że są one ponumerowane i potrafimy je odróżniać). Jasne jest, że najwięcej sposobów realizacji takiego podzbioru będzie wówczas, gdy pchły rozłożą się po równo (pomijamy przypadek, gdy ich liczba jest nieparzysta i nie mogą się rozłożyć dokładnie po równo). Ale także makrostany w pobliżu tego równego podziału będą dość prawdopodobne. Można obliczyć rozkład prawdopodobieństwa po danej liczbie jednostek czasu. Wygląda on tak:

Pchly_prawdopodobienstwo

Zaczynaliśmy od wszystkich pcheł na Azorze, ale po pewnym czasie układ osiąga równowagę i najbardziej prawdopodobny jest rozkład, w którym połowa pcheł przebywa na Burku albo jakiś do niego podobny. Trzeba pamiętać, że nawet jeśli w jakiejś chwili dokładnie połowa pcheł będzie na Azorze, to stan ten nie utrzyma się na stałe, liczba pcheł będzie się zmieniać w przypadkowy sposób.

Obraz4

Jest oczywiście możliwe, że w pewnej chwili wszystkie pchły znajdą się z powrotem na Azorze, a nawet wiadomo, że tak kiedyś będzie. Nasz model nie ma wbudowanego kierunku czasu, każdy z przebiegów mógłby równie dobrze wydarzyć się w odwrotnej kolejności. Oto wielka tajemnica czasu: czas płynie tak, że zaczynając od sytuacji, gdy wszystkie pchły siedziały na Azorze, po pewnym czasie (najprawdopodobniej) zastaniemy nasz układ w jednym ze stanów bliskich „równowagi”. Czas płynie tak, aby liczba pcheł się wyrównywała. I to właściwie wszystko, co trzeba wiedzieć o II zasadzie termodynamiki. Jeśli odczekamy dostatecznie długo, to (na ogół) zastaniemy układ w jakimś stanie spośród tych najbardziej prawdopodobnych. Czas płynie w określonym kierunku nie z powodu praw fizyki, ale z tego powodu, że nasz świat zaczął się w stanie, gdy wszystkie pchły siedziały na Azorze. Zatem nie prawa fizyki, lecz warunki początkowe. Kolejne „dlaczego” w tej sprawie przenoszą nas aż do Wielkiego Wybuchu i w tym punkcie możemy odpowiedzieć: „nie wiemy”. Jak ktoś lubi wyobrażać sobie Stwórcę, może uznać, że wybrał On bardzo szczególny rodzaj wszechświata.

creator

W przestrzeni stanów równowaga termiczna zajmuje najwięcej miejsca, więc od jeśli zaczniemy od stanu dalekiego od równowagi, to w końcu na nią natrafimy.

equilibrium

(Rysunki Rogera Penrose’a)

Trzy uwagi na koniec:

1. Czemu nie obserwuje się spontanicznego powrotu wszystkich pcheł na Azora? Dlatego, że jest to jeden z 10^{15} stanów, a wszystkie są tak samo prawdopodobne. Gdy weźmiemy za N np. liczbę Avogadro, okaże się, że wieku wszechświata za mało, byśmy doczekali takiej sytuacji.

2. Entropia naszego ukladu jest równa

S=k\ln W.

Jest to najważniejsze odkrycie Boltzmanna. Wynika z niego w szczególności, że entropia nie rośnie zawsze, lecz tylko przeważnie. II zasada termodynamiki obowiązuje nadal, gdy układ jest duży.

(Stała k, zwana stałą Boltzmanna, potrzebna jest, żeby tak zdefiniowana entropia była dokładnie tym samym, czego używano przed Boltzmannem.)

3. Czemu odpowiadają pchły w „poważnej” fizyce? Można sobie wyobrażać spiny \frac{1}{2} w kontakcie z termostatem o bardzo wysokiej temperaturze, żeby zmiany entropii termostatu można było pominąć w rozważaniach.

Albert Einstein każe Bogu grać w kości (1916)

Słynne jest powiedzenie Einsteina, że Bóg nie gra w kości – chodziło mu o to, że prawa rządzące najmniejszymi, elementarnymi cząstkami powinny być przyczynowe. Prawami takimi są zasady dynamiki Newtona: jeśli znamy położenie i prędkość różnych ciał dziś, to w zasadzie moglibyśmy obliczyć, co się z tymi ciałami stanie w przyszłości. Pierre Simon de Laplace sformułował to następująco:

Inteligencja, która by w danej chwili znała wszystkie siły, które działają w przyrodzie, oraz wzajemne położenia bytów ją tworzących i była przy tym dostatecznie dostatecznie rozległa, by te dane poddać analizie, mogłaby w jednej formule zawrzeć ruch największych ciał wszechświata i najmniejszych atomów: nic nie byłoby dla niej niepewne i zarówno przyszłość, jak przeszłość byłyby dostępne dla jej oczu. Umysł ludzki daje słabe pojęcie owej inteligencji, której doskonałość osiągnąć potrafił jedynie w astronomii. [Théorie analytique des probabilités (1812)]

Otóż Einstein jako najwybitniejszy fizyk XIX wieku (podobnie jak Jarosław Iwaszkiewicz nazwany został, nie bez pewnej racji, najwybitniejszym polskim pisarzem dziewiętnastowiecznym) wierzył w słowa Laplace’a, technicznie rzecz ujmując, sądził, że równania różniczkowe mogą ściśle opisać rzeczywistość. Był w tym spadkobiercą Laplace’a i Jamesa Clerka Maxwella oraz całej plejady wybitnych fizyków wieku pary i elektryczności.

Jednak już sam Laplace zastanawiał się nad zdarzeniami przypadkowymi, w cytowanej książce podał klasyczną definicję prawdopodobieństwa, której każdy się uczył. Fizycy zastosowali prawdopodobieństwa do opisu obiektów zbyt złożonych, aby znać szczegóły ich ruchu, jak np. gaz doskonały. Nie musimy znać szczegółów zderzeń wszystkich cząstek w gazie, wystarczy, jeśli znamy pewne charakterystyki średnie, np. średnią energię. Metodę tę rozwinął zwłaszcza Ludwig Boltzmann, a także Josiah Willard Gibbs w Stanach Zjednoczonych oraz Albert Einstein.

W ostatnich latach wieku XIX odkryto radioaktywność niektórych pierwiastków, a Ernest Rutherford podał prawo rozpadu promieniotwórczego: liczba pozostałych jąder maleje wykładniczo z czasem t, tzn. po pewnym czasie \tau pozostaje połowa jąder, po następnym czasie \tau połowa tej połowy, czyli 1/4 itd. Wygląda to tak:

Halflife-sim

Animacja z Wikipedii, z lewej strony na początku mamy 4 atomy, z prawej 400, u góry wyświetla się liczba półokresów rozpadu.

A matematycznie można zapisać następująco:

N=N_0 2^{-\dfrac{t} {\tau} }=N_0 \exp{(-\lambda t)}.

Przez N_0 oznaczona jest początkowa liczba jąder. Ostatnia równość jest tożsamościowa: możemy po prostu zapisać naszą funkcję w obu tych postaciach, jeśli odpowiednio wybrać stałą rozpadu \lambda. Gdy przyjrzymy się przez chwilę animacji powyżej, nasuwa się pytanie: skąd dane jądro wie, kiedy ma się rozpaść? Ponieważ wszystko wskazuje, że jądra rozpadają się niezależnie od siebie, więc oznacza to, iż prawdopodobieństwo przeżycia czasu t przez dowolne jądro równe jest

p(t)=2^{-\dfrac{t}{\tau} }=\exp{(-\lambda t)}.

Jest to bardzo dziwne prawo: znaczy bowiem, że każde jądro, niezależnie od tego, jak długo już istnieje, ma ciągle takie same prawdopodobieństwo rozpadu w nadchodzącym przedziale czasu. To jak gra w ruletkę: jeśli nawet 10 razy z rzędu wypadło czerwone, to za jedenastym razem prawdopodobieństwo, że i tym razem wypadnie czerwone jest wciąż takie samo jak przedtem. Każde zakręcenie koła ruletki rozpoczyna cykl od nowa i jego wynik nie zależy od tego, co wypadło poprzednio. Prawdopodobieństwo rozpadu jądra w małym przedziale czasu (t, t+\Delta t) jest równe

p(t)-p(t+\Delta t)=\exp{(-\lambda t)}-\exp{(-\lambda (t+\Delta t))}=\\ \\p(t)(1-\exp{(-\lambda \Delta t)}\approx p(t)\lambda \Delta t.

Jest ono iloczynem prawdopodobieństwa dotrwania do chwili t i prawdopodobieństwa rozpadu w krótkim czasie \Delta t. Zatem prawdopodobieństwo rozpadu (pod warunkiem, że w chwili t że jądro nadal istnieje) jest proporcjonalne do długości przedziału \Delta t i nie zależy wcale od tego, jak długo już obserwujemy tę sytuację:

p_{rozpadu}=\lambda\Delta t.

Inaczej mówiąc, prawdopodobieństwo rozpadu na jednostkę czasu jest stałe i równe \lambda. Kiedy Rutherford podał prawo rozpadu promieniotwórczego, zastanawiano się nad tym, że wygląda ono tak, jakby rozpad nie miał konkretnej przyczyny. Nie potrafiono w każdym razie wskazać takiej przyczyny. Nie znaczy to bynajmniej, że rozpad danego jądra nie nastąpi. Sytuacja przypomina grę w rosyjską ruletkę: bierzemy rewolwer bębenkowy i ładujemy kulę do jednej komory, po czym kręcimy komorą, aż zatrzyma się w przypadkowym położeniu. Przykładamy sobie do głowy i naciskamy spust: albo przeżyliśmy, albo nie. Jeśli tak, to możemy ten zabieg powtarzać, aż w końcu nam się uda. Można pokazać, że przypadku rosyjskiej ruletki średnia liczba prób będzie równa 6 (jest to liczba komór w bębenku). Wcale to jednak nie znaczy, że konkretny gracz nie przetrwa np. 24 prób. Nie jest to bardzo prawdopodobne, ale jest możliwe.

I tu dochodzimy do pracy Einsteina z roku 1916. Pół roku wcześniej podał on równania teorii grawitacji, zrobił parę mniejszych prac i zajął się oddziaływaniem promieniowania z materią. Trzy lata wcześniej Niels Bohr ogłosił swój model atomu. Wynikało z niego, że każdy atom powinien mieć pewien zbiór określonych – skwantowanych – energii. Rozpatrzmy atomy pewnego rodzaju, a w nich dowolną parę stanów o dwóch różnych energiach E_1 < E_2. Jeśli nasze atomy znajdą się w zbiorniku z promieniowaniem o temperaturze T, to liczba atomów w stanie o wyższej energii będzie mniejsza niż tych w stanie o niższej energii:

\dfrac{N_2}{N_1}=\dfrac{\exp{(-\dfrac{E_2}{kT}})}{\exp{(-\dfrac{E_1}{kT}})}=\exp{(-\dfrac{E_2-E_1}{kT})}.

Stała k zwana jest stałą Boltzmanna, a sam rozkład liczby atomów od energii także nazywany jest rozkładem Boltzmanna. Co oznacza taka równowaga cieplna? Ano tyle, że czasem nasz atom w stanie E_1 pochłonie promieniowanie i przejdzie do stanu E_2, a czasem na odwrót (wtedy energia zostanie oddana w postaci promieniowania). W równowadze oba procesy powinny zachodzić z taką samą szybkością.

emisja

Einstein założył – i to jest punkt zasadniczy – że możliwe są procesy jak na rysunku: dwa pierwsze oznaczają przejścia między poziomami wymuszone promieniowaniem – tzw. absorpcję i emisję wymuszoną. Prawdopodobieństwa tych procesów na jednostkę czasu będą równe iloczynowi odpowiedniej stałej B oraz gęstości energii promieniowania u(\nu). Mamy tu jeszcze jeden proces: emisję spontaniczną. Jej prawdopodobieństwo na jednostkę czasu jest równe A_{2\rightarrow 1} – tutaj prawo jest takie samo jak w rozpadzie promieniotwórczym. Wiedząc to wszystko, możemy zapisać ilość przejść 1\rightarrow 2 oraz 2\rightarrow 1 na jednostkę czasu:

N_1 B_{1\rightarrow 2}u(\nu)=N_2 B_{2\rightarrow 1}u(\nu)+N_2 A_{2\rightarrow 1}.

Obliczamy stąd funkcję u(\nu) i porównujemy ze znanym rozkładem Plancka:

u(\nu)=\dfrac{A_{2\rightarrow 1}}{B_{1\rightarrow 2}\exp{(\frac{E_2-E_1}{kT})}-B_{2\rightarrow 1}}=\dfrac{8\pi h\nu^3}{c^3}\dfrac{1}{\exp{(\frac{h\nu}{kT})}-1}.

Łatwo z tej równości wysnuć pewne wnioski nt. zależności między współczynnikami A, B. Np. zgodność obu równań jest możliwa tylko wówczas, gdy

E_2-E_1=h\nu.

Niels Bohr założył słuszność takiego równania, tutaj pojawia się ono jako wniosek. Nie będziemy wchodzić w szczegóły. Rzec można, Einstein obliczył maksimum tego, co było możliwe bez mechaniki kwantowej. Jedenaście lat później P.A.M. Dirac pokazał, jak wartości einsteinowskich współczynników wynikają z teorii kwantowej. Równania Einsteina prawidłowo opisują oddziaływanie atomów i promieniowania. Np. działanie lasera opiera się na emisji wymuszonej, opisywanej współczynnikiem B_{2\rightarrow 1}. Nie znaczy to, że Einstein zbudował laser, ale z pewnością zrozumiałby, gdyby jakiś mądry ET opisał mu taki wynalazek.

Dlaczego Einstein każe tu Bogu grać w kości? Współczynnik emisji spontanicznej musi być niezerowy i taki też zazwyczaj jest w przyrodzie (chyba że są powody, aby jakieś przejście było niemożliwe, np. ze względu na symetrię). To wszystko znaczy, że atom w wyższym stanie energetycznym kiedyś przejdzie do stanu niższego: tak samo jak gracz w rosyjskiej ruletce kiedyś się zastrzeli. Tyle że w przypadku atomu nikt nie pociąga za spust. Nie ma żadnej doświadczalnie możliwej do wykrycia przyczyny tego przejścia. Okazało się, że te współczynniki Einsteina to wszystko, co możemy wiedzieć i nie ma żadnej lepszej teorii, która by nam powiedziała, kiedy dany atom wyśle foton albo kiedy dane jądro się rozpadnie. Einstein w roku 1916 jeszcze nie rozumiał, że osiągnął granicę możliwości fizyki. Nigdy się z tym zresztą nie pogodził, stając się pogodnym dziwakiem w oczach kolegów i pracując wytrwale nad teorią, która by usunęła te probabilistyczne rozważania raz na zawsze. Jak wiemy, nigdy mu się to nie udało, dziś chyba mało kto wierzy, aby przedsięwzięcie tego rodzaju było wykonalne. Laplace i Einstein nie mieli racji, Bóg najwyraźniej gra w kości.

Student Einstein, profesor Weber i diamenty (1906)

Albert Einstein miał trudności z dostaniem się na studia. Po pierwsze nie miał matury: gimnazjum w Monachium porzucił – nie podobała mu się sztywna atmosfera, a i on niezbyt się podobał nauczycielom. „ …Kiedy tak siedzisz w tylnej ławce i się uśmiechasz, to sama twoja obecność podważa mój autorytet wobec reszty uczniów” – oświadczył mu jeden z profesorów. Po drugie należało zdać egzaminy wstępne z wielu przedmiotów: historii politycznej, historii literatury, biologii, chemii, języków i rysunku. Einstein, wybitny z fizyki i matematyki, miał braki w niektórych innych przedmiotach. Zdawał na politechnikę w Zurychu, ETH (która nie wymagała świadectwa maturalnego) i oblał. Poradzono mu, aby poszedł jeszcze na rok do szkoły. Miał czas: skończył dopiero 16 lat. Za drugim razem go przyjęto. Były to w zasadzie studia nauczycielskie, po których otrzymywało się tytuł uprawniający do uczenia w szkole średniej.

Na politechnice zetknął się z profesorem Heinrichem Weberem, który prowadził wiele kursów i laboratoriów. Einstein z początku wyrażał się o Weberze w samych superlatywach, profesor także cenił zdolnego studenta. Po jakimś jednak czasie ich stosunki mocno się ochłodziły. Einstein przestał chodzić na wykłady, odkąd stwierdził, że niczego nowego się nie uczy – Weber za zbyt nowomodną uznawał np. teorię elektromagnetyzmu Maxwella, liczącą sobie ponad dwadzieścia lat. W dodatku student Einstein w pracowni chciał przeprowadzać wszystkie eksperymenty po swojemu, co prowadziło do konfliktów. Na domiar złego tytułował profesora: Herr Weber zamiast obowiązkowego Professor Weber. Toteż z pracy dyplomowej otrzymał zaledwie 4,5 (w skali do sześciu) i była to najsłabsza z jego ocen. Z takim dyplomem miał niewielkie szanse na zostanie na uczelni. Nigdy chyba Weberowi nie darował, bo wspominał go zawsze źle, co u Einsteina było raczej rzadkie. Prawdopodobnie profesor nie mógł wybaczyć studentowi, że ten śmie być od niego inteligentniejszy – zjawisko znane nie tylko w Zurychu z roku 1900.

Weberowi więc zawdzięczamy ten urzekający biografów obrazek: oto urzędnik Biura Patentowego w Bernie publikuje w 1905 roku przełomowe odkrycia z fizyki, których dokonał po godzinach pracy (osiem godzin, sześć dni w tygodniu). Oprócz teorii względności, będącej niemal w całości jego dziełem, Einstein zajmuje się w tym czasie wieloma zagadnieniami, wystarczyłoby ich na dorobek bardzo wybitnego uczonego (zresztą nagrodę Nobla dostał właśnie za te „inne” prace, teoria względności wydawała się bowiem kontrowersyjna).

W roku 1906 ukazuje się przełomowa praca Einsteina na temat ciepła właściwego kryształów, która do dziś stanowi rozdział podręczników. W pracy tej raz jeszcze skrzyżowały się losy profesora Webera i młodego doktora Einsteina.

Ciepło właściwe to ciepło potrzebne, aby ogrzać ustaloną ilość substancji o jeden stopień. Wiadomo było, że wiele kryształów ma takie same ciepło właściwe, jeśli tylko przeliczymy je na mol substancji. Prawidłowość ta została od nazwisk odkrywców nazwana prawem Dulonga-Petita. Ciepło molowe równe jest 3R=5,96 cal/mol·K (takich jednostek używał Einstein na wykresie poniżej). Stała R jest to stała gazowa, znana ze szkoły. Prawidłowość tę można wyjaśnić teoretycznie, jeśli przyjąć, że atomy w krysztale drgają wokół położeń równowagi. Gdy dostarczamy kryształowi energię (a więc go ogrzewamy), drgania stają się coraz intensywniejsze. Przy pewnej wielkości tych drgań kryształ się zdestabilizuje i ciało się stopi.Każdy atom stanowi więc oscylator powiązany z sąsiednimi atomami: jak układ mas połączonych sprężynami. Fizyka klasyczna (tzw. zasada ekwipartycji energii) przewiduje taką jak trzeba wartość ciepła właściwego. Tę elegancką zgodność teorii z eksperymentem popsuły (jak zwykle) dalsze eksperymenty. Okazało się, że niektóre kryształy, np. diament, mają ciepło właściwe dużo mniejsze niż 6 cal/mol·K. W latach siedemdziesiątych wieku XIX zagadnieniem tym zajmował się Heinrich Weber, wówczas asystent Hermanna von Helmholtza w Berlinie. Ciepło właściwe diamentu, a także niektórych innych ciał stałych wyraźnie maleje wraz z temperaturą. Jak się wydaje, także i tego faktu Einstein nie dowiedział się od Webera.

Niewielu fizyków zdawało sobie sprawę, jak bardzo ambarasujący są te wyniki eksperymentalne. Chodziło nie o jakąś anomalię budowy niektórych kryształów, lecz o kwestię zupełnie fundamentalną. Fizyka klasyczna, przedkwantowa, nie potrafi tego zjawiska wyjaśnić. W roku 1906 nie było też żadnej fizyki kwantowej ani poczucia, że jest ona do czegoś potrzebna. Kilka lat wcześniej Max Planck w innym zagadnieniu (promieniowania termicznego) przyjął założenie, że drgające ładunki emitujące promieniowanie nie mogą mieć dowolnej energii, lecz tylko pewien ich ciąg – energia jest skwantowana. Było to jednak inne zagadnienie, niemające wiele wspólnego z drganiami atomów w krysztale diamentu oprócz tego, że w obu przypadkach chodziło o drgania. Einstein przyjął, że drgania atomów w krysztale diamentu są skwantowane: tzn. atom taki nie może drgać z dowolną amplitudą, dozwolone są jedynie pewne skokowe jej wartości. To tak jakby wahadło mogło mieć tylko pewien skwantowany ciąg amplitud. Brzmi to cokolwiek szaleńczo, ale okazało się prawdą. Jeśli przyjmiemy, że energia drgań atomu może być równa tylko n\varepsilon, gdzie n jest liczbą naturalną (od zera począwszy), a \varepsilon pewną stałą energią charakterystyczną dla kryształów diamentu, to można wyjaśnić, czemu ciepło właściwe maleje z temperaturą. Przy wysokich temperaturach skok energii o \varepsilon staje się niezauważalny i wracamy do klasycznego wyniku.(*)

annalen_1906

Obliczenia Einsteina zostały na wykresie zestawione z wynikami uzyskanymi przez Webera. Einstein wykorzystał dane z powszechnie znanych tablic, nic nie wskazuje, aby przy tej okazji zwrócił się osobiście do Webera. Temperatura jest podana jako ułamek pewnej temperatury charakterystycznej dla diamentu i równej 1300 K. Ciepło właściwe wyrażone jest w kaloriach i dąży do wartości bliskiej 6 przy wysokich temperaturach. Wyjątkowość diamentu polega jedynie na tym, że owa charakterystyczna temperatura jest stosunkowo wysoka, nie potrzeba więc pomiarów w bardzo niskich temperaturach, aby wykryć odchylenia od prawa Dulonga-Petita.

Praca Einsteina na temat drgań w kryształach jest świetnym przykładem czegoś, co Arthur Koestler nazywał „sleepwalking”: chodzeniem przez sen. Twórcy teorii kwantowej: Planck, Einstein, Bohr poruszali się jak somnabulicy chodzący po dachu, którzy jakimś cudem nie robią sobie krzywdy i docierają szczęśliwie do nieznanego celu. Einstein miał dużo szczęścia w przypadku tej pracy: dane dla innych kryształów i ogólnie dla niskich temperatur nie potwierdzają jego zbyt uproszczonego modelu (choć niezbędne poprawki są czysto techniczne, chodzi o tzw. model Debye’a). Miał jednak rację co do zasady: drgania są skwantowane i w niskich temperaturach przejawia się to w cieple właściwym. Miał też rację przewidując, że ciepło właściwe powinno dążyć do zera, gdy temperatura dąży do zera bezwzględnego. Jego wyniki wykorzystał W. Nernst, formułując III zasadę termodynamiki.

(*)

Pokażemy, jak obliczyć ciepło właściwe kryształu. Korzystamy z podstawowego prawa fizyki statystycznej, że prawdopodobieństwo znalezienia układu w stanie o energii E_n jest równe

p_n=\dfrac{\exp(-E_n/kT)}{Z}.

Z jest tu pewną stałą zależną od temperatury, ale nie od energii E_n; k to stała Boltzmanna, T – temperatura. Z warunku unormowania prawdopodobieństw (suma wszystkich prawdopodobieństw musi być równa 1) otrzymujemy

Z=\exp(-E_1/kT)+\exp(-E_2/kT)+\ldots

W naszym przypadku średnią energię drgającego atomu możemy zapisać jako

E=p_1 E_1+p_2 E_2+\ldots=\dfrac{\varepsilon\exp(-\varepsilon/kT)+2\varepsilon\exp(-2\varepsilon/kT)+\ldots}{\exp(-\varepsilon/kT)+\exp(-2\varepsilon/kT)+\ldots}.

Jest to w zasadzie średnia ważona z energii, w której wagami są eksponenty. Musimy wysumować dwa szeregi: w liczniku i w mianowniku. Prostszy jest ten w mianowniku, oznaczając x=\exp(-\varepsilon/kT) otrzymujemy dla mianownika

Z=1+x+x^2+\ldots=\dfrac{1}{1-x}.

Jest to suma szeregu geometrycznego. Sumę w liczniku możemy uzyskać albo różniczkując ostatnią równość po x, albo zauważając, że można ją zapisać jako

x+2x^2+3x^3+\ldots=
=(x+x^2+x^3+x^4+\ldots)+(x^2+x^3+x^4+\ldots)+(x^3+x^4+\ldots)+\ldots=
=xZ+x^2 Z +x^2 Z+\ldots=x(1+x+x^2+\ldots)Z=xZ^2.

Ostatecznie więc dostajemy energię średnią drgającego atomu równą

E=\dfrac{\varepsilon}{\exp\frac{\varepsilon}{kT}-1}

Ciepło właściwe przedstawione na wykresie to pochodna tej funkcji po temperaturze.

Jean Perrin i atomy, 1913

Zeszłoroczne odkrycie bozonu Higgsa przez dwa niezależne zespoły w LHC w CERN-ie ożywiło debatę nad znaczeniem tego wyniku. Z punktu widzenia teoretyków pracujących w dziedzinie cząstek elementarnych sytuacja jest nieco frustrująca: oto potwierdza się model zbudowany jakieś 40 lat temu – mniej więcej tyle, ile trwa profesjonalne życie badacza. Teoretycy przez ten cały czas wciąż pracowali, głównie pod dwoma sztandarami: supersymetrii i teorii strun. Najwybitniejsi, a także najlepiej zabiegający o popularność, badacze stworzyli całe multiświaty różnych wersji tych idei. Oprócz niezliczonych artykułów i monografii napisano całe mnóstwo książek popularnonaukowych, nakręcono trochę filmów. I jest tylko jeden mały kłopot: ta góra nie urodziła nawet myszy. Nie ma jak dotąd żadnych śladów supersymetrii w przyrodzie. Nie ma też żadnych przewidywań teorii strun – to znaczy istnieje ona w tylu wersjach, że pozwala, jak się wydaje, przewidzieć wszystko, trzeba tylko wiedzieć, do jakich faktów należy ją dopasować. Stąd dość ostry czasami ton dyskusji ekspertów. Por. np. blog Not Even Wrong.

Niewykluczone, że mieliśmy w XX wieku niespotykane szczęście do fizyki: udało się bowiem w ciągu tego stulecia poznać elementarne składniki materii, przede wszystkim atomy, których budowa i zachowanie nie ma już przed nami tajemnic. To niesłychanie wiele, jeśli weźmiemy pod uwagę, że praktycznie cała materia wokół nas to właśnie atomy. To także niesłychanie wiele, jeśli pomyśleć, że od starożytności aż do początku wieku XX atomy były właściwie hipotezą, jak cząstka Higgsa do zeszłego roku. Np. radca dworu i profesor uniwersytetu w Wiedniu Ernest Mach uważał, że nauka powinna zajmować się jedynie ekonomicznym i jak najprostszym opisem faktów doświadczalnych. Wobec tego teorie wyjaśniające np. zachowanie gazów za pomocą ruchu niewidocznych atomów uważał za nienaukowe. Pytał szyderczo Ludwiga Boltzmanna, pioniera fizyki statystycznej: „Czy widział Pan może jakiś atom?” Mach był konserwatywny, ale na początku XX wieku nie był zupełnie odosobniony w swoich poglądach, przeciwnikiem atomów był także Wilhelm Ostwald, wybitny chemik.

Okazało się niebawem, że choć samych atomów i cząsteczek chemicznych nie można zobaczyć pod mikroskopem (optycznym), to można obserwować skutki ich chaotycznych, bezładnych ruchów termicznych. Są to ruchy Browna, ruchy cząstek różnych zawiesin (np. dymu). Cząstki te są na tyle wielkie w sensie atomowym, że można je bez trudu obserwować bezpośrednio, a zarazem na tyle małe, by reagować na bombardowanie przez otaczające cząsteczki. Statystyczne charakterystyki ruchów Browna zostały w roku 1905 objaśnione w niezależnych pracach Alberta Einsteina i Mariana Smoluchowskiego. Jean Perrin wykonał słynne doświadczenia, które rozwiały ostatnie wątpliwości co do istnienia atomów. Opisał je kilka lat później w książce Les atomes (1913). Pisze w niej, że w nauce można postępować dwojako. Niektórzy, jak Galileusz czy Sadi Carnot, potrafią wyabstrahować prawa z obserwowanych zjawisk, dostrzegając niewidoczne dla innych analogie czy powiązania. Inni starają się objaśnić skomplikowane zjawiska zakładając ukrytą prostotę na innym poziomie – jest to droga Daltona i Boltzmanna, pionierów atomizmu w XIX wieku.

PerrinPlot2.svg

Tory cząstek mastyksu obserwowanych przez Perrina co 30 s. Jedna podziałka skali równa jest 3,125 μm (Les atomes, s. 165)

Charakterystyczną cechą ruchów Browna jest ich skrajna nieregularność, Perrin pisze, że robiąc obserwacje 100 razy częściej, dostalibyśmy zamiast każdego z odcinków poszarpaną linię łamaną. Tory cząstek nie są regularne w żadnej obserwowanej skali. Zjawisko to ilustruje rysunek poniżej, gdzie różnymi kolorami zaznaczono tory uzyskiwane przy obserwacjach z różnym krokiem czasowym. Przypominają one np. linię brzegową przedstawianą na mapach o różnej skali: im dokładniejsza mapa, tym dłuższa linia brzegowa. Tor cząstki jest fraktalem.

Brownian_hierarchical

Źródło: Wikipedia

Pomiary Perrina przypieczętowały sukces teorii atomowej i pozwoliły wyznaczyć liczbę Avogadro, a tym samym masy atomów. Dwadzieścia lat później powstała mechanika kwantowa, która początkowo miała być tylko teorią atomów, słuszną dla zjawisk w skali energii pojedynczych elektronowoltów (eV), a ostatecznie okazała się skuteczna nawet w skali TeV, czyli 10^{12} razy większej.
W jakimś sensie dzisiejsi fizycy, narzekając na Model Standardowy cząstek, cierpią na zawrót głowy od sukcesów. Miejmy nadzieję, że LHC pozwoli jeszcze odkryć jakąś nową fizykę, inaczej trudno będzie przekonać polityków i podatników do następnych, jeszcze kosztowniejszych projektów tego typu i stagnacja może potrwać długo.