Jak Max Planck nie dostał Nagrody Nobla (1908)

Pisałem jakiś czas temu, w jaki sposób Max Planck na dwa tygodnie przed końcem XIX stulecia wyprowadził ważny wzór opisujący promieniowanie termiczne (dokładnie: ciała doskonale czarnego). On sam uważał słusznie, iż to jego najważniejsza praca. Dziś patrzymy na nią jako na pierwszą pracę kwantową, a więc wstęp do najważniejszej dziedziny fizyki w XX wieku. Jednak w roku 1908 widziano to zupełnie inaczej i Planck nie otrzymał Nagrody Nobla właśnie z powodu kwantów. Chciano mu ją wówczas przyznać z zupełnie innych powodów, choć za tę samą pracę.

Nagroda Nobla zawsze była do pewnego stopnia wynikiem wewnętrznych zakulisowych dyskusji, a nawet intryg, wśród uczonych szwedzkich. I w sumie dobrze o nich świadczy fakt, że tak rzadko trafiała ona w niepowołane ręce. W roku 1908 ogromny wpływ na nagrody w dziedzinie chemii i fizyki miał Svante Arrhenius, wybitny fizykochemik, który chciał podkreślić wagę istnienia atomów. Nie był to jeszcze wówczas fakt zupełnie bezsporny, choć główna batalia już się rozegrała: w roku 1905 i 1906 Albert Einstein i Marian Smoluchowski opracowali teorię ruchów Browna, a w roku 1908 Jean Perrin przeprowadził już wiele doświadczeń potwierdzających ową teorię (wyznaczając przy okazji liczbę Avogadro). Trudno byłoby podać jakiekolwiek inne wyjaśnienie tego zjawiska. Arrhenius myślał jednak o czym innym, Perrin został nagrodzony dużo później. Ernest Rutherford i Hans Geiger wykazali, że cząstki α emitowane przez niektóre substancje promieniotwórcze mają masę atomu helu i dodatni ładunek dwa razy większy niż ładunek elektronu (ujemny). Wciąż nie bardzo było wiadomo, jak wyglądają atomy, ale fakt, że ładunki cząstek były wielokrotnością ładunku elementarnego, silnie przemawiał za jakąś formą atomizmu. Także z pracy Maksa Plancka wynikała ta sama wartość ładunku elementarnego – była ona zresztą dokładniejsza niż ta wynikająca z pomiarów Rutherforda. Ta sama wartość wynikająca z pomiarów w tak odległych od siebie dziedzinach, jak promieniotwórczość i promieniowanie termiczne, była silnym argumentem za istnieniem ładunku elementarnego (także bezpośrednie pomiary ładunku elektronu dawały mniej więcej to samo).

W jaki sposób z prawa Plancka wynika ładunek elementarny? Do prawa Plancka wchodzą dwie stałe, oznaczane k i h – pierwszą nazywamy dziś stałą Boltzmanna, drugą – stałą Plancka. Otóż Planck pokazał, że stała k to nic innego niż stała gazowa R podzielona przez liczbę Avogadro N:

k=\dfrac{R}{N},

ponieważ stała gazowa była dokładnie znana, można było wyznaczy liczbę Avogadro, czyli najważniejszą stałą atomową. Dla przypomnienia: jest to liczba atomów w gramoatomie, znając N, natychmiast można obliczyć, ile waży który atom. W dodatku jeśli podzielić stałą Faradaya, znaną z elektrolizy, przez N, otrzymuje się wielkość ładunku elementarnego.

Arrhenius musiał przy okazji wykonać trochę logicznej ekwilibrystyki, gdyż chciał, aby nagrodę z chemii dostał Rutherford, a z fizyki jedynie Planck. Pierwsza połowa planu się powiodła, co Rutherford skomentował, że obserwował różne przemiany atomów, ale żadna nie nastąpiła tak szybko jak jego przemiana z fizyka w chemika (statystycznie rzecz biorąc, było wszystko w porządku, bo w poprzednich latach małżonkowie Curie dostali nagrodę z fizyki za głównie chemiczną pracę wyodrębnienia nowych pierwiastków).

Druga połowa planu się nie powiodła. Po pierwsze wysuwano argument, iż praca Plancka byłaby niemożliwa bez dokładnych pomiarów. I była to szczera prawda. Planck znalazł ścisły wzór opisujący bardzo dokładne pomiary kolegów. Najpierw w roku 1899 Ernst Pringsheim i Otto Lummer zauważyli, że promieniowanie obserwowane w podczerwieni odbiega od tzw. prawa Wiena, przez jakiś czas uważanego za ścisłe. Było ono połączeniem pewnego rozumowania ze zgadywaniem, co jest kombinacją wcale w nauce nierzadką.

lummer_prings

Potem, w roku 1900, Heinrich Rubens i Ferdinand Kurlbaum zmierzyli jeszcze wyraźniejsze odstępstwa od prawa Wiena i od tej chwili Planck miał nad czym myśleć.

RubensKurlbaum

Wykres przedstawia natężenie promieniowania w zależności od temperatury przy długości fali 24 μm, a więc daleko w podczerwieni, autorzy przesunęli granicę możliwości aż do 60 μm, co było poważnym osiągnięciem. Linia ciągła to wzór Plancka, kółka to punkty doświadczalne.

Oczywiście wyprowadzenie prawdziwej i fundamentalnej zależności warte jest Nagrody Nobla, choć można się zastanawiać, czy nie powinna ona przypaść także niektórym przynajmniej z eksperymentatorów wykonujących te pomiary.

Pojawił się także drugi argument przeciwko Planckowi, i on ostatecznie przeważył. Wiosną roku 1908 na kongresie matematyków w Rzymie wystąpił Hendrik Antoon Lorentz, najbardziej szanowany fizyk-teoretyk Europy, i wykazał, że ze znanej fizyki nie może wynikać wzór Plancka. Fizyka, dziś nazywana klasyczną, przewiduje bowiem dla promieniowania to, co przedstawia czarna linia na poniższym wykresie.

Black_body

Jest to tzw. prawo Rayleigha-Jeansa, które przewiduje, że ilość promieniowania dla każdej częstości powinna rosnąć proporcjonalnie do temperatury bezwzględnej (na wykresie wyżej widać, że prawo Rayleigha wyraźnie odbiega od danych Rubensa i Kurlbauma). Ponadto przewiduje ono, że im wyższa częstość, tym silniejsze powinno być promieniowanie: każdy piecyk byłby źródłem zabójczego promieniowania rentgenowskiego i gamma, co jest oczywiście bez sensu i otrzymało nazwę katastrofy w nadfiolecie. Lorentz wykazał szczegółowo to, co trzy lata wcześniej napisał Einstein: że z fizyki klasycznej wynika prawo Rayleigha, które jest absurdalne. Einstein jednak dopiero debiutował, Lorentza natomiast usłyszeli wszyscy. Jasne się stało wszem wobec, że druga stała wprowadzona przez Plancka w jakiś tajemny sposób pozwala uniknąć katastrofy w nadfiolecie. Dzieje się tak, ponieważ Planck uznał, że energię należy do celów rachunkowych podzielić na porcje o wielkości h\nu, gdzie \nu jest częstością. W zasadzie Planck traktował to jak pewien wybieg formalny. W sumie jego praca była prawidłowa, ale on sam nie wiedział dlaczego. Jedynie Einstein rozumiał to lepiej, ale choć zaczęto już słuchać, co mówi, nikt nie dawał się jeszcze przekonać. Był urzędnikiem biura patentowego i w tych latach jedynym prawdziwym zwolennikiem teorii kwantowej, zastanawiając się nad kwestiami, które koledzy mieli zrozumieć dopiero za kilka lat.

Na konferencji w Rzymie był także matematyk Gösta Mittag-Leffler, który dowiedział się, że teoria Plancka bynajmniej nie jest pewna, wprowadza bowiem jakieś kwanty energii h\nu. Wrócił z tym do Szwecji i sprawa nagrody dla Maksa Plancka upadła. Otrzymał ją dziesięć lat później właśnie za kwantowanie. A w roku 1908 wygrał kandydat popierany przez Francuzów, Gabriel Lippmann, który wynalazł system fotografii barwnej, pomysłowy, lecz zupełnie niepraktyczny i nigdy na szerszą skalę nie zastosowany. Lippmann był już od dwudziestu lat członkiem Akademii Nauk (do której Maria Skłodowska-Curie nigdy nie weszła) i pozostawił po sobie np. takie zdjęcie papugi.Parrot_photo_made_by_Gabriel_Lippmann_in_1891

Jean Perrin i atomy, 1913

Zeszłoroczne odkrycie bozonu Higgsa przez dwa niezależne zespoły w LHC w CERN-ie ożywiło debatę nad znaczeniem tego wyniku. Z punktu widzenia teoretyków pracujących w dziedzinie cząstek elementarnych sytuacja jest nieco frustrująca: oto potwierdza się model zbudowany jakieś 40 lat temu – mniej więcej tyle, ile trwa profesjonalne życie badacza. Teoretycy przez ten cały czas wciąż pracowali, głównie pod dwoma sztandarami: supersymetrii i teorii strun. Najwybitniejsi, a także najlepiej zabiegający o popularność, badacze stworzyli całe multiświaty różnych wersji tych idei. Oprócz niezliczonych artykułów i monografii napisano całe mnóstwo książek popularnonaukowych, nakręcono trochę filmów. I jest tylko jeden mały kłopot: ta góra nie urodziła nawet myszy. Nie ma jak dotąd żadnych śladów supersymetrii w przyrodzie. Nie ma też żadnych przewidywań teorii strun – to znaczy istnieje ona w tylu wersjach, że pozwala, jak się wydaje, przewidzieć wszystko, trzeba tylko wiedzieć, do jakich faktów należy ją dopasować. Stąd dość ostry czasami ton dyskusji ekspertów. Por. np. blog Not Even Wrong.

Niewykluczone, że mieliśmy w XX wieku niespotykane szczęście do fizyki: udało się bowiem w ciągu tego stulecia poznać elementarne składniki materii, przede wszystkim atomy, których budowa i zachowanie nie ma już przed nami tajemnic. To niesłychanie wiele, jeśli weźmiemy pod uwagę, że praktycznie cała materia wokół nas to właśnie atomy. To także niesłychanie wiele, jeśli pomyśleć, że od starożytności aż do początku wieku XX atomy były właściwie hipotezą, jak cząstka Higgsa do zeszłego roku. Np. radca dworu i profesor uniwersytetu w Wiedniu Ernest Mach uważał, że nauka powinna zajmować się jedynie ekonomicznym i jak najprostszym opisem faktów doświadczalnych. Wobec tego teorie wyjaśniające np. zachowanie gazów za pomocą ruchu niewidocznych atomów uważał za nienaukowe. Pytał szyderczo Ludwiga Boltzmanna, pioniera fizyki statystycznej: „Czy widział Pan może jakiś atom?” Mach był konserwatywny, ale na początku XX wieku nie był zupełnie odosobniony w swoich poglądach, przeciwnikiem atomów był także Wilhelm Ostwald, wybitny chemik.

Okazało się niebawem, że choć samych atomów i cząsteczek chemicznych nie można zobaczyć pod mikroskopem (optycznym), to można obserwować skutki ich chaotycznych, bezładnych ruchów termicznych. Są to ruchy Browna, ruchy cząstek różnych zawiesin (np. dymu). Cząstki te są na tyle wielkie w sensie atomowym, że można je bez trudu obserwować bezpośrednio, a zarazem na tyle małe, by reagować na bombardowanie przez otaczające cząsteczki. Statystyczne charakterystyki ruchów Browna zostały w roku 1905 objaśnione w niezależnych pracach Alberta Einsteina i Mariana Smoluchowskiego. Jean Perrin wykonał słynne doświadczenia, które rozwiały ostatnie wątpliwości co do istnienia atomów. Opisał je kilka lat później w książce Les atomes (1913). Pisze w niej, że w nauce można postępować dwojako. Niektórzy, jak Galileusz czy Sadi Carnot, potrafią wyabstrahować prawa z obserwowanych zjawisk, dostrzegając niewidoczne dla innych analogie czy powiązania. Inni starają się objaśnić skomplikowane zjawiska zakładając ukrytą prostotę na innym poziomie – jest to droga Daltona i Boltzmanna, pionierów atomizmu w XIX wieku.

PerrinPlot2.svg

Tory cząstek mastyksu obserwowanych przez Perrina co 30 s. Jedna podziałka skali równa jest 3,125 μm (Les atomes, s. 165)

Charakterystyczną cechą ruchów Browna jest ich skrajna nieregularność, Perrin pisze, że robiąc obserwacje 100 razy częściej, dostalibyśmy zamiast każdego z odcinków poszarpaną linię łamaną. Tory cząstek nie są regularne w żadnej obserwowanej skali. Zjawisko to ilustruje rysunek poniżej, gdzie różnymi kolorami zaznaczono tory uzyskiwane przy obserwacjach z różnym krokiem czasowym. Przypominają one np. linię brzegową przedstawianą na mapach o różnej skali: im dokładniejsza mapa, tym dłuższa linia brzegowa. Tor cząstki jest fraktalem.

Brownian_hierarchical

Źródło: Wikipedia

Pomiary Perrina przypieczętowały sukces teorii atomowej i pozwoliły wyznaczyć liczbę Avogadro, a tym samym masy atomów. Dwadzieścia lat później powstała mechanika kwantowa, która początkowo miała być tylko teorią atomów, słuszną dla zjawisk w skali energii pojedynczych elektronowoltów (eV), a ostatecznie okazała się skuteczna nawet w skali TeV, czyli 10^{12} razy większej.
W jakimś sensie dzisiejsi fizycy, narzekając na Model Standardowy cząstek, cierpią na zawrót głowy od sukcesów. Miejmy nadzieję, że LHC pozwoli jeszcze odkryć jakąś nową fizykę, inaczej trudno będzie przekonać polityków i podatników do następnych, jeszcze kosztowniejszych projektów tego typu i stagnacja może potrwać długo.