Co maszyny parowe mówią nam o czarnych dziurach? (Carnot, 1824, Hawking 1974)

Termodynamika jest dziedziną zdumiewającą. Wyprowadzone z niej zależności pojawiają się w najróżniejszych dziedzinach fizyki. Pokażemy tu mały przykład: rozumowanie Sadiego Carnota dotyczące sprawności maszyn parowych i pewien eksperyment myślowy zaproponowany przez Roberta Gerocha w 1971 r., który doprowadził do odkrycia niezerowej temperatury czarnych dziur. Pracowało nad tym zagadnieniem kilku uczonych, najważniejszy wkład wnieśli Jacob Beckenstein i Stephen Hawking. Ten ostatni końcową formułę uznał za tak ważną, że pragnął, by mu ją wyryto na nagrobku. Odkrycie to oznaczało, że czarne dziury nie są zupełnie czarne, wysyłają bowiem promieniowanie cieplne i kiedyś, po bardzo długim czasie, wyparują.

Angielski napis: Tu spoczywa to, co było śmiertelne w Stephenie Hawkingu. Słowa powtarzają po angielsku to, co wyryto kiedyś na nagrobku Isaaca Newtona nieopodal: Hic depositum est quod mortale fuit Isaaci Newtoni.

Zaczniemy od Carnota. Sadi, był synem Lazare’a Carnota, generała-matematyka, polityka i organizatora, dzięki któremu armia rewolucyjna odnosiła sukcesy i który później służył Napoleonowi Bonaparte, póki ten nie zdradził ideałów rewolucji dla osobistej władzy. Lazare Carnot napisał znany podręcznik mechaniki maszyn. Jego syn, Sadi, absolwent École Polytechnique, także został inżynierem wojskowym. Nie mógł raczej liczyć na karierę we Francji w czasach restauracji monarchii Burbonów, zajmował więc jakieś niewiele znaczące stanowiska w Sztabie Generalnym i rozwijał się intelektualnie. Mając 27 lat, w 1824 roku opublikował niewielką książeczkę Réflexions sur la Puissance Motrice du Feu (Rozważania o sile poruszającej ognia). Nie została ona doceniona przez współczesnych, a kilka lat później Carnot zmarł na cholerę. Pracę Carnota odkryło dopiero następne pokolenie fizyków, w tym William Thomson, późniejszy lord Kelvin.

Carnot rozumiał, jak ogromną rolę odgrywają maszyny parowe: w jego czasach znajdowały one wciąż nowe zastosowania, zwłaszcza Anglia korzystała na rozpowszechnieniu nowych technologii, bez nich nie byłoby Imperium Brytyjskiego. Toteż Carnot spróbował zbudować naukową teorię wydajności maszyn cieplnych. Posługiwał się zresztą teorią cieplika, nieznana była bowiem jeszcze zasada zachowania energii, lecz rozumowania Carnota można było łatwo zmodyfikować, tak też poniżej zrobimy. Odkrycie Carnota jest równoważne temu, co później stało się II zasadą termodynamiki

Rozumiano oczywiście, że nie może istnieć maszyna, która wiecznie będzie się poruszać: perpetuum mobile. Paryska Akademia nauk w roku 1775 uchwaliła, że zaprzestaje analizowania nadsyłanych wciąż rozwiązań problemu podwojenia sześcianu, kwadratury koła i trysekcji kąta, a także wynalazków umożliwiających wieczny ruch bez napędu z zewnątrz. Problemy geometryczne znane były od starożytności i coraz bardziej się przekonywano, że są nierozwiązalne jako konstrukcje za pomocą liniału i cyrkla. Maszyny parowe (oraz wszelkie silniki cieplne, a także zwierzęta) zamieniają ciepło na pracę. Z dzisiejszego punktu widzenia rzec można, iż zamieniają nieuporządkowany ruch cząsteczek i atomów na uporządkowany ruch tłoka. Tutaj także obowiązuje pewien zakaz: nie można zamienić bez strat ciepła na energię mechaniczną. Czasem mówi się, że niemożliwe jest perpetuum mobile drugiego rodzaju, czyli urządzenie, które pobierałoby ciepło wyłącznie z jednego źródła, a następnie zamieniało je w całości na pracę. Jest to istota II zasady termodynamiki. Gdyby możliwe było np. pobranie z oceanów światowych ilości ciepła odpowiadającej zmianie temperatury o 1 K i zamiana go w całości na pracę, uzyskalibyśmy około 1025 J, czyli mniej więcej sto tysięcy razy więcej, niż roczna produkcja energii elektrycznej na świecie w 2013 roku. Zasada zachowania energii byłaby przy tym spełniona, naruszałoby to jedynie II zasadę termodynamiki.

Carnot podszedł do zagadnienia w duchu kartezjańskim i matematycznym. Pominął wszelkie szczegóły konstrukcyjne, sprowadzając maszynę parową do takiego działania cyklicznego, w którym pobieramy najpierw pewną ilość ciepła Q w wyższej temperaturze, a następnie oddajemy mniejszą ilość ciepła q w temperaturze niższej.

Konieczne są tu obiekty o dwóch różnych temperaturach: źródło ciepła i chłodnica. Intuicyjnie jasne jest, że gdy ciepło przepływa wprost z ciała o wyższej temperaturze do ciała o niższej temperaturze, to tracimy możliwość wykonania użytecznej pracy – mamy do czynienia z procesem nieodwracalnym. Maszyna cieplna o największej wydajności, to taka, w której ciepło przepływa zawsze między ciałami o praktycznie tej samej temperaturze: wystarczy wówczas nieznacznie zmienić jedną z temperatur, by odwrócić kierunek przepływu ciepła. W przypadku silnika cieplnego najpierw należy mu dostarczyć ciepła w sytuacji, gdy substancja robocza (np. para wodna) ma temperaturę nieznacznie mniejszą od temperatury źródła ciepła T_1, następnie wykonuje ona pracę, a potem oddaje pewną ilość ciepła do chłodnicy, przy czym substancja robocza powinna mieć temperaturę nieznacznie tylko wyższą niż T_2. Łatwo wyobrazić sobie odwrócenie takiego cyklu, nasza maszyna pracowałaby wówczas jak lodówka.

Carnot udowodnił, że maszyna odwracalna nie może mieć mniejszej wydajności niż nieodwracalna. Gdyby tak było, moglibyśmy obie maszyny sprząc ze sobą: pierwszą w kierunku normalnym, a drugą działającą odwrotnie (lodówka) i jeszcze uzyskalibyśmy pewną dodatkową pracę zewnętrzną.

Widać z obrazka, że takie urządzenie (niebieski prostokąt) wykonuje cykl, w którym zamienia na pracę ciepło pobrane z chłodnicy, a to jest niemożliwe. Musi więc zachodzić nierówność W\le W', a więc także i wydajność silnika cieplnego

\eta=\dfrac{W}{Q}\le\dfrac{W'}{Q}=\eta_{odwr}.

Ponieważ dwie maszyny odwracalne pracujące między danymi temperaturami muszą spełnić takie nierówności w obie strony, więc muszą mieć jednakową wydajność. Wydajność maszyny odwracalnej jest wyłącznie funkcją obu temperatur. Sprawność takiej maszyny odwracalnej jest granicą teoretyczną wydajności maszyn rzeczywistych i równa jest

\eta_{odwr}=\dfrac{W'}{Q}=1-\dfrac{q'}{Q}=1-\dfrac{T_2}{T_1}.

Ostatnia równość jest zarazem definicją skali temperatur absolutnych. Wprowadził ją Thomson w 1848 roku. Jego oraz Rudolfa Clausiusa uważa się za odkrywców II zasady termodynamiki, odkryli oni na nowo fakty znane Carnotowi, a także rozwinęli tę dziedzinę. II zasadę można sformułować także w ten sposób, że całkowita suma entropii świata rośnie.

Przenosimy się teraz o 150 lat w przód. Wiadomo, że zasady termodynamiki mają zastosowanie powszechne, niezależnie od tego, z jakim obszarem zjawisk mamy do czynienia: elektromagnetyzm, reakcje chemiczne, grawitacja – fizyka nie jest zbiorem niezależnych poddziedzin, lecz spójną całością. W latach szęśćdziesiątych ubiegłego wieku fizycy zrozumieli, że we wszechświecie powinny w pewnych warunkach tworzyć się czarne dziury. Jedną z najważniejszych postaci w tej nowej astrofizyce był John Wheeler, autor określenia „czarne dziury“ i mentor całej plejady wybitnych relatywistów. Jego doktorantem był Ja’akow Beckenstein. Kiedyś Wheeler w niezobowiązującej pogawędce zauważył, że zawsze czuje się jak przestępca, kiedy stawia filiżankę gorącej herbaty obok filiżanki mrożonej herbaty i pozwala im wyrównać temperatury.

Moja zbrodnia zostawia ślad aż po kres czasu i nie ma sposobu, by ją zatrzeć albo odwrócić. Wystarczy jednak, by w pobliżu przepływała akurat jakaś czarna dziura i żebym wrzucił do niej gorącą herbatę i tę mrożoną, a dowody mojej zbrodni zostałyby zatarte na zawsze.

Należy przy tym wyobrazić sobie Johna Wheelera, ubranego w nienaganny garnitur, konserwatystę z przekonań, który rzeczywiście mógłby odczuwać moralny dyskomfort z powodu beztroskiego powiększania entropii świata. Oczywiście treść fizyczna tej wypowiedzi była jak najbardziej serio: znikanie różnych obiektów za horyzontem zdarzeń sprawia, że z bilansu entropii wszechświata znika to, co wpadło do dziury. W ten sposób II zasada termodynamiki traci ważność, bo nie możemy sporządzić pełnego bilansu entropii świata. Wiadomo było, że czarne dziury zacierają jakikolwiek ślad tego, co do nich wpada i jedynym śladem jest zmiana masy, momentu pędu i ładunku dziury. Czy obiekty tak proste mogą być obdarzone entropią, która jest miarą liczby mikrostanów danego obiektu? Wiadomo było dzięki Stephenowi Hawkingowi, że pole powierzchni horyzontu czarnej dziury zawsze rośnie, przypominając pod tym względem entropię. Ale tylko przypominając – nikt bowiem nie chciał uwierzyć, że dziury naprawdę mają entropię. Gdyby miały, powinny też mieć niezerową temperaturę, a każdy obiekt o niezerowej temperaturze wysyła promieniowanie cieplne. Tymczasem dziura ma jedynie pochłaniać cząstki i promieniowanie. 

Robert Geroch przedstawił tę sytuację za pomocą silnika cieplnego. Wyglądałoby to jakoś tak:

Rysunek Louisa Fulgoniego

Napełniamy pudło promieniowaniem o pewnej temperaturze T z dala od dziury tak, że energia promieniowania równa się E. Pudło ma masę m=E/c^2. Następnie powoli opuszczamy na lince nasze pudło. Opuszczaniu masy w polu grawitacyjnym towarzyszy wykonanie pewnej pracy i np. wygenerowanie prądu zasilającego żarówkę, jak na rysunku. Jeśli opuścimy pudło aż do horyzontu zdarzeń, jego energia całkowita stanie się równa zero (jakby do energii spoczynkowej mc^2 doszła energia potencjalna grawitacji równa -mc^2).  Znaczy to, że całą energię E udało nam się zamienić na pracę. Otwieramy teraz pudło, pozwalając promieniowaniu wpaść do dziury i podnosimy z powrotem puste, lekkie pudło. Cykl się zamyka. Stworzyliśmy idealny silnik cieplny.

Jacob Beckenstein, analizując sytuacje takie jak powyższa, pierwszy zasugerował, że czarna dziura powinna mieć entropię i ustalił, jaki wzór powinien ją opisywać. Był wtedy młodym uczonym tuż po doktoracie i musiał wytrzymać ciśnienie zmasowanej krytyki uznanych ekspertów, w tym Stephena Hawkinga. W końcu to Hawking rozstrzygnął problem, wykazując, ku własnemu zdumieniu, że czarne dziury promieniują i obliczył stosowną temperaturę. Praca ta powstała na gruncie kwantowej teorii pola, rozszerzając jej zastosowanie na zakrzywioną czasoprzestrzeń. 

Silnik Gerocha nie ma stuprocentowej sprawności. Jeśli promieniowanie ma temperaturę T, to samo pudło musi mieć rozmiar przynajmniej typowej długości fali L. Najniższe możliwe położenie pudła osiągniemy, gdy jego dolna ścianka dotknie horyzontu zdarzeń. Środek masy pudła znajduje się wtedy na pewnej wysokości L/2 i energia całkowita pudła równa się mgL/2 (g jest natężeniem pola grawitacyjnego na powierzchni horyzontu). 

Toteż praca uzyskana podczas opuszczania pudła równa jest

W=mc^2-mg\dfrac{L}{2},

a sprawność maszyny wynosi

\eta=\dfrac{W}{mc^2}=1-\dfrac{gL}{2c^2}.

Typową długość fali odpowiadającą temperaturze T możemy znaleźć jako warunek równości energii cieplnej k_{B}T (k_B jest stałą Boltzmanna – czyli w zasadzie przelicznikiem energii na temperaturę i odwrotnie) i energii fotonu (jest to też treść tzw. prawa Wiena dla promieniowania cieplnego):

k_{B}T=\dfrac{\hbar c}{L}.

Sprawność silnika przyjmuje więc postać

\eta=1-\dfrac{g\hbar }{2ck_B T}\equiv 1-\dfrac{T_{BH}}{T}.

Z porównania otrzymujemy oszacowanie temperatury Hawkinga

T_{BH}=\dfrac{g\hbar}{2k_B c}.

Oczywiście niezbyt przejmowaliśmy się stałymi liczbowymi, toteż nie należy się spodziewać, że wynik ten będzie dokładny. Wartość dokładna okazuje się mniejsza o czynnik \pi:

T_{BH}=\dfrac{g\hbar}{2\pi k_B c}.

William Unruh udowodnił, że jeśli poruszamy się z przyspieszeniem g w pustej przestrzeni, to zaobserwujemy w naszym układzie odniesienia promieniowanie o takiej temperaturze jak we wzorze Hawkinga. Jest to tzw. efekt Unruh. Zgodnie z zasadą równoważności pole grawitacyjne i przyspieszenie są lokalnie równoważne.

Temperatura Hawkinga w przypadku czarnych dziur o masach astrofizycznych jest skrajnie mała i zdecydowanie poza zasięgiem obserwacji. Osiągnięciem Hawkinga było pokazanie, że i w tym przypadku obowiązuje II zasada termodynamiki. Fakt, że czarna dziura promieniuje, i to tym silniej, im mniejszą ma masę, oznacza, że po bardzo długim czasie czarne dziury wyparują i wszechświat wypełniony będzie samym promieniowaniem. Taki kres wszechświata, według ulubionej hipotezy Rogera Penrose’a, byłby możliwym początkiem następnego wszechświata. 

Żeby otrzymać temperaturę w postaci z nagrobka w Westminster Abbey, należy wstawić za g wartość 

g=\dfrac{GM}{r_S^2},

gdzie r_S to promień Schwarzschilda:

r_S=\dfrac{2GM}{c^2},

a G\, M oznaczają odpowiednio stałą grawitacyjną i masę dziury. Wzór opisujący g jest (przypadkowo) taki sam jak w teorii klasycznej dla grawitacji na powierzchni kuli o promieniu r_S

O temperaturze Hawkinga pisałem już wcześniej.

Masa krytyczna uranu 235: Jakow Borysowicz Zeldowicz i Robert Serber

Naturalny początek tej historii rozgrywa się w Mińsku na Białorusi. W XIX wieku miasto należało do strefy osiedlenia dla Żydów w cesarstwie rosyjskim. Napływali tam m.in. Żydzi wygnani z Petersburga i Moskwy, nie wolno im było mieszkać ani we wsiach, ani w dużych miastach, jak Kijów czy Odessa. Tu i ówdzie powtarzały się pogromy (to rosyjskie słowo stało się z czasem międzynarodowe). Wielu emigrowało, inni trwali. Jednym z emigrantów z Mińska do Stanów Zjednoczonych był Melville Feynman, handlowiec wysoko ceniący wykształcenie: jego dzieci Richard i Joan oboje zostali naukowcami. Richard Feynman jako młody geniusz trafił do Projektu Manhattan w Los Alamos. Kilka lat starszy od Richarda Jakow Zeldowicz urodził się w Mińsku. Jego rodzice, prawnik i tłumaczka, przeprowadzili się do Petersburga i Jakow tam rozpoczął swoją świetną karierę naukową. W jeszcze większym stopniu niż Feynman był samoukiem: nigdy nie skończył studiów. Był podobnie uniwersalny, znał się niemal na wszystkim, należał do najwybitniejszych fizyków rosyjskich, a nie brakowało tam znakomitych ludzi. Nie był tak sławny jak Richard Feynman, ponieważ większość swego twórczego życia pracował w tajnych projektach związanych z bronią jądrową. Dopiero koło pięćdziesiątki, na swoistej emeryturze, zajął się astrofizyką i kosmologią, wnosząc do nich istotny wkład. Zdążył wychować wybitnych uczniów, jak Igor Novikov i Rashid Sunyaev. Słynne telefony Zeldowicza do współpracowników i naukowych znajomych o szóstej rano oraz wielostronicowe listy z rozważaniami naukowymi wspomina wielu uczonych. Stephen Hawking po rozmowach z Zeldowiczem w Moskwie zaczął się zastanawiać nad promieniowaniem czarnych dziur. Novikov zapamiętał swoje pierwsze zetknięcie z Zeldowiczem i niesamowite wrażenie, jakie wywarł na nim starszy uczony, który z miejsca rozumiał wszystko, o czym mu się mówiło. Jego zdolność uczenia się nowych rzeczy zadziwiała. Opowiadał, jak ciekawie jest wejść w nową dziedzinę nauki: trzeba tylko nauczyć się 10% tego, co na dany temat wiadomo, i można zacząć własną pracę. Pracując ciężko, dość szybko osiąga się poziom, przy którym rozumie się 90% prac z danej dziedziny – wtedy należy ją zostawić, bo zrozumienie pozostałych 10% wymaga wielu lat.

Zeldowicz napisał kiedyś nieformalny podręcznik matematyki wyższej dla uczniów i początkujących studentów. Książka wywołała burzę i ataki ze strony matematyków z powodu braku ścisłości. Podejście Zeldowicza było jednak inżynierskie, praktyczne, przypominające rzeczowy stosunek Feynmana do matematyki. Obaj pozostawieni na bezludnej wyspie potrafiliby odtworzyć znaczną część wiedzy matematycznej ludzkości. Niżej przedstawimy prościutkie rozumowania Zeldowicza pozwalające oszacować masę krytyczną uranu. On sam bardzo cenił proste rozważania, które mogą stanowić wstęp do bardziej rozbudowanych teorii i przybliżeń, lubił fizykę uprawianą na odwrocie koperty. W części drugiej pokażemy, jak to samo obliczenie przeprowadzone zostało w wykładach Serbera, stanowiących wstępną informację dla członków Projektu Manhattan. Odtajnione wykłady znaleźć można w sieci jako The Los Alamos Primer.

Wyobraźmy sobie dużą bryłę uranu 235. Biegnący w niej neutron o prędkości v prędzej czy później trafi w jakieś jądro uranu. Pole powierzchni jądra to pole powierzchni koła o promieniu r_0\approx 10^{-12}\mbox{ cm}. Tylko pewien ułamek zderzeń kończy się rozszczepieniem, oznaczmy go przez \alpha. Z punktu widzenia rozszczepienia jądro uranu ma więc pole przekroju

\sigma=\alpha \pi r_0^2\approx 1,6\cdot 10^{-24}\mbox{ cm}^2,

gdzie przyjęto \alpha=\frac{1}{2}. W krótkim czasie dt neutron przebiegnie drogę v dt i może zderzyć się z jądrami znajdującymi się w objętości walca \sigma v dt. Jeśli oznaczymy przez N liczbę jąder uranu na jednostkę objętości, średnia liczba zderzeń z jądrami w czasie dt równa będzie N\sigma v dt. Załóżmy, że w naszej bryle znajduje się n neutronów, po każdym rozszczepieniu przybywa \nu neutronów, a ubywa jeden neutron pochłonięty przez jądro. Liczba aktów rozszczepienia w krótkim czasie jest więc równa

dn=(\nu-1)N\sigma v n dt\Rightarrow \dfrac{dn}{dt}=\dfrac{\nu-1}{\tau}n, \mbox{ gdzie } \dfrac{1}{\tau}=N\sigma v.

Oznacza to, że liczba neutronów rośnie wykładniczo:

n(t)=n_0\exp{\dfrac{(\nu-1)t}{\tau}},

jeśli tylko \nu>1, co jest warunkiem reakcji łańcuchowej: powstaje więcej neutronów, te zaś wywołują jeszcze więcej rozpadów itd.

Typowa prędkość neutronów w rozszczepieniu równa jest v\approx 2\cdot 10^{9} \mbox{cm/s}, liczba jąder na jednostkę objętości równa jest N=4\cdot 10^{22}\mbox{ cm}^{-3} (Łatwo obliczyć tę wielkość, znając gęstość uranu, która równa jest 18 \mbox{g/cm}^3 oraz liczbę Avogadro: 235 g uranu to 6\cdot 10^{23} atomów). Liczba tworzących się neutronów równa jest średnio \nu=2,5. Otrzymujemy więc

\dfrac{\tau}{\nu-1}=5\cdot 10^{-9}\mbox{ s}.

Oznacza to bardzo gwałtowny wzrost liczby neutronów i aktów rozszczepienia, w ciągu 1\mu s=10^{-6} s jest to wzrost o czynnik 10^{88}, a ponieważ nawet 1 tona uranu to mniej niż 10^{28} jąder, więc nawet zaczynając od jednego neutronu, rozszczepienie objęłoby tę objętość uranu w czasie poniżej mikrosekundy. Jest to wybuch.

Zakładaliśmy, że nasz blok uranu jest duży, to znaczy każdy uwolniony neutron prędzej czy później natrafia na jakieś jądro i inicjuje rozszczepienie. Gdy nasza objętość jest mniejsza, musimy wziąć pod uwagę ucieczkę neutronów na zewnątrz. Ucieczka ta będzie zachodzić przez powierzchnię, więc najlepiej, gdy nasza bryła ma najmniejsze pole powierzchni przy danej objętości – znaczy to, że musi ona być kulista. W czasie dt uciekną neutrony z warstwy o grubości v dt przy powierzchni. Założymy też, że wszystkie neutrony (w liczbie n) rozłożone są równomiernie w objętości kuli o promieniu r. Wówczas zmiana liczby neutronów w czasie dt równa jest

dn=-\dfrac{n}{\frac{4}{3}\pi r^3}\cdot v dt \cdot 4\pi r^2=-n \dfrac{3v}{r} dt\Rightarrow \dfrac{dn}{dt}=-\dfrac{3kv}{r}n.

W ostatnim równaniu wprowadziliśmy pewien czynnik poprawkowy k<1 związany z tym, że nie wszystkie neutrony z warstwy przypowierzchniowej mają prędkości na zewnątrz, a także z tym, że zapewne gęstość neutronów przy powierzchni będzie mniejsza niż w głębi. Ucieczka neutronów prowadzi do wykładniczego zaniku ich liczby. Przy uwzględnieniu obu rozważanych wyżej czynników: mnożenia się oraz ucieczki, otrzymujemy równanie

\dfrac{dn}{dt}=\left(\dfrac{\nu-1}{\tau}-\dfrac{3kv}{r}\right) n.

Gdy znak wyrażenia w nawiasie jest dodatni, otrzymujemy wybuch. Wartość graniczna promienia określa masę krytyczną:

R=\dfrac{3kv\tau}{\nu-1}\equiv \dfrac{3k\lambda}{\nu-1}.

Ostatnia równość definiuje drogę swobodną neutronów \lambda=v\tau. Promień kuli krytycznej jest więc równy k\cdot 30\mbox{ cm}. Ponieważ k\approx 0,3, więc R\approx 9 \mbox{cm}, co odpowiada masie około 50 kg.

Zobaczmy, jak tę samą sytuację opisał Robert Serber. Wprowadzamy koncentrację neutronów P zależną od czasu i położenia w próbce. Równanie ciągłości, czyli warunek zachowania liczby neutronów, należy zmodyfikować tak, by uwzględniał tworzenie się nowych neutronów w rozszczepieniu. Załóżmy najpierw, że P zależy jedynie od współrzędnej x.

Rozpatrując objętość materiału o jednostkowym polu powierzchni przekroju i grubości dx, możemy zapisać:

\dfrac{\partial P}{\partial t}dx=P\dfrac{\nu-1}{\tau}dx-[j_x(x+dx)-j_x(x)],

gdzie j_x jest strumieniem cząstek w kierunku x. (Sens tego równania jest czysto buchalteryjny: przyrost liczby neutronów w zakreślonym obszarze wynika albo stąd, że one tam powstały, albo stąd, że wpłynęły z lewej bądź z prawej strony). Dzieląc obie strony przez dx, otrzymujemy

\dfrac{\partial P}{\partial t}=\dfrac{\nu-1}{\tau}P-\dfrac{\partial j_x}{\partial x}.

Zakładając następnie, że cząstki dyfundują z obszarów o większej gęstości do obszarów o mniejszej gęstości w zwykły sposób (prawo Ficka), mamy

j_x=-D\dfrac{\partial P}{\partial x }.

Stała D to stała dyfuzji. Możemy też zapisać równanie ciągłości zwięźlej w postaci:

\dfrac{\partial P}{\partial t}=\dfrac{\nu-1}{\tau} P+D \dfrac{\partial^2 P}{\partial x^2}.

Dla zmian we wszystkich kierunkach ostatnie równanie powinno być uogólnione w oczywisty sposób:

\dfrac{\partial P}{\partial t}=\dfrac{\nu-1}{\tau} P+D \left( \dfrac{\partial^2 P}{\partial x^2}+\dfrac{\partial ^2 P}{\partial y^2}+\dfrac{\partial^2 P}{\partial z^2}\right).

Wyrażenie w nawiasie to laplasjan, otrzymaliśmy równanie dyfuzji w obecności źródeł cząstek: u nas takim źródłem są neutrony już istniejące w danej objętości materiału. Optymalnym kształtem jest nadal kula uranu, wówczas rozkład gęstości neutronów powinien zależeć jedynie od odległości od jej środka \varrho. Jeśli przyjąć, że funkcja P jest ma postać

P(\varrho, t)=\exp{\dfrac{\nu'}{\tau}}f(\varrho),

gdzie znak parametru \nu' przesądza o tym, czy mamy do czynienia z wybuchem, czy z wykładniczym zanikaniem neutronów. Równanie dyfuzji przybiera postać

\Delta f+\dfrac{\nu-1-\nu'}{D\tau}f=0.

Najprostsze rozwiązanie sferycznie symetryczne otrzymamy, korzystając z równości

\Delta \left(\dfrac{\sin k\varrho }{\varrho } \right)=-k^2 \dfrac{\sin k\varrho }{\varrho}.\mbox{(*)}

Nasze równanie sprowadza się wtedy do równania algebraicznego

-k^2+\dfrac{\nu-1-\nu'}{D\tau}=0.

Aby znaleźć parametr k, musimy nałożyć warunki brzegowe: nasze rozwiązanie ma być skończone, zażądajmy też, aby f(R)=0=\sin kR , tzn. gęstość neutronów na powierzchni kuli ma spadać do zera. Mamy więc w najprostszym przypadku kR=\pi (oczywiście istnieją inne miejsca zerowe funkcji sinus, ale dla nich gęstość neutronów by oscylowała wzdłuż promienia, przyjmujemy, że są one niefizyczne).

Chcąc otrzymać warunek krytyczny, musimy zażądać także, aby \nu'=0, otrzymamy wówczas:

R^2=\dfrac{\pi^2 D\tau}{\nu-1}.

Możemy porównać oba warunki, pamiętając, że D=\frac{1}{3}\lambda v, promień krytyczny przybierze postać

R=\dfrac{\pi\lambda}{\sqrt{3(\nu-1)}}.

Nasza teoria zakłada zbyt gwałtowny spadek gęstości neutronów przy powierzchni, w dokładniejszych rozważaniach należałoby to poprawić. Zgromadzenie masy krytycznej materiału rozszczepialnego nie rozwiązuje problemu bomby atomowej, jest jedynie informacją o rzędzie wielkości. W praktyce okazuje się, że w trakcie gwałtownego wybuchu objętość materiału rośnie, a z nią rośnie także droga swobodna neutronów. W rezultacie nie jest łatwo wykorzystać całą energię materiału rozszczepialnego. Bomba, która spadła na Hiroszimę, wykorzystała energię rozszczepienia zaledwie 1 kg uranu 235, potem reakcja się spontanicznie zatrzymała.

(*) Laplasjan dla symetrii sferycznej można zapisać jako

\Delta f=\dfrac{1}{\varrho}\dfrac{\partial^2(\varrho f)}{\partial \varrho^2},

Łatwo sprawdzić, że funkcje \varrho f=\sin k \varrho oraz \varrho f=\cos k\varrho przechodzą na same siebie pod działaniem laplasjanu (są funkcjami własnymi laplasjanu). Tylko pierwsza z nich jest skończona wewnątrz kuli.

 

 

 

 

 

 

Einstein w „Scientific American“ (1950)

Einstein był pierwszym uczonym, który doświadczył siły mediów, za jego czasów były to głównie gazety i radio, choć występował też trochę w telewizji pod koniec życia. Ponieważ był sławny, kilkakrotnie o jego nowych pracach pisała światowa praca, np. „New York Times“. Dziennikarze wietrzyli sensację i opatrywali swe doniesienia nagłówkami w rodzaju: Einstein na progu nowego odkrycia, albo: Einstein atakuje teorię kwantową.

EPR_NYT_05-04-1935

W pierwszym przypadku, w roku 1929, Pruska Akademia Nauk musiała zrobić dodruk artykułu Einsteina, zamiast zwykłych kilkuset egzemplarzy, rozeszło się 4000, a angielski dom towarowy Selfridges umieścił sześć stron pracy w oknie wystawowym. W drugim przypadku, winę ponosił jego współpracownik, Boris Podolsky, któremu Einstein nie omieszkał zmyć głowy.

W odróżnieniu od swoich następców trzymał się jednak zasady, aby nie ogłaszać prac za pomocą gazet. Dziś komunikaty medialne zastępują czasem same prace, jak stało się z wystąpieniem Stephena Hawkinga parę tygodni temu. Hawking ogłosił, że rozwiązał problem, który trapił go od czterdziestu lat: co się dzieje z informacją połykaną przez czarną dziurę. Zaproszeni dziennikarze już czekali, media na świecie obiegła wiadomość, że oto genialny fizyk rozwiązał jeden z najważniejszych problemów. Naprawdę jednak współpracownicy Hawkinga, Malcolm Perry i Andrew Strominger, nie sądzą, jak się wydaje, aby problem był już rozwiązany, a praca, o której mowa, jest na razie niekwantowa i dopiero się pisze. Fizycy niezwiązani z tą pracą raczej nie widzą żadnego przełomu i zapewne go nie będzie. Hawking podtrzyma wizerunek wizjonera-geniusza, za jakiś czas wszyscy zapomną.

Inną stosowaną dziś szeroko praktyką jest popularyzowanie bardzo spekulatywnych teoriach, niemających cienia potwierdzenia, w taki sposób, jakby wszystko zostało już przesądzone. Wprowadza to w błąd niespecjalistów. Człowiek mógłby pomyśleć, że np. wieloświat albo jedenastowymiarowa czasoprzestrzeń teorii strun to naukowy fakt. Skrajnym przykładem takiego postępowania był artykuł w „Świecie nauki“ w roku 2004 o krajobrazie teorii strun. Autorzy, bardzo wybitni uczeni zresztą, piszą tam:

W krajobrazie stworzonym przez teorię strun jest miejsce na niezliczone wszechświaty. Każda z niemal nieskończenie wielu (być może nawet 10^{500}) składających się nań dolin odpowiada pewnemu zestawowi praw obowiązujących w wielkim bąblu przestrzeni.

Dopiero pod koniec znajdziemy tam słowa:

Z obrazem, który przedstawiliśmy wiąże się wiele wątpliwości. Przede wszystkim nie udało się jeszcze sformułować precyzyjnie teorii strun.

Dodać możemy, że po 11 latach sytuacja wcale się nie poprawiła. Nadal są to czyste spekulacje, może ciekawe, lecz wciąż oczekujące na jakikolwiek ślad zgodności z doświadczeniem.

Znajdując się w podobnej sytuacji, Einstein, bądź co bądź praojciec spekulatywnych teorii, napisał w roku 1950 w „Scientific American“:

Co do mojej ostatniej pracy teoretycznej, to nie sądzę, by usprawiedliwione było szczegółowe jej przedstawianie wobec szerokiego kręgu czytelników zainteresowanych nauką. Powinno się to robić jedynie w przypadku teorii, które zostały dostatecznie potwierdzone przez doświadczenie.

Warto może przytoczyć fragment owego artykułu:

Co zatem popycha nas do wymyślania teorii za teorią? Czemu w ogóle wymyślamy teorie? Odpowiedź na to drugie pytanie jest prosta: ponieważ sprawia nam przyjemność „rozumienie”, tzn. sprowadzanie zjawisk za pomocą operacji logicznych do czegoś już znanego bądź (pozornie) oczywistego. Nowe teorie konieczne są w pierwszym rzędzie wówczas, gdy napotykamy fakty, które nie mogą zostać „wyjaśnione” przez teorie dotychczasowe. Jest także drugi, bardziej subtelny, choć nie mniej ważny powód. Jest nim dążenie do unifikacji i uproszczenia założeń teorii jako całości (np. Macha zasada ekonomii, rozumiana jako zasada logiczna).

Istnieje pasja rozumienia, tak jak istnieje pasja do muzyki. Pasja ta jest raczej zwykła u dzieci, lecz u większości ludzi zanika z wiekiem. Bez tej pasji nie byłoby matematyki ani nauk przyrodniczych. Co jakiś czas na nowo pasja rozumienia doprowadzała do iluzji, iż człowiek zdolny jest zrozumieć świat obiektywny w sposób racjonalny, za pomocą czystej myśli, bez podstaw empirycznych – krótko mówiąc: dzięki metafizyce. Wierzę, że każdy prawdziwy teoretyk jest czymś w rodzaju poskromionego metafizyka, bez względu na to jak bardzo sam się uważa za umysł czysty lub „pozytywistyczny”. Metafizyk wierzy, iż to, co jest logicznie proste, jest także rzeczywiste. Poskromiony metafizyk wierzy, że choć nie wszystko, co jest logicznie proste, zostało wcielone w doświadczaną przez nas rzeczywistość, to jednak całość zmysłowego doświadczenia może zostać „zrozumiana” za pomocą systemu pojęciowego zbudowanego na założeniach o wielkiej prostocie. Sceptyk powie, że jest to „wiara w cuda”. Niewątpliwie tak, lecz taka wiara w cuda została w zdumiewającym stopniu potwierdzona rozwojem nauki.

Dobrym przykładem jest rozwój atomizmu. W jaki sposób Leukippos powziął tak śmiałą ideę? Gdy woda zamarza staje się lodem – czymś pozornie całkiem odmiennym od wody – czemu więc stopienie się lodu tworzy coś, co wydaje się nieodróżnialne od wody na początku? Leukippos jest zaintrygowany i szuka „wyjaśnienia”. Dochodzi do wniosku, że w tych przemianach „istota” bytu wcale się nie zmieniła. Może byt składa się z niezmiennych cząstek i zmiana sprowadza się tylko do zmiany ich przestrzennego rozmieszczenia. Czy to samo nie może być prawdą w odniesieniu do wszystkich przedmiotów materialnych, które przejawiają wciąż od nowa niemal identyczne własności?

Idea ta nie została zupełnie zapomniana podczas długiej hibernacji myśli zachodniej. Dwa tysiące lat po Leukipposie [Daniel] Bernoulli zastanawia się, czemu gaz wywiera ciśnienie na ścianki naczynia. Czy należy to „wyjaśnić” wzajemnym odpychaniem cząstek gazu w sensie mechaniki Newtonowskiej? Hipoteza taka wydaje się absurdem, ponieważ ciśnienie gazu zależy od temperatury, jeśli wszystkie pozostałe warunki pozostaną niezmienione. Założenie, że Newtonowskie siły oddziaływań zależą od temperatury, sprzeczne jest z duchem mechaniki Newtona. Ponieważ Bernoulli zna koncepcję atomistyczną, więc musi dojść do wniosku, że atomy (albo cząsteczki) zderzają się ze ściankami i w ten sposób wywierają ciśnienie. Wystarczy więc tylko przyjąć, że atomy są w ruchu; jak inaczej uwzględnić zmiany temperatury? (…)

Przykład ten zilustrować ma dwie rzeczy. Idea teoretyczna (jak w tym przypadku atomizm) nie powstaje oddzielnie i niezależnie od doświadczenia; nie może też być z doświadczenia wywiedziona za pomocą procedury czysto logicznej. Powstaje dzięki aktowi twórczemu. Kiedy już mamy tego rodzaju ideę, postąpimy słusznie, trzymając się jej, póki nie prowadzi nas do wniosków, których nie daje się utrzymać.

Einstein omawia swoją motywację do zbudowania jednolitej teorii pola, mówi trochę o jej ostatniej wersji, zauważając:

Sceptyk powie: „Może to nawet i prawda, że ten układ równań jest rozsądny z punktu widzenia logiki. Lecz nie dowodzi to, iż opisuje przyrodę”. Masz rację, drogi sceptyku. Tylko doświadczenie może przesądzić o prawdziwości. Coś jednak osiągnęliśmy, jeśli udało nam się sformułować sensowne i precyzyjne pytanie.