D.A. Henderson, synek Franklina i racjonalność decyzji o szczepieniu

W roku 2016 zmarł D.A. Henderson, epidemiolog, który walnie przyczynił się do zlikwidowania ospy na świecie. Był to wynik wieloletniej planowej pracy zespołu ludzi, którymi kierował najpierw w amerykańskiej CDC, a później w WHO. Fachowcy mówią, że to największy wymierny sukces w historii medycyny. Dramatem naszego świata jest fakt, że ludzie tacy jak on są niezbyt znani w przeciwieństwie do różnej maści celebrytów, skandalistów i kokainistów płci obojga.  OB-Henderson__13981471621450

Pisałem o epidemii w roku 1721 w Bostonie i tragicznym losie małego synka Benjamina Franklina. Stosując rachunek prawdopodobieństwa, nietrudno uzasadnić racjonalność decyzji o szczepieniu nawet przy niepełnych danych z XVIII wieku. Musimy pamiętać, że ówczesne szczepienie, tzw. inokulacja albo wariolizacja, różniły się od późniejszej metody. Zaszczepiano bowiem ludziom ospę ludzką, co w niektórych przypadkach kończyło się śmiercią. Dopiero pod koniec stulecia Edward Jenner odkrył, że bezpieczniejsze jest zaszczepianie ludziom ospy krowiej.

Zazwyczaj w podręcznikach matematyki mamy do czynienia z urnami, z których wyciąga się kule i w zależności od tego, co wyciągniemy, pojawiają się różne możliwości i budujemy drzewo rozmaitych ewentualności. Szczepienia są przykładem lepiej chyba przemawiającym do wyobraźni niż losowania białych i czarnych kul z urny.

Oto dane dla epidemii w Bostonie w roku 1721.

  • Liczba ludności miasta: 10 700
  • Poddanych inokulacji 281, z czego 6 zmarło
  • Spośród niepoddanych inokulacji 4917 zachorowało i przeżyło, 842 osoby zachorowały i zmarły, a 4654 osoby w ogóle nie zachorowały

Będziemy prawdopodobieństwa przybliżać częstościami, zazwyczaj nie mamy na to lepszego sposobu, należy pamiętać, że dane pochodzące z niewielkiej próby mogą się okazać niedokładne i dysponując większą statystyką, otrzymalibyśmy nieco inne wyniki. Mamy więc prawdopodobieństwo zgonu po inokulacji równe 6/281=0,021 i przeżycia inokulacji 1-0,021=0,979.

Prawdopodobieństwo zgonu wśród niepoddanych inokulacji oraz zarażonych jest równe 842/(842+4917)=0,146, a prawdopodobieństwo przeżycia w tej samej grupie równa się 1-0,146=0,854.

Prawdopodobieństwo zarażenia osoby niepoddanej inokulacji możemy próbować oszacować na podstawie naszych danych jako (4917+842)/(4654+4917+842)=0,553. Jest to szacowanie z dołu: musimy pamiętać, że część spośród 4654 osób, które nie zachorowały, przeszła już kiedyś ospę i była uodporniona na resztę życia. Jeśli prawdopodobieństwo zarażenia osoby, która nie przeszła ospy, oznaczymy przez x, mamy następujące drzewo możliwości.

qc23465.f1

Rysunek z pracy M Best, A Katamba, and D Neuhauser, Making the right decision: Benjamin Franklin’s son dies of smallpox in 1736.

Jeśli przyjmiemy x=0,553, to prawdopodobieństwo przeżycia bez inokulacji będzie równe (1-x)+x cdot 0,854=0,919. Jak widać, wartość ta jest mniejsza od prawdopodobieństwa przeżycia inokulacji, zatem statystycznie biorąc, zabieg ten zwiększa szanse przeżycia. Gdybyśmy mieli więcej informacji, wartość x mogłaby się okazać jeszcze większa, a to by oznaczało, że prawdopodobieństwo przeżycia bez inokulacji jest jeszcze mniejsze (można zapisać to prawdopodobieństwo jako 1-x+0,854x=1-0,146x, jest to więc malejąca funkcja zmiennej x).

Można też się zastanowić, jaka musi być najmniejsza wartość x, żeby inokulacja była racjonalnym zabiegiem. Granicą racjonalności będą równe prawdopodobieństwa zgonu: xcdot 0,146=0,021, skąd x> 0,144. Ponieważ dane wskazują, że prawie na pewno ostatni warunek jest spełniony, inokulacja jest racjonalnym zabiegiem.

Nie mamy, niestety, danych dla epidemii w 1736 roku w Filadelfii, gdzie mieszkał Benjamin Franklin z rodziną. Mamy jednak dane dla późniejszej epidemii w Bostonie w roku 1752.

  • Boston liczył wówczas 15 684 mieszkańców
  • 5998 osób przeszło już ospę i nie musiało się jej obawiać
  • 2124 osoby poddały się inokulacji (znacznie więcej niż w roku 1721), 30 z nich zmarło
  • 1843 osoby uciekły na wieś, by przeczekać epidemię, nie wiemy, jak wiele spośród nich zmarło.
  • 5719 osób nie poddało się inokulacji ani nie uciekło; 97% spośród nich zachorowało, a 539 zmarło

Prawdopodobieństwo zgonu po inokulacji równe jest 30/2124=0,014; prawdopodobieństwo przeżycia: 0,986. Wartości zbliżone są do tego, co otrzymaliśmy wyżej dla roku 1721.

Wśród niezaszczepionych i narażonych na zachorowanie śmiertelność była równa 539/(0,97cdot 5719)=0,097, prawdopodobieństwo przeżycia choroby równało się 1-0,097=0,903. Oznaczało to, że nie robiąc nic, ma się prawdopodobieństwo przeżycia 0,03+0,97cdot 0,903=0,906. Należy porównywać to z wartością 0,986 dla zaszczepionych. Inokulacja była więc znacznie lepszą decyzją.

Statystyka z roku 1752 obejmuje jeszcze możliwość ucieczki z miasta. Była to najprostsza metoda unikania chorób epidemicznych i kogo było na nią stać, ten ją stosował. Nie znamy prawdopodobieństwa zachorowania wśród tych, co uciekli. Oznaczmy je przez y. Mamy więc następujące drzewo możliwości.

qc23465.f2

(Rysunek z pracy jw.)

Można zadać pytanie, jakie powinno być y, aby ucieczka była lepszym wyjściem niż pozostanie w Bostonie i poddanie się inokulacji. Prawdopodobieństwo zgonu osoby uciekającej to 0,097y, należy je porównać z prawdopodobieństwem zgonu po inokulacji, równym 0,014. A zatem, jeśli y< 0,144, to ucieczka jest racjonalna. Trudno jest oczywiście oszacować wartość y, zależy ona np. od tego, czy uciekniemy, zanim jeszcze epidemia się rozwinie, czy w jej późniejszej fazie (choroba ma pewien okres inkubacji, możemy więc wyjeżdżając czuć się dobrze mimo zarażenia). W dodatku uciekając, nadal nie mamy odporności na ospę, a w Bostonie w ciągu osiemnastego wieku większe epidemie wystąpiły w latach 1721, 1730, 1752, 1764, 1776, 1778 oraz 1792. Można się było spodziewać, że za kilkanaście lat choroba znów się pojawi.

Zabdiel Boylston, czarna ospa w Bostonie i siła charakteru (1721-1722)

W XX wieku czarna ospa zabiła 300 mln. ludzi – trzy razy więcej niż zginęło w obu wojnach światowych. I w tym samym XX wieku udało się tę chorobę wyeliminować. Można, oczywiście, buntować się przeciwko nowoczesnej cywilizacji, ale żadna z tych 300 mln osób nie zrozumiałaby, o co nam właściwie chodzi. Nie ma jednak szczepionki przeciwko głupocie i w naszych światłych czasach dzieci chorują albo będą chorować na rozmaite groźne przypadłości jedynie dlatego, że ich rodzice albo rodzice ich kolegów są podejrzliwymi idiotami, którzy sądzą, że wiedzą lepiej niż eksperci.

W XVIII wieku nie znano przyczyn ani mechanizmu szerzenia się ospy, jasne było tylko, że jest to choroba zakaźna. Ponieważ objawy występują dopiero po 12 dniach, więc izolacja chorych była na ogół spóźniona i zdążyli oni już zarazić osoby, z którymi się stykali. Wiadomo też było z obserwacji, że ci, którzy przeszli chorobę i przeżyli, byli na nią później odporni. Ryzyko było tak duże, że w Anglii w XVII wieku był zwyczaj, by nie zapisywać majątku dzieciom, zanim nie przeszły ospy, ponieważ ich przyszłość była wciąż bardzo niepewna. Spośród tych, co przeżyli, wielu było oślepionych albo oszpeconych na całe życie. Jedną z takich osób, których urodę zniszczyła ospa, była Mary Wortley Montagu, arystokratka, pisarka (sama nauczyła się łaciny w ojcowskiej bibliotece) i żona ambasadora brytyjskiego w Konstantynopolu. Dowiedziała się ona o praktyce wariolizacji stosowanej w imperium osmańskim: pobierano płyn z pęcherzyków na skórze chorego i zaszczepiano go osobom zdrowym. Pacjenci chorowali wówczas na ogół w sposób łagodny, nabywając przy tym odporności. Nie zawsze wariolizacja przynosiła pożądane efekty, zdarzały się przy jej stosowaniu wypadki śmiertelne. Montagu propagowała tę metodę w Londynie, przekonując m.in. księżnę Walii Karolinę do zaszczepienia dzieci. Metoda była kontrowersyjna. Wyglądała na jakiś rodzaj zabobonu, w dodatku przychodziła do Europy z krajów niecieszących się zaufaniem w sprawach medycznych i naukowych: stosowano ją na Kaukazie, w Afryce. W Konstantynopolu szczepieniami zajmowały się zwykle stare kobiety, co też nie wyglądało wiarygodnie w oczach Zachodu. Z punktu widzenia dzisiejszej wiedzy wariolizacja stanowiła postęp, lecz była obarczona ryzykiem. Dopiero pod koniec XVIII wieku Edward Jenner wynalazł skuteczną odmianę tej metody szczepienia: należy zaszczepiać ospę krowią, pacjenci wówczas nie chorują i nabierają odporności na ospę ludzką. Także i wtedy nie rozumiano, dlaczego szczepienie jest skuteczne i jak działa, opierano się wyłącznie na obserwacjach.

W kwietniu 1721 roku do Bostonu, stolicy Massachusetts, zawinął okręt „Seahorse”, płynący z Barbadosu. Jeden z członków załogi zachorował na ospę i został odizolowany w domu z czerwoną ostrzegawczą flagą. Później zachorowali także inni marynarze z tej jednostki i stało się jasne, że kwarantanna nie wystarczy, ponieważ choroba zdążyła się już rozprzestrzenić. Ówczesny Boston był małym miastem, liczącym sobie około jedenastu tysięcy mieszkańców. Rządy duchowe sprawowała w nim dynastia purytańskich ministrów: wiekowy Increase Mather i jego dobiegający sześćdziesiątki syn, Cotton Mather. Obaj zapisali się poprzednio w annałach ścigania czarownic i czarowników: to za ich aprobatą toczyła się sprawa w Salem w roku 1692. Wszechstronnie wykształcony w Ameryce i w Anglii, Cotton Mather, członek Towarzystwa Królewskiego, był zarazem ciasnym bigotem, głęboko wierzącym w realność i szkodliwość czarów. W swym dziele Pamiętne zrządzenia opatrzności opisywał przypadek irlandzkiej praczki, niejakiej Glover, która jako czarownica nękała pobożną rodzinę Goodwinów, którzy podczas owych diabelskich ataków głuchli, niemieli, ślepli albo wszystko to na raz. Mather przyczynił się do prześladowań w Salem, choć zarazem podkreślał potrzebę niezbitych dowodów w każdym przypadku. Teraz, wobec zagrożenia ospą, także starał się interweniować i tym razem jego wpływ okazał się jednoznacznie korzystny. Mather przekonany był bowiem do wariolizacji: czytał o niej wcześniej w „Transactions of the Royal Society”, miał też w domu niewolnika z Afryki, który mu opowiadał o tej metodzie. Minister skierował do lekarzy bostońskich pismo przedstawiające zalety wariolizacji. Medycy zareagowali wrogo, obawiając się, że wskutek wariolizacji epidemia jeszcze bardziej się rozszerzy. Wrogo też reagowali niektórzy duchowni. Ich zdaniem człowiek nie powinien ingerować w naznaczony przez Boga bieg wypadków. Znaleziono nawet pierwowzór wariolizacji w Księdze Hioba: „Odszedł szatan sprzed oblicza Pańskiego i obsypał Hioba trądem złośliwym, od palca stopy aż do wierzchu głowy. [Hiob] wziął więc skorupę, by się nią drapać siedząc na gnoju” (Hi 2, 7-8). A więc także Pismo św. wskazywało więc wyraźnie, że nie należy nikogo szczepić. Pismo św, jak zawsze, wskazuje we wszystkich kierunkach jednocześnie.

Jedynie chirurg Zabdiel Boylston gotów był spróbować wariolizacji. Nie miał on wykształcenia akademickiego, uczył się medycyny od swego ojca i innego jeszcze lekarza, w Ameryce nie było zresztą żadnej szkoły medycznej. Boylston dał się poznać jako sprawny chirurg, który nie obawiał się przeprowadzać ryzykownych operacji, jak usuwanie kamieni żółciowych czy pierwsza mastektomia w Ameryce. Operacje przeprowadzało się bez znieczulenia, należało wszystko robić błyskawicznie, żeby pacjent nie zmarł wskutek szoku i upływu krwi. Później groziły mu oczywiście wszelkie infekcje, Boylston był ponoć pedantycznie czysty i zapewne pomagało to jego pacjentom (nikt wówczas nie kojarzył chirurgii z czystością). Pierwsze szczepienia ospy przeprowadził na własnym synu oraz parze swych niewolników: ojcu i synu. Wszyscy trzej przeżyli. Boylston zaczął więc stosować tę metodę, choć przyjmowano to wrogo i lekarz obawiał się o swe bezpieczeństwo. W pewnym momencie rada miejska oficjalnie zakazała mu tych praktyk. Nie ujął się też za nim Mather, nie do końca chyba przekonany do wariolizacji (nie zaszczepił np. własnego syna). Ostatecznie Boylston przeprowadzał szczepienia na niezbyt dużą skalę, tylko u pacjentów, którzy sami się z tym do niego zwracali. Był także ostro krytykowany w miejscowej prasie. W tygodniowej gazecie wydawanej przez Jamesa Franklina (terminował u niego wtedy młodszy brat, Benjamin, który z czasem miał zostać najsławniejszym uczonym Ameryki) szczepienia atakowano jako szkodliwy przesąd. W pewnym stopniu postawa gazety wynikała z jej opozycyjności: James Franklin był przeciwny rządom Mathera i atmosferze moralnego terroru wprowadzanej przez purytanów, nietrudno więc było go przekonać, że duchowny także i tym razem broni jakichś przesądów. Ostatecznie w ciągu niecałego roku zachorowało w Bostonie około 6000 osób – ponad połowa ludności (około tysiąca bogatszych wyjechało na wieś i tam przeczekali epidemię). Zmarły w tym czasie na ospę 844 osoby, czyli 14% zainfekowanych. Za Boylstonem przemawiały liczby: spośród 286 osób, jakie zaszczepił, zmarło jedynie sześć. W dodatku nie zawsze było jasne, czy osoby te były zdrowe w momencie wariolizacji, być może choroba już się u nich rozwijała, lecz nie dawała jeszcze widocznych objawów. Tak czy inaczej było to tylko 2,4% – statystycznie biorąc, wariolizacja działała.

smallpox account-x

Doświadczenia swe Boylston opisał w książce, przyjęto go też do Towarzystwa Królewskiego. Wariolizację zaczęto, choć z oporami, uznawać. Nabrał do niej przekonania także Benjamin Franklin, choć obawiał się związanego z nią ryzyka. Pisze w swej autobiografii:

W roku 1736 straciłem jednego z mych synów, pięknego czteroletniego chłopca. Umarł na ospę, którą się w zwykły sposób zaraził. Długo i gorzko żałowałem potem i nadal żałuję, że nie kazałem go szczepić. Wspominam o tym ku przestrodze rodziców, którzy nie szczepią swych dzieci z obawy, że mogłyby wskutek tego umrzeć, czego nigdy nie mogliby sobie wybaczyć. Mój przykład świadczy, że żałować trzeba nieraz i w przeciwnym wypadku, a wobec tego lepiej wybierać drogę bezpieczniejszą. (przeł. J. Stawiński)

Grawitacja: Newton na ramionach Hooke’a? (1679-1680) (2/2)

Newton zastał list Hooke’a po powrocie do Cambridge. Ostatnie pół roku spędził w swych stronach rodzinnych w Lincolnshire: w czerwcu zmarła jego matka, potem porządkował różne sprawy spadkowe. W odpowiedzi napisał Hooke’owi, że nie zajmuje się prawie wcale „filozofią” (czyli naukami ścisłymi): „moje upodobanie do filozofii wygasło i obchodzi mnie ona równie mało, jak kupca obchodzą cudze interesy albo wieśniaka – nauka”. Zapewne nie udawał, wprawdzie śmierć matki nie była dla niego takim wstrząsem, jak sądzili niektórzy biografowie, ale pochłonęły go sprawy praktyczne, a w poprzednich latach więcej się zajmował teologią i alchemią niż matematyką czy fizyką. Odkąd wyjaśniło się, że nie musi mieć święceń, by pozostać w Trinity College, żył trochę jak na obcej planecie, pochłonięty wyłącznie własnymi myślami i badaniami, które dotyczyły kwestii takich, jak pochodzenie dogmatu Trójcy św. (uważał go fałszerstwo historyczne św. Atanazego), sens Apokalipsy albo zrozumienie pewnych procesów (al)chemicznych. Zaproponował jednak Hooke’owi eksperyment mogący wykazać ruch obrotowy Ziemi. Wyobraźmy sobie ciało swobodnie spadające z pewnej wysokości nad Ziemią na równiku. Ponieważ prędkość ruchu wirowego na tej wysokości jest większa, niż na powierzchni, więc ciało powinno względem Ziemi odchylić się od pionu i spaść nieco na wschód (dziś mówimy o przyspieszeniu Coriolisa). Newton zamieścił rysunek krzywej zakreślonej przez takie ciało (względem obracającej się Ziemi).

Torem ciała jest ADE, z bliżej nieznanego powodu tor przedłużony został pod powierzchnią Ziemi.

Hooke zareagował, poprawiając rysunek Newtona. Otóż jego zdaniem tor wyglądałby następująco:

W istocie mamy tu dwa różne tory: zamknięty AFGHA (wariant bez oporu ośrodka) oraz spiralny AIKLMNOC (wariant z oporem ośrodka). Hooke wyobrażał sobie, że rozcinamy Ziemię na dwie połowy wzdłuż równika, a następnie obie połówki nieco rozsuwamy i pozwalamy ciału krążyć w tej wolnej przestrzeni. Jego modelem eksperymentalnym było wahadło stożkowe. Różnica między obrazkami Hooke’a i Newtona częściowo bierze się stąd, że tor u Hooke’a jest narysowany z nieobracającego się układu odniesienia – dlatego prędkość początkowa jest styczna do równika. Jak pokazał Derek Whiteside, oba tory są dość podobne (w wariancie z oporem ośrodka).

Z kolei zareagował Newton, przedstawiając tor, jaki jego zdaniem zakreśli ciało w przypadku, gdy grawitacja jest stała, niezależna od odległości od środka Ziemi (w układzie nieobracającym się).

Tor miał być krzywą niezamkniętą z kolejnymi apocentrami A, H i K tworzącymi kąt większy od kąta prostego. Szkic ten uzyskany został wykreślnie za pomocą metody, której Newton nie opisał. Stwierdził też, że gdy grawitacja rośnie wraz ze zbliżaniem się do środka, można otrzymać także spiralę.

Hooke sprawdził eksperymentalnie, jaki kształt toru otrzymamy w tym przypadku, obserwując kulkę krążącą po powierzchni odwróconego stożka: rzeczywiście tor ma kształt rozety. Stwierdził też, że krzywa z jego listu dotyczyła nie grawitacji niezależnej od odległości, ale rosnącej jak 1/r^2 (r jest odległością od Środka Ziemi C). Podkreślił przy tym, że w bardziej realistycznym przypadku ruchu wewnątrz Ziemi, grawitacja będzie raczej rosnąć wraz z odległością r, a nie spadać. Raz jeszcze zadał pytanie, jaką krzywą zakreśli ciało w przypadku takiej grawitacji i braku oporu ośrodka.

Na pytanie to nie doczekał się odpowiedzi. Chyba że za odpowiedź uznamy Matematyczne zasady filozofii przyrody. Odpowiedź ta była nieco spóźniona: Newton zajął się pracą nad swym arcydziełem dopiero od jesieni 1684 roku. W okresie między początkiem 1680 a 1684 spostrzegł, że pomysł Hooke’a ma sens, gdyż otrzymuje się w ten sposób elipsy Keplerowskie. Nie uważał tego spostrzeżenia za coś bardzo istotnego, być może najpierw potraktował je jako pewną matematyczną fantazję niekoniecznie odpowiadającą ściśle empirycznej prawdzie. Wymiana z Hookiem była cokolwiek abstrakcyjna i zaświatowa, przypominała kwestię rozważaną przez średniowiecznych filozofów: co się stanie, jeśli do tunelu przechodzącego przez Ziemię na wylot wrzucimy kamień? Czy kamień zatrzyma się w środku Ziemi, czy też może wróci do nas po takim czasie co Gagarin po okrążeniu Ziemi?

Gdy podczas pisania Matematycznych zasad doszły go słuchy, że Hooke rości sobie prawa do zależności 1/r^2, zdenerwował się na tyle że usunął z dzieła wzmianki dotyczące Hooke’a.

Cóż, Isaac Newton nie był wielkoduszny, nie chciał i nie potrafił negocjować społecznie w celu osiągnięcia kompromisu. Mógł być okaleczony psychicznie, matka zostawiła go w dzieciństwie z powodu nowego związku, bez wątpienia był niezwykle zamkniętym i żyjącym we własnym świecie człowiekiem. Zazdrośnie pilnował swoich zabawek.

Ale też zawdzięczał Hooke’owi dużo mniej, niż sądził tamten. Ponieważ Newton obsesyjnie zapisywał swoje rozważania, poprawiał je i przepisywał bez końca i zostawił mnóstwo rękopisów, wiemy sporo na temat jego naukowego rozwoju. Przed 1687 r. nie opublikował nic z mechaniki, bo nie zadał sobie trudu zebrania swych wyników, które były niebagatelne.

Jednym z najwcześniejszych, jeszcze z lat sześćdziesiątych, było obliczenie siły odśrodkowej (później opublikował zbliżone rozważania Christian Huygens). Pierwsze rozumowanie było bardzo proste: wyobraźmy sobie ciało odbijające się sprężyście od powierzchni bocznej walca w taki sposób, że jego tor jest wielokątem foremnym.

Kolejne zmiany pędu ciała są skierowane do centrum. Patrząc na rysunek z prawej strony, widzimy, że suma owych zmian pędu \Sigma \Delta p odpowiada długości wielokąta, gdy pęd jest promieniem okręgu opisanego na wielokącie. Wobec tego stosunek obu wielkości, gdy liczba boków rośnie nieograniczenie dąży do stosunku długości okręgu do jego promienia:

\dfrac{\Sigma \Delta p}{p}\rightarrow 2\pi.

Jest to inna postać wzoru na siłę dośrodkową F_{d} (mówiąc językiem współczesnym, ponewtonowskim):

F_{d}=\dfrac{\Sigma \Delta p}{T}=\dfrac{2\pi p}{T}=\omega p=\dfrac{mv^2}{R}.,

gdzie T,\omega,m,R są odpowiednio okresem, prędkością kątową, masą i promieniem okręgu.

Kilka lat później wyprowadził Newton tę zależność nieco inaczej. Zastosował ją też w połączeniu z III prawem Keplera, by wywnioskować, że siła odśrodkowa w ruchu planet wokół Słońca powinna być jak 1/r^2. Przeprowadził też test Księżycowy, który dał zły wynik z powodu błędnej wartości promienia Ziemi. To nie wszystko: rozwijając swoją metodę fluksji, znalazł wyrażenie na promień krzywizny, gdy znane jest równanie krzywej. Tor w kształcie rozety obliczył prawdopodobnie, wykorzystując wyrażenie dla siły dośrodkowej

F_d=\dfrac{mv^2}{\varrho}=F\sin\alpha,

skąd można obliczyć promień krzywizny, a następnie zbudować krzywą z kolejnych łuków okręgów krzywizny.

Najprawdopodobniej Hooke nie zrozumiałby tej metody, gdyby Newton mu ją przedstawił. W każdym razie daleko mu było do samodzielnego obliczenia kształtu toru w którymkolwiek przypadku.

Jak się zdaje, największym wkładem Hooke’a w odkrycie grawitacji był sam pomysł. Newton wrócił do niego na dobre dopiero w 1684 roku. Patrząc z dzisiejszego punktu widzenia, dziwimy się nieco: wszystkie składniki były już pod ręką, należało je tylko ułożyć we właściwy sposób. Od strony technicznej najważniejszym krokiem było dla Newtona spostrzeżenie, że siła skierowana ku centrum oznacza prawo pól. Wyobraził sobie, że siła działa impulsowo, w stałych odstępach czasu dodając pewien pęd zwrócony ku centrum. Wówczas pola zakreślane przez promień wodzący planety będą w każdym odcinku czasu jednakowe.

Dzięki temu twierdzeniu Newton nie tylko zrozumiał, jaki jest głębszy sens prawa pól Keplera, ale także uzyskał narzędzie pozwalające wprowadzić do geometrii ruchu czas. Należało po prostu wyrażać czas przez pola zakreślane przez poruszające się ciało. Twierdzenie to znalazło się na początku Matematycznych zasad. Niewykluczone też, że Newton przyglądał się różnym ruchom, korzystając z takiej konstrukcji. W taki właśnie sposób oblicza się tory cząstek za pomocą komputerów – możemy dziś oczywiście wykonać znacznie więcej kroków, co oznacza, że możemy wybrać odpowiednio mały krok czasowy.

Orbity ciała w stałym co do wartości polu, a więc odpowiadające przybliżonym wynikom Newtona uzyskanym z promienia krzywizny.

Już w trakcie wymiany listów z Hookiem zauważył Newton prawdopodobnie, że dla siły zmieniającej się jak 1/r^3 torem jest spirala.

W roku 1684 wiedział już, że torem w przypadku siły 1/r^2 rzeczywiście jest Keplerowska elipsa albo inna krzywa stożkowa, jak podejrzewał Robert Hooke. Metoda matematyczna zastosowana przez Newtona nie była jednak rachunkiem różniczkowym i całkowym w znanej nam postaci, lecz przeniesieniem pojęć granicy na geometrię syntetyczną. Wyglądało to np. tak.

Pokażemy jeszcze, jak promień krzywizny wraz z prawem pól pozwala rozwiązać zagadnienie ruchu w polu sił centralnych (tak ostatcznie przyjęło się nazywać siły skierowane wzdłuż promienia wodzącego, przyciągające bądź odpychające).

Rysunek przedstawia realizację idei Hooke’a: ruch prostoliniowy wzdłuż stycznej PR składamy ze spadaniem wzdłuż promienia wodzącego o wektor RQ=PQ’. Kąt d\phi jest infinitezymalny.

QR=\dfrac{F dt^2}{2},

gdzie dt jest odstępem czasu i masa równa jest 1, czyli siła = przyspieszenie). Pole wycinka SQP jest proporcjonalne do czasu hdt/2 (h jest stałą proporcjonalności). Przybliżając to pole polem trójkąta SQP, otrzymujemy

F={\displaystyle \lim_{dt\rightarrow 0}}\,\dfrac{2 h^2 QR}{SP^2\times QT^2}.

Rozwijając r(\phi+d\phi) w szereg Taylora do wyrazów kwadratowych w d\phi oraz obliczając z taką dokładnością ST i Q’T otrzymujemy

F=\dfrac{h^2}{r^2}\left(\dfrac{1}{r}+\dfrac{d^2}{d\phi^2}\dfrac{1}{r}\right).

W przypadku siły zależnej od odległości jak k/r^2 nawias musi być stałą niezależną od r, co oznacza, że

\dfrac{1}{r}=\cos\phi+\dfrac{k}{h^2}.

Jest to równanie stożkowej. Newton nie traktował tego w taki sposób, stosowanie algebry i symboli funkcji cosinus jest w tym kontekście anachronizmem, chodzi nam tu jednak o sens matematyczny operacji, a nie wierność historycznym formom zapisu.

Na koniec zauważmy, że ostatnie wyrażenie dla siły możemy porównać z wartością siły dośrodkowej. Otrzymamy w ten sposób wzór na krzywiznę krzywej we współrzędnych biegunowych

\varrho=\dfrac{1}{\sin^3\alpha}\left(\dfrac{1}{r}+\dfrac{d^2}{d\phi^2}\dfrac{1}{r}\right).

Otrzymał go Newton w latach siedemdziesiątych. Potem stopniowo oddalał się od zapisów algebraicznych, pisząc Matematyczne zasady nie stosował go wprost, ale z pewnością rozumiał sens geometryczny takich wyrażeń. Niestosowanie układów współrzędnych i rozbudowanej algebry było jego wyborem. We współczesnych podręcznikach pojawia się równanie toru zapisane przez drugą pochodną 1/r, zwykle nie zwraca się przy tym uwagi, że owe formalne manipulacje symbolami mają geometryczny sens krzywizny.

 

Grawitacja: Newton na ramionach Hooke’a? (1679-1680) (1/2)

„Jeśli dalej sięgnąłem wzrokiem, to dlatego że stałem na ramionach olbrzymów” – pisałem jakiś czas temu o debacie, w której Newton użył tego określenia. Chodziło tam o optykę i profesor z Cambridge wyraził się z pewną retoryczną przesadą. Jeśli miał naukowy dług wdzięczności wobec Roberta Hooke’a, to raczej w kwestii grawitacji. Prawo ciążenia było największym osiągnięciem Newtona i zapewne największym odkryciem w dziejach nauki, epoka nowożytna – nasza epoka – zaczęła się właśnie wtedy, na dobre i złe. Hooke głosił ideę grawitacji poruszającej planety przed Newtonem, choć nie potrafił przekuć jej w matematyczne dowody. Myśl, że może komuś coś zawdzięczać, a w dodatku tym kimś ma być kłótliwy i namolny Robert Hooke, doprowadzała Newtona do białej gorączki.

Umiejętność stawania na ramionach poprzedników stanowi główną siłę naszego gatunku. Metaforę takiej wertykalnej sztafety pokoleń napotykamy nie tylko w tekstach, ale i w sztuce, np. na witrażach katedry w Chartres.

Tutaj Ewangeliści stoją (boso, z iście ewangeliczną prostotą, nie jak dzisiejsi biskupi) na ramionach tych proroków starotestamentowych, którzy mieli ich zapowiadać zgodnie ze średniowieczną teologią (Ezechiel św. Jana, Daniel – św. Marka itd). Idea postępu, rozwijania się w czasie wywodzi się zresztą z chrześcijaństwa, choć jej głównym przykładem stały się od XVII wieku nauka i technologia. O postępie społecznym, moralnym, politycznym – we wszystkich obszarach, gdzie ujawnia się tzw. natura ludzka – lepiej zamilczeć. Mamy, niestety, więcej z szympansów zwyczajnych niż z bonobo. Czy samcza agresja jest jakoś sprzężona z twórczością intelektualną? Widzimy, że małpy potrafiące posługiwać się iphonem i twitterem mogą stać się tym bardziej niebezpieczne dla przyszłości naszego gatunku.

Jednym z przejawów walki o status osobnika alfa są w nauce spory o priorytet odkrycia. Zdaniem Roberta K. Mertona, klasyka socjologii, chodzi też o coś więcej. Naukowe uznanie, ranga uczonego, jest nagrodą za oryginalność badań, a ta nie może być podrabiana. Wszyscy stoją więc na ramionach kolegów, ale kłócąc się zawzięcie o rozmiary własnej postaci na witrażu.

Gresham College i narożnik, w którym mieszkał Robert Hooke (9), na dachu widać daszek jego obserwatorium (8), w którym zamontował nieruchomy zenitalny teleskop do obserwacji paralaksy rocznej. Twierdził, że ją wykrył, wiemy, że to nieprawda. Efekt był mniejszy, niż wtedy sądzono, wcześniej wykryto aberrację światła.

Profesor geometrii w Gresham College w Londynie, Robert Hooke był uczonym wybitnym, niezwykle wszechstronnym, zorientowanym zarówno w literaturze naukowej, jak i w praktycznych osiągnięciach rzemieślników budujących zegary, teleskopy, przyrządy miernicze czy nawigacyjne. Zajmował się budową pomp próżniowych, doświadczeniami z gazem, obserwacjami mikroskopowymi, astronomią (odkrył czerwoną plamę na Jowiszu i usiłował zmierzyć paralaksę gwiazdy γ Draconis), urządzeniami mechanicznymi, dokonał ważnych obserwacji biologicznych i paleontologicznych, zbudował wychwyt kotwicowy – ważny element zegara sprężynowego, miał oryginalną teorię umysłu, a także, co ważne dla nas w tej chwili, głosił pomysł siły przyciągającej między Słońcem i planetami. Wychwyt kotwicowy zbudował też Christiaan Huygens, prawo ciążenia powszechnego sformułował Newton, który potrafił też przedstawić jego liczne zastosowania. W obu przypadkach Hooke usiłował bronić swojego priorytetu, jednak na próżno. Dziś tylko prawo sprężystości upamiętnia tego uczonego, tak ważnego dla Towarzystwa Królewskiego i dla Londynu, to on bowiem obok sir Christophera Wrena był jednym z głównych budowniczych stolicy po wielkim pożarze z 1666 roku. Obserwatorium w Greenwich, sławny Bedlam – szpital dla obłąkanych i wiele innych budowli to jego dzieło. Pomagał też przy niełatwej konstrukcji wielkiej kopuły katedry św. Pawła. Nie zachował się żaden jego portret (niektórzy widzą w tym fakcie przejaw mściwości Newtona, który po śmierci Hooke’a przewodniczył Towarzystwu Królewskiemu), poniżej zamieszczamy coś w rodzaju portretu pamięciowego, sporządzonego zgodnie z opisami powierzchowności uczonego.

`Oba portrety autorstwa Rity Greer, 2006

Próba nawiązania korespondencji z Newtonem w roku 1675 okazała się nieudana i zakończyła się na jednym liście profesora z Cambridge, tym zawierającym metaforę następców stojących na ramionach wielkich poprzedników. Pod koniec 1679 roku Hooke napisał znowu, miał pretekst formalny: został sekretarzem Towarzystwa Królewskiego i do jego obowiązków należała korespondencja w imieniu Towarzystwa. Zapewniał, iż osobiście nie czuje żadnej wrogości i chciał  się dowiedzieć, co Newton sądzi m.in. na temat jego hipotezy, że ruchy planet można uważać za wypadkową ruchu prostoliniowego i ruchu pod wpływem przyciągania w kierunku ciała centralnego. List nie zawiera rysunku, ale hipoteza wyglądałaby mniej więcej tak.

Wiadomo było od czasów Galileusza i Torricellego, że idealną (bez oporu ośrodka) krzywą balistyczną można było uzyskać w podobny sposób.

Mogłoby się wydawać, że jesteśmy już bardzo blisko prawa ciążenia: należy „tylko” ustalić, jak siła ciężkości zależy od odległości od ciała centralnego, a potem skonstruować krzywą według narysowanego przepisu. Ściśle biorąc, należało uważać wektory za nieskończenie małe: planeta nieco się przesuwa wzdłuż stycznej i jednocześnie spada. Matematyka niezbędna do znalezienia krzywej to rachunek różniczkowy i całkowy, odkryty i rozwinięty przez Newtona jeszcze w latach sześćdziesiątych i na początku siedemdziesiątych. Prace te nie były publikowane, mało kto o nich wiedział, a z pewnością nikt nie rozumiał ich głębi i znaczenia. Hooke mógł coś słyszeć o matematycznym geniuszu Newtona, ale z pewnością nie znał szczegółów. Sam był wprawdzie profesorem geometrii, lecz oznaczało to matematykę elementarną potrzebną mierniczym i nawigatorom, którzy uczyli się w Gresham College. Hooke swoje pomysły przedstawił w druku kilka lat wcześniej w postaci trzech założeń.

Pierwsze, że wszystkie ciała niebieskie obdarzone są mocą przyciągającą albo grawitacyjną w kierunku swego centrum, za pomocą której przyciągają nie tylko swoje własne części, nie pozwalając im odlecieć, jak
to obserwujemy na Ziemi, ale że przyciągają także wszystkie inne ciała niebieskie, które znajdują się w obrębie ich sfery aktywności, tak że nie tylko Słońce i Księżyc mają wpływ na ciało i ruchy Ziemi, a Ziemia na nie,
ale także Merkury, Wenus, Mars, Jowisz, Saturn mają dzięki swym mocom przyciągającym istotny wpływ na jej ruch, podobnie jak odpowiednia moc przyciągająca Ziemi ma duży wpływ na każdy z ich ruchów.

Drugie założenie mówi, że wszystkie ciała wprawione w prosty i prostoliniowy ruch będą kontynuować taki ruch po linii prostej, dopóki nie zostaną przez jakieś działające moce odchylone i zmuszone do ruchu po okręgu, elipsie albo jakiejś innej złożonej linii krzywej.

Założenie trzecie mówi, że te moce przyciągające są tym potężniejsze w działaniu, im bliżej ich środka znajdzie się ciało, na które działają. [An Attempt to prove the Motion of the Earth from Observations, London 1674, s. 27-28.]

Zanim przedstawimy reakcję Newtona, zróbmy rzut oka wstecz. W roku 1619 Johannes Kepler podsumował swoje rozumienie ruchów planetarnych, ilustruje je rysunek z Epitome astronomiae Copernicane („Skrót astronomii kopernikańskiej” – w istocie była to astronomia Keplerowska, tylko nieruchomość Słońca wiązała ją z Kopernikiem). Kepler był jednak uczonym wyjątkowo skromnym i tak oryginalnym, że nie potrzebował walczyć o swój priorytet, bowiem współcześni niezbyt rozumiejąc, czego dokonał, niezbyt mu też zazdrościli.

Mamy tu ruch planety po elipsie wokół Słońca w jednym z jej ognisk. Mechanika nieba, która za tym stała, była następująca. Po pierwsze, każde ciało obdarzone było siłą inercji i pozostawione samo sobie zatrzymywało się po chwili. To dynamika przesuwania ciężkiej szafy: pchamy – szafa się przesuwa, przestajemy pchać – szafa staje w miejscu. Dzięki tej zasadzie bezwładności można się było nie obawiać, że planety pospadają na Słońce. Do wytworzenia ich ruchu obiegowego służyła Keplerowi specjalna moc obracająca, rodzaj pola siłowego, którego źródłem było obracające się wokół osi Słońce (Kepler pierwszy upatrywał w Słońcu źródło siły poruszającej planety, dla Kopernika Słońce było po prostu rodzajem lampy centralnie umieszczonej w machinie świata). Im dalej od Słońca znajduje się planeta, tym mniejszą ma prędkość. Drugie prawo Keplera można zapisać jako v_{\perp}\sim 1/r, gdzie v_{\perp} to składowa prędkości prostopadła do promienia wodzącego r. Dziś fakt ten nazywamy zasadą zachowania momentu pędu. U Keplera odpowiadała za to siła. Ponieważ jednak planety poruszają się po ekscentrycznych elipsach, na przemian zbliżając się i oddalając od Słońca, więc potrzebna była druga jeszcze siła: magnetyczna. Magnetyzm znany był z dzieła Williama Gilberta (De magnete, 1600), lekarza królowej Elżbiety I, a więc dynastycznie jakby wczoraj. Wyjaśnił on działanie kompasu, o którym przedtem wypisywano różne magiczne głupstwa. W tym celu zbadał zachowanie igły magnetycznej w pobliżu magnesu o kształcie kulistym, będącego niczym mała Ziemia, terrella.

Magnetyzm ograniczony był jego zdaniem do pewnej sfery działania: orbis virtutis na rysunku. U Keplera mamy osobliwy mechanizm magnetyczny: planeta jest rodzajem igły zachowującej stale tę samą orientację przestrzenną, Słońce natomiast jest magnesem, którego jeden biegun jest na powierzchni, drugi zaś ukryty w centrum. Oczywiście nie ma w przyrodzie takich magnesów, podobnie zachowywałby się monopol magnetyczny. Całość tej konstrukcji Keplera sprawia trochę wrażenie barokowego gabinetu osobliwości, gdzie nazbierało się wiele różnych dziwnych urządzeń czy eksponatów. Musimy jednak pamiętać, że nie było jeszcze żadnej matematycznej dynamiki, a Kepler starał się powiązać ten mechanizm z bardzo precyzyjnym matematycznym opisem ruchu planet (trzy prawa Keplera). Jego matematyka była znakomita, mechanika natomiast musiała zostać stworzona na nowo.

W XVII wieku mechanika ziemska i niebieska szybko stawała się nauką. A jak to określił antropolog Max Gluckman, „nauką jest każda dyscyplina, w której głupiec obecnego pokolenia może sięgnąć dalej niż geniusz pokolenia minionego” (Politics, Law, and Ritual in Tribal Society, s. 32; chodziło tam zresztą o kurtuazyjną, lecz zdecydowaną krytykę naszego rodaka Bronisława Malinowskiego). Hooke nie był bynajmniej głupcem, ale stał już na ramionach wielu uczonych: Kartezjusza, Huygensa i całej plejady pomniejszych twórców Rewolucji naukowej. Czym górowała hipoteza Hooke’a? Jej założenie drugie było doskonalszą formą zasady bezwładności: nie tylko spoczynek, ale i ruch jednostajny prostoliniowy nie wymagał podtrzymywania. Aby była to prawda, trzeba było przyjąć, że opór ośrodka wypełniającego kosmos jest zaniedbywalny. Zasada ta pochodziła zresztą od Kartezjusza, choć u niego opór eteru niweczył stale tendencję do prostoliniowego, bezwładnego ruchu. Potrzebna była też tylko jedna siła, skierowana ku Słońcu. Wzajemne przyciąganie komplikowało zarazem problem: gdybyśmy musieli, jak w założeniu pierwszym Hooke’a, uwzględniać przyciąganie wszystkich pozostałych planet, wyjaśnienie ruchów w Układzie Słonecznym musiałoby poczekać aż do drugiej połowy wieku dwudziestego i wynalezienia komputerów. Na szczęście można ruch ten przedstawić jako przyciąganie przez jedno ciało centralne plus niewielkie poprawki wynikające z przyciągania innych obiektów.

Hooke zaproponował więc radykalne uproszczenie pojęciowe problemu ruchu planet – najważniejszego zagadnienia nauk ścisłych od starożytności. Nie wszystko pochodziło tu od niego, raczej przekształcił on idee krążące w londyńskim powietrzu, w dyskusjach uczonych takich, jak Christopher Wren czy Edmond Halley. Ów świeży powiew z Londynu ożywił zastałe powietrze Cambridge i stał się ważnym impulsem dla Newtona, o czym opowiemy w następnej części.

Sofia Kovalevskaya – pożytki z własnego pokoju

W znanym eseju zatytułowanym Własny pokój Virginia Woolf zastanawia się nad późnym pojawieniem się kobiet w literaturze. Gdyby Shakespeare miał siostrę, równie jak on utalentowaną, nie udałoby się jej niczego osiągnąć w ówczesnym świecie. Nawet w XIX wieku literacka kariera kobiet nie była łatwa, Jane Austen, pisała swe książki we wspólnej bawialni, gdzie zawsze coś się działo, nie miała bowiem pokoju dla siebie, w którym mogłaby się zamknąć i pisać.
Sofia Kovalevskaya była córką generała Korwin-Krukowskiego, na poły Polaka, który jednak służył całe życie w carskiej armii i czuł się Rosjaninem. W okresie powstania styczniowego rodzina mieszkała na Litwie i choć generał nie brał żadnego udziału w tłumieniu powstania, znalazł się w trudnej sytuacji zarówno wobec okolicznych Polaków, którzy musieli z nim utrzymywać stosunki towarzyskie, jak i wobec swoich przełożonych, którzy nie byli pewni jego lojalności. Jego nastoletnia córka, Sofia, była nad wiek rozwiniętą osóbką, po uszy zakochaną w pewnym dorosłym sąsiedzie panu Bujnickim. Bujnicki poszedł do powstania i ślad po nim zaginął, a jego majątek został zlicytowany. Sofia roiła sobie, że go pomści albo odszuka gdzieś na Syberii za kilka lat, kiedy tylko dorośnie i wyrwie się spod opieki guwernantki. Stłumienie polskiego powstania i późniejsze represje nie podobały się zresztą wielu Rosjanom i oficerowie, którzy brali w tym udział, niekoniecznie byli dobrze widziani przez swoich kolegów.
Generalska córka miała oczywiście własny pokój. Także w domu na wsi, w Palibino, gdzie rodzina spędzała sporo czasu. Nie oznaczało to chyba szczególnego komfortu, gdyż pokój Sofii zamiast tapetą oklejony został wykładami akademika Ostrogradskiego dotyczącymi rachunku różniczkowego i całkowego. Sofia, już wcześniej słyszała coś niecoś o matematyce od swego stryja: o kwadraturze koła, o asymptotach, co zbliżają się do prostej, nigdy jej nie osiągając. Długie godziny spędzała na odczytywaniu tajemnych symboli matematycznych. Nic z tego nie rozumiała, ale dużo zapamiętała na całe życie. Uczono ją w domu i matematyka nie była w tej edukacji traktowana serio, ojciec nie lubił zresztą uczonych kobiet. Kiedyś wpadł Sofii w ręce elementarny podręcznik fizyki, napisany przez ich sąsiada, profesora Tyrtowa. Dziewczynka przeczytała książkę, usiłując z kontekstu odgadnąć sens takich pojęć jak sinus. Widząc to Tyrtow przekonał generała, że warto córkę uczyć matematyki.

kovalevszkaja2

Sofia bardzo wcześnie wyszła za mąż za Vladimira Kovalevskiego. Było to małżeństwo fikcyjne, pozwalające jednak dziewczynie na wyjazd za granicę bez opieki rodziców. Pojechała do Heidelbergu i do Berlina studiować, co nie było łatwe, ponieważ uniwersytety nie przyjmowały kobiet. Wszędzie musiała się specjalnie starać o prawo słuchania wykładów, bez formalnej immatrykulacji. I nawet to nie zawsze udawało się uzyskać. Jak sama twierdzi, najwięcej nauczyła się w trakcie prywatnych lekcji u Karla Weierstrassa, który nie szczędził swego czasu, kiedy przekonał się o jej matematycznym talencie. Zamiast pracy doktorskiej na jeden temat Kovalevskaya przedstawiła trzy, na podstawie których uniwersytet w Getyndze nadał jej doktorat cum summa laude [z najwyższym wyróżnieniem]. Nie odbyła się jednak publiczna obrona i całość została przeprowadzona tak, by nie burzyć spokoju męskiego grona profesorskiego.
Młoda osoba interesowała się nie tylko matematyką, sporo podróżowała, znała kilka języków, zetknęła się z wieloma wybitnymi postaciami, jak Thomas Huxley, Charles Darwin, czy George Eliot. Przyjaźniła się z rodzeństwem Göstą Mittag-Lefflerem (wybitnym matematykiem, też studentem Weierstrassa) i jego siostrą, pisarką, Anne Charlotte Leffler, z którą razem zajmowały się pracą literacką. W 1888 roku trzydziestoośmioletnia Sofia wygrała konkurs paryskiej Akademii nauk. Chodziło o ścisłe rozwiązanie równań ruchu bryły sztywnej. Znane były rozwiązania Eulera i Lagrange’a, rozwiązanie Kovalevskiej jest do tej pory trzecim i ostatnim takim przypadkiem (por. E.T. Whittaker, Dynamika analityczna). Ścisłe rozwiązania odgrywają w nauce wyjątkowo istotną rolę, stanowiąc coś w rodzaju teoretycznego laboratorium, w którym można badać własności rozwiązań niedostępne w innych przypadkach. Odkrycie Kovalevskiej aż po dzień dzisiejszy inspiruje specjalistów z fizyki matematycznej. Praca naukowa kobiety w Rosji była w tamtych czasach niemożliwa i cały dorobek Kovalevskiej powstał za granicą. W 1889 roku została profesorem zwyczajnym na stosunkowo młodym uniwersytecie w Sztokholmie. Była pierwszą kobietą, która osiągnęła ten klasyczny szczyt naukowej kariery. Niedługo później zmarła niespodziewanie na grypę.

Tren dla Annie Darwin

W marcu 1838 roku Charles Darwin poszedł obejrzeć młodą samicę orangutana w londyńskim ZOO. Do tej pory nie widziano tam stworzenia tak bardzo podobnego do człowieka. Małpę nazwano Jenny, ubrano w dziecięce stroje i umieszczono w ogrzewanym pomieszczeniu razem z żyrafą – wiadomo było, że zwierzęta te są niezwykle delikatne i źle znoszą niewolę. Często zapadały na suchoty, jak nazywano wówczas gruźlicę, o której bardzo niewiele było wówczas wiadomo. Nie wiedziano nawet, czy jest chorobą zakaźną.

jenny-web-3933
Darwin zapisał w swoim notatniku: „Człowiek powinien zobaczyć oswojonego orangutana, posłuchać jak ekspresyjnie płacze, przyjrzeć się, jak rozumnie spogląda, gdy się do niego zwrócić – jakby rozumiał każde wypowiedziane słowo, ujrzeć jakim uczuciem darzy znane sobie osoby, przyjrzeć się, jak szaleje z wściekłości, dąsa się i okazuje rozpacz (…) i dopiero wtedy niech się spróbuje pochwalić swoją dumną wyższością (…) Człowiek uważa się w swej arogancji za coś tak wielkiego, że aż godnego boskiej interwencji. Z większą pokorą i, jak sądzę, prawdziwie, jest uważać go za stworzonego ze zwierząt”.

Dziesięć lat później zmarł ojciec przyrodnika, Robert Darwin, lekarz i religijny sceptyk. Sam Charles w młodości omal nie został pastorem, choć jak się zdaje, pociągała go nie tyle posługa duchowa, co perspektywa zamieszkania na wsi, blisko natury, i możliwość oddawania się przyrodniczej pasji. W każdym razie teraz, pod koniec lat czterdziestych, oddalił się już znacznie od wiary religijnej. Jego motywy nie były wyłącznie naukowe czy racjonalne, myślał jak przyrodnik, ale był też pełnym empatii człowiekiem, dla którego wielkie znaczenie miały moralne skrupuły. Dżentelmeni z jego sfery bardzo poważnie i uczciwie zastanawiali się nad swoimi poglądami. Wiele lat później napisał w Autobiografii:

„Trudno mi doprawdy pojąć, że ktokolwiek mógłby sobie życzyć, aby wiara chrześcijańska była prawdziwa. Bo gdyby tak było, to bezpośrednia wymowa tego tekstu [tekstu Ewangelii – tłum.] jest jak się zdaje taka, iż ludzie, którzy nie wierzą – a do nich należy zaliczyć mego Ojca, Brata i prawie wszystkich moich najlepszych przyjaciół – są skazani na wieczne potępienie.
A to jest wszak okropna doktryna.
Chociaż o istnieniu Boga osobowego dużo myślałem dopiero w znacznie późniejszym okresie życia, podam tu ogólne wnioski, do których doszedłem. Stary, przytaczany przez Paleya, argument o celowości w przyrodzie, który dawniej wydawał mi się tak przekonywający, upada obecnie z chwilą odkrycia prawa doboru naturalnego. Nie możemy już dłużej utrzymywać, że np. piękne zawiasy skorupy małży musiały być wykonane przez istotę rozumną, tak jak zawiasy drzwi – przez człowieka. Nie więcej jest, zdaje się, celowości w zmienności istot żywych i w działaniu doboru naturalnego niż w kierunku, w którym wieje wiatr” (przeł. S. Skowron).

W 1851 roku umarła ukochana córeczka Darwina, dziesięcioletnia Annie. Dziecko zachorowało najprawdopodobniej na gruźlicę, nie mówiono o tym jednak głośno, ponieważ diagnoza taka oznaczała wyrok śmierci, chorych na nią nie przyjmowano nawet do szpitali. Ojciec miał nadzieję, że małej pomoże hydroterapia w zakładzie w Malvern, gdzie sam leczył wcześniej własne niedomagania. Miał może nadzieję, że Annie pomoże to samo, co pomogło jemu, ponieważ stale podejrzewał, iż jej choroba może być dziedziczna. Darwin spędził w Malvern przy Annie ostatnie dni jej życia, szalejąc z rozpaczy. Tydzień po pogrzebie napisał o niej wspomnienie, najbardziej emocjonalny tekst człowieka, który zawsze starał się zachować obiektywizm, ale i zrozpaczonego ojca, który czuł się winny śmierci córki. Annie była idealnym wiktoriańskim dzieckiem: łagodna, kochająca, posłuszna, niewinna, wesoła, pełna życia, lecz nigdy nie rozkapryszona, bardzo wrażliwa na każdy przejaw dezaprobaty ze strony rodziców, którzy nie musieli jej nawet karcić, wystarczyło trochę surowsze spojrzenie, by natychmiast odczuła niewłaściwość swego postępowania. I nie tylko cechy charakteru dziewczynki miały znaczenie, Darwin starał się zapamiętać także jej wygląd zewnętrzny. „Jej wzrok się iskrzył, często się uśmiechała. Chodziła elastycznie i pewnie, trzymała się prosto i często odrzucała nieco głowę w tył, jakby rzucając żartobliwe wyzwanie światu. (…) Dagerotyp jest bardzo do niej podobny, lecz zupełnie nie oddaje jej wyrazu: zrobiony został dwa lata temu, jej twarz się od tamtej pory wyciągnęła i nabrała urody. Ruchy miała żywe, energiczne i zazwyczaj pełne wdzięku, kiedy chodziła ze mną na spacer ścieżką dookoła domu, to mimo iż chodzę szybko, często wyprzedzała mnie, kręcąc piruety w najbardziej elegancki sposób i uśmiechając się słodko”.

Annie_Darwin

Dzieci na ówczesnych dagerotypach miały często nienaturalny wygląd, ponieważ musiały wytrwać bez ruchu przez całą minutę – tyle bowiem trwało naświetlanie zdjęcia. Widać, że dłonie Annie są nieostre, dziewczynka się poruszyła.

Śmierć dziecka była w tamtej epoce zjawiskiem częstym, ludzie pobożni pocieszali się mówiąc o lepszym życiu, do którego zostało przeniesione zgodnie z nieprzeniknionymi zamysłami Stwórcy. Charles Darwin nie próbował szukać pociechy tego rodzaju, jak się wydaje, śmierć niewinnej istoty była w jego oczach całkowicie sprzeczna z jakąkolwiek wizją dobrego Boga. Prawdopodobnie sądził też, że jakaś cząstka naszego współczucia należy się również istotom mniej od nas uprzywilejowanym – jak Jenny z ZOO, ofiara tej samej co Annie choroby.

Korzystałem z książki Randala Keynesa, Annie’s Box: Charles Darwin, His Daughter, and Human Evolution, London 2001. Na książce tej oparto scenariusz filmu BBC z roku 2009 pt. Creation.

Światło w cienkich warstwach: Newton na ramionach Hooke’a (1675)

Jedną z cech nowej nauki, tej, która powstała w XVII wieku w Europie i zmieniła bieg historii całego świata, jest uważność, drobiazgowa dbałość o szczegóły. Nie ma przedmiotów czy tematów nieistotnych, czy niewartych poznania. Postawa taka pojawiała się wprawdzie i wcześniej, Arystoteles na przykład badał zwierzęta morskie, nie kierując się ludzką estetyką czy przydatnością swych obserwacji do praktycznych celów. Dopiero jednak w XVII wieku obserwacje i eksperymenty stały się prawdziwą namiętnością. Organizacje takie, jak londyńskie Towarzystwo Królewskie, założono po to właśnie, by ułatwić rozpowszechnianie nieznanych dotąd szczegółów funkcjonowania przyrody. Nauka jest bowiem kumulowaniem wiedzy, ale także, i może przede wszystkim, wyjaśnień pozwalających ową wiedzę uporządkować w logiczną strukturę.

„Jeśli dalej sięgnąłem wzrokiem, to dlatego że stałem na ramionach olbrzymów” – napisał Isaac Newton do Roberta Hooke’a w Londynie 5 lutego 1676 roku. To słynne zdanie przytacza się często jako przykład uznania uczonego dla swoich poprzedników, ma ono wtedy rolę dydaktyczną: oto jak powinien postępować mąż uczony i niemałostkowy. Metafory tej używać miał już Bernard z Chartres, kierujący tamtejszą szkołą katedralną w XII wieku: „… jesteśmy niczym karły stające na ramionach gigantów, żeby widzieć więcej i dalej niż oni, nie dzięki bystrości własnego wzroku ani wielkiemu wzrostowi, lecz dlatego, że podnosi nas i wywyższa wielkość owych olbrzymów” [Jan z Salisbury, Metalogicon, f. 217r].

Dyskusja dotyczyła pewnych eksperymentów i hipotez, głównie dotyczących światła, które Newton przedstawił w formie listu do Towarzystwa Królewskiego. Robert Hooke, „kurator eksperymentów” Towarzystwa, starał się umniejszyć oryginalność pracy profesora z Cambridge, twierdząc że sam wykonywał wcześniej takie eksperymenty. Chodziło o tęczowe barwy cienkich przezroczystych warstewek, dziś najczęściej obserwowane, gdy olej rozlewa się po powierzchni kałuży.

Hooke zaobserwował takie barwy w warstewkach miki, używając mikroskopu własnej konstrukcji. Newton poszedł w badaniach barw cienkich warstewek znacznie dalej niż Hooke i chciał, aby zostało to docenione. Obaj uczeni mieli wyraźny rys paranoiczny, przy czym Hooke był paranoikiem ekstrawertycznym, zabieganym i znającym wszystkich w Londynie, stale skarżącym się, że inni odbierają mu pierwszeństwo jego prac, Newton natomiast był paranoikiem introwertycznym, cichym, małomównym, unikającym ludzi, długo jednak obracającym w głowie prawdziwe bądź urojone akty agresji wobec swoich dokonań. W stosunku do Hooke’a czuł daleko posuniętą rezerwę, przynajmniej od czasu gdy kurator Towarzystwa lekceważąco zbył Newtonowskie odkrycia dotyczące barw pryzmatycznych. Tamta publikacja zdobyła wprawdzie rozgłos, lecz profesor z Cambridge wyrzucał sobie, że goniąc za cieniem, dał się wciągnąć w liczne polemiki, z których niczego się nie nauczył, a które odebrały mu spokój ducha – jedyną rzecz prawdziwie cenną. Pamiętać musimy, że działalność naukowa nie należała do jego obowiązków, które były jedynie dydaktyczne, a na sławie niezbyt mu zależało (co w epoce mediów społecznościowych coraz trudniej nam pojąć). Hooke napisał do Newtona pojednawczy list, w którym komplementował młodszego kolegę i skarżył się na osoby siejące niezgodę (chodziło o Henry’ego Oldenburga, sekretarza Towarzystwa, który prowadził oficjalną korespondencję m.in. z Newtonem). Proponował nawiązanie bezpośredniej korespondencji na tematy „filozoficzne” – tzn. naukowe. Zdanie o olbrzymach znalazło się w odpowiedzi Newtona niejako na odczepne: odwzajemniał komplementy, lecz nie podjął propozycji. Isaac Newton nie miał chęci na dyskusje z bystrym, lecz asertywnym i niezbyt lojalnym partnerem, zresztą jego zainteresowania kierowały się w tym czasie raczej ku eksperymentom alchemicznym i dociekaniom teologicznym. Udało mu się uzyskać zwolnienie królewskie od obowiązku przyjęcia święceń. Z przyczyn formalnych, gdyż był profesorem katedry Lucasa. Prawdziwą przyczyną starań był konflikt sumienia. Uczony doszedł do zdecydowanego antytrynitaryzmu i nie chciał składać fałszywych przysiąg. I tak jego sytuacja teologiczna była delikatna: był przecież członkiem Trinity College: Kolegium św. i niepodzielnej Trójcy. Do tego antytrynitaryzm był jedną z herezji jawnie wymienionych w prawie i zagrożonych karą śmierci.

Wydana w 1665 r. książka Hooke’a, Micrographia, poświęcona była najrozmaitszym przejawom mikroskopowego świata: zawiera opisy i rysunki m.in. ostrza, komórek korka, liścia pokrzywy, oka muchy, pchły i wszy. Zmiana skali odkrywała  nowy poziom rzeczywistości, zadziwiający świat, o którego istnieniu nikt wcześniej nie miał pojęcia.

Liście pokrzywy

Pleśń na książce oprawionej w skórę jagnięcą

Pchła z Micrographii (National Library of Wales, Wikimedia )

Na czym polegał wkład Newtona w problem barw w cienkich warstwach? Jego też pasjonowało przyglądanie się różnym zjawiskom, ale nie wystarczały mu same obserwacje, szukał zawsze wyjaśnienia matematycznego. Jego sposób myślenia był formalny, precyzyjny i bardzo konsekwentny. Poprzednio, badając rozszczepienie światła w pryzmacie, przeprowadził dziesiątki eksperymentów, które wskazywały i potwierdzały, że ściśle biorąc współczynnik załamania światła jest różny dla różnych barw. W ten sposób, używając swego zaciemnionego pokoju jako camera obscura – kamery otworkowej, powinien otrzymać okrągły obraz dysku Słońca. Kiedy jednak na drodze promieni znajdzie się pryzmat, obraz staje się wydłużony, gdyż jest nałożeniem się okrągłych obrazów dla każdej barwy z osobna.

W przypadku cienkich warstw okazało się, że każda barwa ma charakterystyczną długość, określającą, co zobaczymy po odbiciu bądź przepuszczeniu światła. By kontrolować grubość warstwy, Newton zastosował płaskowypukłą soczewkę o długiej ogniskowej, a więc dużym promieniu krzywizny powierzchni sferycznej. Po zestawieniu jej z płaską płytką szklaną i oświetleniu światłem, otrzymujemy dwa dopełniające się systemy pierścieni w świetle odbitym i przepuszczonym. Mierząc promienie pierścieni, łatwo możemy obliczyć, jakim grubościom warstwy odpowiadają. Używając światła monochromatycznego – wydzielonego z rozszczepienia przez pryzmat, sprawiamy, że pierścienie stają się cieńsze i widać ich więcej.

Na obraz pierścieni w świetle przechodzącym nałożona jest skala z podziałką 100 μm (Warrencarpani) 

Plansza z Optics, Newtona (1704)

Newton ustalił za pomocą drobiazgowych pomiarów, jaki obraz otrzymamy w zależności od barwy światła, grubości warstwy, kąta biegu promieni światła oraz współczynnika załamania ośrodka stanowiącego przezroczystą warstwę. Stwierdził, np., że jasne prierścienie w świetle odbitym dla koloru „jasnocytrynowożółtego” leżącego na granicy pomiedzy barwą żółtą i pomarańczową w widmie Słońca odpowiadają grubościom warstwy danym wzorem:

h=(2k+1)\dfrac{1}{178000}\mbox{ cala, gdzie } k=0,1,2,\ldots.

Szczegółowe zależności ilościowe niezbyt ciekawiły Roberta Hooke’a, stanowiły jednak wyróżnik pracy Newtona, a za nim całej fizyki nowożytnej. Eksperymenty opisane tak, aby każdy mógł je powtórzyć, oraz dokładne staranne pomiary niektórym uczonym wydawały się wręcz istotą fizyki. W wieku XIX, gdy zbudowano dwie wielkie teorie: termodynamikę oraz elektrodynamikę wraz z optyką falową, wielu uczonych niechętnie patrzyło na rozważania teoretyczne, ceniąc je niżej niż porządny eksperyment. Kryło się za tym przekonanie, że wyniki eksperymentalne pozostaną słuszne zawsze, natomiast teorie mogą się zmieniać. Newton bardziej niż ktokolwiek pokazał, jak przekształcić naukę w maszynę zdobywania wiedzy opartą na matematycznych teoriach i ekspeymentalnych szczegółach. Pedanteria i wąski sposób myślenia stały się metodą: nie próbujemy na codzień wyjaśnić natury świata ani udzielić odpowiedzi na pytania ostateczne, lecz koncentrujemy się na tych szczegółach, które rozumiemy, najlepiej w sposób matematyczny. Sam Newton sądził, że wszystkie barwy przedmiotów mają pochodzenie interferencyjne, możemy więc z ich obserwacji wysnuć wnioski na temat struktury. Tak nie nie jest, choć pewne barwy w przyrodzie – np. błękitne skrzydła motyla Morpho są rzeczywiście interferencyjne.

Wyjaśnienie zjawisk interferencyjnych sprawiało Newtonowi trudność. Uważał bowiem światło za strumień cząstek, choć nie miał na to rozstrzygających dowodów. Dlatego w pracach takich, jak Optics, nie zajmował wyraźnego stanowiska, ograniczając się do tego, co pewne, tj. wyników doświadczeń. W okresie korespondencji z Hookiem Newton sądził, iż cząstka światła, padając na pierwszą powierzchnię, wzbudza falę eteru. Fala ta podróżuje szybciej niż światło i gdy cząstka światła dotrze do drugiej powierzchni, napotyka zgęszczenie bądź rozrzedzenie eteru i odbija się bądź przechodzi przez tę powierzchnię. Tak więc istniałyby swego rodzaju fale pilotujące, które decydują o losie cząstki. Zauważmy, że z punktu widzenia klasycznego trudno wyjaśnić, skąd cząstka światła „wie” o drugiej powierzchni. Cząstki kwantowe są swoistym połączeniem aspektu falowego i cząstkowego: amplituda fali określa prawdopodobieństwo, ale też wiemy, że zachowania kwantowe wciąz zaskakują fizyków.

Zobaczmy na koniec, jakie jest falowe wyjaśnienie pierścieni Newtona. Aby otrzymać interferencję konstruktywną (wzmocnienie fal odbitych od obu powierzchni warstwy), jej grubość musi spełniać warunek:

2h=(2k+1)\dfrac{\lambda}{2},

gdzie \lambda jest długością fali (różnica odległości to 2h, dodatkowe \frac{1}{2}\lambda bierze się ze zmian fazy przy odbiciu, koniecznej, aby dla h=0, czyli przy braku warstwy, odbicie nie następowało (oczywiście, wyjaśniają to równania Maxwella). Długość fali odpowiadająca Newtonowskiej barwie jasnocytrynowożółtej to \lambda=0,57\, \mu m – lampy sodowe popularne na ulicach dają światło o \lambda=0,589\,\mu m. Podobnie jest dla innych barw, Isaac Newton rzeczywiście był pedantycznie dokładny. I nawet tak mało istotne zjawisko jak barwy warstewek może prowadzić do ważnych odkryć.

Opiszemy jeszcze związek promienia pierścienia x i grubości warstwy. Z tw. Pitagorasa otrzymujemy

x^2=R^2-(R-h)^2=h(2R-h)\approx 2Rh.

Newton stosował tę samą matematykę do obliczenia przyspieszenia dośrodkowego, zob. Księżycowy test Isaaca Newtona.

Kwantowa gra Johna Bella

John Stuart Bell był tylko o rok starszy od Petera Higgsa. Zajmowali się różnymi dziedzinami fizyki. W roku 1964 obaj ogłosili prace, które mogły przynieść im Nagrodę Nobla, choć zapewne żaden z nich z początku w to nie wierzył. Higgs doczekał się odkrycia „swojego” bozonu w Zderzaczu Hadronów w CERN-ie w roku 2015. Eksperymentalne potwierdzenia pracy Bella zaczęły się pojawiać od początku lat siedemdziesiątych XX w., lecz dopiero kilka lat temu zamknięto wszelkie luki aparaturowe, które mogłyby prowadzić do innego wyjaśnienia wyników, niż przewiduje mechanika kwantowa. Bell nie doczekał się Nagrody Nobla, zmarł niespodziewanie w roku 1990. Wiadomo, że wysuwano jego kandydaturę do szwedzkiej nagrody w owym roku. Gdyby żył, zapewne by ją wtedy albo później otrzymał.

Osiągnięcia Bella przyjmowane były z oporami, ponieważ dotyczyły podstaw mechaniki kwantowej, a więc dziedziny, która mimo rozmaitych zastrzeżeń filozoficznych świetnie funkcjonuje w praktyce. Po wczesnych dyskusjach z lat dwudziestych i trzydziestych, gdy swoje zastrzeżenia wysuwali uczeni tacy jak Albert Einstein i Erwin Schrödinger, zwyciężyła postawa praktyczna: wyniki eksperymentów zgadzały się z obliczeniami, nie warto więc dzielić włosa na czworo. Bell należał pod tym względem do dysydentów, podstawy mechaniki kwantowej nie dawały mu spokoju. Pracując w CERN-ie na codzień  zajmował się fizyką cząstek i budową akceleratorów, sam mówił żartobliwie o sobie, że jest inżynierem kwantowym, ale przy niedzieli miewa także zasady. I właśnie te jego uboczne prace okazały się najważniejsze. (Jest tu pewne podobieństwo z Peterem Higgsem, który zajmował się w latach sześćdziesiątych kwantową teorią pola – dziedziną wówczas niemodną i spisaną, zdawało się, na straty, królowało bowiem podejście oparte na własnościach macierzy S.)

Bell znalazł sposób, by wyrazić ilościowo różnicę między przewidywaniami mechaniki kwantowej i tzw. lokalnym realizmem, czyli w praktyce jakąś wersją klasycznego zdrowego rozsądku. Chodzi o pewne korelacje między wynikami pomiarów, które kłócą się z naiwnym rozumieniem pojęcia cząstki kwantowej jako bytu w zasadzie punktowego. Cząstki kwantowe mogą bowiem występować w stanach splątanych ze sobą pomimo przestrzennego oddalenia. Zjawisko splątania jest podstawą idei komputera kwantowego. Gdybyśmy potrafili kontrolować i utrzymywać dostatecznie długo takie stany splątane, można by rozwiązywać zagadnienia niedostępne klasycznym komputerom. Przykładem jest tzw. algorytm Shora, który pozwalałby komputerowi kwantowemu szybko znajdować podzielniki wielkich liczb, co jest zagadnieniem praktycznie niewykonalnym dla klasycznych komputerów i fakt ten wykorzystywany jest w szyfrowaniu danych. Komputer kwantowy odpowiednich rozmiarów mógłby w zasadzie złamać te wykorzystywane powszechnie kody (lecz zarazem technologie kwantowe mogą służyć do przesyłania danych  w taki sposób, że niemożliwe jest ich podglądanie przez niepowołanych). Są i inne problemy, w których komputery kwantowe potrafiłby zdziałać znacznie więcej niż klasyczne, toteż nic dziwnego, że dziedzina ta jest w ostatnich latach finansowana na świecie jak bodaj żadne inne badania z fizyki.

Poniżej opiszemy pewną dziwaczną grę, grę Bella, w której wszelkie strategie klasyczne są mniej wydajne niż strategia wykorzystująca kwantowomechaniczne stany splątane. Jest to więc przykład czegoś, co dzięki mechanice kwantowej można robić lepiej, niż to jest możliwe w świecie klasycznym. Sama gra jest dość sztuczna, jednak owa kwantowa nadwyżka efektywności jest czymś realnie istniejącym i obserwowanym w eksperymentach. Mówimy o pewnym zachowaniu przyrody, które przed pracami Bella nikomu nie przyszło do głowy. (Dokładnie biorąc, nasza gra oparta jest na tzw. nierówności CHSH – od nazwisk: Johna Clausera, Michaela Horne’a, Abnera Shimony’ego i Richarda Holta.)

Najpierw parę słów o stanach kwantowych na przykładzie polaryzacji fotonu. Światło, czyli klasycznie rzecz biorąc fala elektromagnetyczna może być spolaryzowana liniowo – znaczy to tyle, że drgania pola elektrycznego zachodzą w pewnej ustalonej płaszczyźnie (prostopadłej do kierunku rozchodzenia się fali, mówimy, że fale elektromagnetyczne są poprzeczne). Istnieją urządzenia, zwane polaryzatorami, które przepuszczają jedynie składową pola wzdłuż pewnej osi. Jeśli wchodząca fala jest spolaryzowana pod kątem \varphi do osi polaryzatora, to z fali o amplitudzie E zostaje przepuszczona tylko składowa E\cos\varphi.

Ponieważ natężenie fali (energia przez nią przenoszona) jest proporcjonalne do kwadratu amplitudy, więc natężenie I światła przepuszczonego przez polaryzator jest mniejsze od natężenia I_0 światła wchodzącego do polaryzatora:

I=I_0\cos^2\varphi.

Jest to znane z fizyki klasycznej prawo Malusa (od francuskiego badacza z początku XIX wieku). Jak wygląda kwantowy opis takiej sytuacji? Mamy teraz osobne cząstki, fotony. Foton może przejść przez polaryzator w całości albo wcale. W naszym przypadku, oznaczając stan fotonu przed polaryzatorem |\varphi\rangle, a stany z polaryzacją pionową i poziomą odpowiednio |V\rangle oraz | H\rangle, możemy to zapisać następująco:

|\varphi\rangle=\cos\varphi |V\rangle+\sin\varphi |H\rangle.

Foton jest stanie zawierającym w części \cos\varphi stan o polaryzacji pionowej oraz w części \sin\varphi stan o polaryzacji poziomej. Przejście przez polaryzator należy z punktu widzenia mechaniki kwantowej traktować jako pomiar. Polaryzator zadaje pytanie: czy twoja polaryzacja jest pionowa? Prawdopodobieństwo odpowiedzi TAK=1 równe jest \cos^2\varphi, a prawdopodobieństwo odpowiedzi NIE=0 równe jest \sin^2\varphi. Teoria nie daje nam wskazówek, jak zachowa się pewien konkretny foton: wiadomo, że obserwując fotony za polaryzatorem, otrzymamy chaotyczny ciąg bitów: zer i jedynek, przy czym częstość występowania jedynek będzie równa \cos^2\varphi. W ten sposób odtwarza się klasyczne prawo Malusa.

Stany układu są wektorami w pewnej abstrakcyjnej przestrzeni, w przypadku polaryzacji przestrzeń ta jest dwuwymiarowa i każdy wektor można zapisać jako kombinację wektorów |H\rangle oraz |V\rangle. Kwadraty współczynników w tym rozwinięciu mają sens prawdopodobieństw. Pomiar powoduje redukcję stanu: nie wiemy z góry, czy foton pojawi się za polaryzatorem, ale jeśli się w ogóle pojawi, to jego polaryzacja będzie |V\rangle. Oczywiście polaryzacja nie opisuje wszystkiego, co można wiedzieć o fotonie, ale my będziemy się interesowali jedynie stanami polaryzacyjnymi.

Jak opisuje się parę cząstek, np. dwa fotony? Możemy podać po prostu stany obu fotonów, pojawią się wtedy cztery stany bazowe: |H\rangle|H\rangle,\, |H\rangle|V\rangle,\, |V\rangle|H\rangle,\,|V\rangle|V\rangle. Wyobraźmy sobie np. układ dwóch fotonów w stanie |\varphi\rangle|V\rangle. Jeśli pierwszy z tych fotonów przepuścimy przez polaryzator przepuszczający polaryzację pionową, to tak samo jak poprzednio nastąpi redukcja stanu |\varphi\rangle\rightarrow|V\rangle, druga część natomiast się nie zmieni, bo przecież nic z tym drugim fotonem nie robiliśmy, w rezultacie otrzymamy stan |V\rangle|V\rangle z prawdopodobieństwem \cos^2\varphi. Nowa przestrzeń stanów jest rozpięta przez cztery wektory bazowe i dowolna ich kombinacja jest dopuszczalnym stanem fizycznym. Np. stan

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|H\rangle|H\rangle+\dfrac{1}{\sqrt{2}}|V\rangle|V\rangle.

Ten stan nie daje się zapisać jako iloczyn dwóch czynników odpowiadających poszczególnym fotonom. Jest to właśnie stan splątany. Jeśli pierwszy foton przepuścimy przez polaryzator przepuszczający pionową polaryzację, to z prawdopodobieństwem \frac{1}{2}=\frac{1}{\sqrt{2}^2} pierwszy foton przejdzie w stan |V\rangle, drugi nie ma wyjścia i też okaże się stanem |V\rangle. Co to oznacza? Stan drugiego fotonu znany jest bez mierzenia, po prostu dlatego że był splątany z pierwszym. Oba fotony mogą znajdować się dowolnie daleko od siebie. Z chwilą gdy dokonamy pomiaru polaryzacji pierwszego fotonu, znamy też polaryzację drugiego (jest taka sama). Oba fotony tworzą pewną skorelowaną z sobą całość. Co więcej, nasz stan |\Psi\rangle jest w istocie niezależny od kierunku. Jeśli za nowe wektory bazowe weźmiemy wyżej zapisany stan |\varphi\rangle i stan prostopadłej do niego polaryzacji

|\varphi_{\perp}\rangle=-\sin\varphi|V\rangle+\cos\varphi|H\rangle,

to okazuje się, że stan splątany możemy zapisać w postaci

|\Psi\rangle=\dfrac{1}{\sqrt{2}}|\varphi\rangle|\varphi\rangle+\dfrac{1}{\sqrt{2}}|\varphi_{\perp}\rangle|\varphi_{\perp}\rangle.

Oznacza to, że gdy wykonamy pomiar polaryzacji pierwszego fotonu za pomocą dowolnie zorientowanego polaryzatora i ów foton przejdzie przez polaryzator (z prawdopodobieństwem \frac{1}{2}), to wiemy na pewno, że drugi ma dokładnie taką samą polaryzację, choćby znajdował się już w galaktyce Andromedy. Zachodzą więc związki między cząstkami, które mogą być daleko od siebie. To z tej okazji Einstein mówił o niesamowitym oddziaływaniu na odległość (spukhafte Fernwirkung). Jednak nie chodzi tu o żadne oddziaływania, lecz o pewne korelacje. Nie można za pomocą splątania przekazywać informacji, niemniej zachodzą korelacje, które można próbować wykorzystać, czym zajmuje się cała dziedzina komputerów kwantowych.

Przejdźmy wreszcie do gry Bella. Mamy dwa identyczne urządzenia obsługiwane przez parę uczonych Alicję i Bartka. Każde z nich składa się z dźwigni przełączanej między dwoma stanami x=0,1 (Alicja), y=0,1 (Bartek). Wynikiem działalności każdego z nich jest także jeden bit informacji: a=0,1 (Alicja), b=0,1 (Bartek). Nasi obserwatorzy znajdują się daleko od siebie i nie mogą na siebie wpływać. Ich zadaniem jest uzyskanie jak największej liczby punktów w kooperatywnej grze. Zdobywają punkt, jeśli uda im się spełnić równanie

x\cdot y=a+b \mod{2}.

Dodawanie modulo 2 różni się od zwykłego tylko w jednym przypadku: 1+1=0. Gra jest statystyczna, każde z nich generuje w sposób przypadkowy x (albo y), po czym za pomocą dowolnej procedury opartej na znajomości tego bitu oraz reguł gry generuje bit a (albo b). Na końcu ich serie wyników są porównywane i oblicza się liczbę zdobytych punktów.

Jeśli bity a,b będą generowane przypadkowo, prawdopodobieństwo wygranej będzie równe \frac{1}{2}. Proste strategie deterministyczne albo i nie prowadzą do prawdopodobieństwa wygranej \frac{3}{4}. Jest to nierówność Bella dla tej sytuacji:

P(a=b|0,0)+P(a=b|0,1)+P(a=b|1,0)+P(a\neq b|1,1)\leq\dfrac{3}{4}.

Istnieje oparta na mechanice kwantowej strategia zapewniająca większe prawdopodobieństwo wygranej i naruszająca nierówność Bella. Należy zaopatrzyć naszych graczy w każdej turze w parę fotonów w stanie splątanym |\Psi\rangle. Dalej powinni postąpić następująco: oboje zależnie od wartości swojego bitu x,y powinni wybrać odpowiedni kąt ustawienia polaryzatora: \alpha_0,\alpha_1 (Alicja) oraz \beta_0,\beta_1 (Bartek). Dla wybranego kierunku dokonują oni pomiaru na stanie splątanym |\Psi\rangle i w ten sposób ustalają wartość swojego bitu a albo b. Okazuje się, że taka strategia daje prawdopodobieństwo wygranej

Q=\cos^2(\alpha_0-\beta_0)+\cos^2(\alpha_0-\beta_1)+\cos^2(\alpha_1-\beta_0)+\sin^2(\alpha_1-\beta_1).

Dla wartości \alpha_0=0, \alpha_1=\frac{\pi}{4}, \beta_0=-\beta_1=\frac{\pi}{8} otrzymujemy

Q=\dfrac{2+\sqrt{2} }{4} >\dfrac{3}{4}.

Przed pracami Johna Bella nikt nawet nie przypuszczał, że można badać takie korelacje kwantowe ani że może to być wykorzystane, najpierw do lepszego zrozumienia przyrody, a z czasem także i do zastosowań technicznych. Niewielu jest  uczonych, którzy dają początek nowej dziedzinie wiedzy i John Stuart Bell należy do tego elitarnego grona.

Szczegóły rachunków można znaleźć tutaj. Nicolas Gisin, jeden z uczestników eksperymentów i prac teoretycznych w tej dziedzinie napisał książkę popularną niemal w całości poświęconą grze Bella: Quantum Chance. Nonlocality, Teleportation and Other Quantum Marvels (Springer, 2014).

Jak Albert Einstein wymyślił ruchy Browna (1905)

Albert Einstein kojarzy się głównie z teorią względności: szczególną i potem ogólną. Jego zainteresowania obejmowały jednak całość gmachu fizyki, jak nikt bowiem troszczył się o logiczną spójność i prostotę całości, wiele jego prac brało początek nie tyle z konkretnych problemów, ile raczej z potrzeby uzgodnienia różnych punktów widzenia. Tematyka teorii względności nie pochłaniała też większości jego czasu i uwagi. W pierwszym, najbardziej twórczym, ćwierćwieczu swej działalności był Einstein jednym z pionierów i mistrzów fizyki statystycznej. Dziedzina ta wyrosła z kinetycznej teorii gazów w sposób prawie niezauważalny w pierwszych latach XX wieku. Metody statystyczne zastosowane do gazów i rozwinięte przez Ludwiga Boltzmanna uogólnił Einstein w latach 1902-1904 na dowolne układy składające się z wielu cząstek. Nie wiedział wówczas, że dobiegający kresu życia Josiah Willard Gibbs sformułował tę samą teorię w książce Elementary Principles in Statistical Mechanics wydanej w Stanach Zjednoczonych w roku 1902. Gibbs, który spędził niemal całe życie w New Haven w Connecticut jako profesor uniwersytetu Yale, był pierwszym i aż do lat trzydziestych jedynym wybitnym teoretykiem amerykańskim. Jego prace znane były w Europie, lecz Einstein zapoznał się z książką Gibbsa dopiero po ukazaniu się jej niemieckiego przekładu i stwierdził, że gdyby znał ją wcześniej, to nie napisałby swoich trzech wczesnych prac dotyczących podstaw fizyki statystycznej. Bez wątpienia przyczyniły się one wszakże do jego naukowego rozwoju, technikami statystycznymi posługiwał się bowiem później z wielkim wyczuciem i pewnością.

Lata 1896-1905 są w rozwoju naukowym Einsteina okresem bodaj najciekawszym, wtedy właśnie ukształtował się uczony, który w roku 1905 ogłosił cztery przełomowe prace stawiające w nowym świetle kilka naraz dziedzin fizyki. Pierwsza z nich dotyczyła cząstkowej natury światła i była najbardziej może rewolucyjna. Czwarta dotyczyła teorii względności, czyli jak to wtedy mówiono, elektrodynamiki ciał w ruchu. Do swego przyjaciela Conrada Habichta Einstein pisał wtedy:

Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast dowodzi, iż z założeń molekularnej [kinetycznej] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy]; w rzeczy samej, fizjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna.

Robert Brown, wybitny botanik, zaobserwował to zjawisko w roku 1827, badając pod mikroskopem pyłki klarkii nadobnej i wydzielane przez nie drobne cząstki (amyloplasty i sferosomy). Otóż cząstki te wykonywały nieustający zygzakowaty ruch. Brown sumiennie i metodycznie podszedł do swego odkrycia, stwierdzając, że podobne ruchy obserwuje się także w przypadku drobnych cząstek nieorganicznych, nie mają więc one nic wspólnego z życiem. Do końca wieku XIX zjawiskiem ruchów Browna zajmowali się od czasu do czasu fizycy, nie zaowocowało to jednak żadnymi charakterystykami ilościowymi. Mimo że rozwinęła się wówczas kinetyczna teoria gazów i powtarzano od czasu do czasu wyjaśnienie zjawiska za pomocą zderzeń z cząsteczkami cieczy, nikomu nie udało się wyjść poza ogólniki. Charakterystyczne są tu uwagi Henri Poincarégo w książce Nauka i hipoteza. Matematyk pisze tu o zjawiskach nieodwracalnych, podlegają one prawu wzrostu entropii, trudno więc uzgodnić je z zasadami mechaniki, które są odwracalne:

Przez długi czas termodynamika ograniczała się do badań nad rozszerzaniem się ciał i zmian w ich stanie. Od pewnego czasu stała się ona zuchwalszą i znacznie rozszerzyła swój zakres. Zawdzięczamy jej teorię stosu, teorię zjawisk termoelektrycznych; nie ma w całej fizyce kąta, który by nie był objęty jej badaniami; zaatakowała ona nawet chemię. Wszędzie panują te same prawa; wszędzie pod rozmaitością pozorów odnajdujemy zasadę Carnota [tj. drugą zasadę termodynamiki], wszędzie również owo tak niesłychanie abstrakcyjne pojęcie entropii, równie powszechne jak pojęcie energii i jak ono posiadające cechy czegoś realnego. Ciepło promieniste zdawało się jej nie podlegać; przekonano się niedawno, że i ono znajduje się pod panowaniem tych samych praw. (…)

Usiłowano również znaleźć wytłumaczenie mechaniczne tych zjawisk [nieodwracalnych] we właściwym znaczeniu. Nie nadawały się one jednak do tego. Aby wytłumaczenie to znaleźć, należało np. przypuścić, że nieodwracalność jest tylko pozorna, że zjawiska elementarne są odwracalne i ulegają znanym prawom dynamiki. Lecz elementy są nadzwyczaj liczne i mieszają się ze sobą coraz bardziej, tak iż dla tępych naszych oczu wszystko zdaje się zdążać do jednostajności, czyli wszystko zdaje się postępować w jednym kierunku, bez nadziei powrotu. Pozorna nieodwracalność jest tedy po prostu przejawem prawa wielkich liczb. Jedynie istota o zmysłach nieskończenie subtelnych, w rodzaju urojonego demona Maxwella, potrafiłaby rozwikłać tę poplątaną sieć i zawrócić świat wstecz.

Koncepcja ta, związana z teorią kinetyczną gazów, powstała kosztem wielkich wysiłków i ostatecznie okazała się mało płodną, może się stać nią jednak. Nie tutaj miejsce rozpatrywać, czy nie prowadzi ona do sprzeczności, i czy odpowiada ściśle rzeczywistej naturze rzeczy.

Wspomnijmy przecież o oryginalnych pomysłach fizyka Gouy’ego, dotyczących ruchu brownowskiego. Według tego badacza osobliwy ten rodzaj ruchu uchyla się od zasady Carnota. Cząstki, które wprawia on we wstrząśnienie, mają być mniejsze niż oka tej tak gęsto zasnutej sieci; mogą one przeto oka te rozwikłać i w ten sposób kazać światu postępować wstecz. [Nauka i hypoteza, przeł. M.H. Horwitza pod red. L. Silbersteina, Warszawa-Lwów 1908, pisownia uwspółcześniona]

Zaprezentowaliśmy ten cytat nie tylko dla zobrazowania poglądów panujących w pierwszych latach XX wieku, ale i dlatego, że książkę Poincarégo czytał Einstein z przyjaciółmi, Conradem Habichtem (adresatem listu powyżej) i Mauricem Solovine. Utworzyli oni nieformalną grupę samokształceniową, którą nazywali żartobliwie Akademią Olympia – wszyscy trzej byli raczej bez grosza i postrzegali siebie jako outsiderów wobec rozmaitych szacownych ciał oficjalnych. Niewykluczone, że Einstein wiedział na temat ruchów Browna tyle albo niewiele więcej niż można znaleźć u Poincarégo. 

Akademia Olympia w pełnym składzie, pierwszy z lewej Conrad Habicht.

W odróżnieniu od franuskiego luminarza nauki młody Einstein nie miał wątpliwości, że metody statystyczne Boltzmanna, czyli mechanika statystyczna, mogą objaśnić także zjawiska nieodwracalne (np. zamianę pracy na ciepło pod wpływem tarcia albo oporu ośrodka). Na poziomie molekularnym nie widać zresztą, w którą stronę płynie czas. Nie widać tego także w ruchach Browna. Drobna, lecz ogromna w skali molekularnej, cząstka pod mikroskopem porusza się pod wpływem chaotycznych zderzeń z cząsteczkami cieczy bądź gazu. Zderzenia te przekazują obserwowanej cząstce pewien pęd, ruch wypadkowy jest tu skutkiem nierównomierności tych zderzeń: czasem przekazują one pęd w jednym kierunku, czasem w innym. W rezultacie cząstka porusza się osobliwym zygzakowatym ruchem. Uczeni badający to zjawisko przed Einsteinem starali się np. zmierzyć prędkość ruchów Browna, otrzymywali jednak wyniki niespójne i nie dające się ująć w żadne prawidłowości. W ruchach Browna decydujące znaczenie mają odchylenia od średnich – fluktuacje statystyczne, a nie same średnie. Badanie fluktuacji metodami fizyki statystycznej stało się ulubionym podejściem Einsteina w wielu zagadnieniach. Nastawienie to odróżniało go nie tylko od konserwatystów w rodzaju Poincarégo, ale także od pionierów: Boltzmanna i Gibbsa, którzy koncentrowali się raczej na tym, jak metodami statystycznymi powtórzyć wyniki termodynamiczne. Młody uczony, którego na razie nikt nie traktował na tyle serio, by dać mu posadę na uczelni, szedł więc tutaj zupełnie samodzielną drogą. Można powiedzieć, że był prekursorem stosowania prawdopodobieństw w fizyce. Metody probabilistyczne odróżniają zdecydowanie fizykę XX wieku od szukającej wszędzie absolutnej pewności fizyki dziewiętnastowiecznej. Choć Einstein nigdy nie pogodził się z brakiem determinizmu na poziomie zjawisk podstawowych (słynne „Bóg nie gra w kości!”), to sam przyczynił się w znacznym stopniu do zmiany podejścia uczonych i wprowadzenia metod statystycznych. 

W pracy z 1905 roku Einstein nie był pewien, czy to, co opisuje to owe słynne ruchy Browna. Pisze:

Niewykluczone, że omawiane tu ruchy są identyczne z tak zwanymi molekularnymi ruchami Browna, ale dostępne mi dane na ich temat są tak nieprecyzyjne, iż nie mogłem w tej sprawie sformułować opinii. (przeł. P. Amsterdamski)

Warto zauważyć, że sto lat temu dostęp do informacji naukowej był zgoła niełatwy, zwłaszcza dla kogoś, kto pracował przez cały dzień w biurze i w godzinach pracy nie mógł chodzić do biblioteki naukowej. Oczywiście Einsteinowi chodzi tu o coś więcej niż samą kwestię ruchów Browna:

Jeżeli ruchy, które tu omówimy, rzeczywiście można zaobserwować i jeżeli spełnione są prawa, którym powinny podlegać, to nie sposób dalej utrzymywać, że termodynamika klasyczna zachowuje ważność w sytuacji, gdy poszczególne obiekty dają się odróżnić nawet za pomocą mikroskopu, i ścisłe wyznaczenie rzeczywistych rozmiarów atomowych staje się możliwe. Z drugiej strony, jeżeli przewidywania dotyczące tych ruchów okażą się błędne, fakt ten stanowiłby bardzo poważny argument przeci molekularno-kinetycznej teorii ciepła. (przekł. jw.)

Einstein stosuje do opisu ruchu cząstki brownowskiej rachunek prawdopodobieństwa. W jednym wymiarze rozkład prawdopodobieństwa zależny od położenia x i czasu t opisany jest funkcją p(x,t). Zakładamy, że położenia cząstki w chwili późniejszej t+\tau są statystycznie niezależne od położeń w chwili t. Mamy wtedy równanie:

p(x,t+\tau)={\displaystyle \int_{-\infty}^{\infty} p(x+\Delta, t)\phi(\Delta)d\Delta},

gdzie \phi(\Delta) jest pewnym symetrycznym rozkładem prawdopodobieństwa. Czytelnik zechce zauważyć podobieństwo do podejścia Louisa Bacheliera, o którym Einstein nic nie wiedział wtedy ani zresztą także i później, ich trajektorie naukowe nigdy się nie przecięły. Einstein rozwija w szereg Taylora funkcję po lewej stronie względem czasu, a po prawej względem położenia, ograniczając się do najniższych pochodnych dających nietrywialny wynik:

p(x,t+\tau)=p(x,t)+\tau\dfrac{\partial p}{\partial t}=p(x,t)+\dfrac{1}{2}{\displaystyle \dfrac{\partial^2 p}{\partial x^2} \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Po uproszczeniu otrzymujemy równanie dyfuzji:

\dfrac{\partial p}{\partial t}=D \dfrac{\partial^2 p}{\partial x^2}, \mbox{  gdzie  } D=\dfrac{1}{2\tau} {\displaystyle \int_{-\infty}^{\infty}  \Delta^2 \phi(\Delta)d\Delta}.

Jest to równanie opisujące rozkład prawdopodobieństwa położeń pojedynczej cząstki (jeśli cząstek jest niewiele, to ich ruchy powinny być niezależne). Rozwiązanie znane było powszechnie i można je zapisać następująco:

{\displaystyle p(x,t)=\dfrac{1}{\sqrt{4\pi Dt}}\exp{\left(-\dfrac{x^2}{4Dt}\right)}.}

 

Mamy więc mały cud: bardzo nieregularne ruchy odpowiadają gładkiemu rozkładowi gaussowskiemu, który rozpływa się z czasem. Wygląda to jakoś tak.

Biorąc pewną próbkę błądzących cząstek, otrzymamy histogram częstości, który dla wielu prób zbieżny będzie do rozkładu Gaussa. Jest to zagadnienie błądzenia przypadkowego, o którym pisaliśmy niedawno. Z punktu widzenia Einsteina najważniejsza była wartość średnia x^2, czyli dyspersja rozkładu (kwadrat odchylenia standardowego):

\langle x^2\rangle=2Dt.

Einstein powiązał współczynnik D z lepkością ośrodka \eta i promieniem cząstek brownowskich r oraz temperaturą T, otrzymując

\langle x^2\rangle=\dfrac{kT}{3\pi \eta r}t.

Zależność tę przetestował później Jean Perrin, potwierdzając wyniki Einsteina i Mariana Smoluchowskiego, który trochę później ogłosił równoważną teorię ruchów Browna. Dzięki temu potwierdzono istnienie atomów, a także słuszność fizyki statystycznej jako metody badania obiektów makro− i mezoskopowych. 

 

 

 

 

Lord Rayleigh i błękit nieba, 1871

John William Strutt, pierworodny syn barona Rayleigha i dziedzic tytułu, był słabego zdrowia. Nie chodził z tego powodu regularnie do żadnej szkoły, uczył się prywatnie, co chyba mu wyszło na dobre. Studiował w Trinity College w Cambridge i tam w ciągu kilku lat okazało się, że ma talent do matematyki. Z czasem został jednym z najwszechstronniejszych fizyków swoich czasów. Zajmował się wieloma dziedzinami, szczególnie upodobał sobie zjawiska związane z falami różnego rodzaju. Prowadził też eksperymenty, jego największym osiągnięciem było odkrycie argonu, za które uzyskał Nagrodę Nobla w roku 1904, rok po małżonkach Curie. Skromnie opisuje to odkrycie jako rezultat dokładności swoich eksperymentów: azot uzyskany z powietrza i azot uzyskany drogą chemiczną różniły się nieco gęstością. Rayleigh zaczął badać wszystkie możliwe powody tej różnicy i odkrył nowy składnik powietrza, którego istnienia nikt nie podejrzewał.
Prace Rayleigha są znakomicie i przejrzyście napisane, w zbiorowym wydaniu zajmują sześć tomów z pewnością nie dlatego, by autor mnożył je ponad potrzebę, jak to często zdarza się dzisiaj. Zajmiemy się tu tylko jednym tematem badanym przez Rayleigha: rozpraszaniem światła w atmosferze. Bezchmurne niebo jest głęboko błękitne, mimo że powietrze jest przecież oświetlone białym światłem słonecznym. Z punktu widzenia fizyka oznacza to, że światło niebieskie łatwiej jest rozpraszane niż inne barwy. Z tego samego powodu zachodzące słońce jest czerwone: bo światło przechodzi wówczas przez grubszą warstwę atmosfery i światło niebieskie zostało rozproszone na boki – dociera do nas czerwone. Całe piękno wschodów i zachodów słońca sprowadza się więc do zrozumienia, czemu jedne barwy są łatwiej rozpraszane niż inne.

widok z gierlacha
Rozpraszanie światła polega na tym, że padająca fala pobudza do drgań elektrony w cząsteczkach powietrza. Drganiom cząstek naładowanych towarzyszy zawsze powstawanie fali elektromagnetycznej (elektrony drgają w antenie i obwodach naszego telefonu komórkowego, gdy pracuje). Fala ta rozchodzi się we wszystkich kierunkach: w rezultacie część energii fali padającej jest rozpraszana na boki. Gdyby takiego rozproszenia nie było, widzielibyśmy oślepiające słońce na tle czarnego nieba. Dlaczego rozpraszanie zależy od barwy? Barwy światła związane są z długością fali. Fiolet i błękit mają najmniejszą długość fali, pomarańczowy i czerwień – największą. Wyobraźmy sobie falę elektromagnetyczną biegnącą w ośrodku, którego cząstki są znacznie mniejsze niż długość fali. Sytuację przedstawia rysunek: mamy tu falę świetlną wysłaną przez słońce przedstawioną w różnych punktach przestrzeni w jakiejś jednej chwili.

fala

Dwie „cząsteczki powietrza” są mniejsze niż długość fali. Oznacza to, że w każdej z nich pole elektryczne padającej fali jest praktycznie jednakowe. Wobec tego elektrony w naszych „cząsteczkach powietrza” będą drgać zgodnie – a więc wytwarzane przez nie fale będą się dodawać. Gdybyśmy obserwowali falę wytworzoną przez jedną „cząsteczkę powietrza” w pewnej odległości r od tej cząsteczki, to amplituda fali wytworzonej powinna być proporcjonalna do amplitudy fali padającej: dwa razy większa fala wywoła dwa razy większe drgania elektronów. Powinna także maleć odwrotnie proporcjonalnie do r (wszystkie fale w trójwymiarowej przestrzeni tak się zachowują). Amplituda ta powinna też być proporcjonalna do objętości V naszej cząstki powietrza: bo przy dwa razy większej objętości, będzie tam dwa razy więcej elektronów. Mamy jeszcze trzecią wielkość o wymiarze odległości: długość fali λ. Ponieważ stosunek obu amplitud musi być bezwymiarowy, więc jedyną możliwą kombinacją tych wielkości jest

\dfrac{A_{rozpr}}{A_{pad}}\sim \dfrac{V}{\lambda^2 r}.

Natężenie fali, czyli np. przenoszona przez nią energia, jest proporcjonalne do kwadratu amplitudy, zatem natężenia będą odwrotnie proporcjonalne do czwartej potęgi długości fali – jest to bardzo silna zależność i to właśnie widzimy na niebie. Na wykresie widzimy zależność natężenia światła słonecznego od długości fali (krzywa niebieska) i tę samą zależność przefiltrowaną przez rozpraszanie Rayleigha (krzywa czerwona, jednostki na skali pionowej nie mają znaczenia, długości fal są w nm).

rayleigh

Widzimy, że światło o krótkich falach (niebieskie) jest rozpraszane znacznie silniej. Wrażenie barwne zależy jeszcze od wrażliwości oka na różne barwy i mechanizmu samego widzenia barwnego. Na siatkówce mamy trzy rodzaje pręcików wrażliwych na trzy różne obszary widma. To, co widzimy, jest wynikiem współdziałania tych trzech rodzajów pręcików. Nasze oczy nie są dobrym spektrometrem, ponieważ różne rozkłady natężeń mogą prowadzić do tego samego wrażenia – a więc koloru, jaki widzimy. Doświadczenia takie prowadził zresztą lord Rayleigh, który pokazał, że ustalona proporcja światła czerwonego i zielonego daje to samo wrażenie co światło żółte. W przypadku nieba wrażenie barwne jest takie samo, jak dla mieszanki monochromatycznego błękitu o długości fali 475 nm z bielą widmową.

Okazało się zresztą, że z dwóch krzywych na wykresie trudniej zrozumieć tę niebieską, czyli widmo słoneczne – jest to bowiem promieniowanie termiczne, zależne jedynie od temperatury. Zgodnie z fizyką klasyczną każdy rodzaj drgań pola elektromagnetycznego powinien mieć taką samą energię proporcjonalną do temperatury (kT). A ponieważ im krótsza fala, tym więcej rodzajów drgań, więc promieniowanie termiczne powinno „wybuchać” dla krótkich długości fali, co jest jawnym nonsensem. Trudność tę zauważył lord Rayleigh w roku 1900 i próbował zaproponować jakieś rozwiązanie ad hoc. Prawidłowym rozwiązaniem był wzór Plancka, i szerzej cała fizyka kwantowa.

Dodatek dla wymagających

Trochę inne uzasadnienie zależności \lambda^{-4} wygląda następująco: elektrony w ośrodku w każdej chwili znajdują się w chwilowym położeniu równowagi, tzn. ich wychylenie z położenia równowagi jest w każdej chwili proporcjonalne do chwilowej wartości pola elektrycznego E (przybliżenie adiabatyczne: drgania elektromagnetyczne są stosunkowo powolne). Amplituda emitowanej fali jest proporcjonalna do przyspieszenia elektronu, zatem w ruchu harmonicznym o częstości kołowej \omega jest proporcjonalna do \omega^2 E. Natężenie zaś jest kwadratem amplitudy.

Lord Rayleigh nie ograniczył się oczywiście do argumentu wymiarowego, lecz w roku 1899 podał niezwykle elegancki wzór na współczynnik tłumienia światła h (na odległości 1/h natężenie maleje e razy), gdy mamy N cząsteczek chaotycznie rozmieszczonych w jednostce objętości:

h=\dfrac{32\pi^3 (n-1)^2}{3N\lambda^4},

gdzie n jest współczynnikiem załamania gazu. Wzór ten można wyprowadzić nawet w teorii sprężystego eteru. Wynika on także z rozważań w Wykładach Feynmana (t. I cz. II, równania 31.19 oraz 32.19). Wynik jest zbyt prosty, aby zależał od konkretnego modelu (choć Feynman woli raczej trzymać się konkretu). Rzeczywiście, można go uzyskać w sposób fenomenologiczny, co robią różne podręczniki elektrodynamiki. Interesujący współczynnik z trzecią potęgą \pi bierze się częściowo z sumowania natężenia po kącie bryłowym, a częściowo z przeliczania drogi optycznej na fazę, w którym każde \lambda odpowiada zmianie fazy o 2\pi.