Istota teorii względności (1923) – Albert Einstein

Ślepy żuk pełznący po powierzchni globusa nie wie, że tor, po którym się porusza, jest zakrzywiony. Ja miałem szczęście to zauważyć [A. Einstein]

Ta niewielka książeczka jest jedynym kompletnym przedstawieniem teorii przez jej twórcę, adresowanym do zawodowych uczonych, stanowiąc coś pośredniego między monografią a podręcznikiem. Ukazała się najpierw w 1923 roku w wersji angielskiej nakładem Princeton University Press oraz w wersji niemieckiej w wydawnictwie Vieweg & Sohn (z datą roczną 1922). Od tamtej pory doczekała się niezliczonych wydań w wielu językach. Uczony nie zmieniał głównego tekstu, choć z czasem dołączył kilka dodatków traktujących o późniejszych osiągnięciach.

Podstawą książki były wykłady wygłoszone w maju 1921 roku na uniwersytecie w Princeton. Czterdziestodwuletni Einstein wybrał się w swą pierwszą podróż za ocean, towarzysząc Chaimowi Weizmannowi i delegacji syjonistów. Ich celem było zebranie funduszy na założenie uniwersytetu w Jerozolimie. Uczony, który w kilku poprzednich latach z odrazą obserwował antysemityzm narastający w społeczeństwie niemieckim i który sam stał się ofiarą niewybrednych ataków z rasistowskimi podtekstami, zgodził się na ten wyjazd, rezygnując z udziału w pierwszym po wojnie Kongresie Solvaya, konferencji gromadzącej szczupłe grono najwybitniejszych fizyków świata. Po raz pierwszy wystąpił więc Einstein w roli działacza społecznego, wykorzystując autorytet naukowy do propagowania bliskich mu poglądów. Uczony witany był w Ameryce owacyjnie, zwłaszcza przez społeczność żydowską w Nowym Jorku, Bostonie, Cleveland. Niektórzy koledzy Einsteina, jak Fritz Haber, wybitny chemik, Żyd i niemiecki szowinista, mieli mu za złe podróż do Stanów Zjednoczonych, kraju niedawnego wroga. Rany wojenne nie zdążyły się jeszcze zabliźnić, zwłaszcza w Niemczech dźwigających ciężar przegranej wojny. Wielu niemieckich Żydów sądziło też, iż nie należy prowokować antysemityzmu i lepiej siedzieć cicho. Einstein, czy to dlatego, że spędził wiele lat w Szwajcarii, czy też z racji swego charakteru, nie podzielał takiego nastawienia, przeciwnie, to właśnie antysemityzm przyspieszył dojrzewanie jego żydowskiej tożsamości.

Podróż po Stanach Zjednoczonych miała też ważną część naukową. Einstein miał wykłady na Columbia University i w City College w Nowym Jorku, na uniwersytecie w Chicago oraz uniwersytecie Harvarda. W Princeton otrzymał stopień honorowy i wygłosił sławne zdanie, które później wyryto nad kominkiem w sali Wydziału Matematyki: „Pan Bóg jest wyrafinowany, lecz nie jest złośliwy” (odnosiło się ono do pewnych wyników eksperymentalnych zaprzeczających jego teorii). Bezpośrednio po uroczystościach rozpoczął się cykl pięciu wykładów odbywających się w kolejne dni tygodnia. Dwa pierwsze były popularne, następne bardziej techniczne. Wykładu inauguracyjnego słuchało około czterystu osób, podczas drugiego audytorium znacznie się przerzedziło, a kolejne odbywały się już w mniejszej sali dla niewielkiego grona słuchaczy. Na początku pobytu w Princeton uczony podpisał umowę z wydawnictwem uniwersytetu na publikację tekstu jego wystąpień. Ponieważ odbywały się one po niemiecku, wydawnictwo wynajęło niemiecką stenografkę, która notowała na żywo. Każdy z wykładów był na koniec podsumowywany po angielsku przez profesora fizyki Edwina Plimptona Adamsa, który został też tłumaczem wersji książkowej. Dopiero w styczniu 1922 roku uczony przesłał niemiecki tekst książki do wydawnictwa Vieweg & Sohn, wydrukowane przez nie korekty stały się podstawą angielskiego przekładu. Prace te wraz z poprawkami autorskimi zajęły cały rok 1922. Pod jego koniec wydrukowano wydanie niemieckie, a w styczniu ukończono druk wydania angielskiego. W trakcie tych prac ogłoszono wiadomość, że Albert Einstein został laureatem Nagrody Nobla za rok 1921. Laureat przebywał w tym czasie w Azji w drodze do Japonii.

Uczony spodziewał się otrzymać Nagrodę Nobla, w istocie przyszła ona dość późno i z istotnym zastrzeżeniem. Jak pisał Christopher Aurivillius, sekretarz Królewskiej Szwedzkiej Akademii Nauk, w liście do laureata: „Akademia (…) postanowiła przyznać panu Nagrodę Nobla w dziedzinie fizyki za ubiegły rok w uznaniu Pana dokonań w fizyce teoretycznej, w szczególności odkrycia teoretycznych podstaw zjawiska fotoelektrycznego, lecz z pominięciem zasług, które staną się Pana udziałem, gdy potwierdzą się sformułowane przez Pana teorie względności i grawitacji”. Teoria względności była więc w oczach szwedzkich akademików osiągnięciem kontrowersyjnym, podobnie myślało wielu uczonych.

Niewykluczone, że Einstein pragnął swoją książką przekonać część kolegów po fachu. Na początku lat dwudziestych obie teorie względności: szczególną z roku 1905 oraz ogólną z roku 1915 można było uznać za zakończony etap. Dzięki pracy Einsteina, ale także szeregu innych fizyków i matematyków, jak Max Planck, Max von Laue, David Hilbert, Felix Klein, Emmy Noether, Max Born, Hermann Weyl, Tullio Levi-Civita, Karl Schwarzschild, Hans Thirring, Josef Lense, Willem de Sitter, Hendrik Lorentz, Gunnar Nordström, Erich Kretschmann, Arthur Eddington, Paul Ehrenfest, Johannes Droste, Paul Langevin udało się wyjaśnić wiele aspektów nowej teorii – już sama lista nazwisk wskazuje, że praca Einsteina nie przebiegała w próżni, a ranga tych uczonych świadczy o poważnym traktowaniu osiągnięć Einsteina. Miał on jednak także sporo przeciwników, którzy z rozmaitych powodów odmawiali jego teorii naukowej wartości, a często także kwestionowali intelektualną uczciwość jej twórcy. Berliński profesor optyki Ernst Gehrcke uznawał teorię Einsteina za skutek zbiorowej sugestii, wybitni eksperymentatorzy (i laureaci Nagrody Nobla) Philipp Lenard i Johannes Stark nie potrafili się pogodzić ze światem nowych pojęć i widzieli w teorii względności produkt reklamy oraz sprytne pomieszanie elementów filozofii, matematyki i fizyki tak, by trudno było znaleźć uczonego zdolnego ją krytykować bez wykraczania poza ramy swej specjalności. Obaj ostatni nie ukrywali też swego antysemityzmu i stali się zwolennikami Adolfa Hitlera jeszcze we wczesnych latach dwudziestych, na długo przed rządami nazistów. Niektórzy, jak szwedzki oftalmolog i laureat Nagrody Nobla Allvar Gullstrand, sądzili, że teoria względności jest pusta wewnętrznie i może prowadzić do różnych wyników w tej samej sytuacji. Dochodziły do tego ostre podziały wśród filozofów, niektórzy jak Hans Reichenbach i Moritz Schlick mocno ją popierali, wielu jednak, jak Oskar Kraus czy Henri Bergson, wyrażało sceptycyzm, jeśli nie wrogość, wobec nowej teorii.
Większość uczonych była na ogół wciąż zdezorientowana, nie wiedząc, co sądzić. Toteż książka Einsteina skupiła się na podkreślaniu ciągłości w rozwoju fizyki, uwydatnieniu pewnej linii rozwoju, w której teoria względności stawała się naturalnym ogniwem. Nie sposób jednak ukryć, że teorie Einsteina zrywały z pojęciami absolutnej przestrzeni i absolutnego czasu, stanowiącymi fundament mechaniki, a z nią całej fizyki od czasów Isaaca Newtona. Kwestionowanie uświęconych tradycją zdobyczy nauki w oczach wielu było gestem obrazoburczym i świętokradczym. To, co starszych przejmowało zgrozą i oburzeniem, w oczach ówczesnych ludzi młodych stawało się fascynującą rewolucją. Karl Popper wspominał, jak wielką rolę w jego myśleniu o nauce odegrała teoria Einsteina, już sam fakt, że można było stworzyć realną alternatywę wobec królującej mechaniki Newtona miał dla niego rangę intelektualnego objawienia.

Zacząć wypada od samej nazwy: teoria względności. Z początku mówiło się o zasadzie względności, potem określać tak zaczęto teorię Einsteina z roku 1905 (szczególną teorię względności), a później Einstein zaczął mówić o uogólnionej bądź ogólnej teorii względności. W dyskursie potocznym zaczęto nazwy tę wiązać z zanegowaniem absolutnego czasu, a nawet szerzej z zanegowaniem dotychczasowej fizyki czy wręcz obowiązującej logiki albo etyki. Oczywiście, teoria względności, tak jak żadna udana teoria fizyczna, nie zmienia świata doświadczenia, ponieważ musi być zgodna z dotychczasowymi danymi eksperymentalnymi. Zmienia jedynie nasz sposób widzenia świata, przewidując nowe zjawiska i rozszerzając tym samym granice wiedzy. Mechanika newtonowska nadal obowiązuje, znamy tylko dokładniej jej ograniczenia. Max Planck, jeden z najwcześniejszych zwolenników teorii Einsteina, przekonuje w swej autobiografii naukowej, że jego zainteresowanie teorią względności wynikło właśnie z szukania w fizyce absolutu, ponieważ w świecie teorii względności są także wielkości oraz pojęcia niezmienne i absolutne. Dlatego nazwa ta bywa myląca.

W czerwcu 1905 roku redakcja „Annalen der Physik” otrzymała pracę nikomu nieznanego urzędnika Biura Patentowego w Bernie zatytułowaną O elektrodynamice ciał w ruchu. Rzecz dotyczyła jednego z najważniejszych zagadnień fizyki teoretycznej, którym w poprzednim dziesięcioleciu zajmowali się dwaj uznani luminarze Henri Poincaré i Hendrik Lorentz. Chodziło o eter – hipotetyczny ośrodek wypełniający świat. Na początku XIX stulecia Thomas Young i Augustin Fresnel wykazali, że światło jest falą. Wyobrażano sobie, że musi ono być falą sprężystą w eterze, czyli drganiem, które propaguje się na wszystkie strony podobnie jak fale akustyczne w powietrzu bądź innych ośrodkach sprężystych. Eter ów charakteryzować się musiał dość osobliwymi własnościami, gdyż z jednej strony był na tyle rzadki, by nie hamować ruchów planet, z drugiej zaś musiał być niezmiernie sprężysty, gdyż prędkość światła jest niewyobrażalnie duża w porównaniu np. z prędkością dźwięku. W przypadku dźwięku wiemy, że jego prędkość dodaje się wektorowo do prędkości powietrza: zmierzona prędkość będzie więc zależeć od prędkości ruchu powietrza. Podobne zjawisko zachodzić powinno także w przypadku światła. Ruch roczny Ziemi po orbicie wokół Słońca zachodzi z prędkością około 30 km/s, co stanowi 1/10 000 prędkości światła. Precyzyjne pomiary powinny wykryć zmiany obserwowanej prędkości światła. Przez cały wiek XIX szereg eksperymentatorów od François Arago w roku 1810 aż do Alberta Michelsona i Edwarda Morleya w roku 1887 starało się za pomocą różnych metod optycznych wykryć ruch Ziemi w eterze. Wyniki wszystkich tych doświadczeń były negatywne. Wyglądało to tak, jakby eter poruszał się razem z Ziemią, ale taka hipoteza rodziła sprzeczności z innymi obserwacjami.

Obok optyki innym wielkim tematem dziewiętnastowiecznej fizyki były elektryczność i magnetyzm. W latach sześćdziesiątych XIX wieku James Clerk Maxwell podsumował te wszystkie badania, podając jednolitą matematyczną teorię zjawisk elektrycznych, magnetycznych oraz optycznych – okazało się bowiem, że powinny istnieć fale elektromagnetyczne. Ich prędkość wynikająca z teorii Maxwella była bliska prędkości światła w próżni. Maxwell wysnuł więc wniosek, że światło jest rodzajem fal elektromagnetycznych. W latach 1887-1888 Heinrich Hertz wykazał, że można w laboratorium wytworzyć fale elektromagnetyczne o długości kilku metrów, które także rozchodzą się z prędkością światła. Teoria Maxwella została potwierdzona, stając się praktycznym narzędziem pracy inżynierów. Niemal równocześnie rozwijały się bowiem techniczne zastosowania elektromagnetyzmu: oświetlenie elektryczne, telefon i pierwsze elektrownie. Ojciec i stryj Einsteina, bracia Rudolf i Jakob, prowadzili najpierw w Monachium, później w północnych Włoszech firmę elektryczną i Albert niemal od dziecka miał do czynienia z techniką elektryczną. Elektrodynamika była także ważnym tematem zajęć laboratoryjnych i wykładów na Politechnice w Zurychu. Einstein jednak od początku nie chciał zostać inżynierem i narzekał, że program studiów nie obejmuje teorii Maxwella.

Teoria Maxwella pozwalała w jednolity sposób opisać ogromny obszar zjawisk. Czyniła to za pomocą pojęć pola elektrycznego oraz magnetycznego. W każdym punkcie przestrzeni i w każdej chwili można było za pomocą dwóch wektorów scharakteryzować stan pola. Wydawało się, że eter z początku wieku zyskał teraz nową funkcję, nośnika pola. Ważną cechą nowego podejścia była lokalność: to, co dzieje się z polem elektrycznym i magnetycznym w danym punkcie zależy od ładunków i prądów w tym samym punkcie. Zaburzenia pola rozchodzą się jako fale elektromagnetyczne. Była to więc fizyka pojęciowo odmienna od Newtonowskiej grawitacji, w której dwie masy oddziałują na siebie na odległość w sposób natychmiastowy. W teorii Maxwella ładunek jest źródłem pola w otaczającej go przestrzeni i pole to z kolei oddziałuje na inne ładunki. Prędkość rozchodzenia się zmian pola jest wielka, ale nie nieskończona. Choć Maxwell dokonał najważniejszej pracy, formułując teorię w sposób logicznie zamknięty, to dopiero jego następcy, m.in. Oliver Heaviside i Hendrik Lorentz, znaleźli prostsze i bardziej eleganckie jej wersje. Okazało się np., że każdy prąd elektryczny jest jedynie ruchem ładunków. Mamy więc dwa rodzaje ładunków, których położenia i prędkości określają stan pola w różnych miejscach – są to równania pola, czyli równania Maxwella. Znając zaś wartość pola elektrycznego i magnetycznego, możemy obliczyć siłę działającą na ładunek – są to równania ruchu (siła Lorentza).

Teoria Maxwella wyrastała z modelu pewnego ośrodka sprężystego i uczony, podobnie jak większość współczesnych, uważał, że jego rolą jest sprowadzenie zjawisk elektrycznych i magnetycznych do zjawisk mechanicznych. W odróżnieniu od teorii Newtona, w której mamy pojedyncze punkty materialne, tutaj substratem jest eter, który wyobrażano sobie jako pewien sprężysty materiał. Paradoksalny status eteru opisał na zjeździe Brytyjskiego Towarzystwa Krzewienia Nauk w Oksfordzie w roku 1894 markiz Salisbury, stwierdzając, że „główną, jeśli nie wyłączną, własnością słowa eter było dostarczanie rzeczownika do czasownika falować”.

Problem wykrycia ruchu Ziemi w eterze stał się tym bardziej palący. Wiadomo było wprawdzie, że inżynier stosować może równania Maxwella, nie przejmując się takimi subtelnościami, ale należało wyjaśnić negatywne wyniki doświadczeń. Hendrik Lorentz spróbował podejść do tego problemu w sposób systematyczny i wykazał, że każdemu stanowi pól w nieruchomym eterze odpowiada pewien stan pól w eterze ruchomym. Chciał w ten sposób podać ogólny dowód, że wszelkie zjawiska elektromagnetyczne przebiegają w taki sposób, aby nie można było ruchu Ziemi wykryć. Wprowadził przy tym dość szczególną konstrukcję matematyczną: w poruszającym się układzie należało zdefiniować czas w taki sposób, że zależał on od współrzędnej przestrzennej. Był to zdaniem Lorentza czas fikcyjny, potrzebny do dowodu niemożliwości wykrycia ruchu przez eter. Okazało się też, że należy założyć coś osobliwego na temat długości obiektów poruszających się: powinny one ulec nieznacznemu skróceniu o czynnik \sqrt{1-v^2/c^2}, gdzie v jest prędkością ruchu obiektu, a c – prędkością światła.

Praca Alberta Einsteina, eksperta technicznego III klasy z Berna, proponowała już we wstępie krok decydujący: pojęcie eteru świetlnego jest w fizyce „zbyteczne”. W ten sposób cała dziedzina badań nad zjawiskami w poruszającym się eterze przechodziła do historii, rozpoczynała się natomiast era szczególnej teorii względności.

Fizycy znali wcześniej zasadę względności. Dotyczyła ona mechaniki. I zasada dynamiki, czyli zasada bezwładności, mówi, że gdy żadne siły nie działają na ciało, to porusza się ono ruchem jednostajnym i prostoliniowym bądź spoczywa. Zasada ta nie dotyczy każdego układu współrzędnych (in. układu odniesienia). Obserwator w hamującym pociągu widzi, jak przewracają się przedmioty, które dotąd spokojnie sobie tkwiły w bezruchu. Hamujący pociąg nie jest więc układem odniesienia, w którym zasada bezwładności ma zastosowanie. Fizycy mówią: nie jest układem inercjalnym (tzn. takim, w którym obowiązuje zasada bezwładności). Pociąg jadący ruchem jednostajnym jest dobrym przybliżeniem układu inercjalnego, podobnie jak powierzchnia Ziemi. Wiemy jednak, że także powierzchnia Ziemi nie jest idealnym układem inercjalnym, ponieważ Ziemia wiruje wokół osi, a także porusza się ruchem rocznym wokół Słońca. Układ inercjalny jest więc pewnym ideałem teoretycznym. Zasady dynamiki mają w takim układzie szczególnie prostą postać i zazwyczaj tak są domyślnie sformułowane.

Ważną cechą układów inercjalnych jest to, że każdy układ odniesienia poruszający się ruchem jednostajnym i prostoliniowym względem jednego z nich jest także układem inercjalnym. mamy więc do czynienia z klasą równoważnych fizycznie układów odniesienia. W każdym z nich obowiązują zasady dynamiki w zwykłej postaci. Nie znaczy to, że nie możemy opisywać ruchu np. w odniesieniu do hamującego pociągu, musimy jednak wtedy uwzględnić dodatkowe siły, które nie wynikają z żadnych oddziaływań, lecz są skutkiem ruchu układu: w hamującym pociągu pasażerowie odczuwają siłę zwróconą ku jego przodowi, która znika, gdy pociąg się zatrzyma.

Isaac Newton sformułował w Matematycznych zasadach filozofii przyrody pojęcia absolutnej przestrzeni – czegoś w rodzaju nieskończonego pojemnika na wszystkie obiekty w świecie oraz absolutnego czasu. Prawa dynamiki obowiązywać miały, gdy ruch odnosimy do owej przestrzeni absolutnej, ale także w każdym układzie odniesienia poruszającym się ruchem jednostajnym i prostoliniowym. W rezultacie w fizyce Newtona nie ma sposobu na ustalenie, który z nieskończonego zbioru układów inercjalnych jest absolutną przestrzenią albo w języku dziewiętnastego wieku: eterem. Nie możemy więc ustalić absolutnego położenia żadnego przedmiotu w sposób empiryczny: dwa zdarzenia zachodzące w odstępie jednej minuty w tym samym punkcie (inercjalnego) pociągu zachodzą w różnych miejscach przestrzeni zdaniem obserwatora na peronie. Fizycznie oba punkty widzenia są równoprawne, a także punkty widzenia wszelkich innych obserwatorów inercjalnych. Absolutna przestrzeń należy więc do założeń metafizycznych Newtona, żadne eksperymenty nie pozwalają jej zlokalizować. Inaczej można powiedzieć, że w fizyce Newtona obowiązuje zasada względności: prawa fizyki są takie same w każdym układzie inercjalnym.

Czas w fizyce Newtona jest rzeczywiście absolutny, to znaczy, można zawsze ustalić, czy zdarzenia są równoczesne, nawet gdy zachodzą one daleko od siebie (zresztą dla pewnego obserwatora inercjalnego będą one równoczesne i zarazem w tym samym punkcie przestrzeni).

Einstein uważał, iż zasadę względności należy rozciągnąć także na zjawiska elektromagnetyczne i zaproponował, aby obowiązywała ona jako nowe prawo fizyki: wszelkie prawa fizyki mają taką samą postać w każdym układzie inercjalnym. Drugim postulatem jego teorii było przyjecie, że prędkość światła w próżni jest dla każdego obserwatora inercjalnego równa tej samej wartości c (wynikającej z teorii Maxwella). Zamiast analizować szczegóły zaproponował więc dwie zasady ogólne, które jego współczesnym wydawały się przeczyć sobie wzajemnie. Rozszerzenie zasady względności na całą fizykę byłoby wprawdzie eleganckim wyjaśnieniem, dlaczego nie obserwujemy ruchu Ziemi w eterze (bo eteru nie ma), ale pojawia się trudność z drugim postulatem. Znaczy on bowiem, że nie tylko prędkość światła zawsze jest równa c, bez względu na ruch źródła światła, ale także równa jest c bez względu na to, czy obserwator goni falę świetlną, czy też porusza się jej naprzeciw. Przeczy to prawu składania prędkości, a przecież eksperymenty potwierdzają je na co dzień: gdy pasażer porusza się z prędkością u (względem pociągu) w kierunku do przodu pociągu jadącego z prędkością v (względem peronu), to jego prędkość względem peronu jest sumą u+v. Dlaczego prawo to nie działa, gdy jednym z obiektów jest światło?

Czyniono często zarzut Einsteinowi, że prędkość światła w próżni jest w jego teorii jakoś szczególnie wyróżniona. Rzeczywiście, istnieje w tej teorii graniczna prędkość poruszania się obiektów materialnych, np. przekazywania energii albo informacji, i to jest właśnie c. Można powiedzieć, że światło ma tę szczególną własność, iż porusza się z ową maksymalną prędkością. Nie ma jednak żadnych przeszkód, aby istniały inne obiekty poruszające się z prędkością c. Wiemy, że światło składa się z fotonów (było to treścią innej pracy Einsteina z tego samego roku, nie bez powodu nazywanego jego „cudownym rokiem”), cząstek poruszających się z prędkością c. Podobnie poruszają się inne cząstki, odkryte później, jak gluony, albo wciąż czekające na odkrycie, jak grawitony. Cząstki takie nie istnieją w stanie spoczynku, lecz zawsze poruszają się z prędkością c.

Istnienie maksymalnej prędkości, i to w dodatku zawsze jednakowej, pozwala na eksperymentalne badanie równoczesności dwóch zjawisk. Obserwator inercjalny może rozmieścić w swoim układzie odniesienia zegary w różnych punktach. Znając odległość tych puntów oraz prędkość światła, może te zegary zsynchronizować. Gdy jego zegar wskazuje czas t, wysyła sygnał do punktu odległego o r i umawia się z kolegą, który tam przebywa, że moment odebrania sygnału będzie czasem t+r/c. Dzięki temu przepisowi wszystkie zegary zostaną zsynchronizowane i można będzie ustalić zawsze czas danego zdarzenia, obserwując go na pobliskim zegarze. Metoda ta zastosowana w innym układzie inercjalnym może dać inne wyniki w odniesieniu do tej samej pary zdarzeń.

Przykład podany przez Einsteina pomaga to zrozumieć. Wyobraźmy sobie jadący pociąg i obserwatora na peronie. W chwili, gdy mija go środek pociągu, w jego początek i koniec uderzają równocześnie dwa pioruny. Ich uderzenia są równoczesne, ponieważ światło obu błyskawic dociera do naszego obserwatora w jednej chwili, a wiadomo, że odległość obu końców pociągu od obserwatora była w tym momencie taka sama. Inaczej opisze te zdarzenia obserwator siedzący w środku pociągu. Jego zdaniem piorun najpierw uderzył w przód pociągu, a dopiero później w jego tył (linia świata pasażera jest na rysunku zakreskowana, jest to zarazem jego oś czasu). Skoro równoczesność dwóch zdarzeń zależy od układu odniesienia, to znaczy, że czas absolutny nie istnieje. Wbrew pozorom nie burzy to jednak naszych koncepcji przyczyny i skutku. Musimy tylko precyzyjnie opisywać zdarzenia, podając ich położenie oraz czas. Zdarzenia takie, jak jednoczesne uderzenia dwóch piorunów w dwóch różnych punktach nie są z pewnością połączone związkiem przyczynowo-skutkowym, ponieważ wymagałoby to oddziaływania przenoszącego się natychmiastowo, z nieskończoną prędkością. Wszystkie zaś oddziaływania fizyczne mogą przenosić się co najwyżej z prędkością światła w próżni. Dlatego zmiana kolejności czasowej obu uderzeń pioruna nie burzy fizyki. Jeśli natomiast jakieś zdarzenie A może potencjalnie być przyczyną innego zdarzenia B, to dla każdego obserwatora ich kolejność czasowa będzie taka sama: t_A<t_B. Obalenie koncepcji absolutnego czasu nie oznacza zatem wprowadzenia anarchii w relacjach czasoprzestrzennych, lecz zaprowadzenie innego ładu niż dotąd.

Był to najważniejszy wniosek Einsteina. Oznaczał konieczność przebudowy samych podstaw fizyki: pojęć czasu i przestrzeni. Okazywało się, że teoria Maxwella zgodna jest z teorią względności, nie wymaga więc żadnej przebudowy. Przeciwnie, fikcyjny czas lokalny Lorentza należy interpretować jako czas rzeczywisty mierzony przez innego obserwatora. Póki znajdujemy się w jednym ustalonym układzie inercjalnym czas wydaje nam się absolutny. Rewolucja dotyczyła porównywania wyników pomiarów dokonywanych przez różnych obserwatorów. W przypadku elektrodynamiki oznaczało to względność pól elektrycznych i magnetycznych. Jeśli np. w jednym układzie odniesienia mamy spoczywający ładunek wytwarzający pole elektryczne, to w innym układzie ładunek ten będzie się poruszać – będziemy więc mieli do czynienia z prądem, i obserwować będziemy zarówno pole elektryczne, jak i magnetyczne. Oba wektory pola elektromagnetycznego stanowią więc z punktu widzenia teorii względności jedną całość, jeden obiekt matematyczny, którego składowe w różnych układach są różne, podobnie jak składowe zwykłego wektora w różnych układach współrzędnych.

Równania Maxwella są takie same w każdym układzie inercjalnym, więc i prędkość fali świetlnej będzie w każdym układzie taka sama. Większej przebudowy wymagała mechanika. Jej newtonowska wersja nadal pozostaje słuszna, gdy ciała poruszają się wolno w porównaniu do prędkości światła. Najważniejszą konsekwencją nowej mechaniki stało się słynne równanie E=mc^2, które pozwala zrozumieć m.in. reakcje, w których powstają albo giną cząstki, oraz skąd gwiazdy czerpią energię na świecenie przez miliardy lat.

Szczególna teoria względności rozwiązywała problemy, które od lat uciążliwie towarzyszyły fizykom, choć były one głównie natury pojęciowej. Można było na co dzień nie zaprzątać sobie głowy ruchem Ziemi w eterze i uprawiać fizykę tak, jakby Ziemia była nieruchoma. Także narzędzia do rozwiązania owych problemów zostały już wypracowane, głównie przez Lorentza i Poincarégo, Einstein je tylko radykalnie zreinterpretował. Pierwszy z fizyków pogodził się z sytuacją i zaprzyjaźnił z Einsteinem, drugi starał się ignorować prace młodszego kolegi (być może zresztą jego stosunek do Einsteina uległby z czasem zmianie, Poincaré zmarł w roku 1912, a więc przed stworzeniem ogólnej teorii względności). Ostatecznie elektrodynamika ciał w ruchu przeszła do historii, a podstawą fizyki stała się szczególna teoria względności.
Natomiast jej uogólnienie, czyli Einsteinowska teoria grawitacji, było praktycznie dziełem jednego tylko autora, stworzonym w latach 1907-1915.

Pojęciowym punktem wyjścia była prosty eksperyment myślowy: obserwator swobodnie spadający w polu grawitacyjnym nie będzie odczuwał grawitacji – będzie w stanie nieważkości, dziś dobrze znanym z lotów kosmicznych. Einstein uznał tę obserwację za „najszczęśliwsza myśl swego życia”. Z punktu widzenia fizyki Newtonowskiej istnieją dwa rodzaje masy: grawitacyjna i bezwładna. Pierwsza określa siłę, z jaką na ciało będzie oddziaływać grawitacja. Druga określa przyspieszenie ciała. Ponieważ obie te masy są jednakowe, więc przyspieszenie dowolnego ciała w danym polu grawitacyjnym jest takie same. Ilustruje to się czasem, demonstrując spadanie różnych ciał w rurze próżniowej. Obie masy skracają się zawsze, kiedy obliczamy przyspieszenie. Zdaniem Einsteina należało tę tożsamość wbudować w strukturę fizyki, zamiast ją tylko postulować jako dodatkowy warunek. Uczony sformułował zasadę równoważności pola grawitacyjnego i przyspieszenia. Znajdując się w zamkniętej kapsule, nie potrafilibyśmy odróżnić, czy nasza kapsuła porusza się ruchem przyspieszonym, czy spoczywa w polu grawitacyjnym (możliwe byłyby także kombinacje obu stanów). Grawitacja jest więc w fundamentalny sposób związana z bezwładnością. Einstein dążył do stworzenia teorii, która objaśniałaby jednocześnie grawitację oraz bezwładność. Argumentował przy tym, że układy inercjalne są sztucznym ograniczeniem dla fizyki, powinniśmy więc dopuścić także układy przyspieszone, nieinercjalne. Podobnie jak w szczególnej teorii względności każda prędkość ma zawsze charakter względny, w teorii uogólnionej także przyspieszenie miało stać się pojęciem względnym. Nawiązywał tu do rozważań Ernsta Macha, który sądził, że przyspieszenie jest względne. W swoim czasie Isaac Newton posłużył się przykładem wiadra z wodą wirującego na skręconym sznurze. Gdy wiadro przekaże ruch wirowy wodzie, jej powierzchnia staje się wklęsła, co jest skutkiem sił odśrodkowych. Możemy w ten sposób stwierdzić, czy woda wiruje względem absolutnej przestrzeni. Zdaniem Macha eksperyment ten dowodzi tylko tego, że woda obraca się względem dalekich gwiazd. Gdyby to owe gwiazdy zaczęły się obracać, skutek byłby ten sam, a przestrzeń absolutna nie istnieje.

Droga Einsteina do ogólnej teorii względności była zawikłana, lecz z perspektywy roku 1921 jej struktura matematyczna została już wyjaśniona. Rolę układów inercjalnych odgrywały teraz swobodnie spadające układy odniesienia. Obserwator znajdujący się w jednym z nich może stosować szczególną teorię względności. Różnica fizyczna między obiema teoriami polega jednak na tym, że szczególną teorię względności stosować można jedynie lokalnie. Nawet bowiem w spadającym swobodnie laboratorium można wykryć niewielkie zmiany przyspieszenia między różnymi jego punktami – są to siły przypływowe (poznane historycznie na przykładzie zjawiska przypływów i odpływów w oceanach, które są z różnymi siłami przyciągane grawitacyjnie przez Księżyc oraz Słońce). Oznacza to, że nie można wprowadzić jednego układu inercjalnego dla całego wszechświata, można tylko wprowadzać je lokalnie. Matematycznie rzecz biorąc, różnica między teorią ogólną i szczególną polega na geometrii: zakrzywionej w pierwszym przypadku, płaskiej w drugim. Einstein posłużył się czterowymiarowym sformułowaniem swej teorii szczególnej podanym przez Hermanna Minkowskiego. Czas i przestrzeń stanowią tu pewną całość, czasoprzestrzeń. W przypadku dwuwymiarowym w każdym punkcie powierzchni możemy zbudować płaszczyznę styczną. Jest ona zarazem dobrym przybliżeniem geometrii w otoczeniu danego punktu: w taki sposób posługujemy się planami miast, mimo że Ziemia nie jest płaska.

Teorię dwuwymiarowych powierzchni zawartych w trójwymiarowej przestrzeni zbudował Karl Friedrich Gauss. Zauważył przy tym, że wystarczy posługiwać się wielkościami dostępnymi bez wychodzenia poza powierzchnię. Można np. w ten sposób ustalić, czy jest ona zakrzywiona. Podejście Gaussa uogólnił później Bernhard Riemann, a inni matematycy rozwinęli je w systematyczne procedury dla powierzchni o dowolnej liczbie wymiarów.

W geometrii Riemanna współrzędne można wybrać w sposób dowolny, w przypadku zakrzywionych przestrzeni nie istnieje na ogół żaden szczególnie prosty układ współrzędnych, który mógłby odegrać taką rolę jak współrzędne kartezjańskie w przestrzeni euklidesowej. Nadal decydującą rolę odgrywa tu pojęcie odległości. Dla pary bliskich punktów możemy ją zawsze obliczyć w sposób euklidesowy, a długość dowolnej krzywej uzyskać przez sumowanie takich elementarnych odległości. Zamiast równania ds^2=dx^2+dy^2 na płaszczyźnie, mamy teraz równanie nieco bardziej skomplikowane

ds^2=g_{11}dx_1^2+2g_{12}dx_1dx_2+g_{22}dx_2^2.

Geometrię przestrzeni określa więc zbiór funkcji g_{\mu\nu} pozwalających obliczyć odległość punktów. Funkcje g_{\mu\nu} noszą nazwę tensora metrycznego (albo metryki). Można za ich pomocą wyrazić wszelkie własności geometryczne danej przestrzeni. W przypadku dwuwymiarowym wystarczą trzy takie funkcje, w przypadku czterowymiarowym należy znać ich dziesięć.

W zakrzywionej przestrzeni nie ma linii prostych, można jednak znaleźć ich odpowiedniki. Są to linie geodezyjne (albo geodetyki). Mają one niektóre własności linii prostych w geometrii euklidesowej: są np. najkrótszą drogą łączącą dwa punkty. Krzywe geodezyjne w teorii Einsteina są liniami świata cząstek poruszających się pod wpływem grawitacji. Metryka określa więc, jak poruszają się cząstki – grawitacja nie jest z punktu widzenia Einsteina siłą, lecz własnością czasoprzestrzeni. Należy dodać, że inne rodzaje sił działających na dane ciało sprawią, że przestanie się ono poruszać po geodezyjnej. Jedynie grawitacja wiąże się tak ściśle z geometrią. Jest to zgodne z faktem, że grawitacja jest powszechna, tzn. dotyczy wszystkich cząstek, a także działa na wszystkie w taki sam sposób – dzięki czemu można ją opisać jako własność czasoprzestrzeni. W teorii Einsteina nie potrzeba osobnej masy grawitacyjnej i bezwładnej.

Znając metrykę czasoprzestrzeni, możemy wyznaczyć geodezyjne, czyli obliczyć, jak poruszają się ciała pod wpływem grawitacji. Są to równania ruchu, zastępujące zasady dynamiki Newtona. Aby jednak wyznaczyć metrykę, potrzebne są równania, które musi ona spełniać. Są to równania pola, największe osiągnięcie Einsteina jako fizyka. Przystępując do pracy nad ogólną teorią względności uczony wiedział jedynie, że powinna ona zawierać teorię szczególną a także Newtonowską teorię grawitacji. Równania pola powinny mieć postać znaną z teorii Maxwella: (pewne kombinacje pochodnych pól)=(źródła pola). W przypadku grawitacyjnym źródłem powinna być masa, ale to także znaczy: energia. W teorii szczególnej opisuje się energię i pęd zbioru cząstek jako tensor energii pędu T_{\mu\nu}, zbiór dziesięciu wielkości danych w każdym punkcie czasoprzestrzeni. Masy powinny decydować o krzywiźnie czasoprzestrzeni. Zatem po lewej stronie równań pola powinna znaleźć się wielkość informująca o krzywiźnie. Okazuje się, że praktycznie jedyną możliwością jest tu tzw. tensor Einsteina, G_{\mu\nu} zbiór dziesięciu pochodnych metryki. Równania muszą więc przybrać postać

G_{\mu\nu}=\kappa T_{\mu\nu}.

gdzie \kappa jest odpowiednio dobraną stałą związaną ze stałą grawitacyjną. Sama postać zapisu tych równań zapewnia, że możemy w dowolny sposób wybrać współrzędne, a równania nadal pozostaną słuszne. Znalezienie prawidłowych równań pola pod koniec listopada 1915 roku zakończyło odyseję Einsteina: ogólna teoria względności została zbudowana.

Jeszcze w listopadzie 1915 roku uzyskał Einstein dla swej teorii pierwsze potwierdzenie obserwacyjne. Obliczył bowiem wielkość obrotu orbity Merkurego wokół Słońca – niewielkiej rozbieżności między obserwacjami a teorią Newtona nie udawało się wyjaśnić od półwiecza. Teraz okazało się, że przyczyną rozbieżności było niedokładne prawo grawitacji. Przewidział też Einstein, że promienie gwiazd biegnące blisko powierzchni Słońca powinny uginać się o kąt 1,74’’. Efekt ten został w roku 1919 potwierdzony podczas całkowitego zaćmienia Słońca przez dwie ekspedycje brytyjskie. Teoria grawitacji Einsteina okazała się ogromnym sukcesem, jest powszechnie uważana za najpiękniejszą teorię w fizyce. Nie wszystko jednak poszło po myśli jej twórcy. Okazało się np., że choć wprawdzie grawitacja i bezwładność zostały ze sobą zespolone, to nie udało się jednak zrealizować idei Macha. W teorii Einsteina wirowanie całego wszechświata jest czym innym niż wirowanie wiadra Newtona. Einstein z pewnym uporem trzymał się zasady Macha nawet wówczas, gdy wykazano, że nie obowiązuje ona w jego teorii. Wbrew przewidywaniom twórcy grawitacja może prowadzić do zapadania się materii i tworzenia czarnych dziur, w których zamknięta jest osobliwość czasoprzestrzeni. Einstein zmieniał w ciągu swej późniejszej kariery zdanie na temat tego, czy istnieją fale grawitacyjne: początkowo je przewidywał, później nabrał wątpliwości. Jego początkowe przybliżone podejście okazało się słuszne i fale grawitacyjne zostały odkryte w roku 2015.

Reklamy

James Clerk Maxwell i prędkości cząsteczek gazu (1859)

Brytyjskie Towarzystwo Krzewienia Nauk (BAAS) zebrało się na swój doroczny zjazd we wrześniu w Aberdeen. To niewielkie miasto miało wówczas dwa uniwersytety i wybudowało w ciągu roku wielką salę koncertową na 2400 słuchaczy, choć i tak wszyscy chętni ledwie mogli się pomieścić. Uczonych zaszczycił obecnością królewski małżonek, książę Albert, który wygłosił przemówienie i przez cztery godziny wizytował jedną z uczelni. Nauka stanowiła mocną stronę imperium brytyjskiego, naród kupców i żeglarzy kolekcjonował osobliwe przedmioty i rośliny, badał czaszki prehistorycznych ludzi z Nepalu, interesował się polem magnetycznym i skałami z odległych części globu, rozwijał konstrukcję parowców, pracował nad projektem kabla telegraficznego przez Atlantyk – pierwszy taki kabel położono rok wcześniej, lecz po kilku tygodniach przestał działać. Za kilka lat miała nastąpić następna próba, tym razem zakończona powodzeniem.

BA150_rdax_800x491

Na zjeździe trzy komunikaty przedstawił młody profesor z miejscowego Marischal College, James Clerk Maxwell. Dwudziestoośmioletni Szkot, absolwent Trinity College w Cambridge, napisał już kilka wielce obiecujących prac: na temat pola elektromagnetycznego, pierścieni Saturna i widzenia barwnego. Do elektromagnetyzmu miał niebawem wrócić, tworząc jednolitą teorię zjawisk elektrycznych, magnetycznych i optycznych (co stało się największym osiągnięciem w fizyce od dwustu lat, od czasów Isaaca Newtona). Kilkuletnia, rozbudowana w szczegółach, praca nad pierścieniami Saturna doprowadziła go do wniosku, że nie mogą one być zbudowane z materii stałej ani ciekłej, muszą być zbiorowiskiem niewielkich fragmentów krążących niezależnie wokół planety (co się potwierdziło: są to bryłki lodu o rozmiarach zawartych najczęściej w przedziale od centymetra do 10 m). Za pracę nad pierścieniami Saturna otrzymał Nagrodę Adamsa, nazwaną na cześć brytyjskiego współodkrywcy Neptuna. Maxwell pasjonował się też eksperymentami dotyczącymi widzenia barwnego, rozwijając idee Thomasa Younga i Hermanna von Helmholtza. Jego koło barw pozwalało ilościowo porównywać wrażenia barwne wytworzone przez zmieszanie trzech barw podstawowych: czerwieni, zieleni i błękitu. Nasuwało to myśl o fotografii barwnej: wystarczy bowiem sfotografować obraz w trzech barwach i później te trzy obrazy odpowiednio zmieszać.

My zajmiemy się tu pracą dotyczącą teorii kinetycznej gazów. Jest to niezwykle prosty model, który dość precyzyjnie opisuje zachowanie rzeczywistych gazów. Przyjmuje się w nim, że cząsteczki zderzają się sprężyście ze sobą oraz ze ściankami naczynia, poruszając się między zderzeniami prostoliniowo. Jak przedstawił to Maxwell na zjeździe w Aberdeen: cząsteczki powietrza poruszają się średnio z prędkością 1500 stóp na sekundę, przebywają między zderzeniami średnią drogę 1/447000 cala, co oznacza, że ulegają 8 077 200 000 zderzeniom w ciągu sekundy. Można śmiało przypuszczać, że Maxwell pragnął tymi liczbami zaintrygować słuchaczy (przedstawił też na zjeździe badania nad kolorami oraz model pierścieni Saturna – a więc mówił o rzeczach mogących zainteresować nie tylko ekspertów). Profesor musiał wywrzeć korzystne wrażenie, rok później przeniósł się bowiem do Londynu.

Maxwell pierwszy zadał pytanie: jaki jest rozkład statystyczny prędkości cząsteczek w gazie. Podał też prawidłową odpowiedź, zwaną dziś rozkładem Maxwella. Inspiracją były rozważania Adolphe’a Queteleta, jednego z pionierów statystyki w naukach społecznych i biologii. Szkocki uczony przeczytał długą recenzję pracy Queteleta w „Edinburgh Review”. Niepodpisany artykuł był autorstwa sir Johna Herschela i zawierał m.in. takie rozumowanie:

Przypuśćmy, że upuszczamy z dużej wysokości kulkę, pragnąc, by upadła ona w oznaczonym punkcie. Kulka spada i jej odchylenie od tego punktu stanowi błąd, a prawdopodobieństwo tego błędu jest pewną nieznaną funkcją kwadratu błędu, tzn. sumy kwadratów odchyleń w dwóch prostopadłych kierunkach. Ponieważ prawdopodobieństwo danego odchylenia zależy tylko od jego wartości, a nie od kierunku, więc prawdopodobieństwa obu odchyleń w prostopadłych kierunkach muszą być opisane tą samą funkcją ich kwadratów. Ponieważ także odchylenie w dowolnym kierunku jest równoważne odpowiednim odchyleniom w dwu prostopadłych kierunkach, które zdarzyły się jednocześnie i są od siebie niezależne – jest więc zdarzeniem, na które składają się dwa niezależne zdarzenia, zatem jego prawdopodobieństwo będzie równe iloczynowi tamtych oddzielnych prawdopodobieństw. Na podstawie tego warunku określić można postać nieznanej funkcji: takiej, że iloczyn dwóch owych funkcji dla dwóch argumentów równy jest tej samej funkcji od sumy obu argumentów. Ale w każdej książce z algebry wykazuje się, że własność taką posiada funkcja wykładnicza, i tylko ona. Jest to więc funkcja kwadratu błędu wyrażająca prawdopodobieństwo jego popełnienia.

W zapisie algebraicznym rozumowanie to sprowadza się do równości

f(x^2+y^2)=f(x^2)f(y^2) \Rightarrow f(x^2)=\exp(-\alpha x^2),

gdzie \alpha jest parametrem. Nasz wynik znany był wtedy jako funkcja błędu, dziś nazywany jest rozkładem normalnym – uzasadnieniem tej nazwy jest jego niezwykle częste występowanie w wielu sytuacjach: nie tylko błędy pomiaru, ale także mnóstwo innych wielkości wykazuje rozkład tego typu o charakterystycznym kształcie krzywej dzwonowej.

normal67

 

Wykres ze strony http://www.regentsprep.org/regents/math/algtrig/ats2/normallesson.htm. Jednostką na osi x jest 1/\sqrt{2\alpha}, odchylenie standardowe.

James Clerk Maxwell zastosował bardzo podobne rozumowanie do prędkości cząstek gazu. Jeśli potraktujemy składowe prędkości w prostopadłych kierunkach jako trzy zmienne v_x, v_y, v_z, to ich rozkłady prawdopodobieństwa powinny być opisane tą samą funkcją:

f(v_x^2+v_y^2+v_z^2)=f(v_x^2)f(v_y^2)f(v_z^2) \Rightarrow f(v^2_x)=\exp(-\alpha v_x^2),

gdzie \alpha jest pewnym parametrem. Maxwell pokazał też w swej pracy, że ów parametr zależy od masy cząsteczek m oraz temperatury T. Dziś zapisujemy to następująco:

\alpha=\dfrac{m}{2kT},

gdzie k to stała Boltzmanna. Znając rozkład prawdopodobieństwa dla składowych prędkości, można łatwo znaleźć postać rozkładu dla samej prędkości, korzystając z tego, że v^2=v_x^2+v_y^2+v_z^2. Rozkład prawdopodobieństwa przyjmuje postać:

p(v)=v^2\exp({-\alpha v^2}). \mbox{ (*)}

Zwykle ten wynik nazywamy rozkładem Maxwella. Pokazuje on, że w gazie występują wszystkie możliwe wartości prędkości, choć z różnym prawdopodobieństwem. Rozkład ten pozwala zrozumieć np., czemu w atmosferze jest mało lekkich pierwiastków, jak wodór – lżejsze atomy szybciej się poruszają i łatwiej jest im uciec w przestrzeń kosmiczną (a zawsze pewien niewielki ułamek cząsteczek ma dużą prędkość, jest to tzw. ogon rozkładu Maxwella).

MaxwellBoltzmann-en

https://en.wikipedia.org/wiki/Maxwell–Boltzmann_distribution#/media/File:MaxwellBoltzmann-en.svg

W późniejszym okresie Maxwell wrócił do wyprowadzenia tego rozkładu i uzyskał je z nieco solidniejszych założeń, które sprowadzały się do przyjęcia, iż wektory prędkości cząsteczek gazu nie są ze sobą skorelowane – co także nie jest założeniem oczywistym (tzw. chaos molekularny). To drugie podejście Maxwella otworzyło drogę do pracy Ludwiga Boltzmanna, wielkiego fizyka, który zajmował się głównie teorią gazów, rozszerzając ją stopniowo do fizyki statystycznej.

(*) Warunek v^2=v_x^2+v_y^2+v_z^2 to równanie sfery w przestrzeni v_x, v_y, v_z. Na sferze takiej prędkość jest stała. Szukając prawdopodobieństwa dla wąskiego przedziału prędkości (v,v+dv), musimy uwzględnić fakt, że objętość cienkiej powłoki między dwoma sferami równa się 4\pi v^2 dv – stąd dodatkowe v^2 w rozkładzie Maxwella. Nasze wszystkie rozkłady są nieunormowane, należy też, ściśle biorąc, rozważać zawsze niewielkie przedziały, a nie konkretne wartości, nie chciałem jednak zaciemniać prostych koncepcji, które tu się pojawiają.

Thomas Young i George Airy: nadliczbowe łuki tęczy

Podstawowy mechanizm powstawania tęczy wyjaśnił już Kartezjusz. Łuki tęczy odpowiadają najmniejszym albo największym kątom odchylenia promieni świetlnych odbijających się wewnątrz kropli wody. Wynika to z prawa załamania.

descartes2

Czy na przebieg tego zjawiska ma jakiś wpływ falowy charakter światła? Pierwszy zastanowił się nad tym Thomas Young. Rozpatrzmy to na przykładzie wewnętrznego łuku tęczy. Kąt padania promienia na powierzchnię kropli związany jest z tym, jak daleko od jej środka biegnie ów promień. Dalsze jego losy są już określone: można obliczyć, jak się załamie i pod jakim kątem ostatecznie wybiegnie z naszej kropli. W pewnej odległości od środka kropli otrzymuje się promień Kartezjusza – ten odpowiadający kątowi 42º. Dla każdego kąta mniejszego niż owe 42º możemy znaleźć dwa promienie, które wychodzą pod tym kątem z kropli: jeden wchodzący do kropli nieco bliżej środka niż promień Kartezjusza, drugi zaś nieco od niego dalej. Wynika to po prostu stąd, że jeśli mamy w pewnym miejscu maksimum wykresu, to każdej wartości funkcji mniejszej od maksimum odpowiadają co najmniej dwie wartości argumentu: jedna na lewo, a druga na prawo od maksimum. Promienie takie biegną w tym samym kierunku pod pewnym kątem mniejszym niż 42º. Jeśli światło jest falą, to promienie te powinny interferować. Oba przebiegają nieco inną drogę, gdy ta różnica dróg będzie równa długości fali, promienie się wzmocnią, a my zaobserwujemy dodatkowy łuk tęczy wewnątrz zwykłej tęczy, tzw. łuk nadliczbowy.

rainbow_wave

Young wykonał jakieś obliczenia na ten temat, ale wspomniał tylko o ich wyniku w jednej ze swych prac. Dla kropli o średnicy 1/76 cala przewidywał on łuk nadliczbowy 2º wewnątrz zwykłego łuku tęczy. Bliżej tematem tym zajął się George Biddell Airy w latach 1836-1838. Wystarczy do tego falowa teoria Fresnela i trochę matematyki. Ograniczając się do promieni bliskich promienia Kartezjusza, można poczynić pewne przybliżenia matematyczne prowadzące do nowego rodzaju funkcji, tzw. funkcji Airy’ego. Jakościowo rzecz biorąc, fala wypadkowa powstaje z czoła fali o kształcie litery S, jak na rysunku. Astronom pracowicie wyznaczył wartości natężenia światła za pomocą obliczeń numerycznych.

airy

Pozioma oś wyskalowana jest w kątach. Pionowa oś wykresu odpowiada położeniu promienia Kartezjusza. Linia kropkowana to natężenie światła w teorii Kartezjusza, cienka linia ciągła byłaby wynikiem Younga, a gruba linia ciągła jest bliższym rzeczywistości wynikiem Airy’ego. Już pierwsze maksimum natężenia wypada dla kąta mniejszego niż owe 42º Kartezjusza, jak widać, powinny też pojawiać się kolejne maksima odpowiadające jeszcze mniejszym kątom – są to właśnie łuki nadliczbowe. Skala pozioma wykresu zależy od wielkości kropli wyrażonej w długościach fali światła. Wykres poniżej przedstawia teorię Airy’ego dla kropli o średnicy 1/76 cala i długości fali 0,7 μm (barwa czerwona) pierwszy dodatkowy łuk leży niecałe 2º wewnątrz łuku głównego – mniej więcej tak, jak to opisał Young (wszędzie poniżej skala pozioma jest w stopniach).

Airy1.76cala red

Jego jakościowa teoria staje się jeszcze bliższa prawdy, gdy nieco przesunie się różnicę faz obu promieni (o \frac{1}{2}\pi), co widać na wykresie z pracy Airy’ego. Gdy krople są większe, kąty między łukami stają się mniejsze. Oto wykres dla kropli o średnicy 1 mm:

airy1mm red

W rzeczywistych warunkach obserwujemy wszystkie długości fal światła widzialnego jednocześnie, powoduje to nakładanie się łuków: niżej na wykres dla światła czerwonego nałożyliśmy jeszcze wykres dla fioletu. Łuki będą się więc zacierać.

airy1mm violet red

Podobny skutek wywoła zróżnicowanie rozmiarów kropli, w rezultacie nie zawsze udaje się te dodatkowe łuki zaobserwować. Czasem jednak są widoczne. Mamy wtedy naoczny dowód, że światło jest falą.

p7285210_2

fotografia: https://collectingtokens.wordpress.com/tag/supernumerary-rainbow/

Uwaga:
Słynna całka tęczy Airy’ego ma postać:

\mbox{Ai}(-\eta)=\dfrac{1}{\pi}\int\limits_{0}^{\infty}\cos(t^3/3-\eta t) dt.

Dla dużych rozmiarów kropli trzeba stosować bardziej realistyczne i mniej eleganckie przybliżenia. Dlatego wynik dla kropli o wielkości 1 mm ma sens tylko jakościowy.

Augustin Fresnel: piękna matematyka dyfrakcji (1818)

Stanisław Lem stwierdził kiedyś: „Nikt nic nie czyta, a jeśli czyta, to nic nie rozumie, a jeśli nawet rozumie, to nic nie pamięta”. Zjawisko to zresztą stare jak świat, w gruncie rzeczy różne informacje przypominają elementy puzzli: bez nich nie da się złożyć obrazka, ale one same nie wystarczą, bo trzeba jeszcze je odpowiednio dopasować. Każdy, kto się czegoś uczył, zauważył pewnie, że jeśli uda nam się coś dobrze zrozumieć, stworzyć pewną logiczną strukturę z tego, czego się uczyliśmy, to trudno to potem zapomnieć. Łatwo się zapomina fragmenty, które nigdy nam do niczego nie pasowały albo pasowały dość luźno.

Historycy mają skłonność sądzić, że jeśli X czytał albo choć posiadał w bibliotece tekst Y, to znaczy, że Y wpłynął na X. Często zresztą X sam nie wie, czy Y na niego wpłynął. Na uniwersytecie w Getyndze, będącym matematycznym centrum Niemiec, sto lat temu mówiło się o „nostryfikacji” idei czy pomysłów. Znane nawet było pojęcie „samonostryfikacji”, gdy ktoś wpadał na pomysł kiedyś już przez niego samego opublikowany. Einstein latem roku 1915 wygłosił tam cykl wykładów o swej teorii grawitacji, sądząc, że jest zakończona. Jesienią zauważył, że równania pola grawitacyjnego powinny być inne i zaczął nad nimi gorączkowo pracować, tym intensywniej, że w Getyndze David Hilbert zajął się tym samym tematem – groziła więc Einsteinowi „nostryfikacja” ze strony jednego z najlepszych matematyków tamtych czasów. Ostatecznie to Einstein pierwszy zapisał prawidłowe równania teorii grawitacji, można powiedzieć, że wszystko się skończyło szczęśliwie, bo włożył wiele trudu w zbudowanie tej teorii i należała mu się taka finałowa satysfakcja.

Augustin Fresnel był z zawodu inżynierem drogowym, nadzorował rozmaite budowy na prowincji. Może nie zająłby się poważniej fizyką, która go interesowała, lecz o której nie wiedział zbyt wiele, gdyby nie Napoleon. Wielki cesarz powrócił właśnie z zesłania na Elbie i próbował odbudować imperium, co jak wiemy skończyło się bitwą pod Waterloo. Fresnel jako polityczny przeciwnik cesarstwa stracił posadę i miał dużo wolnego czasu, który spędzał w rodzinnej wiosce matki, Mathieu w regionie Calvados, pod nadzorem policji. Z pomocą miejscowego kowala zbudował przyrządy do obserwacji optycznych, kropla miodu służyła mu za soczewkę. Znał matematykę. Czytał trochę Thomasa Younga, ale że nie znał angielskiego, niezbyt chyba wiele od niego zaczerpnął. Nie będziemy dociekać, ile dokładnie wziął od Younga, w każdym razie posunął się znacznie dalej niż angielski przyrodnik, tworząc matematyczną teorię światła jako fal i sprawdzając ją za pomocą świetnych eksperymentów. Kilka lat później został przyjęty do paryskiej Akademii Nauk. Słabowity przez całe życie, zmarł na gruźlicę w 1827 roku, niedługo po swoich trzydziestych dziewiątych urodzinach – żył więc tak samo długo jak Chopin, Słowacki i Riemann, którzy cierpieli na tę chorobę.

fresnel-1

W roku 1818 Fresnel przedstawił matematycznie prawidłową teorię ugięcia światła na nieprzezroczystej półpłaszczyźnie. Podstawą tej teorii jest zasada Huygensa: każdy punkt czoła fali traktujemy jak nowe źródło fal, które rozchodzą się we wszystkich kierunkach. W punkcie obserwacji, np. w jakimś punkcie ekranu, sumują się drgania przychodzące od każdego punktu fali. Łatwo opisać, jak to będzie wyglądać, gdy mamy tylko dwie fale dochodzące do danego punktu. Obserwujemy wówczas sumę drgań (wtedy nie wiedziano, co tam właściwie drga, my dziś wiemy, że są to pola elektryczne oraz magnetyczne).

fresnelDrganie można przedstawić jako rzut obracającego się wektora o pewnej długości. Na rysunku wektory te obracają się przeciwnie do wskazówek zegara z prędkością kątową

\omega=\dfrac{2\pi}{T},

gdzie T jest okresem fali (i drgania w danym punkcie), \omega nazywa się częstością kołową. Złożenie dwóch drgań o takiej samej częstości będzie sumowaniem dwóch obracających się wektorów. Ponieważ oba obracają się tak samo, możemy obrazek unieruchomić i dodawać te wektory tak, jak się dodaje wektory – według reguły równoległoboku albo (dolny rysunek) rysując je jeden za drugim. Wynik będzie taki sam, ale tą drugą techniką możemy dodać tyle wektorów, ile zechcemy.

Widzimy, że wynik dodawania zależy tylko od różnicy fazy \varphi między dwoma drganiami.

Rozpatrzmy teraz falę płaską padającą na nieprzezroczystą półpłaszczyznę AB, punkty B, D, E i C współtworzą czoło fali biegnącej z lewej strony z dalekiego źródła. Możemy odpowiadające im drgania zapisać jako strzałki, wszystkie mają tę samą fazę – ustawiliśmy je pionowo.

f30-07_tc_bigRysunek 30.7 z wykładów Feynmana (kto czuje niedosyt, może zajrzeć do podrozdziału 30-6 w t. 1)

Załóżmy, że interesuje nas natężenie światła w pewnym punkcie P. Fala docierająca do tego punktu z E musi przebyć odległość s, nieco większą niż odległość ekranu b:

fresnel1Z trójkąta prostokątnego na rysunku i z twierdzenia Pitagorasa, otrzymujemy

(b+\Delta)^2=b^2+2b\Delta+\Delta^2=b^2+h^2.

Różnice odległości \Delta, które mogą być dla nas ważne, są porównywalne z długością fali światła, a więc są znacznie mniejsze niż typowa odległość ekranu, możemy więc pominąć \Delta^2 w porównaniu do 2b\Delta, otrzymujemy wówczas:

\Delta=\dfrac{h^2}{2b}.

Dodając przyczynki od różnych punktów czoła fali, możemy przyjąć, że amplitudy fal cząstkowych są jednakowe: dodajemy więc wektory tej samej długości. Nie możemy natomiast pominąć faz. Różnica fazy między falą z E i falą z D będzie równa

\varphi=2\pi\dfrac{\Delta}{\lambda}=\dfrac{\pi h^2}{b\lambda}\sim h^2.

Zsumowanie nieskończenie wielu fal cząstkowych to obliczenie całki – coś, co Fresnel jako dobry inżynier z początku XIX wieku potrafił. Możemy uzyskać jakościowe wyobrażenie o wyniku, dodając bardzo wiele jednakowych strzałek. Zaczynamy od punktu D leżącego najbliżej punktu obserwacji P. Gdy przesuwamy się wyżej, faza rośnie proporcjonalnie do h^2: w wyniku powstanie spirala zwijająca się od punktu D w prawo i w górę, spirala ta zawija się coraz gęściej wokół pewnego punktu.

f30-08_tc_big(Rysunek 30-8 z wykładów Feynmana)

Podobnie będzie z wektorami z fragmentu BD naszego czoła fali, będzie im odpowiadać fragment spirali od B_P do D. Całkowite drganie odpowiadające punktowi obserwacji P dane będzie wektorem B_{P\infty} na rysunku. Jeśli nasz punkt obserwacji będzie leżał w cieniu, jak Q na rysunku, dodawać będziemy tylko fale cząstkowe od B_Q w górę i nasz wektor wypadkowy będzie miał koniec w punkcie \infty, im dalej w cień, tym bardziej spada natężenie światła. Po jasnej stronie półpłaszczyzny w punkcie R: musimy wystartować w B_{R} na lewym zwoju spirali i zakończyć gdzieś na prawym zwoju, co w rezultacie da wektor w przybliżeniu od lewego centrum spirali do jakiegoś punktu w pobliżu centrum prawego: długość wektora będzie się (niemal) okresowo zmieniać. Kwadrat długości naszego wektora to natężenie światła, czyli to co zwykle rejestrujemy. Obliczony ściśle wynik wygląda następująco:

FresnelFresnel_diffraction_of_straight_edge_density_plotwikimedia commons, autor: Gisling

Oś y wykresu leży na krawędzi szczeliny, na lewo mamy część „zacienioną”, na prawo – „jasną”, oś x wyskalowana jest w jednostkach \sqrt{b\lambda/2} (dla żółtego światła o \lambda=0,6 \mu m i odległości ekranu b=3,3 m będzie to skala w milimetrach. Wahania natężenia widać jako prążki. Tak wygląda granica cienia, jeśli się jej dokładniej przyjrzeć i jeśli fala padająca ma dobrze określoną fazę, np. oświetlamy naszą półpłaszczyznę laserem. Można to zrobić i bez lasera (jak Fresnel w XIX wieku), ale wówczas źródło fal musi być dostatecznie małe.

CornuSpiral1Elegancka spirala, którą otrzymaliśmy wyżej nazywa się spiralą Cornu. Fresnel obliczył całki, które są tu potrzebne, samo przestawienie graficzne jest późniejsze.

Najłatwiej zastosować tutaj wzór Eulera: nasza płaszczyzna jest wówczas płaszczyzną zespoloną, a dodawanie wektorów jest dodawaniem liczb zespolonych. Napiszmy jeszcze wzór na zespoloną sumę drgań S (kwadrat jej modułu to natężenie światła):

S=\int\limits_{-a}^{\infty} e^{i\frac{\pi h^2}{b\lambda}} dh,

a to odległość DB. Część rzeczywista i urojona tej liczby wyraża się przez tzw. całki Fresnela, funkcje wprowadzone do nauki i obliczone po raz pierwszy przez naszego uczonego.

George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop?

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

 

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta=\dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.

Thomas Young i interferencja światła (1802)

Lepiej wiedzieć wszystko na jakiś wąski temat, niż wiedzieć o wszystkim po trochu. To jedna z wad systemu szkolnego: niczego nie uczy się porządnie (*), ponieważ należy uczyć zbyt wielu rzeczy, a wszystkie są rzekomo niezbędne. Thomas Young nie chodził zbyt wiele do szkoły, rodziny nie było na to stać, wiedział jednak wszystko albo prawie wszystko na bardzo wiele tematów. Był kwakrem i wychowany został surowo, w szacunku do pracy. I choć jako młody człowiek pozwalał sobie na pewne „wykroczenia” – uczył się np. muzyki i tańca – to, gdy umierał w wieku pięćdziesięciu pięciu lat, mówił o sobie, że nie stracił w życiu ani jednego dnia na próżnowanie.

Miał zdolności językowe: ponoć już w wieku dwóch lat płynnie czytał, jako sześciolatek zaczął się uczyć łaciny. Po kilku latach w szkole wrócił do domu, aby uczyć się samodzielnie. Nauczył się w ten sposób nie tylko łaciny i greki, ale także języków hebrajskiego, chaldejskiego, syryjskiego, perskiego i arabskiego. Jako nastolatek zarabiał zresztą jako tutor języków klasycznych. Z czasem doszły do tego także główne języki nowożytne. Nie znaczy to, że był „humanistą” w dzisiejszym znaczeniu tego słowa. Jednocześnie bowiem konstruował urządzenia optyczne, pracował na tokarce i czytał, jak na Anglika przystało, Isaaca Newtona. Optyka jest łatwa, ale samodzielne przestudiowanie Principiów przez nastolatka było może nawet większym wyczynem niż nauczenie się tak wielu języków, książka bowiem jest legendarnie trudna i pozostała taka właściwie po dziś dzień.

473px-Thomas_Young_(scientist)

Młodzieniec został lekarzem, studiował w Edynburgu, Getyndze i w Cambridge. Te ostatnie studia wymagane były, aby praktykować w Anglii. Musiał też Young oficjalnie porzucić swoje wyznanie, gdyż warunkiem przyjęcia na studia w Cambridge było wyznanie anglikańskie (polityka wykluczania religijnych dysydentów często dawała zresztą skutki nieprzewidziane przez ustawodawców: robili oni majątki albo karierę poza systemem). W wieku dwudziestu lat Young odczytał w Towarzystwie Królewskim pracę na temat mechanizmu akomodacji oka i na tej podstawie wybrany został na członka szacownego gremium. Chodzi o mechanizm wytwarzania na siatkówce ostrego obrazu przedmiotów w szerokim przedziale odległości: od pewnej minimalnej aż do nieskończoności. W aparacie fotograficznym wysuwa się w tym celu obiektyw, niektórzy sądzili, że coś podobnego zachodzi w oku. Inni uważali, że to rogówka zmienia kształt. Young wysunął twierdzenie, że kształt zmienia soczewka oka poruszana przez pewne mięśnie. Opisał też przy okazji wadę własnego wzroku, znaną później jako astygmatyzm. Niedługo potem twierdzenia Younga zostały zakwestionowane i rozgorzała na temat akomodacji dyskusja. Mogło się wydawać, że młodzieniec, którego koledzy w Cambridge nazywali: „Young-fenomen”, przedwcześnie został uznany za pełnoprawnego badacza. Jednak to Young miał rację.

Kontrowersje towarzyszyć miały mu zresztą przez lata, mimo że nie był nigdy agresywny w prezentowaniu własnych osiągnięć. Najważniejsze okazały się jego prace na temat natury światła. Po Newtonie mało kto ośmielał się twierdzić, że światło nie składa się z cząstek. Jako pilny czytelnik Optyki, Thomas Young zdał sobie szybko sprawę, że wiele opisanych tam zjawisk niezbyt zgadza się z oficjalnym punktem widzenia słynnego przewodniczącego Towarzystwa Królewskiego. Ponadto Young zajmował się falami dźwiękowymi (przedłużenie zainteresowań medycznych i muzycznych!) i dostrzegał pewne analogie między akustyką i optyką. Toteż wysunął hipotezę, że światło to fale. W ojczyźnie Newtona brzmiało to jak prowokacja, czego sumienny i skupiony na dociekaniu prawdy Young zdawał się nie dostrzegać.

Jednym z doświadczalnych dowodów falowego charakteru światła jest zjawisko interferencji. Obserwował je m.in. patrząc na umieszczony w pewnej ustalonej odległości przed okiem włos o grubości 0,042 mm, na który padało światło dalekiej świecy. Widać było prążki na przemian jasne i ciemne dla różnych kątów θ

youngDla kąta zero otrzymuje się zawsze prążek jasny. Pierwszy prążek jasny dla światła czerwonego powstawał, gdy kąt wynosił  θ=0,78º. Znaczyło to, że fala z jednego końca włosa musi przebyć drogę dłuższą niż z drugiego dokładnie o jedną długość fali: w ten sposób grzbiet jednej fali przypada na grzbiet drugiej, a dolina na dolinę i wypadkowa fala ma dwa razy większą amplitudę. Długość fali światła czerwonego wyszła Youngowi równa 0,58 μm = 0,00058 mm, nieco za mało, prawdopodobnie za sprawą błędu w pomiarze grubości włosa. Zastosowanie teorii Younga do eksperymentów Newtona cytowanych w Optyce dawało bliższą prawdy długość fali światła czerwonego 0,65 μm. Później Young udoskonalił swe doświadczenie tak, aby interferowały dwie fale biegnące z dwóch stron cienkiego obiektu. Pokazał, że prążki pojawiają się wtedy, gdy światło dociera do ekranu z obu stron przeszkody: fala rozdziela się na dwie, po czym łączy z powrotem. Kiedy jedną stronę przesłonimy, obraz interferencyjny znika. Dziś doświadczenie Younga przedstawia się zwykle w postaci takiej, jak na fotografii poniżej.

Single_slit_and_double_slit2

Jest to obraz fali świetlnej lasera po przejściu przez jedną szczelinę oraz przez dwie takie szczeliny. Widzimy, że natężenie światła dla dwóch szczelin nie jest sumą natężeń dla dwóch oddzielnych szczelin – zmienia się całkowicie charakter obrazu: dzieli się on niejako na prążki. Są one efektem sumowania pól elektrycznych obu fal, a nie natężeń.

Prace optyczne Younga zostały wyszydzone we wpływowym czasopiśmie „The Edinburgh Review”. Anonimowy recenzent wyśmiewał „drżący i falujący sposób myślenia” Younga, wytykał mu zmiany poglądów w różnych kwestiach i ubolewał nad tym, że Towarzystwo Królewskie degraduje się, dopuszczając do wygłaszania jakichś mętnych hipotez o falowej naturze światła. Głupców krytykujących rzeczy, których sami nie potrafią zrobić, nie brakowało oczywiście i wtedy. Kłopot Younga polegał jednak na tym, że owym głupkowatym autorem recenzji był Henry Brougham, arystokrata, prawnik z wykształcenia, człowiek wpływowy, w przyszłości lord kanclerz Anglii. Atakował on także poezję lorda Byrona, który zrewanżował mu się satyrycznym wierszem. Poeta wymieniał potem Broughama – „jadowitą gadzinę” – jako jedną z dwóch osób na świecie, których nienawidzi (drugim był odnoszący oficjalne sukcesy poeta Robert Southey). Young źle zniósł wyskoki Broughama, przestał zajmować się optyką na wiele lat i wrócił do niej dopiero wtedy, gdy po drugiej stronie Kanału La Manche zaczęły ukazywać się prace Augustina Fresnela, drugiego pioniera falowej teorii światła.

Ciekawe są dalsze losy tego poglądu. Tak, jak w wieku XVIII niemal wszyscy uważali światło za cząstki, w wieku XIX zapanował pogląd falowy. Światło miało się rozchodzić w eterze – ośrodku wypełniającym wszechświat (został nam po nim zwrot „na falach eteru”). Na początku XX wieku Albert Einstein stwierdził, że eter nie istnieje, a światło to cząstki. Nie znaczy to, że wróciliśmy do Newtona: światło to cząstki kwantowe, które zachowują się w sposób dla nas zaskakujący. Doświadczenie Younga z dwiema szczelinami stało się niezwykle ważne: wiemy, że mogą w ten sposób interferować wszelkie cząstki dostatecznie małych rozmiarów, np. elektrony, ale i fullereny C60 – czyli coś w rodzaju małej piłki futbolowej z atomów węgla.

Thomas Young współpracował też jako ekspert z Encyclopaedia Britannica pisząc hasła takie, jak alfabet, renty wieczyste, mosty, włoskowatość, ciesielstwo, kohezja, kolory, dwójłomność, Egipt, tarcie, halo, Herkulanum, hydraulika, ruch, opór ośrodka, budowa dróg, maszyny parowe, pływy, fale, wagi i miary. Pod koniec życia zajmował się odczytywaniem hieroglifów egipskich. Był najważniejszym ich badaczem przed Champollionem. Niedługo przed śmiercią zajmował się układaniem słownika języka egipskiego, wiedząc, że nie zdąży go skończyć. Mówił, że praca ta wcale go nie męczy, przeciwnie: dostarcza mu rozrywki.

miscellaneouswo02youngoog_0217y

Fragment z pracy Younga, Miscellanous Works. t. 3, London 1855.

(*) Spotkałem się z propozycją, aby każdy uczeń w trakcie swej szkolnej kariery musiał zajmować się pewnym wybranym, lecz ustalonym tematem. Wyglądałoby to jakoś tak, że np. uczeń dostaje jako temat jabłka i przez lata co jakiś czas pogłębia swoją wiedzę na ich temat. Do końca szkoły średniej mógłby zostać niemal ekspertem od jabłek. (Pisze o tym amerykański specjalista od edukacji Kieran Ewan w książce, Learning in Depth: A Simple Innovation That Can Transform Schooling, University of Chicago Press, 2010).