Huygens w Londynie i spotkania z Newtonem (1689)

Pod koniec roku 1688 wojska niderlandzkie pod wodzą Wilhelma Orańskiego wylądowały w Anglii, dokonując przewrotu zwanego Wspaniałą Rewolucją. Stadhouder Niderlandów Wilhelm ożeniony był z Marią, córką króla Jakuba II, był też siostrzeńcem króla, który zdaniem większości poddanych prowadził Anglię ku katolicyzmowi, sojuszowi z Francją i zgubie. Dlatego wezwano na pomoc Wilhelma, protestanta i wroga Francji. Wyprawa udała się nadzwyczaj pomyślnie, ludność witała wojska pomarańczowymi wstążkami, groźba katolicyzmu została zażegnana na dobre, a wydarzenia te ukształtowały system polityczny Zjednoczonego Królestwa.

Starszy brat Christiaana Huygensa Constantyn brał udział w tych wydarzeniach jako sekretarz Wilhelma, rodzina Huygensów związana była z domem Orańskim od pokoleń. Toteż nic dziwnego, że gdy tylko sytuacja polityczna się nieco ustabilizowała, Anglię odwiedził Christiaan Huygens, który właśnie skończył sześćdziesiąt lat i nudził się w Niderlandach pozbawiony kontaktu z żywym środowiskiem naukowym Paryża. W paryskiej Akademii Nauk był najwybitniejszym uczonym, ale nie wystarczało to w zetknięciu z królewską administracją, zresztą protestantów traktowano w katolickiej Francji coraz gorzej, wielu uczonych, rzemieślników i kupców wyjechało, uciekając przed prześladowaniami m.in. do Niderlandów i Anglii. Huygens chciał poznać Isaaca Newtona, z którym jeszcze w latach siedemdziesiątych dyskutował listownie na temat kolorów. W swoim czasie wysłał mu egzemplarz Horologium oscillatorium („Zegar wahadłowy”), później Newton przesłał mu egzemplarz Principiów, które nie mogły nie wywrzeć wrażenia na ceniącym matematykę i ścisłe obserwacje Huygensie. Nie znaczy to, że zgadzał się z Newtonowską teorią grawitacji. Z punktu widzenia Huygensa problem leżał nie tyle w sformułowaniu praw grawitacji, co w zrozumieniu jej przyczyn. Jak większość ówczesnych uczonych pragnął zrozumieć przede wszystkim cząsteczkowy mechanizm grawitacji. Podejście Newtona sprawdziło się z czasem. Do dziś nie potrafimy wyjaśnić „przyczyn” grawitacji, tak samo zresztą jak i pozostałych trzech rodzajów oddziaływań. Musi nam wystarczyć  ich matematyczna teoria.

Uczeni spotkali się na dwóch zebraniach Towarzystwa Królewskiego. Huygens przedstawił swoją falową teorię światła, z którą Newton oczywiście się nie zgadzał. Rzeczywiście, słabym punktem teorii Huygensa była kwestia prostoliniowego rozchodzenia się światła. Natomiast wielkim jego osiągnięciem było wyjaśnienie dwójłomności w kryształach szpatu islandzkiego (kalcytu). W sposób widoczny podwajają one obrazy. Huygens wyjaśnił to rozchodzeniem się dwóch rodzajów fal, oprócz zwyczajnej fali generowanej przez sferyczne fronty falowe, miałaby się tu rozchodzić jeszcze fala o kształcie elipsoidy, której osie związane są z kierunkami w krysztale. Owa fala nadzwyczajna ma taką właściwość, że kierunek promieni (zielony) nie jest prostopadły do kierunku czoła fali (czerwone). W ten sposób promień padający prostopadle na kryształ załamuje się jako promień nadzwyczajny pod niezerowym kątem (drugi promień, zwyczajny, zachowuje się standardowo).

Kierunki osi elipsoidy zaznaczone są na niebiesko. Huygens zastosował tę teorię do kalcytu w sposób ilościowy. Nie prowadził, zdaje się, szerszych badań eksperymentalnych nad tym zjawiskiem. Wyraźnie zabrakło tu środowiska naukowego, które mogłoby opracować dokładniej ideę Huygensa. Newton zaproponował swoje wyjaśnienie zjawisk w kalcycie, naciągane i w dodatku błędne w konfrontacji z doświadczeniem. Huygensowskie wyjaśnienie dwójłomności zostało zapomniane na całe stulecie, dopiero na początku wieku XIX powróciła falowa teoria światła, Augustin Fresnel podał matematycznie kompletne wyjaśnienie dwójłomności i okazało się, że Huygens miał rację. Obaj wielcy rywale, Newton i Huygens, nie potrafili uczyć się od siebie wzajemnie, bo gdyby Huygens docenił znaczenie okresowości fal, jego teoria wyjaśniałyby znacznie więcej. Miał tu znaczenie i fakt, że było jeszcze wypracowanych metod matematycznych dla zjawisk falowych.

Stosunki obu uczonych były przyjazne, Newton właśnie uczył się poruszać w świecie stolicy, nie powrócił już do pracy naukowej na dłużej. Dzięki wstawiennictwu Christiaana Huygensa Isaac Newton został przyjęty przez Wilhelma na audiencji jako kandydat na provosta King’s College w Cambridge. Mimo królewskiej akceptacji Newton nie otrzymał stanowiska, gdyż zdecydowanie sprzeciwili się członkowie College’u. Christiaan Huygens wrócił po kilku tygodniach do Niderlandów, Newtona czekała kariera administracyjna w Mennicy, tytuł szlachecki, wielkie uznanie, dość rzadkie w przypadku uczonych, choć w jego przypadku niewątpliwie zasłużone. Osamotniony w swoim domu na wodzie Hofwijck, Huygens zajął się rozważaniami na temat istot inteligentnych w kosmosie.

George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop? (1834)

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi\, \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \, \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta= \dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \, \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.

Najbardziej rewolucyjna praca Einsteina (1905)

Wiosną 1905 roku Einstein pisał do swego przyjaciela matematyka, Conrada Habichta:

Kochany Habichcie!

Panuje między nami tak świętobliwe milczenie, że wydaje się niemal grzeszną profanacją naruszać je mało istotną paplaniną. Ale czyż na tym świecie nie dzieje się tak zawsze z rzeczami wzniosłymi? Cóż pan porabiasz, mrożony wielorybie, ty, połciu wędzonej, suszonej i zapuszkowanej duszy? I cóż jeszcze, nadzianego w siedemdziesięciu procentach gniewem, a w trzydziestu litością, mógłbym panu cisnąć w głowę?
(…)
Dlaczegóż nie przysłałeś mi pan jeszcze swojej dysertacji? Czyżbyś pan nie wiedział, o nędzniku, że będę jednym z tych półtora osobników, którzy przeczytają ją z zadowoleniem i zainteresowaniem? Obiecuję panu za to cztery prace, przy czym pierwszą z nich przyślę już wkrótce, ponieważ oczekuję egzemplarzy autorskich. Jest ona poświęcona promieniowaniu oraz energii światła i jest niezmiernie rewolucyjna, jak to sam pan zobaczy,
jeśli n a j p i e r w przyśle mi swoją pracę. Praca druga zawiera określenie rzeczywistych rozmiarów atomów na podstawie dyfuzji oraz lepkości w rozcieńczonych roztworach substancji obojętnych. Trzecia natomiast
dowodzi, iż z założeń molekularnej [kinetycznej – J.K.] teorii ciepła wynika, że cząstki o średnicy rzędu 1/1000 mm, tworzące zawiesinę w cieczy, muszą wykonywać dostrzegalne, chaotyczne ruchy, spowodowane ruchami cieplnymi [cząsteczek cieczy – J.K.]; w rzeczy samej, fzjologowie zaobserwowali niewyjaśnione [słowo skreślone przez autora listu – J.K.] ruchy małych nieożywionych cząstek w zawiesinach, które nazwano molekularnymi ruchami Browna. Czwarta praca istnieje na razie tylko w brudnopisie i dotyczy elektrodynamiki ciał w ruchu przy wykorzystaniu zmodyfkowanej teorii przestrzeni i czasu; czysto kinematyczna część pracy z pewnością
pana zaciekawi.

Rzeczywiście, praca dotycząca światła okazała się najbardziej rewolucyjna z całej tej historycznej serii artykułów dwudziestosześcioletniego urzędnika Biura Patentowego w Bernie. Einstein wysunął w tej pracy hipotezę kwantów światła: promieniowanie elektromagnetyczne ma według niego naturę cząstkową. Był to pogląd niezmiernie heretycki, który fizycy odrzucali przez następnych dwadzieścia lat, nawet wbrew wynikom eksperymentalnym.

Gdyby o naturę światła spytać Isaaca Newtona, odrzekłby, że naturalnie są to cząstki, choć dosyć osobliwe, gdyż można je polaryzować, a przy odbiciu od cienkiej warstewki np. miki cząstki te w jakiś sposób „wiedzą”, jaka jest grubość warstwy pod powierzchnią i stosownie do jej wartości odbijają się albo wnikają w głąb. Na początku XIX wieku zrozumiano dzięki pracom Thomasa Younga i Augustina Fresnela, że światło jest falą. James Clerk Maxwell pokazał, że są to fale elektromagnetyczne, można więc za pomocą urządzeń elektrycznych takie fale generować, co dało początek radiu, telewizji, a także różnym systemom łączności aż do telefonii komórkowej i GPS. Nie ma nic bardziej praktycznego niż dobra teoria: dzięki teorii Maxwella elektryczność, magnetyzm i optyka stały się jedną dziedziną, opisywaną tymi samymi równaniami, a to, co umiemy opisać matematycznie, możemy też zrozumieć albo przynajmniej modelować. Niezliczone doświadczenia pokazywały i wciąż pokazują, że teoria Maxwella znakomicie opisuje zjawiska. W tej sytuacji powiedzenie, że może jednak światło nie jest falą, wyglądało na szaleństwo, zwłaszcza gdy proponował to nikomu nieznany urzędnik, ekspert trzeciej klasy w Biurze Patentowym.

W różnych poradnikach typu „Naucz się przez weekend myśleć jak Einstein” roi się od porad w rodzaju: należy odrzucać przyjęte zasady i myśleć twórczo. Gdyby było to takie proste, każdy dziwak mógłby zostać Einsteinem. Ziemia nie jest płaska, a Słońce nie krąży wokół naszego podwórka. Czemu więc Einstein wysunął taką hipotezę i jak wyjaśniał sukces teorii Maxwella? Jego rozmyślania nad podstawami fizyki trwały już dobre kilka lat i zdążył on przemyśleć rozmaite za i przeciw. Wysuwał hipotezę, za którą przemawiały pewne argumenty.

Albert Einstein miał silne poczucie jedności całego wszechświata. Sądził, że muszą w nim obowiązywać prawa i koncepcje uniwersalne. Tymczasem ówczesna fizyka z jednej strony uznawała istnienie atomów i ich lekkich naładowanych składników elektronów, z drugiej zaś posługiwała się pojęciem pola elektromagnetycznego, a więc czegoś określonego w każdym punkcie przestrzeni i z natury ciągłego. Dyskretne cząstki i ciągłe pola, taka dychotomia niezbyt mu przypadała do gustu. I nie był to jakiś młodzieńczy wybryk, o którym wkrótce się zapomina. Wręcz przeciwnie: aż do końca swego życia naukowego, przez następne pięćdziesiąt lat, zastanawiał się Einstein nad pojęciem cząstki i starał się tę dychotomię zlikwidować, uznając później cząstki za ruchome obszary zwiększonego pola.

We wstępie do pracy z 1905 roku pisze, że wprawdzie doświadczenia optyczne pokazują falowe własności światła, lecz mierzymy zawsze wielkości uśrednione w czasie, więc niekoniecznie świadczy to o falowej naturze światła. Miał rację, rzeczywiście obrazy interferencyjne i dyfrakcyjne są skutkiem nałożenia się dużej liczby cząstek. Jak na poniższych rysunkach (odnoszą się one wprawdzie do elektronów, ale z fotonami jest tak samo).

Co miałoby jednak przemawiać za cząstkowym charakterem światła? Główny argument Einsteina jest subtelny i nie był doceniony przez kolegów. Wyobraźmy sobie naczynie o objętości V_0 wypełnione gazem doskonałym.

Jeśli wydzielimy w nim myślowo pewien obszar o objętości V, to prawdopodobieństwo znalezienia konkretnej cząstki w tej wydzielonej objętości, będzie równe

p=\dfrac{V}{V_0},

ponieważ cząstki poruszają się w sposób chaotyczny. Jeśli liczba cząstek wnaczyniu równa jest n, to prawdopodobieństwo, że wszystkie zgromadzą się w danej chwili w naszej wydzielonej objętości jest równe

p=\left(\dfrac{V}{V_0}\right)^n.

Cząstki poruszają się niezależnie, więc prawdopodobieństwo iloczynu (koniunkcji) zdarzeń jest równe iloczynowi wszystkich prawdopodobieństw jednocząstkowych.

W jaki sposób możemy się przekonać, że powyższe rozumowanie jest prawidłowe? Ludwig Boltzmann powiązał prawdopodobieństwo z wielkością zwaną entropią S, którą można mierzyć na podstawie pomiarów cieplnych. Związek ten ma postać:

S=k\ln p,

gdzie k jest stałą fizyczną (stałą Boltzmanna). W przypadku gazu doskonałego wiadomo, że zmiana entropii odpowiadająca zmianie objętości od V_0 do V jest równa

\Delta S=nk\ln\dfrac{V}{V_0}.

Możemy więc z wielkości zmiany entropii, możliwej do zmierzenia w laboratorium, otrzymać liczbę cząstek gazu. Biorąc jeden mol gazu, wyznaczylibyśmy w ten sposób liczbę Avogadro – sam Einstein, jak też inni fizycy stosowali wówczas szeroko rozumowania tego rodzaju do wyznaczania własności atomów. Był to jakiś sposób przeskoczenia z poziomu makroskopowego, laboratoryjnego, do poziomu atomów i cząsteczek, których wówczas nie można było obserwować bezpośrednio.

Przypadek promieniowania jest bardziej subtelny. Jeśli wyobrazimy sobie zamknięte naczynie o pewnej temperaturze, to będzie ono wypełnione promieniowaniem termicznym. Można w naczyniu zrobić niewielki otwór i badać uciekające promieniowanie – mamy wtedy do czynienia z tzw. promieniowaniem ciała doskonale czarnego, które ma charakterystyki zależne jedynie od częstości i temperatury (a nie np. rodzaju ścianek naczynia albo ich składu chemicznego). Promieniowanie zamknięte w naczyniu jest gazem fotonów, podobnym pod pewnymi względami do zwykłego gazu jak np. powietrze w zwykłych warunkach. Przed rokiem 1905 Einstein opublikował kilka prac dotyczących fizyki statystycznej i stał się jednym z najlepszych znawców jej metod, kontynuatorem Plancka i Boltzmanna. Teraz, w 1905 roku, wykazał, że jeśli promieniowanie z dowolnego niewielkiego przedziału częstości (\nu, \nu+\Delta \nu) zmieni objętość z V_0 do V, to zmiana entropii będzie przy tym równa

\Delta S=k\dfrac{E}{h\nu}\ln\dfrac{V}{V_0},

gdzie E jest energią promieniowania, a h stałą wprowadzoną przez Plancka. Jeśli porównamy oba wyrażenia na zmianę entropii, widzimy, że

n=\dfrac{E}{h\nu}.

Gaz promieniowania zachowuje się więc jak gaz niezależnych cząstek o energii h\nu każda, przynajmniej pod względem termodynamicznym. Zarysowała się w ten sposób daleka perspektywa usunięcia dualizmu cząstek i pól. Wynikały z tych rozważań rozmaite konsekwencje możliwe do sprawdzenia. Np. w zjawisku fotoelektrycznym padające światło wybija elektrony z metalu. Jeśli światło występuje w porcjach o energii h\nu, to energia kinetyczna wybijanych elektronów E_k powinna być równa

E_k=h\nu-W,

gdzie W jest pracą potrzebną na ucieczkę elektronu z metalu, zależną od rodzaju metalu. Z równania tego wynika szereg istotnych wniosków: istnieje pewna progowa częstość światła poniżej której zjawisko nie występuje. Zależność energii kinetycznej od częstości jest linią prostą o takim samym nachyleniu dla wszystkich materiałów itd. Równanie Einsteina zostało doświadczalnie zweryfikowane przez Roberta Millikana. Einstein otrzymał Nagrodę Nobla za rok 1921 właśnie za to równanie – nie za teorię względności i nie za koncepcję kwantów światła. Komitet Noblowski wybrał bezpieczne osiągnięcie dobrze sprawdzone eksperymentalnie (Millikan za te pomiary, jak i za wyznaczenie ładunku elektronu otrzymał Nagrodę Nobla za rok 1923).

Wyniki Millikana z roku 1916 (z nachylenia prostej wyznaczył wielkość stałej Plancka h)

Nie należy sądzić, że te i inne wyniki eksperymentalne oznaczały przyjęcie poglądów Einsteina. Sam Millikan wspominał w roku 1949:

Spędziłem dziesięć lat życia na sprawdzaniu równania Einsteina i  wbrew wszystkim moim oczekiwaniom w 1915 roku musiałem uznać, że zostało jednoznacznie potwierdzone, mimo iż wydaje się zupełnie absurdalne, ponieważ pozornie przeczy wszystkiemu, co wiemy na temat interferencji światła.

Einstein i Millikan w 1932 w Caltechu. Public Domain

Millikan był eksperymentatorem, mógł zatem być sceptyczny wobec zbyt nowatorskich teorii, jednak nawet koledzy Einsteina Max Planck czy Niels Bohr długo nie chcieli uwierzyć w istnienie cząstek światła. Dopiero zjawisko Comptona w roku 1923 uznano za przekonujący dowód cząstkowej natury światła. Fotony znalazły swe miejsce w logicznej strukturze fizyki w drugim etapie tworzenia fizyki kwantowej, gdy od mechaniki nierelatywistycznej fizycy przeszli do konstruowania kwantowej teorii pola. Elektrodynamika kwantowa jest precyzyjną teorią fotonów i cząstek naładowanych, lecz jej rozwój nastąpił dopiero pod koniec lat czterdziestych. Einstein pozostał przy swoich próbach zbudowania klasycznej jednolitej teorii pola, ignorując te osiągnięcia.

 

François Arago i prędkość światła (1810)

W roku 1809 dwudziestotrzyletni Arago został przyjęty do Akademii Nauk (przejściowo zwanej Instytutem Francji, uczeni należeli do jego pierwszego wydziału). Młody człowiek zdążył już przepracować kilka lat w Obserwatorium Paryskim i wziąć udział w trzyletniej podróży naukowej, której celem był dokładniejszy pomiar długości południka – czyli obwodu Ziemi. Rewolucja Francuska oprócz zmian politycznych przyniosła też system dziesiętny, nawet w kalendarzu: należało pracować dziewięć dni, by wypoczywać w dziesiątym, a kąt pełny miał mieć odtąd 400°, a nie 360°. Planowano też wprowadzić podział doby na dziesięć godzin po sto minut, lecz zapał rewolucyjny minął zbyt szybko. Zdążono natomiast wprowadzić jako jednostkę długości metr, równy jednej czterdziestomilionowej długości południka paryskiego. Pomiar południka oznaczał zatem dokładniejsze wyznaczenie metra. Ponieważ czasie pomiarów wojska francuskie dokonały inwazji Hiszpanii, więc ludność Balearów, widząc, jak Arago każe rozpalać ogniska na szczytach gór i w ogóle zachowuje się podejrzanie, uznała go za szpiega. Uwięziony w fortecy Bellver w Palma de Mallorca, zdołał z niej zbiec w łódce rybackiej, zabierając wyniki pomiarów, a nawet przyrządy geodezyjne. Trafił do Algieru, skąd popłynął do Marsylii, lecz niedaleko celu podróży hiszpańscy korsarze napadli na statek, co spowodowało dalsze uwięzienie, tym razem na wybrzeżu Katalonii, skąd trafił znowu do Algieru, w następnej przeprawie do Marsylii przeszkodziły wiatry północne. Wreszcie po kolejnych kilku miesiącach uczony dotarł tam wreszcie i musiał odbyć jeszcze długą kwarantannę w lazarecie. Mógł jednak zawiadomić bliskich, że żyje, w co nikt już nie wierzył. Otrzymał też niebawem list od poruszonego tymi przygodami sławnego przyrodnika Alexandra von Humboldta. Tak zaczęła się ich przyjaźń (choć starszy i homoseksualny Humboldt miał ochotę na coś więcej).

Niewątpliwie młody człowiek wykazał, że ma głowę na karku, choć można się zastanawiać, czy to wystarczy, by zostać członkiem Instytutu. Przeciwny kandydaturze Arago był wielce wpływowy Pierre Simon Laplace, który miał własnego kandydata, nieco starszego Siméona Poissona (tego od równania Poissona). Laplace wysuwał argument, że Arago niczego wielkiego jeszcze nie dokonał i jest za wcześnie, by go przyjmować do tego elitarnego grona. Odpowiedział mu podobno Joseph Lagrange, jedyna osoba, która mogła z Laplace’em mówić jak równy z równym: „Pan także, Laplace, przed wejściem do Akademii nie dokonał niczego godnego uwagi, można było jedynie pokładać w panu nadzieję. Pańskie wielkie odkrycia przyszły dopiero później” [Arago, Oeuvres complètes, t. 1, Histoire de ma jeunesse] Rzeczywiście, Laplace przyjęty został w wieku dwudziestu czterech lat, będąc dopiero u progu ważnych odkryć z mechaniki niebios. To odwieczny dylemat: czy stabilizacja finansowa powinna ułatwiać osiągnięcia, czy być za nie nagrodą. Francja miała silny państwowy system popierania nauki, który w tamtych czasach funkcjonował znakomicie, wystarczy popatrzeć na nazwiska członków Akademii z początku XIX wieku. Cesarz Napoleon I był autokratą, ale nie był idiotą i zatwierdził nominację Arago, zaprzysięgłego republikanina, a pod koniec życia chronił go przed represjami także następny cesarz, Napoleon III. Arago był przez wiele lat deputowanym do parlamentu, gdzie zajmował się popieraniem nowych wynalazków w rodzaju kolei żelaznych czy fotografii.

W grudniu 1810 roku jako świeżo upieczony członek Instytutu Arago przedstawił pracę poświęconą prędkości światła. Przyjmował w niej założenie, że światło ma naturę cząstkową. Francuz czytał pracę Michella i znał jego przewidywania, że prędkość światła emitowanego przez masywne gwiazdy może być znacznie mniejsza niż obserwowana w pobliżu Ziemi. Także Laplace przeprowadził podobne rachunki, wyszło mu, że ciało gęstości Słońca stałoby się ciemną gwiazdą, gdyby jego promień przekraczał 250 promieni Słońca. Prawdopodobnie także on zasugerował astronomowi sprawdzenie, czy różnice prędkości światła odbijają się jakoś na zjawisku aberracji światła gwiazd. Maksymalny kąt aberracji równy jest v/c, gdzie v – jest prędkością orbitalną Ziemi, a c – prędkością światła. Kąt ten jest mały i równy mniej więcej 10^{-4} \mbox{ rd} \approx 20'' , jak odkrył na początku XVIII w. James Bradley. Jeśli światło gwiazd dociera do nas z różną prędkością, to kąty aberracji powinny się indywidualnie różnić w zależności od gwiazdy. Efekty te powinny także zależeć od kierunku ruchu Ziemi, a więc zmieniać się w rytmie rocznym. Ponieważ najmniejsze kąty możliwe do zmierzenia były rzędu kilku sekund, więc tą drogą można by wykryć tylko bardzo znaczne zmiany prędkości światła.

Bardziej obiecujące wydawało się zjawisko załamania światła, którego wielkość także zależy od prędkości promieni w próżni. Światło różnych gwiazd powinno się więc załamywać w różnym stopniu. Arago starał się wykryć te różnice, umieszczając przed obiektywem teleskopu pryzmat. Aby obrazy gwiazd nie rozmyły się wskutek rozszczepienia światła w pryzmacie, używał dwóch sklejonych ze sobą pryzmatów ze szkła ołowiowego i zwykłego, które tworzyły układ achromatyczny – odchylający światło (w przybliżeniu) niezależnie od jego barwy. Astronom mierzył różnicę kąta między promieniem światła przepuszczonym obok pryzmatu i załamanym przez pryzmat dla szeregu gwiazd. Kąty odchylenia promienia były jednak praktycznie takie same, różniąc się najwyżej o kilka sekund, najwyraźniej w sposób przypadkowy – należało zatem przypisać je błędom pomiaru. Według obliczeń Arago zmiana prędkości światła o 1/10000 powinna skutkować różnicą kierunku promienia nawet o 14’’ – a więc znacznie więcej niż jego błędy pomiarowe. Ponieważ Ziemia porusza się z prędkością 1/10000 prędkości światła, więc obserwacje Arago powinny być wrażliwe na kąt między kierunkiem prędkości Ziemi a kierunkiem ku gwieździe. Żadnej tego typu zależności nie udało mu się wykryć. Jak napisał w swoim wystąpieniu przed Instytutem: „Na pierwszy rzut oka wynik ten wydaje się być w jawnej sprzeczności z Newtonowską teorią załamania [światła], ponieważ rzeczywiste nierówności między prędkościami promieni nie wywołują żadnych nierówności w ich odchyleniu”. Jeśli wierzyć Popperowi, teoria Newtona została tym samym obalona: jeśli z teorii wynika wniosek niezgodny z obserwacjami, to tym samym założenia teorii są nieprawdziwe. Obserwacje Arago były kłopotliwe, zwłaszcza dla ludzi takich, jak Laplace czy patronujący młodemu astronomowi Jean Baptiste Biot – zaprzysięgłych zwolenników teorii korpuskularnej światła. Obaj uczeni nie dali się przekonać nie tylko wynikom Arago, ale także i falowej teorii światła.

Arago zaproponował dziwaczne i dość desperackie wyjście z sytuacji: może promienie świetlne różnią się prędkościami, ale oko ludzkie reaguje tylko na wąski przedział prędkości. Wiedziano już od niedawna, że istnieje promieniowanie podczerwone, które przenosi ciepło, a także nadfioletowe, które zaczernia chlorek srebra (ten ostatni fakt otworzył drogę do wynalezienia fotografii). Może więc to prędkość decyduje o tym, czy widzimy dane cząstki światła, czy nie. Praca Arago nie została opublikowana, uczony poprzestał na jej odczytaniu. Można przypuszczać, że astronom sam nie wiedział, jak wytłumaczyć uzyskane wyniki. Choć na jego rezultaty powoływali się inni uczeni, to praca ukazała się drukiem dopiero czterdzieści lat później.

Wtedy kontekst był już inny. Pojawił się bowiem w nauce francuskiej Augustin Fresnel i jego wersja teorii falowej (wcześniejsza teoria falowa Thomasa Younga we Francji zrobiła jeszcze mniejsze wrażenie niż w Anglii). Arago należał do wczesnych zwolenników teorii falowej. Nic jednak nie jest proste na tym świecie: także w teorii falowej wyjaśnienie obserwacji Arago nie było zbyt naturalne: trzeba założyć, że eter świetlny jest wleczony, ale tylko częściowo, przez poruszający się ośrodek. Dopiero teoria względności wyjaśniła w roku 1905 rezultaty Arago w sposób naturalny: prędkość światła padającego na pryzmat z próżni równa jest zawsze c, bez względu na ruch pryzmatu, gwiazdy i Ziemi. Arago nie wykrył zmian odchylenia, bo ich po prostu nie ma.

Istota teorii względności (1923) – Albert Einstein

Ślepy żuk pełznący po powierzchni globusa nie wie, że tor, po którym się porusza, jest zakrzywiony. Ja miałem szczęście to zauważyć [A. Einstein]

Ta niewielka książeczka jest jedynym kompletnym przedstawieniem teorii przez jej twórcę, adresowanym do zawodowych uczonych, stanowiąc coś pośredniego między monografią a podręcznikiem. Ukazała się najpierw w 1923 roku w wersji angielskiej nakładem Princeton University Press oraz w wersji niemieckiej w wydawnictwie Vieweg & Sohn (z datą roczną 1922). Od tamtej pory doczekała się niezliczonych wydań w wielu językach. Uczony nie zmieniał głównego tekstu, choć z czasem dołączył kilka dodatków traktujących o późniejszych osiągnięciach.

Podstawą książki były wykłady wygłoszone w maju 1921 roku na uniwersytecie w Princeton. Czterdziestodwuletni Einstein wybrał się w swą pierwszą podróż za ocean, towarzysząc Chaimowi Weizmannowi i delegacji syjonistów. Ich celem było zebranie funduszy na założenie uniwersytetu w Jerozolimie. Uczony, który w kilku poprzednich latach z odrazą obserwował antysemityzm narastający w społeczeństwie niemieckim i który sam stał się ofiarą niewybrednych ataków z rasistowskimi podtekstami, zgodził się na ten wyjazd, rezygnując z udziału w pierwszym po wojnie Kongresie Solvaya, konferencji gromadzącej szczupłe grono najwybitniejszych fizyków świata. Po raz pierwszy wystąpił więc Einstein w roli działacza społecznego, wykorzystując autorytet naukowy do propagowania bliskich mu poglądów. Uczony witany był w Ameryce owacyjnie, zwłaszcza przez społeczność żydowską w Nowym Jorku, Bostonie, Cleveland. Niektórzy koledzy Einsteina, jak Fritz Haber, wybitny chemik, Żyd i niemiecki szowinista, mieli mu za złe podróż do Stanów Zjednoczonych, kraju niedawnego wroga. Rany wojenne nie zdążyły się jeszcze zabliźnić, zwłaszcza w Niemczech dźwigających ciężar przegranej wojny. Wielu niemieckich Żydów sądziło też, iż nie należy prowokować antysemityzmu i lepiej siedzieć cicho. Einstein, czy to dlatego, że spędził wiele lat w Szwajcarii, czy też z racji swego charakteru, nie podzielał takiego nastawienia, przeciwnie, to właśnie antysemityzm przyspieszył dojrzewanie jego żydowskiej tożsamości.

Podróż po Stanach Zjednoczonych miała też ważną część naukową. Einstein miał wykłady na Columbia University i w City College w Nowym Jorku, na uniwersytecie w Chicago oraz uniwersytecie Harvarda. W Princeton otrzymał stopień honorowy i wygłosił sławne zdanie, które później wyryto nad kominkiem w sali Wydziału Matematyki: „Pan Bóg jest wyrafinowany, lecz nie jest złośliwy” (odnosiło się ono do pewnych wyników eksperymentalnych zaprzeczających jego teorii). Bezpośrednio po uroczystościach rozpoczął się cykl pięciu wykładów odbywających się w kolejne dni tygodnia. Dwa pierwsze były popularne, następne bardziej techniczne. Wykładu inauguracyjnego słuchało około czterystu osób, podczas drugiego audytorium znacznie się przerzedziło, a kolejne odbywały się już w mniejszej sali dla niewielkiego grona słuchaczy. Na początku pobytu w Princeton uczony podpisał umowę z wydawnictwem uniwersytetu na publikację tekstu jego wystąpień. Ponieważ odbywały się one po niemiecku, wydawnictwo wynajęło niemiecką stenografkę, która notowała na żywo. Każdy z wykładów był na koniec podsumowywany po angielsku przez profesora fizyki Edwina Plimptona Adamsa, który został też tłumaczem wersji książkowej. Dopiero w styczniu 1922 roku uczony przesłał niemiecki tekst książki do wydawnictwa Vieweg & Sohn, wydrukowane przez nie korekty stały się podstawą angielskiego przekładu. Prace te wraz z poprawkami autorskimi zajęły cały rok 1922. Pod jego koniec wydrukowano wydanie niemieckie, a w styczniu ukończono druk wydania angielskiego. W trakcie tych prac ogłoszono wiadomość, że Albert Einstein został laureatem Nagrody Nobla za rok 1921. Laureat przebywał w tym czasie w Azji w drodze do Japonii.

Uczony spodziewał się otrzymać Nagrodę Nobla, w istocie przyszła ona dość późno i z istotnym zastrzeżeniem. Jak pisał Christopher Aurivillius, sekretarz Królewskiej Szwedzkiej Akademii Nauk, w liście do laureata: „Akademia (…) postanowiła przyznać panu Nagrodę Nobla w dziedzinie fizyki za ubiegły rok w uznaniu Pana dokonań w fizyce teoretycznej, w szczególności odkrycia teoretycznych podstaw zjawiska fotoelektrycznego, lecz z pominięciem zasług, które staną się Pana udziałem, gdy potwierdzą się sformułowane przez Pana teorie względności i grawitacji”. Teoria względności była więc w oczach szwedzkich akademików osiągnięciem kontrowersyjnym, podobnie myślało wielu uczonych.

Niewykluczone, że Einstein pragnął swoją książką przekonać część kolegów po fachu. Na początku lat dwudziestych obie teorie względności: szczególną z roku 1905 oraz ogólną z roku 1915 można było uznać za zakończony etap. Dzięki pracy Einsteina, ale także szeregu innych fizyków i matematyków, jak Max Planck, Max von Laue, David Hilbert, Felix Klein, Emmy Noether, Max Born, Hermann Weyl, Tullio Levi-Civita, Karl Schwarzschild, Hans Thirring, Josef Lense, Willem de Sitter, Hendrik Lorentz, Gunnar Nordström, Erich Kretschmann, Arthur Eddington, Paul Ehrenfest, Johannes Droste, Paul Langevin udało się wyjaśnić wiele aspektów nowej teorii – już sama lista nazwisk wskazuje, że praca Einsteina nie przebiegała w próżni, a ranga tych uczonych świadczy o poważnym traktowaniu osiągnięć Einsteina. Miał on jednak także sporo przeciwników, którzy z rozmaitych powodów odmawiali jego teorii naukowej wartości, a często także kwestionowali intelektualną uczciwość jej twórcy. Berliński profesor optyki Ernst Gehrcke uznawał teorię Einsteina za skutek zbiorowej sugestii, wybitni eksperymentatorzy (i laureaci Nagrody Nobla) Philipp Lenard i Johannes Stark nie potrafili się pogodzić ze światem nowych pojęć i widzieli w teorii względności produkt reklamy oraz sprytne pomieszanie elementów filozofii, matematyki i fizyki tak, by trudno było znaleźć uczonego zdolnego ją krytykować bez wykraczania poza ramy swej specjalności. Obaj ostatni nie ukrywali też swego antysemityzmu i stali się zwolennikami Adolfa Hitlera jeszcze we wczesnych latach dwudziestych, na długo przed rządami nazistów. Niektórzy, jak szwedzki oftalmolog i laureat Nagrody Nobla Allvar Gullstrand, sądzili, że teoria względności jest pusta wewnętrznie i może prowadzić do różnych wyników w tej samej sytuacji. Dochodziły do tego ostre podziały wśród filozofów, niektórzy jak Hans Reichenbach i Moritz Schlick mocno ją popierali, wielu jednak, jak Oskar Kraus czy Henri Bergson, wyrażało sceptycyzm, jeśli nie wrogość, wobec nowej teorii.
Większość uczonych była na ogół wciąż zdezorientowana, nie wiedząc, co sądzić. Toteż książka Einsteina skupiła się na podkreślaniu ciągłości w rozwoju fizyki, uwydatnieniu pewnej linii rozwoju, w której teoria względności stawała się naturalnym ogniwem. Nie sposób jednak ukryć, że teorie Einsteina zrywały z pojęciami absolutnej przestrzeni i absolutnego czasu, stanowiącymi fundament mechaniki, a z nią całej fizyki od czasów Isaaca Newtona. Kwestionowanie uświęconych tradycją zdobyczy nauki w oczach wielu było gestem obrazoburczym i świętokradczym. To, co starszych przejmowało zgrozą i oburzeniem, w oczach ówczesnych ludzi młodych stawało się fascynującą rewolucją. Karl Popper wspominał, jak wielką rolę w jego myśleniu o nauce odegrała teoria Einsteina, już sam fakt, że można było stworzyć realną alternatywę wobec królującej mechaniki Newtona miał dla niego rangę intelektualnego objawienia.

Zacząć wypada od samej nazwy: teoria względności. Z początku mówiło się o zasadzie względności, potem określać tak zaczęto teorię Einsteina z roku 1905 (szczególną teorię względności), a później Einstein zaczął mówić o uogólnionej bądź ogólnej teorii względności. W dyskursie potocznym zaczęto nazwy tę wiązać z zanegowaniem absolutnego czasu, a nawet szerzej z zanegowaniem dotychczasowej fizyki czy wręcz obowiązującej logiki albo etyki. Oczywiście, teoria względności, tak jak żadna udana teoria fizyczna, nie zmienia świata doświadczenia, ponieważ musi być zgodna z dotychczasowymi danymi eksperymentalnymi. Zmienia jedynie nasz sposób widzenia świata, przewidując nowe zjawiska i rozszerzając tym samym granice wiedzy. Mechanika newtonowska nadal obowiązuje, znamy tylko dokładniej jej ograniczenia. Max Planck, jeden z najwcześniejszych zwolenników teorii Einsteina, przekonuje w swej autobiografii naukowej, że jego zainteresowanie teorią względności wynikło właśnie z szukania w fizyce absolutu, ponieważ w świecie teorii względności są także wielkości oraz pojęcia niezmienne i absolutne. Dlatego nazwa ta bywa myląca.

W czerwcu 1905 roku redakcja „Annalen der Physik” otrzymała pracę nikomu nieznanego urzędnika Biura Patentowego w Bernie zatytułowaną O elektrodynamice ciał w ruchu. Rzecz dotyczyła jednego z najważniejszych zagadnień fizyki teoretycznej, którym w poprzednim dziesięcioleciu zajmowali się dwaj uznani luminarze Henri Poincaré i Hendrik Lorentz. Chodziło o eter – hipotetyczny ośrodek wypełniający świat. Na początku XIX stulecia Thomas Young i Augustin Fresnel wykazali, że światło jest falą. Wyobrażano sobie, że musi ono być falą sprężystą w eterze, czyli drganiem, które propaguje się na wszystkie strony podobnie jak fale akustyczne w powietrzu bądź innych ośrodkach sprężystych. Eter ów charakteryzować się musiał dość osobliwymi własnościami, gdyż z jednej strony był na tyle rzadki, by nie hamować ruchów planet, z drugiej zaś musiał być niezmiernie sprężysty, gdyż prędkość światła jest niewyobrażalnie duża w porównaniu np. z prędkością dźwięku. W przypadku dźwięku wiemy, że jego prędkość dodaje się wektorowo do prędkości powietrza: zmierzona prędkość będzie więc zależeć od prędkości ruchu powietrza. Podobne zjawisko zachodzić powinno także w przypadku światła. Ruch roczny Ziemi po orbicie wokół Słońca zachodzi z prędkością około 30 km/s, co stanowi 1/10 000 prędkości światła. Precyzyjne pomiary powinny wykryć zmiany obserwowanej prędkości światła. Przez cały wiek XIX szereg eksperymentatorów od François Arago w roku 1810 aż do Alberta Michelsona i Edwarda Morleya w roku 1887 starało się za pomocą różnych metod optycznych wykryć ruch Ziemi w eterze. Wyniki wszystkich tych doświadczeń były negatywne. Wyglądało to tak, jakby eter poruszał się razem z Ziemią, ale taka hipoteza rodziła sprzeczności z innymi obserwacjami.

Obok optyki innym wielkim tematem dziewiętnastowiecznej fizyki były elektryczność i magnetyzm. W latach sześćdziesiątych XIX wieku James Clerk Maxwell podsumował te wszystkie badania, podając jednolitą matematyczną teorię zjawisk elektrycznych, magnetycznych oraz optycznych – okazało się bowiem, że powinny istnieć fale elektromagnetyczne. Ich prędkość wynikająca z teorii Maxwella była bliska prędkości światła w próżni. Maxwell wysnuł więc wniosek, że światło jest rodzajem fal elektromagnetycznych. W latach 1887-1888 Heinrich Hertz wykazał, że można w laboratorium wytworzyć fale elektromagnetyczne o długości kilku metrów, które także rozchodzą się z prędkością światła. Teoria Maxwella została potwierdzona, stając się praktycznym narzędziem pracy inżynierów. Niemal równocześnie rozwijały się bowiem techniczne zastosowania elektromagnetyzmu: oświetlenie elektryczne, telefon i pierwsze elektrownie. Ojciec i stryj Einsteina, bracia Rudolf i Jakob, prowadzili najpierw w Monachium, później w północnych Włoszech firmę elektryczną i Albert niemal od dziecka miał do czynienia z techniką elektryczną. Elektrodynamika była także ważnym tematem zajęć laboratoryjnych i wykładów na Politechnice w Zurychu. Einstein jednak od początku nie chciał zostać inżynierem i narzekał, że program studiów nie obejmuje teorii Maxwella.

Teoria Maxwella pozwalała w jednolity sposób opisać ogromny obszar zjawisk. Czyniła to za pomocą pojęć pola elektrycznego oraz magnetycznego. W każdym punkcie przestrzeni i w każdej chwili można było za pomocą dwóch wektorów scharakteryzować stan pola. Wydawało się, że eter z początku wieku zyskał teraz nową funkcję, nośnika pola. Ważną cechą nowego podejścia była lokalność: to, co dzieje się z polem elektrycznym i magnetycznym w danym punkcie zależy od ładunków i prądów w tym samym punkcie. Zaburzenia pola rozchodzą się jako fale elektromagnetyczne. Była to więc fizyka pojęciowo odmienna od Newtonowskiej grawitacji, w której dwie masy oddziałują na siebie na odległość w sposób natychmiastowy. W teorii Maxwella ładunek jest źródłem pola w otaczającej go przestrzeni i pole to z kolei oddziałuje na inne ładunki. Prędkość rozchodzenia się zmian pola jest wielka, ale nie nieskończona. Choć Maxwell dokonał najważniejszej pracy, formułując teorię w sposób logicznie zamknięty, to dopiero jego następcy, m.in. Oliver Heaviside i Hendrik Lorentz, znaleźli prostsze i bardziej eleganckie jej wersje. Okazało się np., że każdy prąd elektryczny jest jedynie ruchem ładunków. Mamy więc dwa rodzaje ładunków, których położenia i prędkości określają stan pola w różnych miejscach – są to równania pola, czyli równania Maxwella. Znając zaś wartość pola elektrycznego i magnetycznego, możemy obliczyć siłę działającą na ładunek – są to równania ruchu (siła Lorentza).

Teoria Maxwella wyrastała z modelu pewnego ośrodka sprężystego i uczony, podobnie jak większość współczesnych, uważał, że jego rolą jest sprowadzenie zjawisk elektrycznych i magnetycznych do zjawisk mechanicznych. W odróżnieniu od teorii Newtona, w której mamy pojedyncze punkty materialne, tutaj substratem jest eter, który wyobrażano sobie jako pewien sprężysty materiał. Paradoksalny status eteru opisał na zjeździe Brytyjskiego Towarzystwa Krzewienia Nauk w Oksfordzie w roku 1894 markiz Salisbury, stwierdzając, że „główną, jeśli nie wyłączną, własnością słowa eter było dostarczanie rzeczownika do czasownika falować”.

Problem wykrycia ruchu Ziemi w eterze stał się tym bardziej palący. Wiadomo było wprawdzie, że inżynier stosować może równania Maxwella, nie przejmując się takimi subtelnościami, ale należało wyjaśnić negatywne wyniki doświadczeń. Hendrik Lorentz spróbował podejść do tego problemu w sposób systematyczny i wykazał, że każdemu stanowi pól w nieruchomym eterze odpowiada pewien stan pól w eterze ruchomym. Chciał w ten sposób podać ogólny dowód, że wszelkie zjawiska elektromagnetyczne przebiegają w taki sposób, aby nie można było ruchu Ziemi wykryć. Wprowadził przy tym dość szczególną konstrukcję matematyczną: w poruszającym się układzie należało zdefiniować czas w taki sposób, że zależał on od współrzędnej przestrzennej. Był to zdaniem Lorentza czas fikcyjny, potrzebny do dowodu niemożliwości wykrycia ruchu przez eter. Okazało się też, że należy założyć coś osobliwego na temat długości obiektów poruszających się: powinny one ulec nieznacznemu skróceniu o czynnik \sqrt{1-v^2/c^2}, gdzie v jest prędkością ruchu obiektu, a c – prędkością światła.

Praca Alberta Einsteina, eksperta technicznego III klasy z Berna, proponowała już we wstępie krok decydujący: pojęcie eteru świetlnego jest w fizyce „zbyteczne”. W ten sposób cała dziedzina badań nad zjawiskami w poruszającym się eterze przechodziła do historii, rozpoczynała się natomiast era szczególnej teorii względności.

Fizycy znali wcześniej zasadę względności. Dotyczyła ona mechaniki. I zasada dynamiki, czyli zasada bezwładności, mówi, że gdy żadne siły nie działają na ciało, to porusza się ono ruchem jednostajnym i prostoliniowym bądź spoczywa. Zasada ta nie dotyczy każdego układu współrzędnych (in. układu odniesienia). Obserwator w hamującym pociągu widzi, jak przewracają się przedmioty, które dotąd spokojnie sobie tkwiły w bezruchu. Hamujący pociąg nie jest więc układem odniesienia, w którym zasada bezwładności ma zastosowanie. Fizycy mówią: nie jest układem inercjalnym (tzn. takim, w którym obowiązuje zasada bezwładności). Pociąg jadący ruchem jednostajnym jest dobrym przybliżeniem układu inercjalnego, podobnie jak powierzchnia Ziemi. Wiemy jednak, że także powierzchnia Ziemi nie jest idealnym układem inercjalnym, ponieważ Ziemia wiruje wokół osi, a także porusza się ruchem rocznym wokół Słońca. Układ inercjalny jest więc pewnym ideałem teoretycznym. Zasady dynamiki mają w takim układzie szczególnie prostą postać i zazwyczaj tak są domyślnie sformułowane.

Ważną cechą układów inercjalnych jest to, że każdy układ odniesienia poruszający się ruchem jednostajnym i prostoliniowym względem jednego z nich jest także układem inercjalnym. mamy więc do czynienia z klasą równoważnych fizycznie układów odniesienia. W każdym z nich obowiązują zasady dynamiki w zwykłej postaci. Nie znaczy to, że nie możemy opisywać ruchu np. w odniesieniu do hamującego pociągu, musimy jednak wtedy uwzględnić dodatkowe siły, które nie wynikają z żadnych oddziaływań, lecz są skutkiem ruchu układu: w hamującym pociągu pasażerowie odczuwają siłę zwróconą ku jego przodowi, która znika, gdy pociąg się zatrzyma.

Isaac Newton sformułował w Matematycznych zasadach filozofii przyrody pojęcia absolutnej przestrzeni – czegoś w rodzaju nieskończonego pojemnika na wszystkie obiekty w świecie oraz absolutnego czasu. Prawa dynamiki obowiązywać miały, gdy ruch odnosimy do owej przestrzeni absolutnej, ale także w każdym układzie odniesienia poruszającym się ruchem jednostajnym i prostoliniowym. W rezultacie w fizyce Newtona nie ma sposobu na ustalenie, który z nieskończonego zbioru układów inercjalnych jest absolutną przestrzenią albo w języku dziewiętnastego wieku: eterem. Nie możemy więc ustalić absolutnego położenia żadnego przedmiotu w sposób empiryczny: dwa zdarzenia zachodzące w odstępie jednej minuty w tym samym punkcie (inercjalnego) pociągu zachodzą w różnych miejscach przestrzeni zdaniem obserwatora na peronie. Fizycznie oba punkty widzenia są równoprawne, a także punkty widzenia wszelkich innych obserwatorów inercjalnych. Absolutna przestrzeń należy więc do założeń metafizycznych Newtona, żadne eksperymenty nie pozwalają jej zlokalizować. Inaczej można powiedzieć, że w fizyce Newtona obowiązuje zasada względności: prawa fizyki są takie same w każdym układzie inercjalnym.

Czas w fizyce Newtona jest rzeczywiście absolutny, to znaczy, można zawsze ustalić, czy zdarzenia są równoczesne, nawet gdy zachodzą one daleko od siebie (zresztą dla pewnego obserwatora inercjalnego będą one równoczesne i zarazem w tym samym punkcie przestrzeni).

Einstein uważał, iż zasadę względności należy rozciągnąć także na zjawiska elektromagnetyczne i zaproponował, aby obowiązywała ona jako nowe prawo fizyki: wszelkie prawa fizyki mają taką samą postać w każdym układzie inercjalnym. Drugim postulatem jego teorii było przyjecie, że prędkość światła w próżni jest dla każdego obserwatora inercjalnego równa tej samej wartości c (wynikającej z teorii Maxwella). Zamiast analizować szczegóły zaproponował więc dwie zasady ogólne, które jego współczesnym wydawały się przeczyć sobie wzajemnie. Rozszerzenie zasady względności na całą fizykę byłoby wprawdzie eleganckim wyjaśnieniem, dlaczego nie obserwujemy ruchu Ziemi w eterze (bo eteru nie ma), ale pojawia się trudność z drugim postulatem. Znaczy on bowiem, że nie tylko prędkość światła zawsze jest równa c, bez względu na ruch źródła światła, ale także równa jest c bez względu na to, czy obserwator goni falę świetlną, czy też porusza się jej naprzeciw. Przeczy to prawu składania prędkości, a przecież eksperymenty potwierdzają je na co dzień: gdy pasażer porusza się z prędkością u (względem pociągu) w kierunku do przodu pociągu jadącego z prędkością v (względem peronu), to jego prędkość względem peronu jest sumą u+v. Dlaczego prawo to nie działa, gdy jednym z obiektów jest światło?

Czyniono często zarzut Einsteinowi, że prędkość światła w próżni jest w jego teorii jakoś szczególnie wyróżniona. Rzeczywiście, istnieje w tej teorii graniczna prędkość poruszania się obiektów materialnych, np. przekazywania energii albo informacji, i to jest właśnie c. Można powiedzieć, że światło ma tę szczególną własność, iż porusza się z ową maksymalną prędkością. Nie ma jednak żadnych przeszkód, aby istniały inne obiekty poruszające się z prędkością c. Wiemy, że światło składa się z fotonów (było to treścią innej pracy Einsteina z tego samego roku, nie bez powodu nazywanego jego „cudownym rokiem”), cząstek poruszających się z prędkością c. Podobnie poruszają się inne cząstki, odkryte później, jak gluony, albo wciąż czekające na odkrycie, jak grawitony. Cząstki takie nie istnieją w stanie spoczynku, lecz zawsze poruszają się z prędkością c.

Istnienie maksymalnej prędkości, i to w dodatku zawsze jednakowej, pozwala na eksperymentalne badanie równoczesności dwóch zjawisk. Obserwator inercjalny może rozmieścić w swoim układzie odniesienia zegary w różnych punktach. Znając odległość tych puntów oraz prędkość światła, może te zegary zsynchronizować. Gdy jego zegar wskazuje czas t, wysyła sygnał do punktu odległego o r i umawia się z kolegą, który tam przebywa, że moment odebrania sygnału będzie czasem t+r/c. Dzięki temu przepisowi wszystkie zegary zostaną zsynchronizowane i można będzie ustalić zawsze czas danego zdarzenia, obserwując go na pobliskim zegarze. Metoda ta zastosowana w innym układzie inercjalnym może dać inne wyniki w odniesieniu do tej samej pary zdarzeń.

Przykład podany przez Einsteina pomaga to zrozumieć. Wyobraźmy sobie jadący pociąg i obserwatora na peronie. W chwili, gdy mija go środek pociągu, w jego początek i koniec uderzają równocześnie dwa pioruny. Ich uderzenia są równoczesne, ponieważ światło obu błyskawic dociera do naszego obserwatora w jednej chwili, a wiadomo, że odległość obu końców pociągu od obserwatora była w tym momencie taka sama. Inaczej opisze te zdarzenia obserwator siedzący w środku pociągu. Jego zdaniem piorun najpierw uderzył w przód pociągu, a dopiero później w jego tył (linia świata pasażera jest na rysunku zakreskowana, jest to zarazem jego oś czasu). Skoro równoczesność dwóch zdarzeń zależy od układu odniesienia, to znaczy, że czas absolutny nie istnieje. Wbrew pozorom nie burzy to jednak naszych koncepcji przyczyny i skutku. Musimy tylko precyzyjnie opisywać zdarzenia, podając ich położenie oraz czas. Zdarzenia takie, jak jednoczesne uderzenia dwóch piorunów w dwóch różnych punktach nie są z pewnością połączone związkiem przyczynowo-skutkowym, ponieważ wymagałoby to oddziaływania przenoszącego się natychmiastowo, z nieskończoną prędkością. Wszystkie zaś oddziaływania fizyczne mogą przenosić się co najwyżej z prędkością światła w próżni. Dlatego zmiana kolejności czasowej obu uderzeń pioruna nie burzy fizyki. Jeśli natomiast jakieś zdarzenie A może potencjalnie być przyczyną innego zdarzenia B, to dla każdego obserwatora ich kolejność czasowa będzie taka sama: t_A<t_B. Obalenie koncepcji absolutnego czasu nie oznacza zatem wprowadzenia anarchii w relacjach czasoprzestrzennych, lecz zaprowadzenie innego ładu niż dotąd.

Był to najważniejszy wniosek Einsteina. Oznaczał konieczność przebudowy samych podstaw fizyki: pojęć czasu i przestrzeni. Okazywało się, że teoria Maxwella zgodna jest z teorią względności, nie wymaga więc żadnej przebudowy. Przeciwnie, fikcyjny czas lokalny Lorentza należy interpretować jako czas rzeczywisty mierzony przez innego obserwatora. Póki znajdujemy się w jednym ustalonym układzie inercjalnym czas wydaje nam się absolutny. Rewolucja dotyczyła porównywania wyników pomiarów dokonywanych przez różnych obserwatorów. W przypadku elektrodynamiki oznaczało to względność pól elektrycznych i magnetycznych. Jeśli np. w jednym układzie odniesienia mamy spoczywający ładunek wytwarzający pole elektryczne, to w innym układzie ładunek ten będzie się poruszać – będziemy więc mieli do czynienia z prądem, i obserwować będziemy zarówno pole elektryczne, jak i magnetyczne. Oba wektory pola elektromagnetycznego stanowią więc z punktu widzenia teorii względności jedną całość, jeden obiekt matematyczny, którego składowe w różnych układach są różne, podobnie jak składowe zwykłego wektora w różnych układach współrzędnych.

Równania Maxwella są takie same w każdym układzie inercjalnym, więc i prędkość fali świetlnej będzie w każdym układzie taka sama. Większej przebudowy wymagała mechanika. Jej newtonowska wersja nadal pozostaje słuszna, gdy ciała poruszają się wolno w porównaniu do prędkości światła. Najważniejszą konsekwencją nowej mechaniki stało się słynne równanie E=mc^2, które pozwala zrozumieć m.in. reakcje, w których powstają albo giną cząstki, oraz skąd gwiazdy czerpią energię na świecenie przez miliardy lat.

Szczególna teoria względności rozwiązywała problemy, które od lat uciążliwie towarzyszyły fizykom, choć były one głównie natury pojęciowej. Można było na co dzień nie zaprzątać sobie głowy ruchem Ziemi w eterze i uprawiać fizykę tak, jakby Ziemia była nieruchoma. Także narzędzia do rozwiązania owych problemów zostały już wypracowane, głównie przez Lorentza i Poincarégo, Einstein je tylko radykalnie zreinterpretował. Pierwszy z fizyków pogodził się z sytuacją i zaprzyjaźnił z Einsteinem, drugi starał się ignorować prace młodszego kolegi (być może zresztą jego stosunek do Einsteina uległby z czasem zmianie, Poincaré zmarł w roku 1912, a więc przed stworzeniem ogólnej teorii względności). Ostatecznie elektrodynamika ciał w ruchu przeszła do historii, a podstawą fizyki stała się szczególna teoria względności.
Natomiast jej uogólnienie, czyli Einsteinowska teoria grawitacji, było praktycznie dziełem jednego tylko autora, stworzonym w latach 1907-1915.

Pojęciowym punktem wyjścia była prosty eksperyment myślowy: obserwator swobodnie spadający w polu grawitacyjnym nie będzie odczuwał grawitacji – będzie w stanie nieważkości, dziś dobrze znanym z lotów kosmicznych. Einstein uznał tę obserwację za „najszczęśliwsza myśl swego życia”. Z punktu widzenia fizyki Newtonowskiej istnieją dwa rodzaje masy: grawitacyjna i bezwładna. Pierwsza określa siłę, z jaką na ciało będzie oddziaływać grawitacja. Druga określa przyspieszenie ciała. Ponieważ obie te masy są jednakowe, więc przyspieszenie dowolnego ciała w danym polu grawitacyjnym jest takie same. Ilustruje to się czasem, demonstrując spadanie różnych ciał w rurze próżniowej. Obie masy skracają się zawsze, kiedy obliczamy przyspieszenie. Zdaniem Einsteina należało tę tożsamość wbudować w strukturę fizyki, zamiast ją tylko postulować jako dodatkowy warunek. Uczony sformułował zasadę równoważności pola grawitacyjnego i przyspieszenia. Znajdując się w zamkniętej kapsule, nie potrafilibyśmy odróżnić, czy nasza kapsuła porusza się ruchem przyspieszonym, czy spoczywa w polu grawitacyjnym (możliwe byłyby także kombinacje obu stanów). Grawitacja jest więc w fundamentalny sposób związana z bezwładnością. Einstein dążył do stworzenia teorii, która objaśniałaby jednocześnie grawitację oraz bezwładność. Argumentował przy tym, że układy inercjalne są sztucznym ograniczeniem dla fizyki, powinniśmy więc dopuścić także układy przyspieszone, nieinercjalne. Podobnie jak w szczególnej teorii względności każda prędkość ma zawsze charakter względny, w teorii uogólnionej także przyspieszenie miało stać się pojęciem względnym. Nawiązywał tu do rozważań Ernsta Macha, który sądził, że przyspieszenie jest względne. W swoim czasie Isaac Newton posłużył się przykładem wiadra z wodą wirującego na skręconym sznurze. Gdy wiadro przekaże ruch wirowy wodzie, jej powierzchnia staje się wklęsła, co jest skutkiem sił odśrodkowych. Możemy w ten sposób stwierdzić, czy woda wiruje względem absolutnej przestrzeni. Zdaniem Macha eksperyment ten dowodzi tylko tego, że woda obraca się względem dalekich gwiazd. Gdyby to owe gwiazdy zaczęły się obracać, skutek byłby ten sam, a przestrzeń absolutna nie istnieje.

Droga Einsteina do ogólnej teorii względności była zawikłana, lecz z perspektywy roku 1921 jej struktura matematyczna została już wyjaśniona. Rolę układów inercjalnych odgrywały teraz swobodnie spadające układy odniesienia. Obserwator znajdujący się w jednym z nich może stosować szczególną teorię względności. Różnica fizyczna między obiema teoriami polega jednak na tym, że szczególną teorię względności stosować można jedynie lokalnie. Nawet bowiem w spadającym swobodnie laboratorium można wykryć niewielkie zmiany przyspieszenia między różnymi jego punktami – są to siły przypływowe (poznane historycznie na przykładzie zjawiska przypływów i odpływów w oceanach, które są z różnymi siłami przyciągane grawitacyjnie przez Księżyc oraz Słońce). Oznacza to, że nie można wprowadzić jednego układu inercjalnego dla całego wszechświata, można tylko wprowadzać je lokalnie. Matematycznie rzecz biorąc, różnica między teorią ogólną i szczególną polega na geometrii: zakrzywionej w pierwszym przypadku, płaskiej w drugim. Einstein posłużył się czterowymiarowym sformułowaniem swej teorii szczególnej podanym przez Hermanna Minkowskiego. Czas i przestrzeń stanowią tu pewną całość, czasoprzestrzeń. W przypadku dwuwymiarowym w każdym punkcie powierzchni możemy zbudować płaszczyznę styczną. Jest ona zarazem dobrym przybliżeniem geometrii w otoczeniu danego punktu: w taki sposób posługujemy się planami miast, mimo że Ziemia nie jest płaska.

Teorię dwuwymiarowych powierzchni zawartych w trójwymiarowej przestrzeni zbudował Karl Friedrich Gauss. Zauważył przy tym, że wystarczy posługiwać się wielkościami dostępnymi bez wychodzenia poza powierzchnię. Można np. w ten sposób ustalić, czy jest ona zakrzywiona. Podejście Gaussa uogólnił później Bernhard Riemann, a inni matematycy rozwinęli je w systematyczne procedury dla powierzchni o dowolnej liczbie wymiarów.

W geometrii Riemanna współrzędne można wybrać w sposób dowolny, w przypadku zakrzywionych przestrzeni nie istnieje na ogół żaden szczególnie prosty układ współrzędnych, który mógłby odegrać taką rolę jak współrzędne kartezjańskie w przestrzeni euklidesowej. Nadal decydującą rolę odgrywa tu pojęcie odległości. Dla pary bliskich punktów możemy ją zawsze obliczyć w sposób euklidesowy, a długość dowolnej krzywej uzyskać przez sumowanie takich elementarnych odległości. Zamiast równania ds^2=dx^2+dy^2 na płaszczyźnie, mamy teraz równanie nieco bardziej skomplikowane

ds^2=g_{11}dx_1^2+2g_{12}dx_1dx_2+g_{22}dx_2^2.

Geometrię przestrzeni określa więc zbiór funkcji g_{\mu\nu} pozwalających obliczyć odległość punktów. Funkcje g_{\mu\nu} noszą nazwę tensora metrycznego (albo metryki). Można za ich pomocą wyrazić wszelkie własności geometryczne danej przestrzeni. W przypadku dwuwymiarowym wystarczą trzy takie funkcje, w przypadku czterowymiarowym należy znać ich dziesięć.

W zakrzywionej przestrzeni nie ma linii prostych, można jednak znaleźć ich odpowiedniki. Są to linie geodezyjne (albo geodetyki). Mają one niektóre własności linii prostych w geometrii euklidesowej: są np. najkrótszą drogą łączącą dwa punkty. Krzywe geodezyjne w teorii Einsteina są liniami świata cząstek poruszających się pod wpływem grawitacji. Metryka określa więc, jak poruszają się cząstki – grawitacja nie jest z punktu widzenia Einsteina siłą, lecz własnością czasoprzestrzeni. Należy dodać, że inne rodzaje sił działających na dane ciało sprawią, że przestanie się ono poruszać po geodezyjnej. Jedynie grawitacja wiąże się tak ściśle z geometrią. Jest to zgodne z faktem, że grawitacja jest powszechna, tzn. dotyczy wszystkich cząstek, a także działa na wszystkie w taki sam sposób – dzięki czemu można ją opisać jako własność czasoprzestrzeni. W teorii Einsteina nie potrzeba osobnej masy grawitacyjnej i bezwładnej.

Znając metrykę czasoprzestrzeni, możemy wyznaczyć geodezyjne, czyli obliczyć, jak poruszają się ciała pod wpływem grawitacji. Są to równania ruchu, zastępujące zasady dynamiki Newtona. Aby jednak wyznaczyć metrykę, potrzebne są równania, które musi ona spełniać. Są to równania pola, największe osiągnięcie Einsteina jako fizyka. Przystępując do pracy nad ogólną teorią względności uczony wiedział jedynie, że powinna ona zawierać teorię szczególną a także Newtonowską teorię grawitacji. Równania pola powinny mieć postać znaną z teorii Maxwella: (pewne kombinacje pochodnych pól)=(źródła pola). W przypadku grawitacyjnym źródłem powinna być masa, ale to także znaczy: energia. W teorii szczególnej opisuje się energię i pęd zbioru cząstek jako tensor energii pędu T_{\mu\nu}, zbiór dziesięciu wielkości danych w każdym punkcie czasoprzestrzeni. Masy powinny decydować o krzywiźnie czasoprzestrzeni. Zatem po lewej stronie równań pola powinna znaleźć się wielkość informująca o krzywiźnie. Okazuje się, że praktycznie jedyną możliwością jest tu tzw. tensor Einsteina, G_{\mu\nu} zbiór dziesięciu pochodnych metryki. Równania muszą więc przybrać postać

G_{\mu\nu}=\kappa T_{\mu\nu}.

gdzie \kappa jest odpowiednio dobraną stałą związaną ze stałą grawitacyjną. Sama postać zapisu tych równań zapewnia, że możemy w dowolny sposób wybrać współrzędne, a równania nadal pozostaną słuszne. Znalezienie prawidłowych równań pola pod koniec listopada 1915 roku zakończyło odyseję Einsteina: ogólna teoria względności została zbudowana.

Jeszcze w listopadzie 1915 roku uzyskał Einstein dla swej teorii pierwsze potwierdzenie obserwacyjne. Obliczył bowiem wielkość obrotu orbity Merkurego wokół Słońca – niewielkiej rozbieżności między obserwacjami a teorią Newtona nie udawało się wyjaśnić od półwiecza. Teraz okazało się, że przyczyną rozbieżności było niedokładne prawo grawitacji. Przewidział też Einstein, że promienie gwiazd biegnące blisko powierzchni Słońca powinny uginać się o kąt 1,74’’. Efekt ten został w roku 1919 potwierdzony podczas całkowitego zaćmienia Słońca przez dwie ekspedycje brytyjskie. Teoria grawitacji Einsteina okazała się ogromnym sukcesem, jest powszechnie uważana za najpiękniejszą teorię w fizyce. Nie wszystko jednak poszło po myśli jej twórcy. Okazało się np., że choć wprawdzie grawitacja i bezwładność zostały ze sobą zespolone, to nie udało się jednak zrealizować idei Macha. W teorii Einsteina wirowanie całego wszechświata jest czym innym niż wirowanie wiadra Newtona. Einstein z pewnym uporem trzymał się zasady Macha nawet wówczas, gdy wykazano, że nie obowiązuje ona w jego teorii. Wbrew przewidywaniom twórcy grawitacja może prowadzić do zapadania się materii i tworzenia czarnych dziur, w których zamknięta jest osobliwość czasoprzestrzeni. Einstein zmieniał w ciągu swej późniejszej kariery zdanie na temat tego, czy istnieją fale grawitacyjne: początkowo je przewidywał, później nabrał wątpliwości. Jego początkowe przybliżone podejście okazało się słuszne i fale grawitacyjne zostały odkryte w roku 2015.

Thomas Young i George Airy: nadliczbowe łuki tęczy

Podstawowy mechanizm powstawania tęczy wyjaśnił już Kartezjusz. Łuki tęczy odpowiadają najmniejszym albo największym kątom odchylenia promieni świetlnych odbijających się wewnątrz kropli wody. Wynika to z prawa załamania.

descartes2

Czy na przebieg tego zjawiska ma jakiś wpływ falowy charakter światła? Pierwszy zastanowił się nad tym Thomas Young. Rozpatrzmy to na przykładzie wewnętrznego łuku tęczy. Kąt padania promienia na powierzchnię kropli związany jest z tym, jak daleko od jej środka biegnie ów promień. Dalsze jego losy są już określone: można obliczyć, jak się załamie i pod jakim kątem ostatecznie wybiegnie z naszej kropli. W pewnej odległości od środka kropli otrzymuje się promień Kartezjusza – ten odpowiadający kątowi 42º. Dla każdego kąta mniejszego niż owe 42º możemy znaleźć dwa promienie, które wychodzą pod tym kątem z kropli: jeden wchodzący do kropli nieco bliżej środka niż promień Kartezjusza, drugi zaś nieco od niego dalej. Wynika to po prostu stąd, że jeśli mamy w pewnym miejscu maksimum wykresu, to każdej wartości funkcji mniejszej od maksimum odpowiadają co najmniej dwie wartości argumentu: jedna na lewo, a druga na prawo od maksimum. Promienie takie biegną w tym samym kierunku pod pewnym kątem mniejszym niż 42º. Jeśli światło jest falą, to promienie te powinny interferować. Oba przebiegają nieco inną drogę, gdy ta różnica dróg będzie równa długości fali, promienie się wzmocnią, a my zaobserwujemy dodatkowy łuk tęczy wewnątrz zwykłej tęczy, tzw. łuk nadliczbowy.

rainbow_wave

Young wykonał jakieś obliczenia na ten temat, ale wspomniał tylko o ich wyniku w jednej ze swych prac. Dla kropli o średnicy 1/76 cala przewidywał on łuk nadliczbowy 2º wewnątrz zwykłego łuku tęczy. Bliżej tematem tym zajął się George Biddell Airy w latach 1836-1838. Wystarczy do tego falowa teoria Fresnela i trochę matematyki. Ograniczając się do promieni bliskich promienia Kartezjusza, można poczynić pewne przybliżenia matematyczne prowadzące do nowego rodzaju funkcji, tzw. funkcji Airy’ego. Jakościowo rzecz biorąc, fala wypadkowa powstaje z czoła fali o kształcie litery S, jak na rysunku. Astronom pracowicie wyznaczył wartości natężenia światła za pomocą obliczeń numerycznych.

airy

Pozioma oś wyskalowana jest w kątach. Pionowa oś wykresu odpowiada położeniu promienia Kartezjusza. Linia kropkowana to natężenie światła w teorii Kartezjusza, cienka linia ciągła byłaby wynikiem Younga, a gruba linia ciągła jest bliższym rzeczywistości wynikiem Airy’ego. Już pierwsze maksimum natężenia wypada dla kąta mniejszego niż owe 42º Kartezjusza, jak widać, powinny też pojawiać się kolejne maksima odpowiadające jeszcze mniejszym kątom – są to właśnie łuki nadliczbowe. Skala pozioma wykresu zależy od wielkości kropli wyrażonej w długościach fali światła. Wykres poniżej przedstawia teorię Airy’ego dla kropli o średnicy 1/76 cala i długości fali 0,7 μm (barwa czerwona) pierwszy dodatkowy łuk leży niecałe 2º wewnątrz łuku głównego – mniej więcej tak, jak to opisał Young (wszędzie poniżej skala pozioma jest w stopniach).

Airy1.76cala red

Jego jakościowa teoria staje się jeszcze bliższa prawdy, gdy nieco przesunie się różnicę faz obu promieni (o \frac{1}{2}\pi), co widać na wykresie z pracy Airy’ego. Gdy krople są większe, kąty między łukami stają się mniejsze. Oto wykres dla kropli o średnicy 1 mm:

airy1mm red

W rzeczywistych warunkach obserwujemy wszystkie długości fal światła widzialnego jednocześnie, powoduje to nakładanie się łuków: niżej na wykres dla światła czerwonego nałożyliśmy jeszcze wykres dla fioletu. Łuki będą się więc zacierać.

airy1mm violet red

Podobny skutek wywoła zróżnicowanie rozmiarów kropli, w rezultacie nie zawsze udaje się te dodatkowe łuki zaobserwować. Czasem jednak są widoczne. Mamy wtedy naoczny dowód, że światło jest falą.

p7285210_2

fotografia: https://collectingtokens.wordpress.com/tag/supernumerary-rainbow/

Uwaga:
Słynna całka tęczy Airy’ego ma postać:

\mbox{Ai}(-\eta)=\dfrac{1}{\pi}\int\limits_{0}^{\infty}\cos(t^3/3-\eta t) dt.

Dla dużych rozmiarów kropli trzeba stosować bardziej realistyczne i mniej eleganckie przybliżenia. Dlatego wynik dla kropli o wielkości 1 mm ma sens tylko jakościowy.

Augustin Fresnel: piękna matematyka dyfrakcji (1818)

Stanisław Lem stwierdził kiedyś: „Nikt nic nie czyta, a jeśli czyta, to nic nie rozumie, a jeśli nawet rozumie, to nic nie pamięta”. Zjawisko to zresztą stare jak świat, w gruncie rzeczy różne informacje przypominają elementy puzzli: bez nich nie da się złożyć obrazka, ale one same nie wystarczą, bo trzeba jeszcze je odpowiednio dopasować. Każdy, kto się czegoś uczył, zauważył pewnie, że jeśli uda nam się coś dobrze zrozumieć, stworzyć pewną logiczną strukturę z tego, czego się uczyliśmy, to trudno to potem zapomnieć. Łatwo się zapomina fragmenty, które nigdy nam do niczego nie pasowały albo pasowały dość luźno.

Historycy mają skłonność sądzić, że jeśli X czytał albo choć posiadał w bibliotece tekst Y, to znaczy, że Y wpłynął na X. Często zresztą X sam nie wie, czy Y na niego wpłynął. Na uniwersytecie w Getyndze, będącym matematycznym centrum Niemiec, sto lat temu mówiło się o „nostryfikacji” idei czy pomysłów. Znane nawet było pojęcie „samonostryfikacji”, gdy ktoś wpadał na pomysł kiedyś już przez niego samego opublikowany. Einstein latem roku 1915 wygłosił tam cykl wykładów o swej teorii grawitacji, sądząc, że jest zakończona. Jesienią zauważył, że równania pola grawitacyjnego powinny być inne i zaczął nad nimi gorączkowo pracować, tym intensywniej, że w Getyndze David Hilbert zajął się tym samym tematem – groziła więc Einsteinowi „nostryfikacja” ze strony jednego z najlepszych matematyków tamtych czasów. Ostatecznie to Einstein pierwszy zapisał prawidłowe równania teorii grawitacji, można powiedzieć, że wszystko się skończyło szczęśliwie, bo włożył wiele trudu w zbudowanie tej teorii i należała mu się taka finałowa satysfakcja.

Augustin Fresnel był z zawodu inżynierem drogowym, nadzorował rozmaite budowy na prowincji. Może nie zająłby się poważniej fizyką, która go interesowała, lecz o której nie wiedział zbyt wiele, gdyby nie Napoleon. Wielki cesarz powrócił właśnie z zesłania na Elbie i próbował odbudować imperium, co jak wiemy skończyło się bitwą pod Waterloo. Fresnel jako polityczny przeciwnik cesarstwa stracił posadę i miał dużo wolnego czasu, który spędzał w rodzinnej wiosce matki, Mathieu w regionie Calvados, pod nadzorem policji. Z pomocą miejscowego kowala zbudował przyrządy do obserwacji optycznych, kropla miodu służyła mu za soczewkę. Znał matematykę. Czytał trochę Thomasa Younga, ale że nie znał angielskiego, niezbyt chyba wiele od niego zaczerpnął. Nie będziemy dociekać, ile dokładnie wziął od Younga, w każdym razie posunął się znacznie dalej niż angielski przyrodnik, tworząc matematyczną teorię światła jako fal i sprawdzając ją za pomocą świetnych eksperymentów. Kilka lat później został przyjęty do paryskiej Akademii Nauk. Słabowity przez całe życie, zmarł na gruźlicę w 1827 roku, niedługo po swoich trzydziestych dziewiątych urodzinach – żył więc tak samo długo jak Chopin, Słowacki i Riemann, którzy cierpieli na tę chorobę.

fresnel-1

W roku 1818 Fresnel przedstawił matematycznie prawidłową teorię ugięcia światła na nieprzezroczystej półpłaszczyźnie. Podstawą tej teorii jest zasada Huygensa: każdy punkt czoła fali traktujemy jak nowe źródło fal, które rozchodzą się we wszystkich kierunkach. W punkcie obserwacji, np. w jakimś punkcie ekranu, sumują się drgania przychodzące od każdego punktu fali. Łatwo opisać, jak to będzie wyglądać, gdy mamy tylko dwie fale dochodzące do danego punktu. Obserwujemy wówczas sumę drgań (wtedy nie wiedziano, co tam właściwie drga, my dziś wiemy, że są to pola elektryczne oraz magnetyczne).

fresnelDrganie można przedstawić jako rzut obracającego się wektora o pewnej długości. Na rysunku wektory te obracają się przeciwnie do wskazówek zegara z prędkością kątową

\omega=\dfrac{2\pi}{T},

gdzie T jest okresem fali (i drgania w danym punkcie), \omega nazywa się częstością kołową. Złożenie dwóch drgań o takiej samej częstości będzie sumowaniem dwóch obracających się wektorów. Ponieważ oba obracają się tak samo, możemy obrazek unieruchomić i dodawać te wektory tak, jak się dodaje wektory – według reguły równoległoboku albo (dolny rysunek) rysując je jeden za drugim. Wynik będzie taki sam, ale tą drugą techniką możemy dodać tyle wektorów, ile zechcemy.

Widzimy, że wynik dodawania zależy tylko od różnicy fazy \varphi między dwoma drganiami.

Rozpatrzmy teraz falę płaską padającą na nieprzezroczystą półpłaszczyznę AB, punkty B, D, E i C współtworzą czoło fali biegnącej z lewej strony z dalekiego źródła. Możemy odpowiadające im drgania zapisać jako strzałki, wszystkie mają tę samą fazę – ustawiliśmy je pionowo.

f30-07_tc_bigRysunek 30.7 z wykładów Feynmana (kto czuje niedosyt, może zajrzeć do podrozdziału 30-6 w t. 1)

Załóżmy, że interesuje nas natężenie światła w pewnym punkcie P. Fala docierająca do tego punktu z E musi przebyć odległość s, nieco większą niż odległość ekranu b:

fresnel1Z trójkąta prostokątnego na rysunku i z twierdzenia Pitagorasa, otrzymujemy

(b+\Delta)^2=b^2+2b\Delta+\Delta^2=b^2+h^2.

Różnice odległości \Delta, które mogą być dla nas ważne, są porównywalne z długością fali światła, a więc są znacznie mniejsze niż typowa odległość ekranu, możemy więc pominąć \Delta^2 w porównaniu do 2b\Delta, otrzymujemy wówczas:

\Delta=\dfrac{h^2}{2b}.

Dodając przyczynki od różnych punktów czoła fali, możemy przyjąć, że amplitudy fal cząstkowych są jednakowe: dodajemy więc wektory tej samej długości. Nie możemy natomiast pominąć faz. Różnica fazy między falą z E i falą z D będzie równa

\varphi=2\pi\dfrac{\Delta}{\lambda}=\dfrac{\pi h^2}{b\lambda}\sim h^2.

Zsumowanie nieskończenie wielu fal cząstkowych to obliczenie całki – coś, co Fresnel jako dobry inżynier z początku XIX wieku potrafił. Możemy uzyskać jakościowe wyobrażenie o wyniku, dodając bardzo wiele jednakowych strzałek. Zaczynamy od punktu D leżącego najbliżej punktu obserwacji P. Gdy przesuwamy się wyżej, faza rośnie proporcjonalnie do h^2: w wyniku powstanie spirala zwijająca się od punktu D w prawo i w górę, spirala ta zawija się coraz gęściej wokół pewnego punktu.

f30-08_tc_big(Rysunek 30-8 z wykładów Feynmana)

Podobnie będzie z wektorami z fragmentu BD naszego czoła fali, będzie im odpowiadać fragment spirali od B_P do D. Całkowite drganie odpowiadające punktowi obserwacji P dane będzie wektorem B_{P\infty} na rysunku. Jeśli nasz punkt obserwacji będzie leżał w cieniu, jak Q na rysunku, dodawać będziemy tylko fale cząstkowe od B_Q w górę i nasz wektor wypadkowy będzie miał koniec w punkcie \infty, im dalej w cień, tym bardziej spada natężenie światła. Po jasnej stronie półpłaszczyzny w punkcie R: musimy wystartować w B_{R} na lewym zwoju spirali i zakończyć gdzieś na prawym zwoju, co w rezultacie da wektor w przybliżeniu od lewego centrum spirali do jakiegoś punktu w pobliżu centrum prawego: długość wektora będzie się (niemal) okresowo zmieniać. Kwadrat długości naszego wektora to natężenie światła, czyli to co zwykle rejestrujemy. Obliczony ściśle wynik wygląda następująco:

FresnelFresnel_diffraction_of_straight_edge_density_plotwikimedia commons, autor: Gisling

Oś y wykresu leży na krawędzi szczeliny, na lewo mamy część „zacienioną”, na prawo – „jasną”, oś x wyskalowana jest w jednostkach \sqrt{b\lambda/2} (dla żółtego światła o \lambda=0,6 \mu m i odległości ekranu b=3,3 m będzie to skala w milimetrach. Wahania natężenia widać jako prążki. Tak wygląda granica cienia, jeśli się jej dokładniej przyjrzeć i jeśli fala padająca ma dobrze określoną fazę, np. oświetlamy naszą półpłaszczyznę laserem. Można to zrobić i bez lasera (jak Fresnel w XIX wieku), ale wówczas źródło fal musi być dostatecznie małe.

CornuSpiral1Elegancka spirala, którą otrzymaliśmy wyżej nazywa się spiralą Cornu. Fresnel obliczył całki, które są tu potrzebne, samo przestawienie graficzne jest późniejsze.

Najłatwiej zastosować tutaj wzór Eulera: nasza płaszczyzna jest wówczas płaszczyzną zespoloną, a dodawanie wektorów jest dodawaniem liczb zespolonych. Napiszmy jeszcze wzór na zespoloną sumę drgań S (kwadrat jej modułu to natężenie światła):

S=\int\limits_{-a}^{\infty} e^{i\frac{\pi h^2}{b\lambda}} dh,

a to odległość DB. Część rzeczywista i urojona tej liczby wyraża się przez tzw. całki Fresnela, funkcje wprowadzone do nauki i obliczone po raz pierwszy przez naszego uczonego.

George Biddell Airy: Jak drobne szczegóły można dostrzec przez teleskop?

Widziałem jakiś czas temu reklamę, a w niej na zdjęciu – rzekomo satelitarnym – rozpoznawalne twarze jakichś celebrytów. Czy to możliwe technicznie? Nie bardzo. Wprawdzie w sprawach techniki lepiej nie twierdzić, że coś jest niemożliwe, ale tutaj trudności są dość zasadnicze i wynikają z falowej natury światła.

Do wyjaśnienia sprawy przyczynił się Airy, wtedy niedługo po trzydziestce, profesor katedry Plume’a w Cambridge, a niebawem 7. Astronom Królewski, ten ostatni urząd pełnił niemal pół wieku. Wyróżniał się jako zdolny młodzieniec, zanim skończył siedemnaście lat, znał dziewięć rozdziałów Matematycznych zasad filozofii przyrody Isaaca Newtona, a więc materiał matematycznie nietrywialny. Dostał się na studia do Trinity College w Cambridge jako sizar, czyli coś w rodzaju studenta służącego, ponieważ miał talent do matematyki, łaciny oraz greki. Ze zdecydowanie najlepszym wynikiem zdał Tripos, egzamin matematyczny, który bardzo ceniono. Potem przez dwa lata był profesorem katedry Lucasa – tak jak kiedyś Newton. Katedra ta nie przynosiła jednak wówczas dochodów, płacono 99 funtów rocznie, podczas gdy Airy jako młodszy tutor zarabiał 150. Namówiono go jednak, aby się o nią ubiegał ze względów wizerunkowo-prestiżowych. Szczerze mówiąc, katedra podupadła, Airy był pierwszym liczącym się profesorem na niej od czasów Newtona. Kiedy poinformowano go, że profesor katedry Plume’a („astronomia i filozofia eksperymentalna”) czuje się niezbyt dobrze i zapewne długo nie pociągnie, Airy zaczął się starać o tę posadę. Zdobył ją, kiedy się zwolniła drogą naturalną, przy okazji wydębiając od uniwersytetu podwyżkę z 300 do 500 funtów. W ten sposób został astronomem, do jego obowiązków bowiem należało kierowanie obserwatorium uniwersyteckim. Airy potrzebował pieniędzy: studia dawały mu możliwość awansu, nie upierał się, że musi być uczonym, ale skoro los tak chciał, to nim został. Pragnął też się ożenić, do czego również potrzebował pieniędzy. Był niezwykle pracowity, dobrze zorganizowany, sumienny, nie wyrzucał żadnych papierów, zszywał je, tworząc do nich system odnośników. Codziennie tłumaczył jakiś kawałek z angielskiego na łacinę. Optyką zajął się jako nauką pomocniczą astronomii. Odkrył we własnym wzroku wadę, zwaną dziś astygmatyzmem i jako pierwszy starał się ją skorygować specjalnymi soczewkami. Ogłosił drukiem 518 krótszych prac oraz kilka książek. Nie był wielkim uczonym, ale sporo osiągnął. Nie wszyscy muszą być twórczy i mieć szalone pomysły, nauka do codziennego funkcjonowania potrzebuje ludzi pracowitych i kompetentnych.

W 1834 roku Airy przedstawił w Cambridge Philosophical Society pracę na temat ugięcia światła na kołowym otworze. Sam chyba nie rozumiał wówczas, że rozstrzygnął fundamentalny problem astronomii: jakie najmniejsze kąty można rozróżnić posługując się przyrządem optycznym o danej średnicy – jego wynik dotyczy oka ludzkiego, aparatów fotograficznych, teleskopów, mikroskopów itd. Airy urodził się mniej więcej wtedy, gdy Thomas Young zaproponował falową teorię światła. Została ona rozwinięta niezależnie przez Augustine’a Fresnela. Fale mogą ze sobą interferować, to znaczy, gdy do jakiegoś obszaru docierają np. dwie niezależne fale, zaobserwujemy ich sumę. Fala wyjściowa może być silniejsza (interferencja konstruktywna)

constructive

Może też wystąpić interferencja destruktywna, w szczególnym przypadku, wypadkowa może być równa zeru.

destructive

Na obu rysunkach fala niebieska jest sumą zielonej i czerwonej. Oba rysunki możemy traktować albo jako zrobione w funkcji czasu w jednym miejscu, albo jako migawkowe zdjęcia fali w przestrzeni w pewnym określonym momencie. Ponieważ fala to przesuwające się z pewną prędkością drganie, zależności przestrzenne można przełożyć na czasowe i odwrotnie.

Rozważmy najpierw dyfrakcję na wąskiej długiej szczelinie. Z lewej strony dociera fala płaska, za szczeliną rozchodzi się fala nieco rozmyta pod względem kierunku (powierzchnie falowe są prostopadłe do kierunku rozchodzenia się fali).

Wave_Diffraction_4Lambda_Slit

Wikipedia: Diffraction

Jakie będzie kątowe rozmycie fali ugiętej? Mamy do dyspozycji dwie wielkości: \lambda – długość fali oraz d. Można z nich utworzyć kąt w radianach, które są bezwymiarowe (iloraz długości luku i promienia): \lambda/d. Prawdopodobnie nasz kąt będzie w przybliżeniu równy temu ilorazowi z dokładnością do jakegoś czynnika czysto liczbowego (odwrotny iloraz nie zachowywałby się dobrze przy \lambda\rightarrow 0, gdy dyfrakcja powinna być niewidoczna; gdyby fale miały zerową długość, wystarczyłaby do wszystkiego optyka geometryczna i wyobrażanie sobie światła jako promieni).

Właśnie to rozmycie w kierunkach ogranicza zdolność rozdzielczą. Soczewka teleskopu czy oka nie zmienia tego faktu. Bez dyfrakcji działanie soczewki wyglądałoby tak:

Lens_and_wavefronts

Wikipedia: Lens

Jeśli kierunki za soczewką (otworem) są rozmyte, to obraz w ognisku nie będzie punktowy, lecz będzie stanowił plamkę. Dlatego w dalszym ciągu zostawiamy soczewki, ponieważ nie one są tu istotne, lecz rozważamy szczelinę – w tym zjawisku liczy się fakt, że soczewka jest otworem, a nie np. z czego jest wykonana itp. Żeby obliczyć falę docierającą do jakiegoś punktu, można posłużyć się zasadą Huygensa: każdy punkt czoła fali jest źródłem kulistych fal. Należy wszystkie te fale dodać do siebie, co w przypadku szerokiej szczeliny oznacza całkowanie, ale obejdziemy się bez niego. W  przejściu przez szczelinę źródłami fal są wszystkie jej punkty. Jeśli punkt obserwacji znajduje się daleko, to fale cząstkowe będą biegły praktycznie równolegle do siebie. W kierunku prostopadłym do czoła fali padającej (kąt \theta=0) wszystkie fale cząstkowe mają tak samo daleko, więc będą się dodawać konstruktywnie: na wprost naszej szczeliny pojawi się maksimum natężenia fali. Jeśli nasz punkt obserwacji będzie nieco z boku, jedne fale będą miały dalej, drugie bliżej, więc w wyniku interferencji powstanie fala o nieco mniejszej amplitudzie: składowe fale nieco się „rozjeżdżają”, nie wszystkie drgają w tej samej fazie. Dla jakiego kąta \theta pojawi się pierwsze minimum natężenia? Sytuację przedstawia rysunek.

destruktywna

Skrajne fale elementarne z dwóch końców szczeliny mają teraz różnicę odległości równą \lambda – czyli długość fali. Te skrajne fale będą się więc wzmacniać, co jednak z resztą? Możemy naszą szczelinę podzielić w myślach na połowy i rozpatrywać pary fal, jak na rysunku. Różnica odległości między nimi to dokładnie \frac{1}{2} \lambda, a więc będą interferować destruktywnie, dając w wyniku zerowe natężenie. Ponieważ dla każdej fali z górnej połówki szczeliny możemy znaleźć drugą w dolnej połówce, która ją unicestwi, więc w efekcie dostaniemy zero: minimum natężenia. Kąt, dla którego wystąpi owo minimum spełnia warunek widoczny z rysunku:

\sin\theta=\dfrac{\lambda}{d}.\mbox{ (*)}

Dla małych kątów sinus można zamienić kątem (w radianach; 2\pi \mbox{rd}=360^{\circ}). Mamy więc

\theta \approx\dfrac{\lambda}{d}.

Natężenie za szczeliną przedstawia wykres.

sincsquared

Pierwsze minimum występuje dla kątów spełniających warunek (*). Większa cześć światła pojawi się jako jasny środkowy prążek, obok którego wystąpią mniej jasne prążki poboczne. Kiedy możemy rozróżnić dwie fale przybiegające z lewej strony pod różnymi kątami? Za graniczną sytuację uważa się taką, jak poniżej: główne maksimum jednej fali przypada na minimum drugiej (to tzw. kryterium Rayleigha).

rayleigh

Co się zmieni, gdy zamiast szczeliny weźmiemy okrągły otwór. To zadanie w sam raz dla Senior Wranglera (zwycięzcy Tripos). Wynik nie wyraża się przez funkcje elementarne, lecz przez funkcje Bessela. Airy obliczył je numerycznie, co w tamtych czasach – bez Wolfram Alpha, Mathematiki, Sage’a itd. – było niewyobrażalnie pracochłonne, a dziś można to liczyć w przeglądarce. Obraz jakościowo się nie zmienił. Oczywiście, będzie miał symetrię osiową, teraz będziemy mieli środkową jasną plamkę (plamkę Airy’ego), otoczoną pierścieniami.

283px-Airy-pattern.svg

 

Wikipedia: Airy disk

Kąt do pierwszego minimum wynosi dokładnie

\sin\theta=1,22 \dfrac{\lambda}{d}.

Możemy teraz obliczyć zdolność rozdzielczą fotografii satelitarnych. Oznaczmy przez x długość najmniejszego obiektu, który chcemy rozróżnić; niech nasz satelita krąży na wysokości h, wówczas kąt \theta będzie równy

\theta=\dfrac{x}{h}.

Podstawiając h=500 \mbox{ km}, d=2,5 \mbox{ m} (więcej niż teleskop Hubble’a!) oraz biorąc długość fali żółtego swiatła \lambda=0,6 μm, otrzymujemy

x=1,22 \dfrac{\lambda h}{d}\approx 0, 15 \mbox{ m}

Obliczyliśmy mniej więcej graniczną wartość „piksela” na zdjęciu satelitarnym. Rzeczywiste rozmiary piksela obecnych satelitów cywilnych są kilkukrotnie większe. Nie ma mowy o rozróżnianiu twarzy. Problem stanowi średnica naszego obiektywu. Większe wartości niż kilka metrów są zdecydowanie niepraktyczne. Można posłużyć się np. dwoma mniejszymi obiektywami, które będą dość daleko od siebie, np. w odległości 10 m albo i dużo więcej, i łączyć ich obrazy. Astronomowie używają czegoś takiego, więc pewnie i wojskowi mogą. Wciąż jednak mało prawdopodobne, aby stosować sprzęt tego rodzaju do sfotografowania paru celebrytów, których można bez problemu sfotografować z odległości kilku metrów.

Dyfrakcyjne ograniczenie zdolności rozdzielczej jest problemem w pewnych sytuacjach, choć astronomowie na Ziemi większy kłopot mają z ruchami atmosfery, które poruszają obrazem i zamazują go przy dłuższej ekspozycji. Rozumiejąc zjawiska dyfrakcyjne, można częściowo oczyścić z nich obraz za pomocą odpowiednich procedur matematycznych, ale niełatwo osiągnąć jakąś zdecydowaną poprawę.