Dziewiąty wykład Feynmana: Co mówi druga zasada dynamiki?

Zadziwiające, jak wiele osób nie czuje sensu drugiej zasady dynamiki, mimo wieloletniej szkolnej mitręgi. Druga zasada to podstawowe prawo matematyczne całej mechaniki: wszystko, co się porusza, można opisać za jej pomocą, dopiero gdy schodzimy na poziom atomowy, potrzebna jest mechanika kwantowa.

Poprzedza ją zasada pierwsza: ruch swobodny ciała (tzn. gdy nie działają na nie siły) to ruch jednostajny i prostoliniowy. Wyobraźmy sobie krążek hokejowy ślizgający się po nieskończonym lodowisku: jeśli sprawimy, że zniknie całkiem tarcie między krążkiem a lodem, będzie on się ślizgał przez całą wieczność ruchem jednostajnym i prostoliniowym. Przy braku sił ciało może więc spoczywać, ale może też poruszać się jednostajnie. To ambitna zasada, gdyż jest idealizacją rzeczywistego świata.

Teraz zasada druga: jeśli ruch nie jest jednostajny lub nie jest prostoliniowy, to znaczy, że na ciało działa jakaś siła. Zmiany prędkości opisuje przyspieszenie, druga zasada mówi, że przyspieszenie ciała proporcjonalne jest do siły. Sens matematyczny tej zasady tkwi w tym, że jeśli znamy skądś siły występujące w danym przypadku, to możemy obliczyć przyspieszenie ciała.

Przyspieszenie nie mówi wszystkiego o ruchu: zazwyczaj interesuje nas położenie, czasem także prędkość ciała. Musimy znać także warunki początkowe: gdzie się nasze ciało znajduje i jak się porusza w chwili zerowej.

  1. Przyspieszenie mówi nam, jak zmieni się prędkość w krótkim odstępie czasu.
  2. Prędkość z kolei mówi nam, jak zmieni się położenie ciała w krótkim odstępie czasu.

Możemy więc, wykonując dwa kroki: od przyspieszenia do prędkości i od prędkości do położenia znaleźć ich wartości w chwili nieco późniejszej. Znając położenie i prędkość, możemy obliczyć siłę i przyspieszenie w owej późniejszej chwili i powtórzyć całą procedurę od nowa.

Rozpatrzmy przykład masy zawieszonej na sprężynie. Jeśli x będzie wychyleniem tej masy z położenia równowagi, to siła wypadkowa F równa jest

F=-kx,

gdzie k jest pewną stałą charakteryzującą sprężynę. Znak minus informuje, że siła ma zwrot przeciwny do wychylenia. Jeśli nasze ciało ma masę m, to z II zasady dynamiki wynika, że przyspieszenie równe jest

a=-\left(\dfrac{k}{m}\right)x.

Ruch ciała będzie drganiem harmonicznym:

Simple_harmonic_oscillator

Znając pojęcie pochodnej, można znaleźć równanie takiego ruchu, tzn. funkcje x(t) oraz v(t). Można też zrobić to numerycznie, co nie tylko jest łatwe, ale także ilustruje sens drugiej zasady dynamiki. Prędkość średnia ciała w przedziale czasu (t, t+\Delta t) to z definicji

v=\dfrac{x(t+\Delta t)-x(t)}{\Delta t}.

Dzielimy zmianę współrzędnej przez odstęp czasu. Tak samo definiuje się średnie przyspieszenie:

a=\dfrac{v(t+\Delta t)-v(t)}{\Delta t}.

Dokonujemy więc takiej samej operacji co przedtem, ale tym razem na prędkości. Oba te równania opisują, jak szybko zmienia się wielkość z licznika po prawej stronie. Wyobraźmy sobie teraz, że dzielimy czas na krótkie odcinki o długości \Delta t=\varepsilon. Jeśli odcinki są krótkie, to rozsądnie będzie przybliżyć prędkość średnią dla całego przedziału wartością prędkości w środku tego przedziału. W ten sposób współrzędna x(t+\varepsilon)  równa jest

x(t+\varepsilon)=x(t)+v(t+\varepsilon/2)\varepsilon.

Tak samo możemy postąpić z prędkością i przyspieszeniem:

v(t+\varepsilon/2)=v(t-\varepsilon/2)+a(t)\varepsilon.

Dzięki takiej procedurze możemy znaleźć wartości położeń i prędkości dla dwóch ciągów chwil. W punktach czerwonych obliczamy prędkości (do czego potrzeba przyspieszenia w środkowym punkcie niebieskim), a w punktach niebieskich – położenia.

second law axis

Jeśli znamy tylko prędkość w chwili zero, potrzebne jest dodatkowe równanie dla pierwszego czerwonego punktu:

v(\varepsilon/2)=v(0)+a(0)\dfrac{\varepsilon}{2}.

Metoda taka jest oczywiście tylko przybliżona, w razie gdyby dawała absurdalne wyniki, trzeba zmniejszyć krok czasowy \varepsilon – w każdym zagadnieniu inny odstęp czasu jest „krótki”. Ponieważ mamy powtarzać w kółko ten sam ciąg obliczeń, najlepiej go zaprogramować, najprostszym narzędziem jest dowolny arkusz kalkulacyjny.

Obliczenia wyglądają następująco.

Wyniki dla k/m=1 oraz dwóch wychyleń początkowych x(0)=1, 2 (prędkość początkowa równa jest zeru):

image (1)

Naprawdę nasze rozwiązanie jest tylko dyskretnym zbiorem punktów, ale gdy punkty położone są gęsto, widać wyraźnie linię. Łatwo też zgadnąć, że jest to po prostu wykres funkcji cosinus: x(t)=A\cos t dla dwóch różnych amplitud. Okresem naszego ruchu jest 2\pi. Okres nie zależy od amplitudy: na tej własności opierała się konstrukcja zegarów wahadłowych, przy małych wychyleniach ruch wahadła można opisać bowiem takim samym równaniem jak masę na sprężynie. Generalnie, konstrukcja każdego zegara musi opierać się na jakimś rodzaju drgań, obecnie są to zazwyczaj drgania niemechaniczne.

Rozwiązanie tego problemu jest proste i nie potrzeba komputera, jeśli zna się własności funkcji sinus i cosinus. Metoda numeryczna pozwala jednak rozwiązywać równie łatwo także i bardziej skomplikowane przypadki. Rozpatrzmy np. wahadło matematyczne dla dowolnie dużych wychyleń (przy wychyleniach większych niż kąt prosty, trzeba sobie wyobrażać, że mamy sztywny lekki drążek z ciężarkiem na końcu).

pendulum

W takim przypadku przyspieszenie styczne do toru (czyli łuku okręgu) równe jest

a=-g\sin\gamma=-g\sin\dfrac{x}{l}.

W naszym arkuszu wystarczy tylko zmienić wzór na przyspieszenie. Wygląda to następująco.

Wykres dla przypadku l=g i początkowego kąta wychylenia 3 radiany przedstawia się następująco:

image (2)

Amplituda wahań równa jest około 172^{\circ}. Widzimy, że wahadło niemal zatrzymuje się w pobliżu skrajnych położeń, dlatego okres jest teraz znacznie dłuższy niż przy małych wychyleniach (*). Richard Feynman w swoim wykładzie dziewiątym pokazuje przykład oscylatora, a także pokazuje, jak zastosować taką samą metodę do ruchu planety: jedyną różnicą jest inne prawo rządzące siłą (prawo ciążenia) oraz to, że trzeba obliczenia prowadzić dla dwóch współrzędnych kartezjańskich.

(*) Tak się składa, że i ten przypadek ruchu wahadła można rozwiązać analitycznie, trzeba jednak posłużyć się funkcjami eliptycznymi zamiast trygonometrycznych, jest to nieco bardziej zaawansowana matematyka.

Poniżej szczegóły obliczenia w arkuszu, gdyby ktoś chciał się pobawić. Najpierw formuły, potem liczby. Wystarczy tylko wpisać dwa pierwsze (jasnoniebieskie) wiersze formuł, resztę uzyskuje się przeciąganiem drugiego z nich w dół tak daleko, jak chcemy. Dla długich okresów czasu błędy naszej procedury będą się kumulować, więc rozwiązania będą się pogarszać. Zawsze jednak można zmniejszyć krok czasowy.

Zrzut ekranu z 2016-03-19 16:44:00Zrzut ekranu z 2016-03-19 16:45:47

Od Eulera do Feynmana: Po co nam liczba e?

Ilu matematyków potrzeba do wkręcenia żarówki? Odpowiedź: -e^{i\pi}.

feynman e i pi

Piętnastoletni Richard Feynman zapisał w swoim notatniku:

Najbardziej niezwykła równość w matematyce

e^{i\pi}+1=0.

Rzeczywiście, mamy tu trzy liczby: podstawę logarytmów naturalnych e, stosunek długości okręgu do średnicy \pi oraz jednostkę urojoną i. Pokażemy, co wyróżnia liczbę e, wprowadzoną w sposób systematyczny i nazwaną przez Leonharda Eulera. Przyjrzymy się funkcji wykładniczej e^{x} w dwóch przypadkach: dla x rzeczywistego oraz czysto urojonego – w tym drugim przypadku funkcja staje się okresowa, co jest na pierwszy rzut oka zaskakujące.

exponents

W dziedzinie rzeczywistej funkcja e^x jest „najprostszą” funkcją wykładniczą. Na wykresie zaznaczona jest linią niebieską. Na czym polega jej prostota (albo naturalność)? Po pierwsze można każdą inną funkcję wykładniczą zapisać za jej pomocą, zatem inne są nam właściwie niepotrzebne. Po drugie zachowuje się ona najprościej w okolicy x=0. Oczywiscie każda funkcja wykładnicza ma w tym punkcie wartość 1. Chodzi jednak o nachylenie, z jakim krzywa przecina oś Oy. Z wykresu widać, że to nachylenie względem osi Ox może być dowolne (oprócz 90º). Naturalna funkcja wykładnicza ma tangens nachylenia równy 1. Oznacza to, że dla małych wartości x mamy

e^x\approx 1+x. \mbox{ (*)}

Dla porównania, przy podstawie 10, otrzymamy:

10^x\approx 1+2,3026x.

Widzimy, czemu matematycy nie chcą używać innych podstaw funkcji wykładniczej niż e. Funkcję tę możemy zdefiniować jako szereg, czyli nieskończoną sumę:

e^x=1+\dfrac{x}{1!}+\dfrac{x^2}{2!}+\dfrac{x^3}{3!}+\ldots.

Nawet jeśli nie znamy analizy, wiadomo, jak używać takiego szeregu: gdy chcemy poznać wartość funkcji, musimy zsumować dostatecznie dużo jego wyrazów. Ile wyrazów – to zależy od wymaganej dokładności oraz od wartości x.

Tak wygląda obliczanie wartości liczby e.

Istnieje także inny, bardziej praktyczny sposób zdefiniowania liczby e. Wyobraźmy sobie, że oddajemy złotówkę na lokatę ze stopą oprocentowania 10% na 10 lat. Ile będziemy mieli na koncie po 10 latach? Naiwna odpowiedź brzmi 2 zł (bo 10% razy 10 lat daje 100%). W rzeczywistości musimy uwzględnić kapitalizację odsetek, tzn. fakt, że co pewien czas obliczana jest nowa wartość naszej lokaty i następne odsetki oblicza się już od tej nowej wartości. Jeśli kapitalizacja odsetek następuje co roku, wartość naszej lokaty po 10 latach równa będzie

\left(1+\dfrac{1}{10}\right)^{10}\approx 2,5937.

A gdyby kapitalizować odsetki 10 razy w roku (oczywiście za każdym razem stopa będzie 10 razy mniejsza)? Wówczas wartość naszej lokaty będzie równa

\left(1+\dfrac{1}{100}\right)^{100}\approx 2,7048.

W tym miejscu uważny Czytelnik zauważy, iż nasze zadanie prowadzi najwyraźniej do liczby e.

Bardziej rozbudowany przykład liczbowy.

Gdybyśmy kapitalizowali odsetki w sposób ciągły, pod koniec lokaty będziemy mieli na koncie e zł. Możemy uważać tę wartość za granicę następującego ciągu:

e=\lim_{n\rightarrow\infty} \left(1+\dfrac{1}{n}\right)^n \mbox{ (**)}.

Wynika stąd, że w przybliżeniu 1% wzrostu przez 100 lat albo 5% wzrostu przez 20 lat, albo 10% wzrostu przez 10 lat dadzą w przybliżeniu ten sam wynik końcowy: e. Błąd będzie tym mniejszy, im mniejsza jest stopa procentowa. Istnieje podobna reguła dla wzrostu dwukrotnego: iloczyn stopy procentowej i liczby okresów powinien równać się około 70%. Czyli np. wzrost gospodarczy 7% rocznie przez 10 lat daje podwojenie PKB. (Reguła 70% to naprawdę reguła 69,3%, chodzi o to, że e^{0,693}\approx 2).

Przejdźmy teraz do argumentów czysto urojonych. Funkcja e^{it} jest okresowa, czego na pierwszy rzut oka nie widać w jej definicji za pomocą szeregu (wstawiliśmy x=it):

z(t)=e^{it}=1+\dfrac{it}{1!}+\dfrac{(it)^2}{2!}+\dfrac{(it)^3}{3!}+\ldots.

Spróbujmy popatrzeć na tę funkcję okiem fizyka, traktując t jako czas, a wartość funkcji jako współrzędne punktu na płaszczyźnie zespolonej. Łatwo obliczyć moduł liczby z(t), tzn. odległość punktu od początku układu. Jeśli z(t)=a+bi, to mamy

|z(t)|^2=a^2+b^2=(a+bi)\cdot(a-bi)=zz^{\star},

gdzie w ostatniej równości skorzystaliśmy z definicji liczby zespolonej sprzężonej do danej liczby: różni się ona znakiem przy części urojonej. W naszym przypadku otrzymamy:

|z(t)|^2=zz^{\star}=e^{it}\cdot e^{-it}=e^{0}=1.

Zatem koniec wektora z(t) będzie leżał na okręgu jednostkowym. Obliczmy prędkość ruchu punktu z(t). Prędkość średnia w przedziale czasu (t, t+h) będzie równa

v(t)=\dfrac{z(t+h)-z(t)}{h}=\dfrac{e^{i(t+h)}-e^{it}}{h}=e^{it}\dfrac{e^{ih}-1}{h}.

Zauważmy, że działania takie jak dodawanie, odejmowanie liczb zespolonych oraz dzielenie przez liczbę rzeczywistą h odbywa się zgodnie z regułami działań na wektorach (w tym przypadku dwuwymiarowych). Jeśli czas h będzie krótki, to w ostatnim ułamku możemy zastosować (*) dla przypadku x=ih i otrzymamy ostatecznie

v(t)=iz(t).

Łatwo zauważyć, że mnożenie liczby zespolonej przez i oznacza obrót wektora o 90º w lewo na płaszczyźnie:

i(a+bi)=-b+ai.

Moduł obliczonej przez nas prędkości równy jest 1. Sytuację przedstawia rysunek.

euler

Okres ruchu to długość okręgu podzielona przez prędkość, czyli 2\pi. Promień wodzący punktu o współrzędnych z(t) tworzy kąt proporcjonalny do czasu. Ponieważ z(0)=1, więc kąt ten po prostu równy jest t. W zapisie zespolonym punkt na okręgu jednostkowym ma przy takim kącie t postać (stosujemy definicje funkcji sinus i cosinus na okręgu jednostkowym):

\cos t+i\sin t=z(t)=e^{it}.

Wzór ten zwany jest wzorem Eulera. Wstawiając t=i\pi, otrzymujemy równość, od której zaczęliśmy i która tak zachwyciła młodego Feynmana. Wzór Eulera jest niezwykle użyteczny w rozpatrywaniu fal, drgań, a także w trygonometrii, funkcje wykładnicze są bowiem bardzo proste w użyciu. Powiedzmy, że potrzebujemy wyrażenia na \sin 2\alpha. Wystarczy podnieść do kwadratu wzór Eulera, a dostaniemy szukane wyrażenie oraz przy okazji wyrażenie na \cos 2\alpha:

e^{i2\alpha}=\cos 2\alpha+ i\sin 2\alpha.

(e^{i\alpha})^2=(\cos \alpha+i\sin \alpha)^2=\cos^2 \alpha-\sin^2 \alpha+i 2\sin \alpha\cos \alpha.

Porównując prawe strony obu wyrażeń otrzymujemy dwie tożsamości trygonometryczne. Wzór Eulera musiał szczególnie podobać się Feynmanowi, bo przydaje się w praktycznych zastosowaniach. Feynman już wtedy starał się rozumieć, „jak działa” matematyka, to znaczy, jak można obliczyć najróżniejsze rzeczy. Nieprzypadkowo w Los Alamos kierował zespołem wykonującym obliczenia numeryczne, wiadomo było, że jest w tej dziedzinie pomysłowy, stosował np. równoległe przetwarzanie danych, żeby było szybciej (za procesory służyli ludzie z kalkulatorami elektrycznymi). Gdyby wysadzić go na bezludnej wyspie, odtworzyłby bez trudu sporą część różnych tablic funkcji i całek. Można zresztą założyć, że w wersji skróconej miał je wszystkie w głowie: zakładał się, że obliczy dowolne wyrażenie z dokładnością 10% w ciągu minuty, jeśli tylko samo zadanie można sformułować w dziesięć sekund. I niemal zawsze wygrywał.

Nieco więcej ścisłości.

Łatwo sprawdzić, że definicja e^z za pomocą szeregu jest prawidłowa, tzn. szereg jest zbieżny absolutnie dla wszystkich wartości z. Tak zdefiniowana funkcja spełnia też prawo mnożenia funkcji wykładniczych:

e^{z+u}=e^{z}e^{u}.

Mamy bowiem

e^{z+u}=\sum_{n=0}^{\infty}\dfrac{(z+u)^n}{n!}=\sum_{n=0}^{\infty} \sum_{k=0}^{n-k} \dfrac{z^{k}u^{n-k}}{k!(n-k)!}  =\sum_{k=0}^{\infty}\sum_{m=0}^{\infty}\dfrac{z^k u^{m}}{k!m!} .

Korzystając z dwumianu Newtona możemy też uzasadnić granicę (**). Rozwijając dwumian, otrzymamy jako k-ty wyraz

\dfrac{n!}{k!(n-k)!n^k}=\dfrac{n(n-1)\ldots (n-k+1)}{n^k}\dfrac{1}{k!}.

Pierwszy ułamek dąży do 1, przy n dążącym do nieskończoności, zostaje więc suma wynikająca z rozwinięcia w szereg e^1.

 

Albert Einstein na dwóch fotografiach, czyli jak pionier został konserwatystą (1911, 1927)

Pierwsza fotografia pochodzi z roku 1911 i przedstawia uczestników I Kongresu Solvaya. Ernest Solvay, bogaty przemysłowiec, wzbogacił się na wynalezionej przez siebie metodzie produkcji sody. Nie miał akademickiego wykształcenia, lecz wykazywał pewne ambicje naukowe. Zwołany do Brukseli kongres zgromadził najwybitniejszych fizyków epoki, organizował go Hendrik Lorentz, który zaprosił m.in. Alberta Einsteina.

1911

Podpisana wersja tej fotografii

Trzydziestodwuletni Einstein stoi z cygarem w drugim rzędzie obok Paula Langevina, z którym szybko się zaprzyjaźnił (nb. w tym właśnie czasie wybuchł skandal prasowy w Paryżu wokół romansu żonatego Langevina ze starszą od niego Marią Skłodowską-Curie, jedyną kobietą na zdjęciu). Dla Einsteina był to pierwsza międzynarodowa konferencja naukowa i okazja do poznania sławnych fizyków spoza Niemiec. Zaledwie dwa lata wcześniej zaczął pracować na uczelni, do Brukseli przyjechał z Pragi, gdzie od wiosny tego roku był profesorem zwyczajnym. Okna jego gabinetu wychodziły na ogród szpitala psychiatrycznego. Einstein lubił pokazywać swoim gościom spacerujących alejkami pensjonariuszy tego zakładu ze słowami: „oto wariaci, którzy nie zajmują się kwantami”. Sam intensywnie pracował nad nową fizyką kwantową, m.in. odkrył, dlaczego ciepło właściwe diamentu maleje wraz z temperaturą. Zjawisko to jest kwantowe: drgania atomów węgla w krysztale diamentu mogą bowiem zachodzić tylko ze ściśle określonymi – skwantowanymi – energiami. W ten sposób okazało się, że nowa fizyka potrzebna jest do wyjaśnienia obserwowanych od dawna faktów. Dziś wiemy, że właśnie fizyka kwantowa wyjaśnia własności atomów, kryształów, cieczy – całą chemię i fizykę różnych materiałów, a także sporą część biologii. Inni uczeni zainteresowali się tym kręgiem zagadnień, szybko rosła więc liczba prac poświęconych kwantom. Tak więc stojący skromnie w drugim rzędzie Einstein reprezentował wówczas naukową awangardę, nie zawsze dobrze przyjmowaną przez starszych kolegów.

 

kwanty

Widzimy, jak szybko rosła liczba autorów idących w ślad za Einsteinem. Liczby nie wydają się może imponujące, ale ogólną liczbę fizyków w Europie w tamtej epoce szacuje się na 1000-1500, z czego nie wszyscy byli aktywni naukowo (Wykresy z T.S. Kuhn, Black-Body Theory and the Quantum Discontinuity, 1894-1912, Clarendon Press, Oxford 1978, s. 217).

solvay_conference_1927_

Druga fotografia przedstawia uczestników V Kongresu Solvaya w roku 1927. Nosił on tytuł Elektrony i fotony. Fotony, cząstki światła, zostały zapostulowane przez Einsteina w roku 1905, teraz niejako oficjalnie uznano, że miał rację. A więc niewątpliwy triumf. Nikt przez dwadzieścia lat nie chciał wierzyć w owe kwanty światła, po eksperymentach Comptona i innych, wreszcie w nie uwierzono. Triumf zabarwiony był jednak goryczą. W latach 1925-1926 młodzi fizycy przedstawili mechanikę kwantową, z którą Einstein nie potrafił się zgodzić ani wtedy, ani nigdy później. Był nadal sprawny intelektualnie, nie zapomniał fizyki, ale należało wyjść poza krąg dotychczasowych idei, rozstać się z pewnym ideałem nauki. Rewolucji dokonali ludzie młodzi, mówiono o tym Knabenphysik – fizyka chłopców.
Fotografia ilustruje wymownie, jak wzrosła pozycja Einsteina w środowisku naukowym w ciągu tych kilkunastu lat. Teraz on zajmuje miejsce centralne. Siedzi między starym Lorentzem a posiwiałym Langevinem z nawoskowanymi wąsami, niczym rewolucjonista uwięziony w świecie XIX wieku. Obok Lorentza mocno postarzała, surowa i niepobłażająca Maria Skłodowska-Curie i znużony Max Planck. Dopiero w drugim rzędzie znajdujemy chudego, jakby wyjętego z dramatu Becketta Paula Diraca, arystokratycznego, rasowego Louisa de Broglie’a, uprzejmego i skromnego Maksa Borna, wychowawcę siedmiu noblistów, i wreszcie silnego i skupionego Nielsa Bohra. Elegancki Erwin Schrödinger, sceptyczny Wolfgang Pauli i szelmowsko chłopięcy Werner Heisenberg stoją skromnie w trzecim rzędzie. Trudno o bardziej symboliczny obraz zmiany warty: Einstein stał się teraz kimś podobnym do Lorentza czy Plancka, a więc wybitnym uczonym, którego należy szanować, ale od którego nie można się zbyt wiele nauczyć. Liczyli się młodzi ludzie z drugiego i trzeciego rzędu oraz ich duchowi przewodnicy, Bohr i Born. W ciągu następnych kilku lat twórcy mechaniki kwantowej otrzymali Nagrody Nobla, wszyscy oprócz Diraca nominowani byli zresztą także przez Einsteina. Najwybitniejszy spośród nich, Paul Dirac, musiał zadowolić się Nagrodą Nobla wraz ze Schrödingerem. Właśnie Paul Dirac w latach 1927-1928 pokazał, jak można sformułować kwantową teorię elektronów i fotonów. Było to otwarcie drogi, która zakończyła się dwadzieścia lat później zbudowaniem konsekwentnej elektrodynamiki kwantowej przez Richarda Feynmana, Freemana Dysona, Juliana Schwingera i Shin’itiro Tomonagę.

Feynmana wykłady z fizyki

Najlepszy podręcznik fizyki – wykłady Feynmana – są dostępne w internecie (po angielsku). To świetna wiadomość. Książka nie zestarzała się przez pół wieku, może zainspiruje młodych ludzi. Pamiętam, jak wielkim wydarzeniem było stopniowe ukazywanie się polskiego przekładu Wykładów. Znałem pewnego licealistę, który czytał te książki w miarę ukazywania się i czekał niecierpliwie na każdy kolejny tom. Myślę, że dzięki Feynmanowi tysiące ludzi na całym świecie odczuło, jaką wspaniałą dziedziną jest fizyka i jaką frajdę sprawia zrozumienie różnych aspektów świata.

PW2014-03-critical-point_main

Wykłady nie odniosły sukcesu jako podręcznik kursowy, ale od zawsze czytane były przez pasjonatów, przez tych, którzy chcieli rozumieć. Myślę zresztą, że książka ta przekazuje znacznie więcej niż tylko jakąś wiedzę. Uczy pewnego podejścia do nauki: musimy zawsze rozumieć, o czym mówimy, jak się to coś da zmierzyć, jak można zastosować naszą wiedzę, jakie są powiązania między różnymi kwestiami. Fizyka to nie zbiór faktów, lecz zbiór praw i reguł ich stosowania w różnych sytuacjach. Wiemy tyle, ile umiemy obliczyć, choćby niedokładnie, na odwrocie starej koperty. No i nie ma znaczenia, kto mówi: student czy profesor, liczy się, kto ma rację. A przy tym wszystkim Wykłady potrafiły przekazać coś z atmosfery nieskrępowanej zabawy: fizyka Feynmanowi sprawiała przyjemność, bawił się nią i potrafił innych zarazić swoim entuzjazmem. Tak się nie pisało podręczników, przedtem musiały być zawsze bezosobowe, sztywne i nudne.

Pewnie to jedyny podręcznik, który rzeczywiście powinien mieć w tytule obok słowa „fizyka” nazwisko wykładowcy. Osobowość Feynmana widoczna jest tu na każdym kroku.

Jednak Feynman, luzak i showman, udający czasem prostaczka, który nie umie wymówić trudnych cudzoziemskich słów, drażnił zawsze niektórych. Szanowany historyk nauki Paul Forman dziwił się kiedyś, że „osoba pozostawiająca tak wiele do życzenia pod względem odpowiedzialności społecznej i moralnej, jak Richard Feynman, może być uważana przez swoich kolegów po fachu za postać wybitnie moralną, ponieważ był tak bardzo oddany fizyce, ponieważ uprawianie jej sprawiało mu niewątpliwą radość, ponieważ niewiele sobie robił z pozycji innych ludzi zarówno w środowisku fizyków, jak i poza nim, i ponieważ tak wielki nacisk kładł na dyscyplinę intelektualną swojej nauki, a mianowicie, aby «wiedzieć o czym się mówi»”.

Sam Feynman pisze o radzie, jakiej udzielił mu kiedyś w Los Alamos John von Neumann (nb. też postać wielce malownicza, ktoś, kto sprawiał wrażenie geniusza i nim był): „Nie musisz czuć się odpowiedzialny za świat, w którym żyjesz”. Feynman wziął sobie tę radę do serca i przestał martwić się o cały świat.

Uprawianie nauki powinno sprawiać przyjemność, może nie codziennie i nie zawsze, ale powinno – inaczej nie ma sensu. Jeśli ktoś nie ogarnia szerszego horyzontu niż swój wąski temat, to powinien zająć się czym innym. Dla Feynmana fizyka nie była z pewnością zabawą: jeśli już to tak jak dla dziecka – była to zabawa śmiertelnie poważna w sensie zaangażowania, nie w sensie uroczystej miny i biretu nasadzonego na ośle uszy. Można przesiadywać w nocnych barach i myśleć nad fizyką. Charakterystyczne jest, że ten zabawowy człowiek unikał przez całe życie wszelkich substancji, które mogłyby zepsuć jego machinę mózgową, od większych ilości alkoholu po narkotyki. Bawił się, obliczając różne rzeczy, które go zaciekawiły, miał szuflady pełne różnych obliczeń. Był to koszmar młodych badaczy na Caltechu: idą się pochwalić jakimś wynikiem, a Feynman wyciągnie z szuflady papiery z tym samym obliczeniem. Publikował tylko rzeczy, które sam uważał za udane. Zmagał się z problemami pierwszorzędnej wagi i często mu się nie udawało. Nie robił z tego dramatu, ale to nie znaczy, że go to nie obchodziło.

Zwykle trzymał się daleko od polityki i rzadko wygłaszał puste frazesy o odpowiedzialności za świat. Ale w Los Alamos Feynman pracował, bo chciał uratować swój kraj. Wątpię też, czy von Neumann unikał odpowiedzialności: jego rodzina została w Europie i sam zapewne trafiłby do Auschwitz, tak jak inni węgierscy Żydzi, gdyby nie wyjechał do Ameryki. Von Neumann pracował chętnie dla wojska, bo zależało mu na pokonaniu zarówno nazistów, jak i Rosji. Czy nie miał racji?

Świetnym przykładem praktycznej etyki w wydaniu Feynmana była sprawa katastrofy promu kosmicznego Challenger w 1986 roku. Prom rozpadł się tuż po starcie, siedmioosobowa załoga zginęła. Do komisji badającej ten wypadek powołano także Richarda Feynmana, słynnego noblistę, poważnie już wówczas chorego. Dzięki jego uporowi, inżynierskiej wiedzy i dociekliwości udało się znaleźć przyczynę katastrofy, którą NASA chętnie by zamiotła pod dywan. Czy tak się zachowuje facet, który ma wszystko w nosie?

Historyk powinien nieco głębiej wnikać w ludzkie postępowanie. Ludzie często mówią co innego i robią co innego, a jeszcze co innego myślą. Dlatego są ciekawszym przedmiotem refleksji niż np. dżdżownice.

 

Richard Feynman i nauka kultu cargo

Najpierw dwa cytaty.

„Na Morzach Południowych istnieje kult cargo. Podczas wojny miejscowa ludność widziała, jak lądują samoloty wyładowane mnóstwem wspaniałych rzeczy i chciałaby, żeby teraz też tak było. Zrobili więc coś, co wygląda jak pasy startowe, rozmieścili ogniska wzdłuż tych pasów, wybudowali drewnianą chatkę dla człowieka, który siedzi tam z dwoma kawałkami drewna imitującymi słuchawki i pędami bambusa sterczącymi jak antena (jest kontrolerem lotów), i czekają na lądowanie samolotu. Wszystko robią tak, jak trzeba. Forma jest doskonała. Wszystko wygląda dokładnie tak, jak kiedyś. No, ale nie działa. Żadne samoloty nie lądują. Takie właśnie rzeczy nazwałem „nauką kultu cargo”, ponieważ postępują oni zgodnie z przyjętymi zasadami i formami badań naukowych, ale brakuje w tym zasadniczej rzeczy, bo samoloty nie lądują” (przeł. K. Karpińska, w: R.P. Feynman, Przyjemność poznawania, s. 182).

„Nic nie wynoszę z tej konferencji. Niczego się nie uczę. Ponieważ nie ma w tej dziedzinie eksperymentów, więc niewiele się w niej dzieje i pracuje w niej bardzo niewielu dobrych naukowców. W rezultacie jest tu pełno głupków, co źle wpływa na moje ciśnienie: omawia się tu i poważnie dyskutuje tak bezsensowne problemy, że wdaję się w sprzeczki poza sesjami (np. w czasie obiadu), za każdym razem kiedy ktoś mi zadaje pytanie albo zaczyna opowiadać o swojej „pracy”. Ta „praca” okazuje się zawsze 1. zupełnie niezrozumiała 2. niejasna i nieokreślona 3. prawidłowa, choć oczywista i uzyskana dzięki długiej i trudnej analizie, ale przedstawiona jako ważne odkrycie albo 4. jest twierdzeniem, wynikającym z głupoty autora, iż pewien oczywisty i prawdziwy fakt, przyjęty i sprawdzony przez lata, jest fałszywy (tacy są najgorsi: żaden argument nie przekona idioty), 5. jest próbą zrobienia czegoś najprawdopodobniej niemożliwego, a na pewno niepotrzebnego, która – jak się to okazuje na końcu – nie powiodła się (w tym czasie pojawia się deser i zostaje zjedzony) albo 6. jest po prostu błędna. Panuje obecnie w tej dziedzinie spora „aktywność”, ale owa „aktywność” polega głównie na wykazywaniu, iż poprzednia „aktywność” kogoś innego doprowadziła do błędu bądź nie doprowadziła do niczego użytecznego ani obiecującego. Wygląda to jak kupa robaków, próbujących wydostać się z butelki i włażących na siebie nawzajem. Nie chodzi o to, że przedmiot jest trudny, ale o to, że dobrzy naukowcy zajmują się czym innym. Przypomnij mi, żebym więcej nie jeździł na żadne konferencje na temat grawitacji!” (korzystałem z przekładu J. Kowalskiego-Glikmana w: R.P. Feynman, Wykłady z grawitacji, s. XXXIII, i oryginału)

feynman_cern2

Jeśli ktoś, czytając te wypowiedzi, ma uczucie déjà vu, to znaczy, że zetknął się z szarą codziennością uprawiania nauki. Oczywiście nie każdy może być Feynmanem. Hierarchia obowiązuje zwłaszcza w matematyce i fizyce teoretycznej, choć naprawdę to w każdej dziedzinie robiącej użytek z intelektu. Dziesięciu gorszych patentowanych profesorów nie zastąpi jednego naprawdę dobrego, choćby i nie miał patentu na mędrca. Lew Landau prowadził ranking fizyków. Najwyższą pozycję i notę 0 miał w nim Isaac Newton, Albert Einstein był niewiele niżej, miał notę 0,5. Twórcy mechaniki kwantowej Schrödinger, Heisenberg, Bohr, Dirac mieli 1. Sam Landau przyznawał sobie 2, a był bardzo wybitnym laureatem Nagrody Nobla. Skala ta była logarytmiczna, czyli każda jednostka wyżej oznaczała wielokrotnie większe możliwości intelektualne. I tak to z grubsza jest: nie da się zostać Richardem Feynmanem tylko dlatego, że się więcej ćwiczy albo ma silniejszą motywację.

Ale to jeszcze nie wszystko: nie mamy wpływu na swoje geny, możemy natomiast kierować swoim zachowaniem. Można np. zastanawiać się nad jakimś problemem tak długo, aż go naprawdę zrozumiemy. Nikt nam nie zabroni dociekliwości i wytrwałego używania rozumu. Możemy więc nie zadowalać się byle czym, ale drążyć głębiej. Feynman napisał najlepszy podręcznik fizyki w historii, jeszcze dziś po półwieczu jest to wciąż najlepszy podręcznik akademicki. Jest najlepszy, bo wiele tematów Feynman przemyślał na nowo i napisał tak, jak sam je rozumiał. Miał on tę cechę, że nie potrafił niczego robić połowicznie – jeśli wykładał, to starał się przemyśleć przedmiot na nowo. Ilu wykładowców tak robi? Z pewnością mniej niż trzeba. Inna sprawa, że polskie uczelnie są wyłącznie miejscem pracy naukowej, studenci są tam ledwie tolerowani, a za najlepszy podręcznik nie dostanie się złamanego grosza od żadnej agendy zajmującej się „rozwojem nauki” w Polsce (rynek krajowy jest w większości dziedzin za mały, aby podręcznik akademicki mógł odnieść sukces komercyjny).

Feynman był też fanatykiem uczciwości naukowej. Nikt nie zdołałby go namówić, żeby napisał dobrą recenzję marnej pracy albo z uprzejmości zataił, co naprawdę myśli na temat jakiegoś „osiągnięcia”. Za nieuczciwe uważał nawet przemilczanie obiekcji czy argumentów przeciw własnemu punktowi widzenia albo przedstawianie niefachowcom naszej pracy jako niezwykle pożytecznej dla ludzkości, podczas gdy w istocie nie ma z niej żadnego pożytku, a praca jest zaledwie hipotezą. Większość współczesnych książek popularnonaukowych, i to pisanych przez ludzi o głośnych nazwiskach, zajmuje się promowaniem pomysłów może ciekawych, ale niepotwierdzonych i nieuznawanych, które zapewne nigdy nie trafią do podręczników, lecz zakończą swój żywot jako „ciekawe pomysły”. Zabiegi o popularność wśród nieświadomych czytelników sytuują się czasem niezwykle blisko pospolitego oszustwa.

Zostaje więc nauka kultu cargo? Jedyna pociecha, że za jakiś czas będzie ona – podobnie jak złe książki – zapomniana na zawsze.

Richard Phillips Feynman, sumy po historiach (1942)

Feynman, legenda fizyki XX wieku, jest w Polsce znany prawie wyłącznie wśród fizyków, choć może dzięki wydaniu różnych jego popularnych tekstów sytuacja nieco się poprawiła. Marek Kac, sam świetny matematyk, pisał o zwykłych i niezwykłych geniuszach:

Istnieją dwa rodzaje geniuszów, „zwykli” i „magicy”. Każdy z nas mógłby być równie dobry jak zwykły geniusz, gdyby tylko był wiele razy lepszy niż jest. W jego sposobie myślenia nie kryje się żadna tajemnica. Gdy już zrozumiemy, co zrobił, czujemy pewność, że sami moglibyśmy zrobić to samo. Co innego z magikami. Oni istnieją, jeśli wolno mi użyć matematycznego żargonu, w ortogonalnym dopełnieniu naszego świata. Ich sposób myślenia jest właściwie całkowicie niezrozumiały. Nawet gdy już rozumiemy ich wyniki, sposób, w jaki do nich doszli, wciąż pozostaje niepojęty. Rzadko, a raczej nigdy nie miewają uczniów, ponieważ nie można ich naśladować i z pewnością każdy bystry młody człowiek byłby głęboko sfrustrowany, usiłując poradzić sobie z tajemniczymi drogami myśli magika. Richard Feynman jest magikiem największego kalibru [Enigmas of Chance, 1985; przeł. P. Amsterdamski].

Syn żydowskiego emigranta z Białorusi, wychowany w Nowym Jorku, był ucieleśnieniem mitu Ameryki, kraju, w którym można osiągnąć wszystko to, co gdzie indziej niedostępne. Ojciec nie był bogaty ani wykształcony, ale bardzo cenił wykształcenie, zwłaszcza wiedzę praktyczną, która może się do czegoś przydać. Podobne nieco podejście miał Richard Feynman, jako chłopiec interesował się wszelkimi urządzeniami technicznymi, stał się ekspertem od naprawy radioodbiorników, łączył w tym zdrowy rozsądek z umiejętnością obserwacji i kojarzenia faktów. Tych samych talentów używał potem w Los Alamos, aby dla zabawy otwierać cudze szafy pancerne na szyfr. W okresie szkolnym jego zeszyty matematyczne zawierały przydatne wzory i formuły, jakby ich właściciel miał pewnego dnia znaleźć się na wyspie bezludnej i musiał odtworzyć całą wiedzę. Dzięki takiemu podejściu po latach Feynman zakładał się, że w ciągu minuty obliczy w pamięci wartość dowolnego niedługiego wyrażenia, wartość funkcji albo całkę oznaczoną z dokładnością 10% i rzadko komu udawało się go zagiąć. W Programie Manhattan zajmował się właśnie obliczeniami: organizował pracę zespołu ludzi z elektrycznymi arytmometrami, aby jak najefektywniej wykonać potrzebne symulacje numeryczne. Był też świetnym rozmówcą na tematy fizyczne, Niels Bohr, już wtedy legendarny i niemłody, wzywał specjalnie Feynmana, aby mieć przed kim wyłożyć to, co ma do powiedzenia. Można było mieć pewność, że jeśli Feynman zauważy jakąś lukę, natychmiast głośno o tym powie, nie krępując się bynajmniej wielkością swego rozmówcy.

Zanim trafił do Projektu Manhattan, studiował w MIT, a potem skończył studia drugiego stopnia i doktorat w Princeton. Niezbyt go zresztą chcieli w Princeton, ponieważ był Żydem, uważano, że w nauce jest już zbyt wielu Żydów i trudno dla nich potem znaleźć posadę. Były to lata trzydzieste, Amerykanie zmienili potem swoje nastawienie, zresztą antysemityzm nie był tam nigdy większym problemem. W Rosji okazał się trwalszy niż wszystkie systemy polityczne: przetrwał carat, komunizm i jeszcze w latach osiemdziesiątych ubiegłego wieku nie dopuszczano Żydów na studia matematyczne na Uniwersytecie Moskiewskim – obowiązywał ich szczególnie trudny egzamin, na którym udawało się oblać np. kogoś takiego, jak Edward Frenkel. Te zadania dla Żydów zostały zresztą opublikowane, z pewnością łatwiej było zdać do Cambridge.

Opiekunem doktoratu Feynmana był John Archibald Wheeler, wtedy młody profesor, który dojrzewał długo, ale z czasem wyrósł na wielką postać fizyki światowej. Zastanawiali się obaj nad różnymi dość zwariowanymi teoriami, jeden z takich pomysłów stał się doktoratem Feynmana. Było to nowe podejście do mechaniki kwantowej. Wtedy praca ta ukazała się w przeglądowym piśmie „Reviews of Modern Physics”, bo była długa i wydawało się, że do niczego nowego nie prowadzi. Dziś formalizm Feynmana stał się jedną z powszechnie stosowanych metod fizyki kwantowej.

Wyobraźmy sobie, że z punktu A do punktu B w określonym czasie ma dotrzeć jakaś cząstka. Z klasycznego punktu widzenia może się to przy zadanych siłach odbyć na tylko jeden sposób, jest określony tor i cząstka musi się po nim poruszać z określoną prędkością w każdej chwili. Inaczej jest w mechanice kwantowej. Jest ona teorią posługującą się prawdopodobieństwami, więc niemal wszystko jest w niej możliwe, choć dla wielu zdarzeń prawdopodobieństwo jest tak małe, że praktycznie są one niemożliwe. Aby znaleźć prawdopodobieństwo przebycia naszej cząstki z punktu A do punktu B w określonym czasie, musimy w mechanice kwantowej rozpatrzyć wiele możliwych torów i różnych rozkładów prędkości. Np. takie jak na rysunku.

paths1

Oczywiście, jeśli te narysowane, to i nieskończenie wiele innych. Każda z możliwych dróg dotarcia cząstki od A do B jest jej historią. Każdej z tych historii przypisać można pewną wielkość, tzw. amplitudę prawdopodobieństwa: jest to liczba zespolona albo, co na jedno wychodzi, wektor na płaszczyźnie. Chcąc otrzymać amplitudę prawdopodobieństwa dla naszej cząstki biegnącej od A do B, musimy dodać do siebie wszystkie amplitudy odpowiadające różnym historiom. To jest suma po historiach. Amplitudy dodajemy tak, jak się dodaje wektory na płaszczyźnie (tak się właśnie dodaje liczby zespolone). Powstaje problem dodawania nieskończenie wielu wektorów, ale to kwestia techniczna, którą nie będziemy się martwić. Kiedy już mamy wektor wypadkowy, mierzymy jego długość: kwadrat długości jest prawdopodobieństwem, że nasza cząstka przebiegnie od A do B w zadanym czasie.

Na pierwszy rzut oka wydaje się to dość szalone: rozpatrujemy bowiem mnóstwo historii, które nie mają nic wspólnego z klasycznym torem i jedną historią, tą „prawdziwą” w świecie klasycznym. Jak z takiego galimatiasu może wyłonić się zachowanie cząstek, jakie znamy z życia codziennego? Piłka futbolowa nie leci przecież do bramki po wszystkich drogach jednocześnie.

Okazuje się, że dość łatwo zauważyć, na czym polega zachowanie „klasyczne” i czym różni się do „kwantowego”. Rozpatrzmy fotony biegnące od źródła S do punktu z detektorem P. Po drodze nasze fotony odbijają się od zwierciadła. Klasycznie powinny biec po drodze SGP, która jest tak dobrana, że kąt padania i kąt odbicia są równe. A co z pozostałymi drogami? Dla uproszczenia bierzemy tylko drogi złożone z dwóch prostych odcinków, ale teraz dopuszczamy, żeby odbicie nastąpiło w którymkolwiek z punktów od A do M.

path2

Rysunek z książki Feynmana QED osobliwa teoria światła i materii, Warszawa 1985. Gorąco ją polecam każdemu, kto chce się dowiedzieć, jak fizyka objaśnia świat.

Okazuje się, że dla każdej z tych historii naszego fotonu amplitudy prawdopodobieństwa mają mniej więcej równe długości, lecz różne kierunki. Kąt każdego z tych wektorów (z jakimś jednym określonym kierunkiem np. osi Ox) jest proporcjonalny do czasu potrzebnego na przebycie danej drogi z prędkością światła. Gdy wykreślimy czas przelotu w funkcji położenia punktu odbicia fotonu, dostaniemy wykres jak na rysunku. Najkrótszy czas odpowiada punktowi G, czyli klasycznej drodze. Już starożytni zauważyli, że światło wybiera najkrótszą drogę, skoro nie może przebiec wprost od A do B, to spośród wszystkich punktów odbicia wybierze punkt G – dla niego droga jest najkrótsza i spełnione jest zarazem prawo odbicia, co łatwo wykazać. Widzimy więc, co wyróżnia drogę klasyczną fotonu: najkrótszy czas. Wracając do sumowania po historiach: musimy dodać strzałki odpowiadające różnym drogom. Dodawanie wielu wektorów najwygodniej wykonuje się w ten sposób, że na końcu pierwszego umieszczamy początek drugiego, na końcu drugiego początek trzeciego itd. – ustawiamy je w „pociąg”. Kierunki naszych strzałek odpowiadające różnym drogom narysowane są pod wykresem czasów. Gdy dodamy strzałki do siebie, zauważalny wkład otrzymamy tylko od obszaru w okolicy punktu G, ponieważ blisko minimum wszystkie czasy są zbliżone – jesteśmy na dnie doliny. Skoro czasy są zbliżone, to znaczy że kierunki strzałek są także zbliżone. W ten sposób powstaje fragment naszego „pociągu” odpowiadający punktom E, F, G, H, I na środku wykresu. Punkty daleko od minimum leżą wysoko na zboczu doliny, więc kierunki wektorów będą się szybko zmieniać. Odpowiada temu kręcenie się w kółko, którego wynik jest bliski zeru. Tak jest w lewym i w prawym końcu naszego wykresu. A więc do wypadkowej amplitudy prawdopodobieństwa wnoszą swój wkład także różne „dziwne” historie, ale najważniejsze będą te bliskie klasycznej. Można w ten sposób nie tylko zrozumieć, jak z obrazu sumy po historiach wynika fizyka klasyczna, ale także można obliczać stosowne poprawki do klasycznych zachowań, uwzględniając te historie, które wnoszą największy wkład do wyniku.

Wszystko to można przenieść na sytuację dowolnej cząstki, niekoniecznie fotonu, jedyna różnica polega na tym, że mniej osób wie, że piłka futbolowa biegnąc po swoim torze także realizuje pewną zasadę minimum, mówimy wówczas o pewnej specjalnej wielkości, zwanej działaniem. Tor klasyczny odpowiada najmniejszemu działaniu.

Więcej o kwantowym dodawaniu strzałek

Piękna fizyka: kwantowe interferencje do kwadratu

Richard Feynman pokazał, że mechanika kwantowa jest w istocie bardzo prosta. Od rachunku prawdopodobieństwa różni się tym, że oblicza się w niej nie same prawdopodobieństwa, lecz pewne liczby zespolone, tzw. amplitudy prawdopodobieństwa. Chcąc otrzymać wartość prawdopodobieństwa, należy obliczyć kwadrat modułu owej amplitudy prawdopodobieństwa.

Dla naszych celów wystarczy przedstawienie liczby zespolonej jako punktu na płaszczyźnie, a właściwie wektora wodzącego danego punktu. Kwadrat modułu to po prostu kwadrat długości wektora.

Rozpatrzmy dla przykładu układ z rysunku (zaznaczony linią przerywaną element BSoutput na razie uważamy za nieistniejący). Z lewej strony wpuszczamy pojedyncze fotony. Element BSinput to zwierciadło półprzepuszczalne: foton ma 50% szans na odbicie i 50% na przepuszczenie. W pierwszym przypadku po jeszcze jednym odbiciu od zwykłego zwierciadła (mirror) pobiegnie drogą 2 prosto do detektora D2, który kliknie. W drugim przypadku foton pobiegnie drogą 1, odbije się od drugiego zwykłego zwierciadła (mirror), i po chwili kliknie detektor D1.

F1.large (2)

Jak obliczyć amplitudy prawdopodobieństwa dla obu możliwości? Dla każdej drogi fotonu należy przemnożyć przez siebie amplitudy odpowiadające kolejnym zdarzeniom (nieco podobna reguła działa w rachunku prawdopodobieństwa dla zdarzeń niezależnych,  tutaj mnożymy jednak amplitudy zespolone). Mnożenie przez liczbę zespoloną to obrót połączony ze zmianą długości. Ponieważ w naszym układzie szanse będą zawsze wyrównane, więc nie musimy się przejmować długościami wektorów, zostaje więc tylko obrót. Zaczynamy od wektora jednostkowego skierowanego wzdłuż osi Ox. Odpowiada on prawdopodobieństwu 1 — wiemy na pewno, że foton wpada z lewej strony. Możliwe są dwa ciągi zdarzeń: foton przechodzi przez pierwsze zwierciadło, biegnie po drodze 1, odbija się i wpada do D1; drugi ciąg zdarzeń: odbija się od pierwszego zwierciadła, potem od drugiego, biegnie po drodze 2 i wpada do D2. Jedyne wydarzenia, które wpływają na naszą strzałkę to odbicia od któregokolwiek ze zwierciadeł, obojętne czy półprzepuszczalnego, czy zwykłego. Każde odbicie oznacza obrót strzałki o 90° (z przyczyn, nazwijmy to, optycznych; nie jest to szczególnie istotne, po prostu tak jest).

Amplitudy trafienia fotonu do licznika D1 i D2 przedstawione są na rysunku — z lewej strony dla drogi nr 1, z prawej dla drogi nr 2. Wektory mają różne kierunki: uwzględniliśmy, że na drodze nr 1 foton raz się odbija, a na drodze nr 2 dwa razy. Uwzględniliśmy też możliwość, że droga nr 1 ma nieco inną długość (ponieważ odległość zmienia się w sposób ciągły, więc zmieniając odległość na drodze nr 1, możemy uzyskać obrót o dowolny kąt \Phi). Zauważmy, że na razie szczegóły tych obrotów nie mają znaczenia: żaden obrót nie zmieni długości wektorów. Zatem liczniki klikać będą tak samo często (na przemian, ponieważ zdarzenia się wykluczają).
1

Jeśli do naszego układu wprowadzimy drugie zwierciadło półprzepuszczalne BSoutput sytuacja stanie się ciekawsza, otrzymamy interferencję. Rozpatrzmy zdarzenie polegające na doleceniu fotonu do D2. Może on to zrobić, jeśli obierze drogę nr 1 i dodatkowo odbije się w zwierciadle BSoutput albo, alternatywnie, gdy obierze drogę nr 2 i zostanie przepuszczony przez zwierciadło BSoutput. Amplitudy dla obu dróg przedstawia rysunek (dodatkowy obrót o  90° dla drogi 1 odpowiada dodatkowemu odbiciu).

2

Po wstawieniu drugiego zwierciadła półprzepuszczalnego nie możemy określić, którą drogę obrał foton. Mogliśmy to ustalić jednoznacznie w poprzedniej sytuacji; teraz, aby wiedzieć, którędy pobiegł foton, musielibyśmy wykonać jakieś dodatkowe pomiary, czego nie robimy (in. mówiąc musiałoby zachodzić jakieś zjawisko pozwalające określić, którędy biegnie foton, nawet gdybyśmy go nie potrafili wykorzystać, ważne, czy w zasadzie można by to zrobić, czy nie). Zatem obie drogi są nierozróżnialne. Reguła postępowania w takich sytuacjach brzmi: amplitudę prawdopodobieństwa otrzymuje się dodając do siebie amplitudy członów alternatywy. Dodawanie liczb zespolonych to dodawanie wektorów według zasady równoległoboku.

3

W naszym przypadku wygląda to następująco. Kąt między obu wektorami równy jest \Phi (wspólny obrót o 180° nie ma znaczenia), a kwadrat długości wektora wypadkowego będzie równy 2cos^2\frac{\Phi}{2}. Gdybyśmy rozpatrzyli amplitudy zdarzenia polegającego na zarejestrowaniu fotonu przez D1, zmieniłoby się tyle, że foton na drodze nr 1 zaliczyłby o jedno odbicie mniej, a na drodze nr 2 o jedno więcej. Ostatecznie kwadrat długości wektora byłby równy teraz 2\sin^2\frac{\Phi}{2}. Zauważmy, że suma obu tych prawdopodobieństw jest stała, jak powinno być, jeśli nie gubimy fotonów i mamy idealne detektory.

Łatwo zobaczyć, że zbierane przez detektory liczby fotonów wyglądałyby, jak na tym wykresie.

F3.large (1)

Prawdopodobieństwa dla D1 zaznaczone są na niebiesko, dla D2 – na czerwono. Na dole jest sytuacja, w której rozróżniamy drogi, na górze ta z interferencją. Jest to wykres z prawdziwego eksperymentu przeprowadzonego w roku 2007 [V. Jacques et al., Experimental Realization of Wheeler’s Delayed-Choice GedankeExperiment, „Science” t. 315 (2007) s. 966]. Eksperyment dotyczył sytuacji bardziej skomplikowanej. Otóż John Wheeler, mentor Richarda Feynmana, postawił kiedyś następujące problem. Foton wpadający do naszej aparatury „nie wie”, czy na jej końcu znajduje się drugie zwierciadło półprzepuszczalne, czy nie. A od tego przecież zależą wyniki doświadczalne. Co więc by się stało, gdyby decyzja: wstawić BSoutput albo nie, zapadła dopiero wtedy, gdy foton już przejdzie przez pierwsze ze zwierciadeł półprzepuszczalnych? Doświadczenie Jacquesa i in. pokazało, że wyniki są dokładnie takie same, jak gdyby było to ustalone z góry. W układzie doświadczalnym decyzja co do drugiego zwierciadła zapadała losowo i w takim punkcie czasoprzestrzeni, że nie mogła mieć wpływu na wyniki pomiaru w detektorach. W istocie pojawienie się interferencji albo jej niepojawienie się staje się widoczne dopiero po skojarzeniu zapisów detektorów fotonów i zapisu na temat drugiego zwierciadła półprzepuszczalnego. Gdy podzielimy dane z detektorów na podgrupy bez i ze zwierciadłem BSoutput otrzymujemy obraz bez interferencji albo z interferencją.

Pod koniec ubiegłego roku opublikowano dwie piękne prace eksperymentalne, w których dwa stany: „nie ma zwierciadła BSoutput” oraz „jest zwierciadło BSoutput” stały się dwoma stanami kwantowymi, które mogą interferować ze sobą w zadanej proporcji. Oba składniki tej proporcji można umownie zapisać jako \cos\alpha oraz \sin\alpha (mamy pewność, że ich suma kwadratów jest zawsze równa jeden). Kąt \alpha=0 odpowiada brakowi BSoutput, kąt \alpha=\frac{\pi}{2} odpowiada jego obecności. W ten sposób zmieniając wartość \alpha przechodzimy od braku interferencji do pełnej interferencji w sposób płynny. Badacze sprawdzili, że istotnie jest to kwantowa interferencja interferencji, sprawdzając nierówność Bella (informuje ona, czy dany wynik może zostać uzyskany z teorii klasycznej). Ilustrują to wykresy poniżej, punkty są punktami doświadczalnymi.

F3.large (2)

[A. Peruzzo et al., A Quantum Delayed-Choice Experiment, „Science” t. 338, (2012) s. 634; F. Kaiser et al., Entanglement-Enabled Delayed-Choice Experiment, „Science” t.338 (2012) s. 637.]