Najmniejsze działanie: od kształtu liny do zasady Hamiltona

Isaac Newton nie traktował trzech zasad dynamiki jako swego szczególnie ważnego odkrycia; sądził, że formułuje tylko fakty znane wcześniejszym badaczom, takim jak np. Christiaan Huygens. Jednak to jego sformułowanie okazało się kanoniczne i trafiło do podręczników. Nie jest to zupełny przypadek: zasady te pozwoliły bowiem zbudować konsekwentną naukę o ruchu i określiły sposób myślenia jego następców. Newton pojawił się w odpowiedniej chwili historycznej, gdy kwestia ruchu w mechanice dojrzała do ścisłego przedstawienia i kiedy pojawiła się stosowna matematyka – czy to w postaci rachunku fluksji samego Newtona, czy rachunku różniczkowego i całkowego Leibniza i Johanna Bernoulliego.

Mechanikę można sformułować na kilka innych sposobów. Zwłaszcza Newtonowskie pojęcie siły jest było nowatorskie i zapewne by się nie pojawiło, gdyby nie samotnik z Cambridge. Nauki ścisłe także są konstrukcją ludzką i tylko częściowo odkrycia w nich przypominają odkrycia geograficzne: kto pierwszy zobaczy wyspę Kuba, automatycznie staje się jej odkrywcą. Nie ma tu bowiem platońskiego świata idei do odkrycia, a w każdym razie idee te mogą przyjmować zupełnie różne kształty i ich zarysy stają się widoczne dopiero wtedy, kiedy ktoś taki jak Albert Einstein albo Andrew Wiles je nam wskaże.

We współczesnej fizyce, zarówno klasycznej, jak kwantowej, najważniejszym sposobem zapisywania praw są zasady najmniejszego działania (in. zasady wariacyjne). Historycznie pojawiły się one później niż Newtonowskie siły, ich znaczenie stopniowo jednak rosło. Gdyby Albert Einstein dostatecznie mocno wierzył w zasady wariacyjne, to zapewne sformułowałby równania swej teorii grawitacji kilka lat wcześniej, jeszcze w Zurychu, a nie w Berlinie, oszczędzając sobie mnóstwa ciężkiej pracy i frustracji z powodu niepowodzeń. Klasyczne zasady najmniejszego działania nabrały nowego sensu w fizyce kwantowej, w Feynmanowskich sumach po historiach. Model Standardowy cząstek elementarnych, czyli sumę naszej wiedzy o mikroświecie, też zapisuje się za pomocą działania.

Poniżej przedstawimy dwa przykłady pokazujące, jak  można sformułować mechanikę w postaci zasad najmniejszego działania.

Kształt ciężkiej liny

Chcemy znaleźć kształt, jaki przyjmie ciężka lina zaczepiona w dwóch punktach.Stan równowagi odpowiada minimalnej energii całkowitej.

Mamy tu do czynienia z dwoma rodzajami energii. Z jednej strony działa grawitacja: im niżej znajdzie się dany element liny, tym niższa będzie jego energia potencjalna. Odcinek liny odpowiadający małemu przedziałowi (x, x+\Delta x) będzie miał masę \varrho dx i jego energia potencjalna będzie równa (g jest przyspieszeniem ziemskim):

\Delta V=-\varrho gy \Delta x.

Drugim rodzajem energii jest tu energia sprężysta. Wyobraźmy sobie, że zależy ona tylko od wydłużenia naszej liny i dla jej małego elementu równa jest

\Delta T=N(\Delta s-\Delta x),

gdzie N jest siłą napięcia liny.

Dla uproszczenia rachunków ograniczymy się do przypadku, gdy nasza lina ma niewielką strzałkę ugięcia, czyli dy jest znacznie mniejsze niż dx. Możemy wtedy przekształcić wyrażenie na energię sprężystą następująco:

dT=N(\sqrt{\Delta x^2+\Delta y^2}-\Delta x)\approx \dfrac{1}{2}N\left(\dfrac{\Delta y}{\Delta x}\right)^2 \Delta x.

W równości przybliżonej skorzystaliśmy z przybliżenia \sqrt{1+g}\approx 1+\frac{1}{2} g, słusznego dla wartości g\ll 1. Zauważmy, że działa ono nieźle nawet dla stosunkowo dużych wartości g, np. otrzymujemy \sqrt{2}\approx 1,5 zamiast 1,41, co oznacza błąd poniżej 10%.

Mamy więc dwa wkłady do energii: energia potencjalna obniża się, gdy dany odcinek liny znajdzie się niżej, ale żeby to było możliwe, lina musi się wydłużyć, co powiększa jej energię sprężystą. Pytanie, jakie sobie stawiamy, brzmi: jak znaleźć krzywą opisującą kształt liny?

Energia całkowita naszej liny jest równa

{\displaystyle E=\int_{0}^{L}\left(\dfrac{1}{2}N\left(\dfrac{dy}{dx}\right)^2-\varrho g y\right)dx.}

Jeśli zadamy krzywą y(x) i wstawimy ją do powyższego równania, to dostaniemy energię odpowiadającą danemu kształtowi. Matematycy mówią, ze mamy funkcjonał: czyli funkcji przypisujemy pewną liczbę. Dziedziną naszego funkcjonału jest zbiór różnych funkcji, które mogłyby opisywać kształt naszej liny.

Jak znaleźć minimum energii? Metodę postępowania podał w roku 1755 pewien bystry dziewiętnastolatek, Joseph Lagrange, w liście do słynnego Leonharda Eulera. Wyobraźmy sobie, że daną funkcję y(x) nieznacznie zmienimy na y(x)+\delta y(x). Jak wtedy zmieni się nasz funkcjonał? Łatwo pokazać, że zmiana energii jest w naszym przypadku równa

{\displaystyle \delta E=\int_{0}^{L}\left( N \dfrac{d^2 y}{dx^2}-\varrho g \right) \delta y(x) dx.} (*)

Pominięte zostały wyrazy zawierające  \delta y^2. Funkcja \delta y(x) (tzw. wariacja, czyli zmiana, y(x)) jest dowolna. W minimum niewielka wariacja y  nie powinna wpływać na wartość funkcjonału: kiedy jesteśmy już na dnie, to jest nam wszystko jedno, w którą stronę się przesuniemy, i tak będziemy na dnie. Jest to słuszne tylko w pierwszym przybliżeniu, gdy możemy pominąć wkłady kwadratowe i wyższe wariacji funkcji. Zatem warunkiem na minimum jest znikanie wariacji funkcjonału:

 \delta E=0  \Leftrightarrow N \dfrac{d^2 y}{dx^2}-\varrho g =0.

Ostatnia równoważność wynika stąd, że znikanie całki z nawiasu razy dowolna (niewielka) funkcja \delta y(x) musi oznaczać, iż ten nawias jest równy zeru dla każdego x.

Dwa wnioski: ogólny i szczegółowy.

Wniosek ogólny: Warunkiem minimum funkcjonału jest spełnienie pewnego równania zawierającego pochodną.

Wniosek szczegółowy: W naszym przypadku równanie to stwierdza, że druga pochodna y''(x) ma być stała. Znaczy to, że pierwsza pochodna y'(x) jest funkcją liniową, a sama funkcja y(x) jest kwadratowa, kształt krzywej to parabola. Żeby się te rozważania nie wydawały zbyt abstrakcyjne, proszę spojrzeć na obrazek.

Akashi Kaikyō Bridge, Wikipedia

Ruch rzuconego ciała

Teraz zapomnijmy o fizycznej treści poprzedniego punktu, pozostańmy przy samej matematyce: takie same równania mają takie same rozwiązania, jak uczył Feynman. Jeżeli wziąć za zmienną niezależną czas t zamiast x, to stała druga pochodna oznacza, ze mamy stałe przyspieszenie, czyli ruch w polu grawitacyjnym Ziemi. Możemy nieco zmienić oznaczenia N=\varrho=m, zamiast E napiszmy S, bo tak się standardowo oznacza działanie. Mamy więc zasadę wariacyjną i równoważne jej równanie różniczkowe:

 \delta S=0  \Leftrightarrow m \dfrac{d^2 y}{dt^2}-m g =0,

gdzie działanie równe jest

{\displaystyle S=\int_{0}^{T}\left(\dfrac{1}{2}m\left(\dfrac{dy}{dx}\right)^2-m g y\right)dx.}

Zamiast równań Newtona dla rzuconego ciała, możemy zażądać, aby znikała wariacja z działania. W naszym przypadku nadal rozwiązaniem jest parabola.

Zmieniła się jej interpretacja fizyczna: teraz opisujemy ruch jednowymiarowy, rzut pionowy. Skądinąd wiemy, że rozciągnięty w czasie rzut pionowy będzie miał kształt paraboli (mówimy tu o krzywej we współrzędnych t, y). Jeśli przyjrzeć się postaci działania, to oba składniki w nawiasie powinny nam się kojarzyć z energią kinetyczną i potencjalną:

 {\displaystyle S=\int_{0}^{T}\left(\dfrac{mv^2}{2}-V(y)\right)dt.}

Otrzymujemy w ten sposób zasadę Hamiltona najmniejszego działania. Równania, które z niej wynikają, nazywają się, żeby rzecz całą zagmatwać, równaniami Lagrange’a (są one równoważne zasadom dynamiki Newtona). Funkcja pod całką nazywa się lagranżianem i jest równa: {\cal L}=E_k-V. Należy zwrócić uwagę, że {\cal L} nie jest energią całkowitą, lecz różnicą energii kinetycznej i potencjalnej – przechodząc od liny do rzutu, zmieniliśmy znak. Zasada najmniejszego działania oznacza, że jeśli nieco zmienimy ruch w stosunku do ruchu rzeczywistego, to działanie się nie zmieni. Funkcje, które rozpatrujemy, zaczynają się w chwili 0 w punkcie y=0 i kończą w tym samym punkcie w chwili t=T. Można wybrać dowolne punkty przestrzeni, ustalony jest tu natomiast przedział czasu. Wszystkie rozpatrywane funkcje zaczynają się i kończą w tych samych chwilach i w tych samych dwu punktach. Rzeczywisty ruch cząstki spełnia zasadę najmniejszego działania.

Sformułowanie mechaniki za pomocą zasady Hamiltona ma wiele różnych zalet matematycznych, o których teraz nie będziemy pisać. Pojawiło się stosunkowo późno, bo w XIX wieku, choć zasada najkrótszego czasu w optyce znana była dwa stulecia wcześniej. Sam fakt, że na ruch można spojrzeć w taki sposób, jest interesujący i nowatorski. Polecam zupełnie elementarny wykład Feynmana na temat tej zasady.

Uwaga: Znikanie wariacji nie musi oznaczać minimum, tak samo jak znikanie zwykłej pochodnej funkcji niekoniecznie oznacza, że mamy do czynienia z minimum: może to być maksimum albo punkt przegięcia. Zwyczajowo mówi się o najmniejszym działaniu, choć w konkretnych przypadkach bywa to maksimum.

(*) Warto może przedstawić krótko procedurę obliczania wariacji funkcjonału. Sztuka polega na scałkowaniu przez części: jest to krok powtarzany do skutku we wszystkich obliczeniach wariacji. Chodzi o to, żeby zamiast \delta y'(x) mieć \delta y(x). Operacje różniczkowania \frac{d}{dx} i brania wariacji \delta są przemienne, bo pochodna różnicy to różnica pochodnych.

Pierwszy składnik pod całką zmienia się wskutek tego, że y'(x) zastępujemy przez y'(x)+\delta y'(x), różnica wyrażeń podcałkowych to

\frac{1}{2}N(2y'\delta y')=\frac{d}{dx}(Ny'\delta y)-Ny''\delta y,

gdzie pominęliśmy \delta y'^2. Po wstawieniu tego pod całkę otrzymujemy wynik, pamiętając, że nasze wariacje znikają na końcach przedziału: \delta y(0)=\delta y(L)=0.

Reklamy

Dziewiąty wykład Feynmana: Co mówi druga zasada dynamiki?

Zadziwiające, jak wiele osób nie czuje sensu drugiej zasady dynamiki, mimo wieloletniej szkolnej mitręgi. Druga zasada to podstawowe prawo matematyczne całej mechaniki: wszystko, co się porusza, można opisać za jej pomocą, dopiero gdy schodzimy na poziom atomowy, potrzebna jest mechanika kwantowa.

Poprzedza ją zasada pierwsza: ruch swobodny ciała (tzn. gdy nie działają na nie siły) to ruch jednostajny i prostoliniowy. Wyobraźmy sobie krążek hokejowy ślizgający się po nieskończonym lodowisku: jeśli sprawimy, że zniknie całkiem tarcie między krążkiem a lodem, będzie on się ślizgał przez całą wieczność ruchem jednostajnym i prostoliniowym. Przy braku sił ciało może więc spoczywać, ale może też poruszać się jednostajnie. To ambitna zasada, gdyż jest idealizacją rzeczywistego świata.

Teraz zasada druga: jeśli ruch nie jest jednostajny lub nie jest prostoliniowy, to znaczy, że na ciało działa jakaś siła. Zmiany prędkości opisuje przyspieszenie, druga zasada mówi, że przyspieszenie ciała proporcjonalne jest do siły. Sens matematyczny tej zasady tkwi w tym, że jeśli znamy skądś siły występujące w danym przypadku, to możemy obliczyć przyspieszenie ciała.

Przyspieszenie nie mówi wszystkiego o ruchu: zazwyczaj interesuje nas położenie, czasem także prędkość ciała. Musimy znać także warunki początkowe: gdzie się nasze ciało znajduje i jak się porusza w chwili zerowej.

  1. Przyspieszenie mówi nam, jak zmieni się prędkość w krótkim odstępie czasu.
  2. Prędkość z kolei mówi nam, jak zmieni się położenie ciała w krótkim odstępie czasu.

Możemy więc, wykonując dwa kroki: od przyspieszenia do prędkości i od prędkości do położenia znaleźć ich wartości w chwili nieco późniejszej. Znając położenie i prędkość, możemy obliczyć siłę i przyspieszenie w owej późniejszej chwili i powtórzyć całą procedurę od nowa.

Rozpatrzmy przykład masy zawieszonej na sprężynie. Jeśli x będzie wychyleniem tej masy z położenia równowagi, to siła wypadkowa F równa jest

F=-kx,

gdzie k jest pewną stałą charakteryzującą sprężynę. Znak minus informuje, że siła ma zwrot przeciwny do wychylenia. Jeśli nasze ciało ma masę m, to z II zasady dynamiki wynika, że przyspieszenie równe jest

a=-\left(\dfrac{k}{m}\right)x.

Ruch ciała będzie drganiem harmonicznym:

Simple_harmonic_oscillator

Znając pojęcie pochodnej, można znaleźć równanie takiego ruchu, tzn. funkcje x(t) oraz v(t). Można też zrobić to numerycznie, co nie tylko jest łatwe, ale także ilustruje sens drugiej zasady dynamiki. Prędkość średnia ciała w przedziale czasu (t, t+\Delta t) to z definicji

v=\dfrac{x(t+\Delta t)-x(t)}{\Delta t}.

Dzielimy zmianę współrzędnej przez odstęp czasu. Tak samo definiuje się średnie przyspieszenie:

a=\dfrac{v(t+\Delta t)-v(t)}{\Delta t}.

Dokonujemy więc takiej samej operacji co przedtem, ale tym razem na prędkości. Oba te równania opisują, jak szybko zmienia się wielkość z licznika po prawej stronie. Wyobraźmy sobie teraz, że dzielimy czas na krótkie odcinki o długości \Delta t=\varepsilon. Jeśli odcinki są krótkie, to rozsądnie będzie przybliżyć prędkość średnią dla całego przedziału wartością prędkości w środku tego przedziału. W ten sposób współrzędna x(t+\varepsilon)  równa jest

x(t+\varepsilon)=x(t)+v(t+\varepsilon/2)\varepsilon.

Tak samo możemy postąpić z prędkością i przyspieszeniem:

v(t+\varepsilon/2)=v(t-\varepsilon/2)+a(t)\varepsilon.

Dzięki takiej procedurze możemy znaleźć wartości położeń i prędkości dla dwóch ciągów chwil. W punktach czerwonych obliczamy prędkości (do czego potrzeba przyspieszenia w środkowym punkcie niebieskim), a w punktach niebieskich – położenia.

second law axis

Jeśli znamy tylko prędkość w chwili zero, potrzebne jest dodatkowe równanie dla pierwszego czerwonego punktu:

v(\varepsilon/2)=v(0)+a(0)\dfrac{\varepsilon}{2}.

Metoda taka jest oczywiście tylko przybliżona, w razie gdyby dawała absurdalne wyniki, trzeba zmniejszyć krok czasowy \varepsilon – w każdym zagadnieniu inny odstęp czasu jest „krótki”. Ponieważ mamy powtarzać w kółko ten sam ciąg obliczeń, najlepiej go zaprogramować, najprostszym narzędziem jest dowolny arkusz kalkulacyjny.

Obliczenia wyglądają następująco.

Wyniki dla k/m=1 oraz dwóch wychyleń początkowych x(0)=1, 2 (prędkość początkowa równa jest zeru):

image (1)

Naprawdę nasze rozwiązanie jest tylko dyskretnym zbiorem punktów, ale gdy punkty położone są gęsto, widać wyraźnie linię. Łatwo też zgadnąć, że jest to po prostu wykres funkcji cosinus: x(t)=A\cos t dla dwóch różnych amplitud. Okresem naszego ruchu jest 2\pi. Okres nie zależy od amplitudy: na tej własności opierała się konstrukcja zegarów wahadłowych, przy małych wychyleniach ruch wahadła można opisać bowiem takim samym równaniem jak masę na sprężynie. Generalnie, konstrukcja każdego zegara musi opierać się na jakimś rodzaju drgań, obecnie są to zazwyczaj drgania niemechaniczne.

Rozwiązanie tego problemu jest proste i nie potrzeba komputera, jeśli zna się własności funkcji sinus i cosinus. Metoda numeryczna pozwala jednak rozwiązywać równie łatwo także i bardziej skomplikowane przypadki. Rozpatrzmy np. wahadło matematyczne dla dowolnie dużych wychyleń (przy wychyleniach większych niż kąt prosty, trzeba sobie wyobrażać, że mamy sztywny lekki drążek z ciężarkiem na końcu).

pendulum

W takim przypadku przyspieszenie styczne do toru (czyli łuku okręgu) równe jest

a=-g\sin\gamma=-g\sin\dfrac{x}{l}.

W naszym arkuszu wystarczy tylko zmienić wzór na przyspieszenie. Wygląda to następująco.

Wykres dla przypadku l=g i początkowego kąta wychylenia 3 radiany przedstawia się następująco:

image (2)

Amplituda wahań równa jest około 172^{\circ}. Widzimy, że wahadło niemal zatrzymuje się w pobliżu skrajnych położeń, dlatego okres jest teraz znacznie dłuższy niż przy małych wychyleniach (*). Richard Feynman w swoim wykładzie dziewiątym pokazuje przykład oscylatora, a także pokazuje, jak zastosować taką samą metodę do ruchu planety: jedyną różnicą jest inne prawo rządzące siłą (prawo ciążenia) oraz to, że trzeba obliczenia prowadzić dla dwóch współrzędnych kartezjańskich.

(*) Tak się składa, że i ten przypadek ruchu wahadła można rozwiązać analitycznie, trzeba jednak posłużyć się funkcjami eliptycznymi zamiast trygonometrycznych, jest to nieco bardziej zaawansowana matematyka.

Poniżej szczegóły obliczenia w arkuszu, gdyby ktoś chciał się pobawić. Najpierw formuły, potem liczby. Wystarczy tylko wpisać dwa pierwsze (jasnoniebieskie) wiersze formuł, resztę uzyskuje się przeciąganiem drugiego z nich w dół tak daleko, jak chcemy. Dla długich okresów czasu błędy naszej procedury będą się kumulować, więc rozwiązania będą się pogarszać. Zawsze jednak można zmniejszyć krok czasowy.

Zrzut ekranu z 2016-03-19 16:44:00Zrzut ekranu z 2016-03-19 16:45:47

Od Eulera do Feynmana: Po co nam liczba e?

Ilu matematyków potrzeba do wkręcenia żarówki? Odpowiedź: -e^{i\pi}.

feynman e i pi

Piętnastoletni Richard Feynman zapisał w swoim notatniku:

Najbardziej niezwykła równość w matematyce

e^{i\pi}+1=0.

Rzeczywiście, mamy tu trzy liczby: podstawę logarytmów naturalnych e, stosunek długości okręgu do średnicy \pi oraz jednostkę urojoną i. Pokażemy, co wyróżnia liczbę e, wprowadzoną w sposób systematyczny i nazwaną przez Leonharda Eulera. Przyjrzymy się funkcji wykładniczej e^{x} w dwóch przypadkach: dla x rzeczywistego oraz czysto urojonego – w tym drugim przypadku funkcja staje się okresowa, co jest na pierwszy rzut oka zaskakujące.

exponents

W dziedzinie rzeczywistej funkcja e^x jest „najprostszą” funkcją wykładniczą. Na wykresie zaznaczona jest linią niebieską. Na czym polega jej prostota (albo naturalność)? Po pierwsze można każdą inną funkcję wykładniczą zapisać za jej pomocą, zatem inne są nam właściwie niepotrzebne. Po drugie zachowuje się ona najprościej w okolicy x=0. Oczywiscie każda funkcja wykładnicza ma w tym punkcie wartość 1. Chodzi jednak o nachylenie, z jakim krzywa przecina oś Oy. Z wykresu widać, że to nachylenie względem osi Ox może być dowolne (oprócz 90º). Naturalna funkcja wykładnicza ma tangens nachylenia równy 1. Oznacza to, że dla małych wartości x mamy

e^x\approx 1+x. \mbox{ (*)}

Dla porównania, przy podstawie 10, otrzymamy:

10^x\approx 1+2,3026x.

Widzimy, czemu matematycy nie chcą używać innych podstaw funkcji wykładniczej niż e. Funkcję tę możemy zdefiniować jako szereg, czyli nieskończoną sumę:

e^x=1+\dfrac{x}{1!}+\dfrac{x^2}{2!}+\dfrac{x^3}{3!}+\ldots.

Nawet jeśli nie znamy analizy, wiadomo, jak używać takiego szeregu: gdy chcemy poznać wartość funkcji, musimy zsumować dostatecznie dużo jego wyrazów. Ile wyrazów – to zależy od wymaganej dokładności oraz od wartości x.

Tak wygląda obliczanie wartości liczby e.

Istnieje także inny, bardziej praktyczny sposób zdefiniowania liczby e. Wyobraźmy sobie, że oddajemy złotówkę na lokatę ze stopą oprocentowania 10% na 10 lat. Ile będziemy mieli na koncie po 10 latach? Naiwna odpowiedź brzmi 2 zł (bo 10% razy 10 lat daje 100%). W rzeczywistości musimy uwzględnić kapitalizację odsetek, tzn. fakt, że co pewien czas obliczana jest nowa wartość naszej lokaty i następne odsetki oblicza się już od tej nowej wartości. Jeśli kapitalizacja odsetek następuje co roku, wartość naszej lokaty po 10 latach równa będzie

\left(1+\dfrac{1}{10}\right)^{10}\approx 2,5937.

A gdyby kapitalizować odsetki 10 razy w roku (oczywiście za każdym razem stopa będzie 10 razy mniejsza)? Wówczas wartość naszej lokaty będzie równa

\left(1+\dfrac{1}{100}\right)^{100}\approx 2,7048.

W tym miejscu uważny Czytelnik zauważy, iż nasze zadanie prowadzi najwyraźniej do liczby e.

Bardziej rozbudowany przykład liczbowy.

Gdybyśmy kapitalizowali odsetki w sposób ciągły, pod koniec lokaty będziemy mieli na koncie e zł. Możemy uważać tę wartość za granicę następującego ciągu:

e=\lim_{n\rightarrow\infty} \left(1+\dfrac{1}{n}\right)^n \mbox{ (**)}.

Wynika stąd, że w przybliżeniu 1% wzrostu przez 100 lat albo 5% wzrostu przez 20 lat, albo 10% wzrostu przez 10 lat dadzą w przybliżeniu ten sam wynik końcowy: e. Błąd będzie tym mniejszy, im mniejsza jest stopa procentowa. Istnieje podobna reguła dla wzrostu dwukrotnego: iloczyn stopy procentowej i liczby okresów powinien równać się około 70%. Czyli np. wzrost gospodarczy 7% rocznie przez 10 lat daje podwojenie PKB. (Reguła 70% to naprawdę reguła 69,3%, chodzi o to, że e^{0,693}\approx 2).

Przejdźmy teraz do argumentów czysto urojonych. Funkcja e^{it} jest okresowa, czego na pierwszy rzut oka nie widać w jej definicji za pomocą szeregu (wstawiliśmy x=it):

z(t)=e^{it}=1+\dfrac{it}{1!}+\dfrac{(it)^2}{2!}+\dfrac{(it)^3}{3!}+\ldots.

Spróbujmy popatrzeć na tę funkcję okiem fizyka, traktując t jako czas, a wartość funkcji jako współrzędne punktu na płaszczyźnie zespolonej. Łatwo obliczyć moduł liczby z(t), tzn. odległość punktu od początku układu. Jeśli z(t)=a+bi, to mamy

|z(t)|^2=a^2+b^2=(a+bi)\cdot(a-bi)=zz^{\star},

gdzie w ostatniej równości skorzystaliśmy z definicji liczby zespolonej sprzężonej do danej liczby: różni się ona znakiem przy części urojonej. W naszym przypadku otrzymamy:

|z(t)|^2=zz^{\star}=e^{it}\cdot e^{-it}=e^{0}=1.

Zatem koniec wektora z(t) będzie leżał na okręgu jednostkowym. Obliczmy prędkość ruchu punktu z(t). Prędkość średnia w przedziale czasu (t, t+h) będzie równa

v(t)=\dfrac{z(t+h)-z(t)}{h}=\dfrac{e^{i(t+h)}-e^{it}}{h}=e^{it}\dfrac{e^{ih}-1}{h}.

Zauważmy, że działania takie jak dodawanie, odejmowanie liczb zespolonych oraz dzielenie przez liczbę rzeczywistą h odbywa się zgodnie z regułami działań na wektorach (w tym przypadku dwuwymiarowych). Jeśli czas h będzie krótki, to w ostatnim ułamku możemy zastosować (*) dla przypadku x=ih i otrzymamy ostatecznie

v(t)=iz(t).

Łatwo zauważyć, że mnożenie liczby zespolonej przez i oznacza obrót wektora o 90º w lewo na płaszczyźnie:

i(a+bi)=-b+ai.

Moduł obliczonej przez nas prędkości równy jest 1. Sytuację przedstawia rysunek.

euler

Okres ruchu to długość okręgu podzielona przez prędkość, czyli 2\pi. Promień wodzący punktu o współrzędnych z(t) tworzy kąt proporcjonalny do czasu. Ponieważ z(0)=1, więc kąt ten po prostu równy jest t. W zapisie zespolonym punkt na okręgu jednostkowym ma przy takim kącie t postać (stosujemy definicje funkcji sinus i cosinus na okręgu jednostkowym):

\cos t+i\sin t=z(t)=e^{it}.

Wzór ten zwany jest wzorem Eulera. Wstawiając t=i\pi, otrzymujemy równość, od której zaczęliśmy i która tak zachwyciła młodego Feynmana. Wzór Eulera jest niezwykle użyteczny w rozpatrywaniu fal, drgań, a także w trygonometrii, funkcje wykładnicze są bowiem bardzo proste w użyciu. Powiedzmy, że potrzebujemy wyrażenia na \sin 2\alpha. Wystarczy podnieść do kwadratu wzór Eulera, a dostaniemy szukane wyrażenie oraz przy okazji wyrażenie na \cos 2\alpha:

e^{i2\alpha}=\cos 2\alpha+ i\sin 2\alpha.

(e^{i\alpha})^2=(\cos \alpha+i\sin \alpha)^2=\cos^2 \alpha-\sin^2 \alpha+i 2\sin \alpha\cos \alpha.

Porównując prawe strony obu wyrażeń otrzymujemy dwie tożsamości trygonometryczne. Wzór Eulera musiał szczególnie podobać się Feynmanowi, bo przydaje się w praktycznych zastosowaniach. Feynman już wtedy starał się rozumieć, „jak działa” matematyka, to znaczy, jak można obliczyć najróżniejsze rzeczy. Nieprzypadkowo w Los Alamos kierował zespołem wykonującym obliczenia numeryczne, wiadomo było, że jest w tej dziedzinie pomysłowy, stosował np. równoległe przetwarzanie danych, żeby było szybciej (za procesory służyli ludzie z kalkulatorami elektrycznymi). Gdyby wysadzić go na bezludnej wyspie, odtworzyłby bez trudu sporą część różnych tablic funkcji i całek. Można zresztą założyć, że w wersji skróconej miał je wszystkie w głowie: zakładał się, że obliczy dowolne wyrażenie z dokładnością 10% w ciągu minuty, jeśli tylko samo zadanie można sformułować w dziesięć sekund. I niemal zawsze wygrywał.

Nieco więcej ścisłości.

Łatwo sprawdzić, że definicja e^z za pomocą szeregu jest prawidłowa, tzn. szereg jest zbieżny absolutnie dla wszystkich wartości z. Tak zdefiniowana funkcja spełnia też prawo mnożenia funkcji wykładniczych:

e^{z+u}=e^{z}e^{u}.

Mamy bowiem

e^{z+u}=\sum_{n=0}^{\infty}\dfrac{(z+u)^n}{n!}=\sum_{n=0}^{\infty} \sum_{k=0}^{n-k} \dfrac{z^{k}u^{n-k}}{k!(n-k)!}  =\sum_{k=0}^{\infty}\sum_{m=0}^{\infty}\dfrac{z^k u^{m}}{k!m!} .

Korzystając z dwumianu Newtona możemy też uzasadnić granicę (**). Rozwijając dwumian, otrzymamy jako k-ty wyraz

\dfrac{n!}{k!(n-k)!n^k}=\dfrac{n(n-1)\ldots (n-k+1)}{n^k}\dfrac{1}{k!}.

Pierwszy ułamek dąży do 1, przy n dążącym do nieskończoności, zostaje więc suma wynikająca z rozwinięcia w szereg e^1.

 

Albert Einstein na dwóch fotografiach, czyli jak pionier został konserwatystą (1911, 1927)

Pierwsza fotografia pochodzi z roku 1911 i przedstawia uczestników I Kongresu Solvaya. Ernest Solvay, bogaty przemysłowiec, wzbogacił się na wynalezionej przez siebie metodzie produkcji sody. Nie miał akademickiego wykształcenia, lecz wykazywał pewne ambicje naukowe. Zwołany do Brukseli kongres zgromadził najwybitniejszych fizyków epoki, organizował go Hendrik Lorentz, który zaprosił m.in. Alberta Einsteina.

1911

Podpisana wersja tej fotografii

Trzydziestodwuletni Einstein stoi z cygarem w drugim rzędzie obok Paula Langevina, z którym szybko się zaprzyjaźnił (nb. w tym właśnie czasie wybuchł skandal prasowy w Paryżu wokół romansu żonatego Langevina ze starszą od niego Marią Skłodowską-Curie, jedyną kobietą na zdjęciu). Dla Einsteina był to pierwsza międzynarodowa konferencja naukowa i okazja do poznania sławnych fizyków spoza Niemiec. Zaledwie dwa lata wcześniej zaczął pracować na uczelni, do Brukseli przyjechał z Pragi, gdzie od wiosny tego roku był profesorem zwyczajnym. Okna jego gabinetu wychodziły na ogród szpitala psychiatrycznego. Einstein lubił pokazywać swoim gościom spacerujących alejkami pensjonariuszy tego zakładu ze słowami: „oto wariaci, którzy nie zajmują się kwantami”. Sam intensywnie pracował nad nową fizyką kwantową, m.in. odkrył, dlaczego ciepło właściwe diamentu maleje wraz z temperaturą. Zjawisko to jest kwantowe: drgania atomów węgla w krysztale diamentu mogą bowiem zachodzić tylko ze ściśle określonymi – skwantowanymi – energiami. W ten sposób okazało się, że nowa fizyka potrzebna jest do wyjaśnienia obserwowanych od dawna faktów. Dziś wiemy, że właśnie fizyka kwantowa wyjaśnia własności atomów, kryształów, cieczy – całą chemię i fizykę różnych materiałów, a także sporą część biologii. Inni uczeni zainteresowali się tym kręgiem zagadnień, szybko rosła więc liczba prac poświęconych kwantom. Tak więc stojący skromnie w drugim rzędzie Einstein reprezentował wówczas naukową awangardę, nie zawsze dobrze przyjmowaną przez starszych kolegów.

 

kwanty

Widzimy, jak szybko rosła liczba autorów idących w ślad za Einsteinem. Liczby nie wydają się może imponujące, ale ogólną liczbę fizyków w Europie w tamtej epoce szacuje się na 1000-1500, z czego nie wszyscy byli aktywni naukowo (Wykresy z T.S. Kuhn, Black-Body Theory and the Quantum Discontinuity, 1894-1912, Clarendon Press, Oxford 1978, s. 217).

solvay_conference_1927_

Druga fotografia przedstawia uczestników V Kongresu Solvaya w roku 1927. Nosił on tytuł Elektrony i fotony. Fotony, cząstki światła, zostały zapostulowane przez Einsteina w roku 1905, teraz niejako oficjalnie uznano, że miał rację. A więc niewątpliwy triumf. Nikt przez dwadzieścia lat nie chciał wierzyć w owe kwanty światła, po eksperymentach Comptona i innych, wreszcie w nie uwierzono. Triumf zabarwiony był jednak goryczą. W latach 1925-1926 młodzi fizycy przedstawili mechanikę kwantową, z którą Einstein nie potrafił się zgodzić ani wtedy, ani nigdy później. Był nadal sprawny intelektualnie, nie zapomniał fizyki, ale należało wyjść poza krąg dotychczasowych idei, rozstać się z pewnym ideałem nauki. Rewolucji dokonali ludzie młodzi, mówiono o tym Knabenphysik – fizyka chłopców.
Fotografia ilustruje wymownie, jak wzrosła pozycja Einsteina w środowisku naukowym w ciągu tych kilkunastu lat. Teraz on zajmuje miejsce centralne. Siedzi między starym Lorentzem a posiwiałym Langevinem z nawoskowanymi wąsami, niczym rewolucjonista uwięziony w świecie XIX wieku. Obok Lorentza mocno postarzała, surowa i niepobłażająca Maria Skłodowska-Curie i znużony Max Planck. Dopiero w drugim rzędzie znajdujemy chudego, jakby wyjętego z dramatu Becketta Paula Diraca, arystokratycznego, rasowego Louisa de Broglie’a, uprzejmego i skromnego Maksa Borna, wychowawcę siedmiu noblistów, i wreszcie silnego i skupionego Nielsa Bohra. Elegancki Erwin Schrödinger, sceptyczny Wolfgang Pauli i szelmowsko chłopięcy Werner Heisenberg stoją skromnie w trzecim rzędzie. Trudno o bardziej symboliczny obraz zmiany warty: Einstein stał się teraz kimś podobnym do Lorentza czy Plancka, a więc wybitnym uczonym, którego należy szanować, ale od którego nie można się zbyt wiele nauczyć. Liczyli się młodzi ludzie z drugiego i trzeciego rzędu oraz ich duchowi przewodnicy, Bohr i Born. W ciągu następnych kilku lat twórcy mechaniki kwantowej otrzymali Nagrody Nobla, wszyscy oprócz Diraca nominowani byli zresztą także przez Einsteina. Najwybitniejszy spośród nich, Paul Dirac, musiał zadowolić się Nagrodą Nobla wraz ze Schrödingerem. Właśnie Paul Dirac w latach 1927-1928 pokazał, jak można sformułować kwantową teorię elektronów i fotonów. Było to otwarcie drogi, która zakończyła się dwadzieścia lat później zbudowaniem konsekwentnej elektrodynamiki kwantowej przez Richarda Feynmana, Freemana Dysona, Juliana Schwingera i Shin’itiro Tomonagę.

Feynmana wykłady z fizyki

Najlepszy podręcznik fizyki – wykłady Feynmana – są dostępne w internecie (po angielsku). To świetna wiadomość. Książka nie zestarzała się przez pół wieku, może zainspiruje młodych ludzi. Pamiętam, jak wielkim wydarzeniem było stopniowe ukazywanie się polskiego przekładu Wykładów. Znałem pewnego licealistę, który czytał te książki w miarę ukazywania się i czekał niecierpliwie na każdy kolejny tom. Myślę, że dzięki Feynmanowi tysiące ludzi na całym świecie odczuło, jaką wspaniałą dziedziną jest fizyka i jaką frajdę sprawia zrozumienie różnych aspektów świata.

PW2014-03-critical-point_main

Wykłady nie odniosły sukcesu jako podręcznik kursowy, ale od zawsze czytane były przez pasjonatów, przez tych, którzy chcieli rozumieć. Myślę zresztą, że książka ta przekazuje znacznie więcej niż tylko jakąś wiedzę. Uczy pewnego podejścia do nauki: musimy zawsze rozumieć, o czym mówimy, jak się to coś da zmierzyć, jak można zastosować naszą wiedzę, jakie są powiązania między różnymi kwestiami. Fizyka to nie zbiór faktów, lecz zbiór praw i reguł ich stosowania w różnych sytuacjach. Wiemy tyle, ile umiemy obliczyć, choćby niedokładnie, na odwrocie starej koperty. No i nie ma znaczenia, kto mówi: student czy profesor, liczy się, kto ma rację. A przy tym wszystkim Wykłady potrafiły przekazać coś z atmosfery nieskrępowanej zabawy: fizyka Feynmanowi sprawiała przyjemność, bawił się nią i potrafił innych zarazić swoim entuzjazmem. Tak się nie pisało podręczników, przedtem musiały być zawsze bezosobowe, sztywne i nudne.

Pewnie to jedyny podręcznik, który rzeczywiście powinien mieć w tytule obok słowa „fizyka” nazwisko wykładowcy. Osobowość Feynmana widoczna jest tu na każdym kroku.

Jednak Feynman, luzak i showman, udający czasem prostaczka, który nie umie wymówić trudnych cudzoziemskich słów, drażnił zawsze niektórych. Szanowany historyk nauki Paul Forman dziwił się kiedyś, że „osoba pozostawiająca tak wiele do życzenia pod względem odpowiedzialności społecznej i moralnej, jak Richard Feynman, może być uważana przez swoich kolegów po fachu za postać wybitnie moralną, ponieważ był tak bardzo oddany fizyce, ponieważ uprawianie jej sprawiało mu niewątpliwą radość, ponieważ niewiele sobie robił z pozycji innych ludzi zarówno w środowisku fizyków, jak i poza nim, i ponieważ tak wielki nacisk kładł na dyscyplinę intelektualną swojej nauki, a mianowicie, aby «wiedzieć o czym się mówi»”.

Sam Feynman pisze o radzie, jakiej udzielił mu kiedyś w Los Alamos John von Neumann (nb. też postać wielce malownicza, ktoś, kto sprawiał wrażenie geniusza i nim był): „Nie musisz czuć się odpowiedzialny za świat, w którym żyjesz”. Feynman wziął sobie tę radę do serca i przestał martwić się o cały świat.

Uprawianie nauki powinno sprawiać przyjemność, może nie codziennie i nie zawsze, ale powinno – inaczej nie ma sensu. Jeśli ktoś nie ogarnia szerszego horyzontu niż swój wąski temat, to powinien zająć się czym innym. Dla Feynmana fizyka nie była z pewnością zabawą: jeśli już to tak jak dla dziecka – była to zabawa śmiertelnie poważna w sensie zaangażowania, nie w sensie uroczystej miny i biretu nasadzonego na ośle uszy. Można przesiadywać w nocnych barach i myśleć nad fizyką. Charakterystyczne jest, że ten zabawowy człowiek unikał przez całe życie wszelkich substancji, które mogłyby zepsuć jego machinę mózgową, od większych ilości alkoholu po narkotyki. Bawił się, obliczając różne rzeczy, które go zaciekawiły, miał szuflady pełne różnych obliczeń. Był to koszmar młodych badaczy na Caltechu: idą się pochwalić jakimś wynikiem, a Feynman wyciągnie z szuflady papiery z tym samym obliczeniem. Publikował tylko rzeczy, które sam uważał za udane. Zmagał się z problemami pierwszorzędnej wagi i często mu się nie udawało. Nie robił z tego dramatu, ale to nie znaczy, że go to nie obchodziło.

Zwykle trzymał się daleko od polityki i rzadko wygłaszał puste frazesy o odpowiedzialności za świat. Ale w Los Alamos Feynman pracował, bo chciał uratować swój kraj. Wątpię też, czy von Neumann unikał odpowiedzialności: jego rodzina została w Europie i sam zapewne trafiłby do Auschwitz, tak jak inni węgierscy Żydzi, gdyby nie wyjechał do Ameryki. Von Neumann pracował chętnie dla wojska, bo zależało mu na pokonaniu zarówno nazistów, jak i Rosji. Czy nie miał racji?

Świetnym przykładem praktycznej etyki w wydaniu Feynmana była sprawa katastrofy promu kosmicznego Challenger w 1986 roku. Prom rozpadł się tuż po starcie, siedmioosobowa załoga zginęła. Do komisji badającej ten wypadek powołano także Richarda Feynmana, słynnego noblistę, poważnie już wówczas chorego. Dzięki jego uporowi, inżynierskiej wiedzy i dociekliwości udało się znaleźć przyczynę katastrofy, którą NASA chętnie by zamiotła pod dywan. Czy tak się zachowuje facet, który ma wszystko w nosie?

Historyk powinien nieco głębiej wnikać w ludzkie postępowanie. Ludzie często mówią co innego i robią co innego, a jeszcze co innego myślą. Dlatego są ciekawszym przedmiotem refleksji niż np. dżdżownice.

 

Richard Feynman i nauka kultu cargo

Najpierw dwa cytaty.

„Na Morzach Południowych istnieje kult cargo. Podczas wojny miejscowa ludność widziała, jak lądują samoloty wyładowane mnóstwem wspaniałych rzeczy i chciałaby, żeby teraz też tak było. Zrobili więc coś, co wygląda jak pasy startowe, rozmieścili ogniska wzdłuż tych pasów, wybudowali drewnianą chatkę dla człowieka, który siedzi tam z dwoma kawałkami drewna imitującymi słuchawki i pędami bambusa sterczącymi jak antena (jest kontrolerem lotów), i czekają na lądowanie samolotu. Wszystko robią tak, jak trzeba. Forma jest doskonała. Wszystko wygląda dokładnie tak, jak kiedyś. No, ale nie działa. Żadne samoloty nie lądują. Takie właśnie rzeczy nazwałem „nauką kultu cargo”, ponieważ postępują oni zgodnie z przyjętymi zasadami i formami badań naukowych, ale brakuje w tym zasadniczej rzeczy, bo samoloty nie lądują” (przeł. K. Karpińska, w: R.P. Feynman, Przyjemność poznawania, s. 182).

„Nic nie wynoszę z tej konferencji. Niczego się nie uczę. Ponieważ nie ma w tej dziedzinie eksperymentów, więc niewiele się w niej dzieje i pracuje w niej bardzo niewielu dobrych naukowców. W rezultacie jest tu pełno głupków, co źle wpływa na moje ciśnienie: omawia się tu i poważnie dyskutuje tak bezsensowne problemy, że wdaję się w sprzeczki poza sesjami (np. w czasie obiadu), za każdym razem kiedy ktoś mi zadaje pytanie albo zaczyna opowiadać o swojej „pracy”. Ta „praca” okazuje się zawsze 1. zupełnie niezrozumiała 2. niejasna i nieokreślona 3. prawidłowa, choć oczywista i uzyskana dzięki długiej i trudnej analizie, ale przedstawiona jako ważne odkrycie albo 4. jest twierdzeniem, wynikającym z głupoty autora, iż pewien oczywisty i prawdziwy fakt, przyjęty i sprawdzony przez lata, jest fałszywy (tacy są najgorsi: żaden argument nie przekona idioty), 5. jest próbą zrobienia czegoś najprawdopodobniej niemożliwego, a na pewno niepotrzebnego, która – jak się to okazuje na końcu – nie powiodła się (w tym czasie pojawia się deser i zostaje zjedzony) albo 6. jest po prostu błędna. Panuje obecnie w tej dziedzinie spora „aktywność”, ale owa „aktywność” polega głównie na wykazywaniu, iż poprzednia „aktywność” kogoś innego doprowadziła do błędu bądź nie doprowadziła do niczego użytecznego ani obiecującego. Wygląda to jak kupa robaków, próbujących wydostać się z butelki i włażących na siebie nawzajem. Nie chodzi o to, że przedmiot jest trudny, ale o to, że dobrzy naukowcy zajmują się czym innym. Przypomnij mi, żebym więcej nie jeździł na żadne konferencje na temat grawitacji!” (korzystałem z przekładu J. Kowalskiego-Glikmana w: R.P. Feynman, Wykłady z grawitacji, s. XXXIII, i oryginału)

feynman_cern2

Jeśli ktoś, czytając te wypowiedzi, ma uczucie déjà vu, to znaczy, że zetknął się z szarą codziennością uprawiania nauki. Oczywiście nie każdy może być Feynmanem. Hierarchia obowiązuje zwłaszcza w matematyce i fizyce teoretycznej, choć naprawdę to w każdej dziedzinie robiącej użytek z intelektu. Dziesięciu gorszych patentowanych profesorów nie zastąpi jednego naprawdę dobrego, choćby i nie miał patentu na mędrca. Lew Landau prowadził ranking fizyków. Najwyższą pozycję i notę 0 miał w nim Isaac Newton, Albert Einstein był niewiele niżej, miał notę 0,5. Twórcy mechaniki kwantowej Schrödinger, Heisenberg, Bohr, Dirac mieli 1. Sam Landau przyznawał sobie 2, a był bardzo wybitnym laureatem Nagrody Nobla. Skala ta była logarytmiczna, czyli każda jednostka wyżej oznaczała wielokrotnie większe możliwości intelektualne. I tak to z grubsza jest: nie da się zostać Richardem Feynmanem tylko dlatego, że się więcej ćwiczy albo ma silniejszą motywację.

Ale to jeszcze nie wszystko: nie mamy wpływu na swoje geny, możemy natomiast kierować swoim zachowaniem. Można np. zastanawiać się nad jakimś problemem tak długo, aż go naprawdę zrozumiemy. Nikt nam nie zabroni dociekliwości i wytrwałego używania rozumu. Możemy więc nie zadowalać się byle czym, ale drążyć głębiej. Feynman napisał najlepszy podręcznik fizyki w historii, jeszcze dziś po półwieczu jest to wciąż najlepszy podręcznik akademicki. Jest najlepszy, bo wiele tematów Feynman przemyślał na nowo i napisał tak, jak sam je rozumiał. Miał on tę cechę, że nie potrafił niczego robić połowicznie – jeśli wykładał, to starał się przemyśleć przedmiot na nowo. Ilu wykładowców tak robi? Z pewnością mniej niż trzeba. Inna sprawa, że polskie uczelnie są wyłącznie miejscem pracy naukowej, studenci są tam ledwie tolerowani, a za najlepszy podręcznik nie dostanie się złamanego grosza od żadnej agendy zajmującej się „rozwojem nauki” w Polsce (rynek krajowy jest w większości dziedzin za mały, aby podręcznik akademicki mógł odnieść sukces komercyjny).

Feynman był też fanatykiem uczciwości naukowej. Nikt nie zdołałby go namówić, żeby napisał dobrą recenzję marnej pracy albo z uprzejmości zataił, co naprawdę myśli na temat jakiegoś „osiągnięcia”. Za nieuczciwe uważał nawet przemilczanie obiekcji czy argumentów przeciw własnemu punktowi widzenia albo przedstawianie niefachowcom naszej pracy jako niezwykle pożytecznej dla ludzkości, podczas gdy w istocie nie ma z niej żadnego pożytku, a praca jest zaledwie hipotezą. Większość współczesnych książek popularnonaukowych, i to pisanych przez ludzi o głośnych nazwiskach, zajmuje się promowaniem pomysłów może ciekawych, ale niepotwierdzonych i nieuznawanych, które zapewne nigdy nie trafią do podręczników, lecz zakończą swój żywot jako „ciekawe pomysły”. Zabiegi o popularność wśród nieświadomych czytelników sytuują się czasem niezwykle blisko pospolitego oszustwa.

Zostaje więc nauka kultu cargo? Jedyna pociecha, że za jakiś czas będzie ona – podobnie jak złe książki – zapomniana na zawsze.

Richard Phillips Feynman, sumy po historiach (1942)

Feynman, legenda fizyki XX wieku, jest w Polsce znany prawie wyłącznie wśród fizyków, choć może dzięki wydaniu różnych jego popularnych tekstów sytuacja nieco się poprawiła. Marek Kac, sam świetny matematyk, pisał o zwykłych i niezwykłych geniuszach:

Istnieją dwa rodzaje geniuszów, „zwykli” i „magicy”. Każdy z nas mógłby być równie dobry jak zwykły geniusz, gdyby tylko był wiele razy lepszy niż jest. W jego sposobie myślenia nie kryje się żadna tajemnica. Gdy już zrozumiemy, co zrobił, czujemy pewność, że sami moglibyśmy zrobić to samo. Co innego z magikami. Oni istnieją, jeśli wolno mi użyć matematycznego żargonu, w ortogonalnym dopełnieniu naszego świata. Ich sposób myślenia jest właściwie całkowicie niezrozumiały. Nawet gdy już rozumiemy ich wyniki, sposób, w jaki do nich doszli, wciąż pozostaje niepojęty. Rzadko, a raczej nigdy nie miewają uczniów, ponieważ nie można ich naśladować i z pewnością każdy bystry młody człowiek byłby głęboko sfrustrowany, usiłując poradzić sobie z tajemniczymi drogami myśli magika. Richard Feynman jest magikiem największego kalibru [Enigmas of Chance, 1985; przeł. P. Amsterdamski].

Syn żydowskiego emigranta z Białorusi, wychowany w Nowym Jorku, był ucieleśnieniem mitu Ameryki, kraju, w którym można osiągnąć wszystko to, co gdzie indziej niedostępne. Ojciec nie był bogaty ani wykształcony, ale bardzo cenił wykształcenie, zwłaszcza wiedzę praktyczną, która może się do czegoś przydać. Podobne nieco podejście miał Richard Feynman, jako chłopiec interesował się wszelkimi urządzeniami technicznymi, stał się ekspertem od naprawy radioodbiorników, łączył w tym zdrowy rozsądek z umiejętnością obserwacji i kojarzenia faktów. Tych samych talentów używał potem w Los Alamos, aby dla zabawy otwierać cudze szafy pancerne na szyfr. W okresie szkolnym jego zeszyty matematyczne zawierały przydatne wzory i formuły, jakby ich właściciel miał pewnego dnia znaleźć się na wyspie bezludnej i musiał odtworzyć całą wiedzę. Dzięki takiemu podejściu po latach Feynman zakładał się, że w ciągu minuty obliczy w pamięci wartość dowolnego niedługiego wyrażenia, wartość funkcji albo całkę oznaczoną z dokładnością 10% i rzadko komu udawało się go zagiąć. W Programie Manhattan zajmował się właśnie obliczeniami: organizował pracę zespołu ludzi z elektrycznymi arytmometrami, aby jak najefektywniej wykonać potrzebne symulacje numeryczne. Był też świetnym rozmówcą na tematy fizyczne, Niels Bohr, już wtedy legendarny i niemłody, wzywał specjalnie Feynmana, aby mieć przed kim wyłożyć to, co ma do powiedzenia. Można było mieć pewność, że jeśli Feynman zauważy jakąś lukę, natychmiast głośno o tym powie, nie krępując się bynajmniej wielkością swego rozmówcy.

Zanim trafił do Projektu Manhattan, studiował w MIT, a potem skończył studia drugiego stopnia i doktorat w Princeton. Niezbyt go zresztą chcieli w Princeton, ponieważ był Żydem, uważano, że w nauce jest już zbyt wielu Żydów i trudno dla nich potem znaleźć posadę. Były to lata trzydzieste, Amerykanie zmienili potem swoje nastawienie, zresztą antysemityzm nie był tam nigdy większym problemem. W Rosji okazał się trwalszy niż wszystkie systemy polityczne: przetrwał carat, komunizm i jeszcze w latach osiemdziesiątych ubiegłego wieku nie dopuszczano Żydów na studia matematyczne na Uniwersytecie Moskiewskim – obowiązywał ich szczególnie trudny egzamin, na którym udawało się oblać np. kogoś takiego, jak Edward Frenkel. Te zadania dla Żydów zostały zresztą opublikowane, z pewnością łatwiej było zdać do Cambridge.

Opiekunem doktoratu Feynmana był John Archibald Wheeler, wtedy młody profesor, który dojrzewał długo, ale z czasem wyrósł na wielką postać fizyki światowej. Zastanawiali się obaj nad różnymi dość zwariowanymi teoriami, jeden z takich pomysłów stał się doktoratem Feynmana. Było to nowe podejście do mechaniki kwantowej. Wtedy praca ta ukazała się w przeglądowym piśmie „Reviews of Modern Physics”, bo była długa i wydawało się, że do niczego nowego nie prowadzi. Dziś formalizm Feynmana stał się jedną z powszechnie stosowanych metod fizyki kwantowej.

Wyobraźmy sobie, że z punktu A do punktu B w określonym czasie ma dotrzeć jakaś cząstka. Z klasycznego punktu widzenia może się to przy zadanych siłach odbyć na tylko jeden sposób, jest określony tor i cząstka musi się po nim poruszać z określoną prędkością w każdej chwili. Inaczej jest w mechanice kwantowej. Jest ona teorią posługującą się prawdopodobieństwami, więc niemal wszystko jest w niej możliwe, choć dla wielu zdarzeń prawdopodobieństwo jest tak małe, że praktycznie są one niemożliwe. Aby znaleźć prawdopodobieństwo przebycia naszej cząstki z punktu A do punktu B w określonym czasie, musimy w mechanice kwantowej rozpatrzyć wiele możliwych torów i różnych rozkładów prędkości. Np. takie jak na rysunku.

paths1

Oczywiście, jeśli te narysowane, to i nieskończenie wiele innych. Każda z możliwych dróg dotarcia cząstki od A do B jest jej historią. Każdej z tych historii przypisać można pewną wielkość, tzw. amplitudę prawdopodobieństwa: jest to liczba zespolona albo, co na jedno wychodzi, wektor na płaszczyźnie. Chcąc otrzymać amplitudę prawdopodobieństwa dla naszej cząstki biegnącej od A do B, musimy dodać do siebie wszystkie amplitudy odpowiadające różnym historiom. To jest suma po historiach. Amplitudy dodajemy tak, jak się dodaje wektory na płaszczyźnie (tak się właśnie dodaje liczby zespolone). Powstaje problem dodawania nieskończenie wielu wektorów, ale to kwestia techniczna, którą nie będziemy się martwić. Kiedy już mamy wektor wypadkowy, mierzymy jego długość: kwadrat długości jest prawdopodobieństwem, że nasza cząstka przebiegnie od A do B w zadanym czasie.

Na pierwszy rzut oka wydaje się to dość szalone: rozpatrujemy bowiem mnóstwo historii, które nie mają nic wspólnego z klasycznym torem i jedną historią, tą „prawdziwą” w świecie klasycznym. Jak z takiego galimatiasu może wyłonić się zachowanie cząstek, jakie znamy z życia codziennego? Piłka futbolowa nie leci przecież do bramki po wszystkich drogach jednocześnie.

Okazuje się, że dość łatwo zauważyć, na czym polega zachowanie „klasyczne” i czym różni się do „kwantowego”. Rozpatrzmy fotony biegnące od źródła S do punktu z detektorem P. Po drodze nasze fotony odbijają się od zwierciadła. Klasycznie powinny biec po drodze SGP, która jest tak dobrana, że kąt padania i kąt odbicia są równe. A co z pozostałymi drogami? Dla uproszczenia bierzemy tylko drogi złożone z dwóch prostych odcinków, ale teraz dopuszczamy, żeby odbicie nastąpiło w którymkolwiek z punktów od A do M.

path2

Rysunek z książki Feynmana QED osobliwa teoria światła i materii, Warszawa 1985. Gorąco ją polecam każdemu, kto chce się dowiedzieć, jak fizyka objaśnia świat.

Okazuje się, że dla każdej z tych historii naszego fotonu amplitudy prawdopodobieństwa mają mniej więcej równe długości, lecz różne kierunki. Kąt każdego z tych wektorów (z jakimś jednym określonym kierunkiem np. osi Ox) jest proporcjonalny do czasu potrzebnego na przebycie danej drogi z prędkością światła. Gdy wykreślimy czas przelotu w funkcji położenia punktu odbicia fotonu, dostaniemy wykres jak na rysunku. Najkrótszy czas odpowiada punktowi G, czyli klasycznej drodze. Już starożytni zauważyli, że światło wybiera najkrótszą drogę, skoro nie może przebiec wprost od A do B, to spośród wszystkich punktów odbicia wybierze punkt G – dla niego droga jest najkrótsza i spełnione jest zarazem prawo odbicia, co łatwo wykazać. Widzimy więc, co wyróżnia drogę klasyczną fotonu: najkrótszy czas. Wracając do sumowania po historiach: musimy dodać strzałki odpowiadające różnym drogom. Dodawanie wielu wektorów najwygodniej wykonuje się w ten sposób, że na końcu pierwszego umieszczamy początek drugiego, na końcu drugiego początek trzeciego itd. – ustawiamy je w „pociąg”. Kierunki naszych strzałek odpowiadające różnym drogom narysowane są pod wykresem czasów. Gdy dodamy strzałki do siebie, zauważalny wkład otrzymamy tylko od obszaru w okolicy punktu G, ponieważ blisko minimum wszystkie czasy są zbliżone – jesteśmy na dnie doliny. Skoro czasy są zbliżone, to znaczy że kierunki strzałek są także zbliżone. W ten sposób powstaje fragment naszego „pociągu” odpowiadający punktom E, F, G, H, I na środku wykresu. Punkty daleko od minimum leżą wysoko na zboczu doliny, więc kierunki wektorów będą się szybko zmieniać. Odpowiada temu kręcenie się w kółko, którego wynik jest bliski zeru. Tak jest w lewym i w prawym końcu naszego wykresu. A więc do wypadkowej amplitudy prawdopodobieństwa wnoszą swój wkład także różne „dziwne” historie, ale najważniejsze będą te bliskie klasycznej. Można w ten sposób nie tylko zrozumieć, jak z obrazu sumy po historiach wynika fizyka klasyczna, ale także można obliczać stosowne poprawki do klasycznych zachowań, uwzględniając te historie, które wnoszą największy wkład do wyniku.

Wszystko to można przenieść na sytuację dowolnej cząstki, niekoniecznie fotonu, jedyna różnica polega na tym, że mniej osób wie, że piłka futbolowa biegnąc po swoim torze także realizuje pewną zasadę minimum, mówimy wówczas o pewnej specjalnej wielkości, zwanej działaniem. Tor klasyczny odpowiada najmniejszemu działaniu.

Więcej o kwantowym dodawaniu strzałek