Najmniejsze działanie: od kształtu liny do zasady Hamiltona

Isaac Newton nie traktował trzech zasad dynamiki jako swego szczególnie ważnego odkrycia; sądził, że formułuje tylko fakty znane wcześniejszym badaczom, takim jak np. Christiaan Huygens. Jednak to jego sformułowanie okazało się kanoniczne i trafiło do podręczników. Nie jest to zupełny przypadek: zasady te pozwoliły bowiem zbudować konsekwentną naukę o ruchu i określiły sposób myślenia jego następców. Newton pojawił się w odpowiedniej chwili historycznej, gdy kwestia ruchu w mechanice dojrzała do ścisłego przedstawienia i kiedy pojawiła się stosowna matematyka – czy to w postaci rachunku fluksji samego Newtona, czy rachunku różniczkowego i całkowego Leibniza i Johanna Bernoulliego.

Mechanikę można sformułować na kilka innych sposobów. Zwłaszcza Newtonowskie pojęcie siły jest było nowatorskie i zapewne by się nie pojawiło, gdyby nie samotnik z Cambridge. Nauki ścisłe także są konstrukcją ludzką i tylko częściowo odkrycia w nich przypominają odkrycia geograficzne: kto pierwszy zobaczy wyspę Kuba, automatycznie staje się jej odkrywcą. Nie ma tu bowiem platońskiego świata idei do odkrycia, a w każdym razie idee te mogą przyjmować zupełnie różne kształty i ich zarysy stają się widoczne dopiero wtedy, kiedy ktoś taki jak Albert Einstein albo Andrew Wiles je nam wskaże.

We współczesnej fizyce, zarówno klasycznej, jak kwantowej, najważniejszym sposobem zapisywania praw są zasady najmniejszego działania (in. zasady wariacyjne). Historycznie pojawiły się one później niż Newtonowskie siły, ich znaczenie stopniowo jednak rosło. Gdyby Albert Einstein dostatecznie mocno wierzył w zasady wariacyjne, to zapewne sformułowałby równania swej teorii grawitacji kilka lat wcześniej, jeszcze w Zurychu, a nie w Berlinie, oszczędzając sobie mnóstwa ciężkiej pracy i frustracji z powodu niepowodzeń. Klasyczne zasady najmniejszego działania nabrały nowego sensu w fizyce kwantowej, w Feynmanowskich sumach po historiach. Model Standardowy cząstek elementarnych, czyli sumę naszej wiedzy o mikroświecie, też zapisuje się za pomocą działania.

Poniżej przedstawimy dwa przykłady pokazujące, jak  można sformułować mechanikę w postaci zasad najmniejszego działania.

Kształt ciężkiej liny

Chcemy znaleźć kształt, jaki przyjmie ciężka lina zaczepiona w dwóch punktach.Stan równowagi odpowiada minimalnej energii całkowitej.

Mamy tu do czynienia z dwoma rodzajami energii. Z jednej strony działa grawitacja: im niżej znajdzie się dany element liny, tym niższa będzie jego energia potencjalna. Odcinek liny odpowiadający małemu przedziałowi (x, x+\Delta x) będzie miał masę \varrho dx i jego energia potencjalna będzie równa (g jest przyspieszeniem ziemskim):

\Delta V=-\varrho gy \Delta x.

Drugim rodzajem energii jest tu energia sprężysta. Wyobraźmy sobie, że zależy ona tylko od wydłużenia naszej liny i dla jej małego elementu równa jest

\Delta T=N(\Delta s-\Delta x),

gdzie N jest siłą napięcia liny.

Dla uproszczenia rachunków ograniczymy się do przypadku, gdy nasza lina ma niewielką strzałkę ugięcia, czyli dy jest znacznie mniejsze niż dx. Możemy wtedy przekształcić wyrażenie na energię sprężystą następująco:

dT=N(\sqrt{\Delta x^2+\Delta y^2}-\Delta x)\approx \dfrac{1}{2}N\left(\dfrac{\Delta y}{\Delta x}\right)^2 \Delta x.

W równości przybliżonej skorzystaliśmy z przybliżenia \sqrt{1+g}\approx 1+\frac{1}{2} g, słusznego dla wartości g\ll 1. Zauważmy, że działa ono nieźle nawet dla stosunkowo dużych wartości g, np. otrzymujemy \sqrt{2}\approx 1,5 zamiast 1,41, co oznacza błąd poniżej 10%.

Mamy więc dwa wkłady do energii: energia potencjalna obniża się, gdy dany odcinek liny znajdzie się niżej, ale żeby to było możliwe, lina musi się wydłużyć, co powiększa jej energię sprężystą. Pytanie, jakie sobie stawiamy, brzmi: jak znaleźć krzywą opisującą kształt liny?

Energia całkowita naszej liny jest równa

{\displaystyle E=\int_{0}^{L}\left(\dfrac{1}{2}N\left(\dfrac{dy}{dx}\right)^2-\varrho g y\right)dx.}

Jeśli zadamy krzywą y(x) i wstawimy ją do powyższego równania, to dostaniemy energię odpowiadającą danemu kształtowi. Matematycy mówią, ze mamy funkcjonał: czyli funkcji przypisujemy pewną liczbę. Dziedziną naszego funkcjonału jest zbiór różnych funkcji, które mogłyby opisywać kształt naszej liny.

Jak znaleźć minimum energii? Metodę postępowania podał w roku 1755 pewien bystry dziewiętnastolatek, Joseph Lagrange, w liście do słynnego Leonharda Eulera. Wyobraźmy sobie, że daną funkcję y(x) nieznacznie zmienimy na y(x)+\delta y(x). Jak wtedy zmieni się nasz funkcjonał? Łatwo pokazać, że zmiana energii jest w naszym przypadku równa

{\displaystyle \delta E=\int_{0}^{L}\left( N \dfrac{d^2 y}{dx^2}-\varrho g \right) \delta y(x) dx.} (*)

Pominięte zostały wyrazy zawierające  \delta y^2. Funkcja \delta y(x) (tzw. wariacja, czyli zmiana, y(x)) jest dowolna. W minimum niewielka wariacja y  nie powinna wpływać na wartość funkcjonału: kiedy jesteśmy już na dnie, to jest nam wszystko jedno, w którą stronę się przesuniemy, i tak będziemy na dnie. Jest to słuszne tylko w pierwszym przybliżeniu, gdy możemy pominąć wkłady kwadratowe i wyższe wariacji funkcji. Zatem warunkiem na minimum jest znikanie wariacji funkcjonału:

 \delta E=0  \Leftrightarrow N \dfrac{d^2 y}{dx^2}-\varrho g =0.

Ostatnia równoważność wynika stąd, że znikanie całki z nawiasu razy dowolna (niewielka) funkcja \delta y(x) musi oznaczać, iż ten nawias jest równy zeru dla każdego x.

Dwa wnioski: ogólny i szczegółowy.

Wniosek ogólny: Warunkiem minimum funkcjonału jest spełnienie pewnego równania zawierającego pochodną.

Wniosek szczegółowy: W naszym przypadku równanie to stwierdza, że druga pochodna y''(x) ma być stała. Znaczy to, że pierwsza pochodna y'(x) jest funkcją liniową, a sama funkcja y(x) jest kwadratowa, kształt krzywej to parabola. Żeby się te rozważania nie wydawały zbyt abstrakcyjne, proszę spojrzeć na obrazek.

Akashi Kaikyō Bridge, Wikipedia

Ruch rzuconego ciała

Teraz zapomnijmy o fizycznej treści poprzedniego punktu, pozostańmy przy samej matematyce: takie same równania mają takie same rozwiązania, jak uczył Feynman. Jeżeli wziąć za zmienną niezależną czas t zamiast x, to stała druga pochodna oznacza, ze mamy stałe przyspieszenie, czyli ruch w polu grawitacyjnym Ziemi. Możemy nieco zmienić oznaczenia N=\varrho=m, zamiast E napiszmy S, bo tak się standardowo oznacza działanie. Mamy więc zasadę wariacyjną i równoważne jej równanie różniczkowe:

 \delta S=0  \Leftrightarrow m \dfrac{d^2 y}{dt^2}-m g =0,

gdzie działanie równe jest

{\displaystyle S=\int_{0}^{T}\left(\dfrac{1}{2}m\left(\dfrac{dy}{dx}\right)^2-m g y\right)dx.}

Zamiast równań Newtona dla rzuconego ciała, możemy zażądać, aby znikała wariacja z działania. W naszym przypadku nadal rozwiązaniem jest parabola.

Zmieniła się jej interpretacja fizyczna: teraz opisujemy ruch jednowymiarowy, rzut pionowy. Skądinąd wiemy, że rozciągnięty w czasie rzut pionowy będzie miał kształt paraboli (mówimy tu o krzywej we współrzędnych t, y). Jeśli przyjrzeć się postaci działania, to oba składniki w nawiasie powinny nam się kojarzyć z energią kinetyczną i potencjalną:

 {\displaystyle S=\int_{0}^{T}\left(\dfrac{mv^2}{2}-V(y)\right)dt.}

Otrzymujemy w ten sposób zasadę Hamiltona najmniejszego działania. Równania, które z niej wynikają, nazywają się, żeby rzecz całą zagmatwać, równaniami Lagrange’a (są one równoważne zasadom dynamiki Newtona). Funkcja pod całką nazywa się lagranżianem i jest równa: {\cal L}=E_k-V. Należy zwrócić uwagę, że {\cal L} nie jest energią całkowitą, lecz różnicą energii kinetycznej i potencjalnej – przechodząc od liny do rzutu, zmieniliśmy znak. Zasada najmniejszego działania oznacza, że jeśli nieco zmienimy ruch w stosunku do ruchu rzeczywistego, to działanie się nie zmieni. Funkcje, które rozpatrujemy, zaczynają się w chwili 0 w punkcie y=0 i kończą w tym samym punkcie w chwili t=T. Można wybrać dowolne punkty przestrzeni, ustalony jest tu natomiast przedział czasu. Wszystkie rozpatrywane funkcje zaczynają się i kończą w tych samych chwilach i w tych samych dwu punktach. Rzeczywisty ruch cząstki spełnia zasadę najmniejszego działania.

Sformułowanie mechaniki za pomocą zasady Hamiltona ma wiele różnych zalet matematycznych, o których teraz nie będziemy pisać. Pojawiło się stosunkowo późno, bo w XIX wieku, choć zasada najkrótszego czasu w optyce znana była dwa stulecia wcześniej. Sam fakt, że na ruch można spojrzeć w taki sposób, jest interesujący i nowatorski. Polecam zupełnie elementarny wykład Feynmana na temat tej zasady.

Uwaga: Znikanie wariacji nie musi oznaczać minimum, tak samo jak znikanie zwykłej pochodnej funkcji niekoniecznie oznacza, że mamy do czynienia z minimum: może to być maksimum albo punkt przegięcia. Zwyczajowo mówi się o najmniejszym działaniu, choć w konkretnych przypadkach bywa to maksimum.

(*) Warto może przedstawić krótko procedurę obliczania wariacji funkcjonału. Sztuka polega na scałkowaniu przez części: jest to krok powtarzany do skutku we wszystkich obliczeniach wariacji. Chodzi o to, żeby zamiast \delta y'(x) mieć \delta y(x). Operacje różniczkowania \frac{d}{dx} i brania wariacji \delta są przemienne, bo pochodna różnicy to różnica pochodnych.

Pierwszy składnik pod całką zmienia się wskutek tego, że y'(x) zastępujemy przez y'(x)+\delta y'(x), różnica wyrażeń podcałkowych to

\frac{1}{2}N(2y'\delta y')=\frac{d}{dx}(Ny'\delta y)-Ny''\delta y,

gdzie pominęliśmy \delta y'^2. Po wstawieniu tego pod całkę otrzymujemy wynik, pamiętając, że nasze wariacje znikają na końcach przedziału: \delta y(0)=\delta y(L)=0.

Reklamy

Isaac Newton i niektóre matematyczne sekrety Stwórcy

Pod koniec roku 1684 Isaac Newton zrozumiał, że ruchy planet wyjaśnić może siła przyciągania między nimi a Słońcem, która jest odwrotnie proporcjonalna do kwadratu odległości. Newton miał wówczas czterdzieści dwa lata i był bardzo mało aktywnym profesorem katedry Lucasa w Cambridge. Wbrew późniejszej legendzie nie odkrył tego prawa w młodości (choć niewiele mu brakowało). W poprzednich latach zajmował się głównie teologią i alchemią, nie szukając rozgłosu i niewiele kontaktując się ze światem zewnętrznym. Teraz spostrzegł, że rysuje się możliwość rozwiązania problemu nie dającego spokoju uczonym od czasów starożytnych. Aż do 1687 roku pracował gorączkowo nad wyprowadzaniem różnych konsekwencji prawa ciążenia powszechnego. Trudno dziwić się jego entuzjazmowi: jedno proste prawo matematyczne pozwalało zrozumieć wiele skomplikowanych zjawisk we wszechświecie.

Czemu siła ciążenia jest odwrotnie proporcjonalna do kwadratu odległości? Można przecież wyobrazić sobie inne możliwe prawa. Dla Newtona było to pytanie: czemu Stwórca zdecydował się na taki, a nie inny wszechświat? Wiele rozważań w Matematycznych zasadach filozofii naturalnej poświęconych jest ruchowi ciał pod działaniem sił zmieniających się w inny sposób z odległością: np. malejących jak trzecia czy piąta jej potęga. A także rosnących proporcjonalnie do odległości. Ten ostatni przypadek był interesujący, dawał bowiem ruchy eliptyczne. Wszystkie planety miałyby wówczas taki sam okres obiegu wokół Słońca.

Jak wygląda ruch planety pod działaniem siły przyciągania proporcjonalnej do odległości? Powszechnie znany jest jednowymiarowy przypadek takiego ruchu:

F=a=-\omega^2 x \Rightarrow x(t)=A\cos\omega t,

F, a, x, t są tu odpowiednio siłą, przyspieszeniem, wychyleniem z położenia równowagi (w którym siła jest równa zeru) i czasem, \omega wielkością stałą, tzw. częstością kołową, określoną przez wielkość siły i masę ciała, którą przyjmujemy za równą 1. Stała A jest dowolna. Jest to ruch harmoniczny, czyli najprostsze możliwe drgania.

W przypadku trójwymiarowym ruch nie jest dużo bardziej skomplikowany. Po pierwsze zachodzi w stałej płaszczyźnie, mamy więc tylko dwa wymiary. Po drugie można go potraktować jako dwa niezależne ruchy wzdłuż osi Ox oraz Oy:

\left\{ \begin{array}{l}  F_x=a_x=-\omega^2 x\\  \mbox{}\\  F_y=a_y=-\omega^2 y.  \end{array}\right.\quad \Rightarrow \quad \left\{  \begin{array}{l}  a_x=A\cos\omega t\\  \mbox{}\\  a_y=B\sin\omega t.  \end{array}\right.

Wybraliśmy rozwiązania w taki sposób, aby planeta P zakreślała elipsę zorientowaną jak na rysunku.

Łatwo sprawdzić, że mamy do czynienia z elipsą, wyznaczając z powyższych równań funkcje trygonometryczne i korzystając z jedynki:

\cos^2\omega t+\sin^2 \omega t=1=\dfrac{x^2}{A^2}+\dfrac{y^2}{B^2}.

Każda elipsa jest rzutem jednostajnego ruchu po okręgu punktu Q (dokładnie tak, jak gdybyśmy patrzyli na ten ruch po okręgu z ukosa, pod pewnym kątem: okrąg skraca się wtedy w jednym kierunku). Częstość kołowa i okres są takie same dla wszystkich torów. Nazwijmy ten tor elipsą Hooke’a (od prawa Hooke’a), choć Newton bardzo by się zżymał na tę nazwę, także ten ruch zbadał bowiem sam, a Hooke’owi pamiętał do końca życia protekcjonalny i lekceważący sposób, w jaki ten go kiedyś potraktował w dyskusji na temat optyki. Z powodu tej animozji nie wiemy dziś na pewno, jak wyglądał Robert Hooke, Newton bowiem go przeżył i kazał usunąć jego portret z Towarzystwa Królewskiego.

Newton zadał sobie pytanie, jak te elipsy (w środku których byłoby Słońce) mają się do elips keplerowskich (w których ognisku jest Słońce)? Okazuje się, że można podać związek między siłami wywołującymi oba te ruchy.

Rozpatrzmy planetę P zakreślającą jakikolwiek tor pod wpływem siły \vec{F} skierowanej ku pewnemu stałemu punktowi S.

Na rysunku przedstawiona jest elipsa, ale kształt krzywej nie jest w tym punkcie istotny. Korzystamy ze wzoru na siłę  dośrodkową:

F_n=\dfrac{v^2}{\varrho},

gdzie \varrho jest promieniem krzywizny toru w danym punkcie. Wiemy także, iż moment pędu L naszej planety musi być stały:

L=rv\sin\varepsilon.

Wobec tego siła F równa jest

F=\dfrac{F_n}{\sin\varepsilon}=\dfrac{L^2}{\varrho r^2 \sin^3\varepsilon}.

Teraz zastosujemy uzyskane wyrażenie do porównania siły grawitacji z siłą Hooke’a. Wyobraźmy sobie, że taką samą elipsę zatacza planeta pod wpływem siły skierowanej ku ognisku elipsy S oraz pod wpływem siły skierowanej ku środkowi elipsy C. Przyjmujemy, że moment pędu planety jest w obu przypadkach taki sam. Wobec tego

\dfrac{F_S}{F_C}=\dfrac{r_C^2 \sin^3\varepsilon_C}{r_S^2 \sin^3\varepsilon_S}.

Odcinek EC jest równoległy do wektora prędkości. Stosując twierdzenie sinusów do trójkąta ECP , mamy:

\dfrac{\sin\varepsilon_C}{\sin\varepsilon_S}=\dfrac{EP}{r_C}.

Ostatnim potrzebnym elementem jest tzw. lemat Newtona: odległość EP=A, tzn. dużej półosi elipsy. Jest to własność elipsy, którą udowadniamy poniżej. Wobec tego siła grawitacji równa jest

F_S=\dfrac{F_C}{r_C}\dfrac{A^3}{r_S^2}=\omega^2 \cdot \dfrac{ A^3}{r_S^2}\sim \dfrac{1}{r_S^2}.

Otrzymaliśmy więc z elipsy Hooke’a elipsę keplerowską oraz z prawa Hooke’a prawo grawitacji. Oba te rodzaje ruchu okazują się matematycznie powiązane. Można pokazać, że tylko te dwa rodzaje sił prowadzą do torów zamkniętych, których peryhelia się nie obracają.

Lemat Newtona

Odcinek S'F jest równoległy do EC oraz \vec{v}. Trójkąt FPS' jest równoramienny, ponieważ promień światła wysłany z S i odbijający się w punkcie P przejdzie przez S'. Mamy zatem FP=PS'. Odcinki EC oraz S'F są równoległe i przepoławiają odcinek SS', a więc także i odcinek SF. Zatem SE=EF. Mamy więc

EP=EF+FP=\frac{1}{2}SF+\frac{1}{2}(FP+PS')=\dfrac{SP+PS'}{2}=A.

W ostatniej równości skorzystaliśmy z faktu, że suma odległości punktu elipsy od obu ognisk jest stała.

 

 

 

 

Tory planet i komet: wielkie odkrycie Isaaca Newtona

Johannes Kepler w roku 1609 ogłosił odkrycie, że planety poruszają się wokół Słońca po elipsach, a Słońce jest wspólnym ogniskiem tym wszystkich elips (I prawo Keplera). Nie bardzo mu wówczas chciano wierzyć, wprowadził bowiem nowe rodzaje sił, jedna miała ciągnąć planetę wokół Słońca, a druga, magnetyczna, miała na przemian, to przyciągać ją, to odpychać. Prędkość planety miała zależeć od jej odległości od Słońca: bliżej niego planeta poruszała się szybciej i na odwrót, kiedy była dalej, poruszała się wolniej (II prawo Keplera).

Z czasem astronomowie stwierdzili, że opisane przez Keplera prawa dobrze odzwierciedlają zjawiska na niebie: dokładność tablic wzrosła wielokrotnie. W 1687 roku ukazały się Matematyczne zasady filozofii przyrody, w których Isaac Newton wyjaśnił ruchy planet i szereg innych zjawisk, jak przypływy i odpływy mórz albo precesję ziemskiej osi obrotu za pomocą jednej jedynej siły: grawitacji. Wszystkie ciała we wszechświecie miały się przyciągać siłami odwrotnie proporcjonalnymi do ich odległości i proporcjonalnymi do mas. Jedno proste matematycznie prawo pozwalało zrozumieć dynamikę układu planetarnego. Problem postawiony jeszcze przez starożytnych Greków i Babilończyków został w ten sposób rozwiązany. Najważniejszą częścią tego rozwiązania było udowodnienie, że z prawa grawitacji wynikają Keplerowskie elipsy. Poniżej pokażemy współczesne sformułowanie tego rozwiązania.

Wyobraźmy sobie planetę P poruszającą się wokół nieruchomego Słońca (nie jest trudno pójść o krok dalej i uwzględnić także ruch Słońca).

Każda z orbit ma punkt najbliższy Słońca: perihelium P_0. Wybierzmy oś Ox tak, żeby przechodziła ona przez perihelium i następnie poruszała się w kierunku P. Równanie ruchu planety zgodnie z II zasadą dynamiki oraz prawem powszechnego ciążenia ma postać:

\dfrac{d\vec{v}}{dt}=-\dfrac{k}{r^2}\vec{e}_r.

Wektory \vec{e}_r, \vec{e}_\varphi mają odpowiednio kierunek promienia i kierunek do niego prostopadły (transwersalny) oraz długość jednostkową, k=GM jest iloczynem stałej grawitacyjnej i masy Słońca (masa planety nie wchodzi do zagadnienia). Znak minus pochodzi stąd, że grawitacja jest siłą przyciągającą.

W ruchu planety nie zmienia się wielkość jej momentu pędu (przyjmujemy tu masę planety równą 1):

L=rv_{\varphi}=r^2 \omega=const.

Jest to współczesne sformułowanie II prawa Keplera. Wchodzi do niego składowa \vec{v}_\varphi prędkości prostopadła do promienia. W ostatniej równości użyliśmy prędkości kątowej \omega=v_\varphi/r. Więcej szczegółów dotyczących tego wyrażenia można znaleźć niżej (*).

Pokażemy, że torem planety musi być krzywa stożkowa ze Słońcem w ognisku. W tym celu udowodnimy, że odległość planety od Słońca spełnia równanie stożkowej:

r=\dfrac{p}{1+e\cos\varphi},

gdzie p, e zwane są odpowiednio parametrem i mimośrodem stożkowej, a kąt \varphi jest kątem z osią Ox na rysunku. Wyprowadzenie tego równania można znaleźć poniżej (**).

Zakładamy, że moment pędu jest różny od zera: znaczy to, iż planeta nie porusza się po prostej przechodzącej przez Słońce. Oczywiście takie tory są matematycznie i fizycznie dopuszczalne, eliminujemy je jednak z dalszych rozważań.

Równanie ruchu planety można uprościć, jeśli zamiast czasu wprowadzić do niego kąt \varphi. Wyznaczając prędkość kątową z zasady zachowania momentu pędu, otrzymujemy

\omega=\dfrac{d\varphi}{dt}=\dfrac{L}{r^2}.

W obu równaniach występuje r^2 w mianowniku, wobec tego, dzieląc je stronami i korzystając ze wzorów na pochodną funkcji złożonej i odwrotnej, możemy się tej zależności pozbyć:

\dfrac{d\vec{v}}{d\varphi}=\dfrac{d\vec{v}}{dt}\cdot \dfrac{dt}{d\varphi}=-\dfrac{k}{L}\vec{e}_r.

Równanie wektorowe to para równań dla składowych wektora prędkości:

\left\{ \begin{array}{l} \dfrac{dv_x}{d\varphi}=-\dfrac{k}{L}\cos\varphi \\  \mbox{}\\  \dfrac{dv_y}{d\varphi}=-\dfrac{k}{L}\sin\varphi.  \end{array}\right.\quad \Rightarrow \quad \left\{  \begin{array}{l}  v_x=-\dfrac{k}{L}\sin\varphi+A_x \\  \mbox{}\\  v_y=\dfrac{k}{L}\cos\varphi+A_y.  \end{array}\right.

Ostatnią parę równań możemy zapisać w postaci wektorowej

\vec{v}=\dfrac{k}{L}\vec{e}_\varphi+\vec{A}.

Wynik ma prostą interpretację geometryczną: pierwszy wektor po prawej stronie zakreśla okrąg o promieniu k/L, a promień wodzący tego okręgu tworzy z osią Ox kąt równy 90^{\circ}+\varphi, obracając się razem z promieniem wodzącym planety. W zależności od długości wektora \vec{A} możliwe są następujące cztery sytuacje:

Punkt P_0 odpowiada kątowi \varphi=0, wektor prędkości jest wtedy równoległy do osi Oy (w chwili gdy odległość osiąga minimum, składowa x prędkości musi znikać). Oznacza to, że A_x=0. W każdym przypadku koniec wektora prędkości zakreśla okrąg albo jego łuk. Krzywą taką nazywa się hodografem. Zatem hodograf ruchu keplerowskiego jest łukiem okręgu (w trzecim przypadku to okrąg bez dolnego punktu, w czwartym dozwolone są tylko te wartości \varphi, dla których wektor \vec{v} ma z okręgiem dwa punkty wspólne; pewien zakres kątów jest niedozwolony, ruch zachodzi tu po gałęzi hiperboli i ograniczony jest jej asymptotami.) Kształt hodografu ruchu keplerowskiego odkrył William Rowan Hamilton w XIX wieku i opublikował w pracy zawierającej wyłącznie słowny opis, bez żadnego rysunku i bez wzorów. Brytyjczycy (Hamilton był Irlandczykiem) po Newtonie specjalizowali się w takiej matematyce bez rachunków, co nie zawsze da się z sensem przeprowadzić. Nieco mniej formalne podejście do hodografu tego ruchu.

albo tutaj

Równanie hodografu daje nam prędkości, łatwo z nich przejść do równania toru. Wystarczy znaleźć składową v_\varphi prędkości. Otrzymamy ją przez rzutowanie wektora prędkości na kierunek promienia okręgu zaznaczonego na rysunkach. Otrzymujemy z nich

v_\varphi=\dfrac{k}{L}+A\cos\varphi \quad\Rightarrow\quad r=\dfrac{L}{k/L+A\cos\varphi}=\dfrac{\frac{L^2}{k}}{1+\frac{LA}{k}\cos\varphi}.

Ostatnie równanie jest biegunowym równaniem stożkowej o mimośrodzie e=\frac{LA}{k}, odległości liczone są od ogniska owej stożkowej. Otrzymaliśmy uogólnioną wersję I prawa Keplera.

Na rysunku oba tory: w przestrzeni prędkości oraz w przestrzeni położeń, czyli w zwykłej przestrzeni. A to paraboliczna orbita komety z roku 1680 wyznaczona przez Newtona (obliczenia robił Edmond Halley).

(*) Prędkość kątowa to

\omega=\dfrac{\Delta \varphi}{\Delta t}=\dfrac{v_\varphi \Delta t}{r \Delta t}=\dfrac{v_\varphi }{r }.

Zastępujemy tu dla małych kątów tangens wartością kąta w radianach.

(**) Stożkową definiuje się zadając pewien punkt, zwany ogniskiem oraz prostą, zwaną kierownicą (na rysunku czerwone) oraz wartość mimośrodu e.

Stożkową będzie zbiór takich punktów P, że ich odległość od ogniska jest e razy większa od ich odległości od kierownicy:

OP=ePP'.

Łatwo stąd znaleźć równanie stożkowej. Mamy bowiem

r\cos\varphi+PP'=QQ' \Rightarrow  r\cos\varphi+\dfrac{r}{e}=\dfrac{p}{e}.

Mnożąc ostatnie równanie obustronnie przez e i wyznaczając z niego r, otrzymujemy

r=\dfrac{p}{1+e\cos\varphi}.

James Clerk Maxwell: O liniach sił Faradaya (1855-1856)

Jesienią 1855 roku dwudziestoczteroletni Szkot został wybrany na członka (Fellow) Trinity College, w tym samym mniej więcej wieku co niegdyś Isaac Newton. Kolegium nie wymagało już przyjęcia święceń, choć pobożny Maxwell pewnie nie odrzucałby z góry takiej możliwości (Newton, także pobożny, ale nieortodoksyjny, wykręcił się specjalną dyspensą królewską). Maxwell miał talent matematyczny, należał do wychowanków sławnego tutora Williama Hopkinsa, znanego z kształcenia tzw. wranglers – studentów wyróżniających się na końcowych egzaminach z tego przedmiotu. Hopkins miał ich na koncie dwie setki, zarabiał zresztą w ten sposób całkiem spore pieniądze. Do jego uczniów należeli Arthur Cayley, lord Kelvin, George Gabriel Stokes, a także w roku 1854 Edward Routh jako Senior Wrangler i Maxwell jako Second Wrangler. Ten ostatni zdążył już zająć się w sposób twórczy kilkoma tematami z dziedziny fizyki oraz fizyki matematycznej, teraz próbował swych sił na polu elektryczności i magnetyzmu.
Na przełomie lat 1855 i 1856 Maxwell ogłosił pracę O liniach sił Faradaya. Nawiązywał w niej do badań eksperymentalnych Michaela Faradaya, bodaj największego eksperymentatora w historii fizyki. Prosty chłopak, oddany jako czternastolatek do terminu u introligatora, sam zdobył wykształcenie naukowe i zaczynając od pomocnika w laboratorium, doszedł do pozycji wyroczni w kwestiach eksperymentalnych. W roku 1855 zjawiska elektryczne i magnetyczne znane były całkiem dobrze, brakowało jednak wciąż zadowalającej teorii, która obejmowałaby ich całość. Próbowano sprawdzonego wcześniej podejścia za pomocą oddziaływania na odległość. A więc ładunki elektryczne oraz bieguny magnetyczne przyciągają się albo odpychają, a siła jest odwrotnie proporcjonalna do kwadratu odległości. Prawo takie sprawdził eksperymentalnie Charles Augustin Coulomb jeszcze w poprzednim wieku. Także prądy elektryczne oddziałują ze sobą na odległość, choć prawo w tym przypadku okazało się dość skomplikowane, ponieważ uwzględniać musiało kierunki obu prądów. Faraday odkrył, że zmienne pole magnetyczne generuje prąd – to zjawisko indukcji elektromagnetycznej wykorzystywane jest np. w elektrowniach, trudno wyobrazić sobie naszą cywilizację bez wszelkiego rodzaju generatorów prądu.
Idea oddziaływania na odległość była niezbyt chętnie akceptowanym spadkiem po Isaacu Newtonie. Jego prawo powszechnego ciążenia mówi o przyciąganiu na odległość odwrotnie proporcjonalnym do kwadratu odległości. Jak jakieś ciało może działać tam, gdzie go nie ma? Czemu siła maleje jak kwadrat odległości, a nie jakaś inna jej potęga? Nie znano odpowiedzi na pierwsze pytanie, co do drugiego istniały pewne wskazówki, Układ Słoneczny, jaki znamy wymaga takiego właśnie prawa z wykładnikiem równym dwa. Można więc było podejrzewać, że odpowiadało on zamiarom Stwórcy. Do czasów Maxwella nie dowiedziano się niczego nowego na temat grawitacji, uczeni, nie mogąc odpowiedzieć na te pytania, przestali je zadawać i zajęli się, jak to zawsze bywa, kwestiami rokującymi szybszą odpowiedź.
Faraday, geniusz eksperymentu, nie miał wyrafinowanego wykształcenia matematycznego. Starał się więc wizualizować obserwowane zjawiska. Przykładem były linie sił pola magnetycznego z jednej z jego prac.

faraday29_1-x

Na lewym rysunku mamy linie sił bieguna magnetycznego, na drugim dwóch różnych biegunów magnetycznych. Są to wyniki eksperymentu: na papierze rozsypywane były opiłki żelaza, a później obraz ten utrwalano za pomocą kleju. Czym były linie sił? Maxwell definiował je jako linie wskazujące w każdym punkcie kierunek siły działającej na biegun magnetyczny (albo ładunek w przypadku elektrycznym). Dalej skupimy się na polu elektrycznym, ponieważ istnieją pojedyncze ładunki elektryczne i jest to nieco łatwiejsze do omówienia. Podobne rozumowania stosują się także do przypadku magnetycznego, trzeba tylko pamiętać, że nie istnieją osobne bieguny magnetyczne. Nb. szukano wielokrotnie cząstek elementarnych, które byłyby takimi biegunami, tzw. monopoli magnetycznych, czasami nawet komunikowano o ich odkryciu, ale żadne z tych doniesień się nie potwierdziło.

y

x

Te same linie sił obliczone dla przypadku pojedynczego ładunku oraz pary przeciwnych ładunków. Linie przerywane są wszędzie prostopadłe (ortogonalne) do linii sił i odpowiadają stałemu potencjałowi.

Maxwell zwrócił uwagę, że linie sił pola tworzą taki sam obraz jak linie przepływu idealnej nieściśliwej cieczy. Moglibyśmy sobie wyobrazić, że te linie sił to w istocie rurki cieczy. W rurce takiej iloczyn szybkości przepływu oraz pola przekroju jest stały. Tam, gdzie przekrój jest mniejszy, ciecz płynie szybciej. Gdyby prędkość była odpowiednikiem natężenia pola, należałoby sobie wyobrażać rurkę jako węższą tam, gdzie pole jest silniejsze, i odwrotnie.

maxwell tube

Pole elektryczne wokół ładunku punktowego składałoby się ze stożkowych rurek o wierzchołku w ładunku. Pole przekroju rośnie jak kwadrat promienia, natomiast prędkość przepływu (a także pole elektryczne) maleje w takim samym stosunku – co zgodne jest z obserwacjami.

maxwell1

maxwell fluid

Ładunek punktowy odpowiada więc źródłu naszej dziwnej cieczy. Z tego punktu, niczym z wywierzyska, wypływa nieściśliwa ciecz na wszystkie strony. Całkowita objętość tej cieczy przepływająca przez powłokę sferyczną nie zależy od promienia powłoki:

v\sim \dfrac{1}{r^2}\Rightarrow vS\sim \dfrac{1}{r^2}4\pi r^2=4\pi=const

Przez każdą powierzchnię sferyczną przepływa tyle samo cieczy w ciągu sekundy. W przeciwnym wypadku ciecz musiałaby się gdzieś gromadzić albo wypływać po drodze między dwiema takimi tymi powierzchniami otaczającymi źródło. Nie musimy wcale ograniczać się do powierzchni kulistych: przez każdą powierzchnię zamkniętą otaczającą źródło w jednostce czasu przepłynie taka sama objętość cieczy.

Oczywiście Maxwell nie twierdził, że pole elektryczne jest przepływem jakiejś tajemniczej cieczy. Podkreślał jedynie analogię czysto matematyczną. W przypadku elektrycznym wielkość „przepływu” nazywamy strumieniem pola elektrycznego przez daną powierzchnię zamkniętą. Okazuje się, że ów strumień \Phi jest równy (w jednostkach SI):

\Phi=\dfrac{q}{4\pi\varepsilon_0 r^2}4\pi r^2=\dfrac{q}{\varepsilon_0}.

Ładunek wewnątrz powierzchni oznaczamy przez q. Znów kształt powierzchni jest obojętny. Prawo to, zwane prawem Gaussa, pozostaje słuszne także dla przypadku większej liczby ładunków. Wypadkowa prędkość przepływu w danym punkcie jest wówczas sumą osobnych prędkości. Podobnie z natężeniem pola elektrycznego: jest ono wektorową sumą pól wytwarzanych przez każdy z ładunków. Ładunki ujemne są „ujemnymi” źródłami, czyli takimi miejscami, w których nasza ciecz ucieka w jakieś matematyczne zaświaty. Prawo Gaussa w wersji elektrycznej stwierdza, że strumień przez dowolną powierzchnię zamkniętą jest proporcjonalny do algebraicznej sumy ładunków wewnątrz powierzchni.

Prawo Gaussa jest przydatne, pozwala bowiem obliczać pole elektryczne w niektórych sytuacjach, gdy układ jest symetryczny. Możemy np. stosować je do dowolnego kulistosymetrycznego rozkładu ładunków. Można je także przenieść na grawitację: wówczas polem jest przyspieszenie grawitacyjne a strumień jest zawsze ujemny i proporcjonalny do masy (*). Samo prawo Gaussa jednak nie wystarczy: na przepływy owej fikcyjnej cieczy należy jeszcze nałożyć dodatkowy warunek bezwirowości (w przypadku statycznym).

Dlaczego obraz nieściśliwej cieczy lepszy był od tradycyjnego oddziaływania na odległość? Pozwalał wyjaśnić obserwowane linie sił i sprowadzał zagadnienie do lokalnego: ciecz zachowuje się tak, a nie inaczej, tylko wskutek popychania przez inne jej części. Wszystkie zjawiska są więc lokalne. W gruncie rzeczy w takim podejściu nie potrzebujemy wcale sił działających na odległość. Wystarczą pola i ich lokalne zachowanie. Punkt widzenia tego rodzaju miał wielką przyszłość. Koncentrując się na lokalnych równaniach opisujących elektryczność i magnetyzm Maxwell odniósł sukces, budując najważniejszą teorię XIX stulecia. Stało się to jednak znacznie później, na razie była tylko pewna analogia matematyczna, ilustracja pojęć wprowadzonych przez Faradaya.

Charakterystyczna jest reakcja samego Faradaya, człowieka niezwykle skromnego. Sześćdziesięciopięcioletni luminarz nauki pisze do badacza młodszego o dwa pokolenia: „Z początku byłem nieomal przerażony, widząc tak wielką siłę matematyczną zastosowaną do tego przedmiotu, potem jednak zdumiało mnie, jak dobrze przedmiot zniósł to wszystko”.

(*) W szczególności prawo Gaussa pozwala natychmiast rozwiązać problem przyciągania przez kulę (w obu przypadkach: grawitacji oraz elektryczności). Jeśli rozkład ładunku ma symetrię kulistą, to możemy do niego zastosować prawo Gaussa tak, jak do punktowego ładunku w środku kuli. Przeprowadzając doświadczenia na zewnątrz kuli, będziemy obserwowali pole elektryczne takie, jak gdyby nasza kula ściągnięta była do punktu środkowego (z zachowaniem wartości ładunku). Dlatego np. kula ziemska przyciąga tak, jak punktowa masa w środku Ziemi. Wiemy, że nasza planeta w pierwszym przybliżeniu rzeczywiście składa się z koncentrycznych warstw kulistych. Nie musimy przy tym wiedzieć, jaka jest gęstość i grubość różnych warstw, ważna jest tylko całkowita masa Ziemi.

Rachunek różniczkowy i całkowy w kwadrans

  • Pochodna

Chcąc ustalić, jak szybko zmienia się jakaś wielkość, wygodnie jest rozważać bardzo niewielkie jej przyrosty. Można je uważać za wielkości nieskończenie małe, np. dodatnia nieskończenie mała jest różna od zera, ale mniejsza od każdej dodatniej liczby rzeczywistej. Zazwyczaj interesują nas pewne ilorazy owych nieskończenie małych, które mogą być nie tylko określone, ale i równe jakiejś zwykłej liczbie rzeczywistej. Rozpatrzmy przykład funkcji y=x^3. Biorąc dwie wartości argumentu x, x+\Delta x, możemy obliczyć przyrost tej funkcji:

\Delta y=(x+\Delta x)^3-x^3=3x^2\Delta x+3x\Delta x^2+\Delta x^3.

Wyobraźmy sobie teraz, że wartość \Delta x jest nieskończenie małą: przyrost funkcji też stanie się nieskończenie małą, jak widać jest sumą trzech wyrazów z różnymi potęgami \Delta x – każdy z nich też jest nieskończenie małą. Żeby ustalić, jak szybko rośnie nasza funkcja, dzielimy przyrost wartości przez przyrost argumentu:

\dfrac{\Delta y}{\Delta x}=3x^2+3x\Delta x+\Delta x^2.

Pierwszy wyraz po prawej stronie nie zawiera żadnych nieskończenie małych, jest zwykłą liczbą rzeczywistą, pozostałe dwa są nieskończenie małe. Definiujemy pochodną funkcji jako wartość rzeczywistą, która zostaje z prawej strony po odrzuceniu nieskończenie małych. Nazywamy ją wartością standardową liczby, mamy więc

\dfrac{dy}{dx}\equiv f'(x)\equiv y'=\mbox{st}\left(\dfrac{\Delta y}{\Delta x}\right)=3x^2.

W bardziej konwencjonalnym podejściu obliczamy granicę prawej strony, gdy \Delta x\rightarrow 0.

Uwaga: W XVII i XVIII wieku używano pojęcia nieskończenie małych, później wprowadzono ścisłe pojecie granicy, a jeszcze później, bo w drugiej połowie XX wieku, wykazano, że można rozszerzyć pojęcie liczb rzeczywistych tak, aby zawierało także liczby nieskończenie małe oraz nieskończenie wielkie. Każda standardowa liczba rzeczywista x otoczona jest nieskończenie bliskimi liczbami postaci x+dx, gdzie dx jest nieskończenie małe. Można jednak zrzutować taką liczbę hiperrzeczywistą na zwykłą prostą rzeczywistą i otrzymamy wówczas wartość standardową st(x+dx)=x. Podejście takie, zwane analizą niestandardową albo infinitezymalną, jest równie ścisłe jak dziewiętnastowieczne armaty z \epsilon ,\delta.

Pochodna mierzy nachylenie funkcji w danym punkcie, co jest znacznie wygodniejsze niż używanie średnich nachyleń w skończonym przedziale.

nachylenie stycznej

Można sobie wyobrażać, że każda porządna linia krzywa jest łamaną złożoną z nieskończenie wielu nieskończenie krótkich odcinków. Obliczanie pochodnych jest bardzo proste, mamy pewien zbiór reguł, które pozwalają to robić. Np. pochodna sumy funkcji jest sumą pochodnych itd. Jeśli nie chce się nam liczyć, wchodzimy na WolframAlpha i wpisujemy, w naszym przykładzie: derivative of x^3 (co po angielsku znaczy pochodna z).

  • Całka nieoznaczona

Obliczając pochodną funkcji w danym punkcie otrzymujemy jakąś wartość rzeczywistą. Jeśli potraktować x jako zmienną, otrzymujemy nową funkcję x\mapsto f'(x). Można więc traktować obliczanie pochodnej (zwane ze względów historycznych różniczkowaniem) jako pewne odwzorowanie przypisujące funkcji f pewną inną funkcję f'. Można też spojrzeć na sprawę odwrotnie i dla pochodnej równej g(x) szukać funkcji pierwotnej G(x), tzn. takiej, że G'(x)=g(x). Każda tablica pochodnych czytana od prawej do lewej strony jest tablicą funkcji pierwotnych, inaczej całek nieoznaczonych:

\int{ g(x)dx}\equiv G(x)\Leftrightarrow G'(x)=g(x).

Symbol dx pod całką wskazuje tylko nazwę zmiennej. Przykład z poprzedniego punktu dowodzi, że

\int{3x^2 dx}=x^3.

W WolframAlpha: integral of 3x^2. Do funkcji pierwotnej zawsze można dodać jakąś stałą, ponieważ nie zmienia to pochodnej (nachylenie funkcji stałej jest zawsze równe 0). W odróżnieniu od obliczania pochodnych znajdowanie całek nieoznaczonych bywa trudne, a niektóre funkcje elementarne nie mają elementarnych całek oznaczonych. Zawsze można natomiast bez trudności sprawdzić, czy całka znaleziona jest prawidłowo: wystarczy wynik zróżniczkować.

  • Całka oznaczona czyli pole pod wykresem

Mając pewną funkcję f(x), zdefiniujmy nową funkcję S(x), która jest polem zawartym między wykresem funkcji a osią Ox oraz między dwiema wartościami argumentu: stałym a oraz zmiennym x.

newton_leibniz

Pole takie to z definicji całka oznaczona z funkcji f:

S(x)\equiv\int_{a}^{x}f(x) dx.

Obowiązuje następujące twierdzenie Newtona-Leibniza (choć znali je wcześniej James Gregory oraz Isaac Barrow): Jeśli F(x) jest dowolną funkcją pierwotną (ciągłej) funkcji f(x), to zachodzi równość:

\int_{a}^{b}f(x)dx=F(b)-F(a).

Twierdzenie to wskazuje główną motywację obliczania całek nieoznaczonych: możemy za ich pomocą wyznaczyć całkę oznaczoną czyli pole, a to się często przydaje.

Dlaczego słuszne jest tw. Newtona-Leibniza? Jeśli rozpatrzyć dwie bliskie wartości argumentu x, x+\Delta x, to przyrost funkcji S(x) jest równy

\Delta S=S(x+\Delta x)-S(x)\approx f(x)\Delta x \Rightarrow \dfrac{\Delta S}{\Delta x}\approx f(x),

gdzie równość przybliżona bierze się stąd, że krzywoliniowy cienki pasek można w przybliżeniu zastąpić polem prostokąta. Równość staje się dokładna, gdy \Delta x dąży do zera. Zatem S'(x)=f(x). Łatwo zauważyć, że trzeba wybrać funkcję pierwotną F(x)-F(a), bo zapewnia ona, że dla x=a otrzymamy pole równe 0. .

Możemy zilustrować tw. Newtona-Leibniza na naszym przykładzie funkcji pierwotnej do 3x^2:

\int_{0}^{x}3t^2 dt=x^3-0^3=x^3\Leftrightarrow \int_{0}^{x}t^2 dt=\dfrac{x^3}{3}

Wynik ten znał już Archimedes: pole pod parabolą jest równe 1/3 pola prostokąta na rysunku.

pole_paraboli

Jeśli nasza funkcja nie jest stale dodatnia, to całka oznaczona jest polem zsumowanym ze znakiem + albo -, jak na rysunku. Oblicza się ją nadal za pomocą tw. Newtona-Leibniza.

pole_calka

James Clerk Maxwell i prędkości cząsteczek gazu (1859)

Brytyjskie Towarzystwo Krzewienia Nauk (BAAS) zebrało się na swój doroczny zjazd we wrześniu w Aberdeen. To niewielkie miasto miało wówczas dwa uniwersytety i wybudowało w ciągu roku wielką salę koncertową na 2400 słuchaczy, choć i tak wszyscy chętni ledwie mogli się pomieścić. Uczonych zaszczycił obecnością królewski małżonek, książę Albert, który wygłosił przemówienie i przez cztery godziny wizytował jedną z uczelni. Nauka stanowiła mocną stronę imperium brytyjskiego, naród kupców i żeglarzy kolekcjonował osobliwe przedmioty i rośliny, badał czaszki prehistorycznych ludzi z Nepalu, interesował się polem magnetycznym i skałami z odległych części globu, rozwijał konstrukcję parowców, pracował nad projektem kabla telegraficznego przez Atlantyk – pierwszy taki kabel położono rok wcześniej, lecz po kilku tygodniach przestał działać. Za kilka lat miała nastąpić następna próba, tym razem zakończona powodzeniem.

BA150_rdax_800x491

Na zjeździe trzy komunikaty przedstawił młody profesor z miejscowego Marischal College, James Clerk Maxwell. Dwudziestoośmioletni Szkot, absolwent Trinity College w Cambridge, napisał już kilka wielce obiecujących prac: na temat pola elektromagnetycznego, pierścieni Saturna i widzenia barwnego. Do elektromagnetyzmu miał niebawem wrócić, tworząc jednolitą teorię zjawisk elektrycznych, magnetycznych i optycznych (co stało się największym osiągnięciem w fizyce od dwustu lat, od czasów Isaaca Newtona). Kilkuletnia, rozbudowana w szczegółach, praca nad pierścieniami Saturna doprowadziła go do wniosku, że nie mogą one być zbudowane z materii stałej ani ciekłej, muszą być zbiorowiskiem niewielkich fragmentów krążących niezależnie wokół planety (co się potwierdziło: są to bryłki lodu o rozmiarach zawartych najczęściej w przedziale od centymetra do 10 m). Za pracę nad pierścieniami Saturna otrzymał Nagrodę Adamsa, nazwaną na cześć brytyjskiego współodkrywcy Neptuna. Maxwell pasjonował się też eksperymentami dotyczącymi widzenia barwnego, rozwijając idee Thomasa Younga i Hermanna von Helmholtza. Jego koło barw pozwalało ilościowo porównywać wrażenia barwne wytworzone przez zmieszanie trzech barw podstawowych: czerwieni, zieleni i błękitu. Nasuwało to myśl o fotografii barwnej: wystarczy bowiem sfotografować obraz w trzech barwach i później te trzy obrazy odpowiednio zmieszać.

My zajmiemy się tu pracą dotyczącą teorii kinetycznej gazów. Jest to niezwykle prosty model, który dość precyzyjnie opisuje zachowanie rzeczywistych gazów. Przyjmuje się w nim, że cząsteczki zderzają się sprężyście ze sobą oraz ze ściankami naczynia, poruszając się między zderzeniami prostoliniowo. Jak przedstawił to Maxwell na zjeździe w Aberdeen: cząsteczki powietrza poruszają się średnio z prędkością 1500 stóp na sekundę, przebywają między zderzeniami średnią drogę 1/447000 cala, co oznacza, że ulegają 8 077 200 000 zderzeniom w ciągu sekundy. Można śmiało przypuszczać, że Maxwell pragnął tymi liczbami zaintrygować słuchaczy (przedstawił też na zjeździe badania nad kolorami oraz model pierścieni Saturna – a więc mówił o rzeczach mogących zainteresować nie tylko ekspertów). Profesor musiał wywrzeć korzystne wrażenie, rok później przeniósł się bowiem do Londynu.

Maxwell pierwszy zadał pytanie: jaki jest rozkład statystyczny prędkości cząsteczek w gazie. Podał też prawidłową odpowiedź, zwaną dziś rozkładem Maxwella. Inspiracją były rozważania Adolphe’a Queteleta, jednego z pionierów statystyki w naukach społecznych i biologii. Szkocki uczony przeczytał długą recenzję pracy Queteleta w „Edinburgh Review”. Niepodpisany artykuł był autorstwa sir Johna Herschela i zawierał m.in. takie rozumowanie:

Przypuśćmy, że upuszczamy z dużej wysokości kulkę, pragnąc, by upadła ona w oznaczonym punkcie. Kulka spada i jej odchylenie od tego punktu stanowi błąd, a prawdopodobieństwo tego błędu jest pewną nieznaną funkcją kwadratu błędu, tzn. sumy kwadratów odchyleń w dwóch prostopadłych kierunkach. Ponieważ prawdopodobieństwo danego odchylenia zależy tylko od jego wartości, a nie od kierunku, więc prawdopodobieństwa obu odchyleń w prostopadłych kierunkach muszą być opisane tą samą funkcją ich kwadratów. Ponieważ także odchylenie w dowolnym kierunku jest równoważne odpowiednim odchyleniom w dwu prostopadłych kierunkach, które zdarzyły się jednocześnie i są od siebie niezależne – jest więc zdarzeniem, na które składają się dwa niezależne zdarzenia, zatem jego prawdopodobieństwo będzie równe iloczynowi tamtych oddzielnych prawdopodobieństw. Na podstawie tego warunku określić można postać nieznanej funkcji: takiej, że iloczyn dwóch owych funkcji dla dwóch argumentów równy jest tej samej funkcji od sumy obu argumentów. Ale w każdej książce z algebry wykazuje się, że własność taką posiada funkcja wykładnicza, i tylko ona. Jest to więc funkcja kwadratu błędu wyrażająca prawdopodobieństwo jego popełnienia.

W zapisie algebraicznym rozumowanie to sprowadza się do równości

f(x^2+y^2)=f(x^2)f(y^2) \Rightarrow f(x^2)=\exp(-\alpha x^2),

gdzie \alpha jest parametrem. Nasz wynik znany był wtedy jako funkcja błędu, dziś nazywany jest rozkładem normalnym – uzasadnieniem tej nazwy jest jego niezwykle częste występowanie w wielu sytuacjach: nie tylko błędy pomiaru, ale także mnóstwo innych wielkości wykazuje rozkład tego typu o charakterystycznym kształcie krzywej dzwonowej.

normal67

 

Wykres ze strony http://www.regentsprep.org/regents/math/algtrig/ats2/normallesson.htm. Jednostką na osi x jest 1/\sqrt{2\alpha}, odchylenie standardowe.

James Clerk Maxwell zastosował bardzo podobne rozumowanie do prędkości cząstek gazu. Jeśli potraktujemy składowe prędkości w prostopadłych kierunkach jako trzy zmienne v_x, v_y, v_z, to ich rozkłady prawdopodobieństwa powinny być opisane tą samą funkcją:

f(v_x^2+v_y^2+v_z^2)=f(v_x^2)f(v_y^2)f(v_z^2) \Rightarrow f(v^2_x)=\exp(-\alpha v_x^2),

gdzie \alpha jest pewnym parametrem. Maxwell pokazał też w swej pracy, że ów parametr zależy od masy cząsteczek m oraz temperatury T. Dziś zapisujemy to następująco:

\alpha=\dfrac{m}{2kT},

gdzie k to stała Boltzmanna. Znając rozkład prawdopodobieństwa dla składowych prędkości, można łatwo znaleźć postać rozkładu dla samej prędkości, korzystając z tego, że v^2=v_x^2+v_y^2+v_z^2. Rozkład prawdopodobieństwa przyjmuje postać:

p(v)=v^2\exp({-\alpha v^2}). \mbox{ (*)}

Zwykle ten wynik nazywamy rozkładem Maxwella. Pokazuje on, że w gazie występują wszystkie możliwe wartości prędkości, choć z różnym prawdopodobieństwem. Rozkład ten pozwala zrozumieć np., czemu w atmosferze jest mało lekkich pierwiastków, jak wodór – lżejsze atomy szybciej się poruszają i łatwiej jest im uciec w przestrzeń kosmiczną (a zawsze pewien niewielki ułamek cząsteczek ma dużą prędkość, jest to tzw. ogon rozkładu Maxwella).

MaxwellBoltzmann-en

https://en.wikipedia.org/wiki/Maxwell–Boltzmann_distribution#/media/File:MaxwellBoltzmann-en.svg

W późniejszym okresie Maxwell wrócił do wyprowadzenia tego rozkładu i uzyskał je z nieco solidniejszych założeń, które sprowadzały się do przyjęcia, iż wektory prędkości cząsteczek gazu nie są ze sobą skorelowane – co także nie jest założeniem oczywistym (tzw. chaos molekularny). To drugie podejście Maxwella otworzyło drogę do pracy Ludwiga Boltzmanna, wielkiego fizyka, który zajmował się głównie teorią gazów, rozszerzając ją stopniowo do fizyki statystycznej.

(*) Warunek v^2=v_x^2+v_y^2+v_z^2 to równanie sfery w przestrzeni v_x, v_y, v_z. Na sferze takiej prędkość jest stała. Szukając prawdopodobieństwa dla wąskiego przedziału prędkości (v,v+dv), musimy uwzględnić fakt, że objętość cienkiej powłoki między dwoma sferami równa się 4\pi v^2 dv – stąd dodatkowe v^2 w rozkładzie Maxwella. Nasze wszystkie rozkłady są nieunormowane, należy też, ściśle biorąc, rozważać zawsze niewielkie przedziały, a nie konkretne wartości, nie chciałem jednak zaciemniać prostych koncepcji, które tu się pojawiają.

Od igły Buffona do metody Monte Carlo: statystyczne wyznaczenie liczby pi oraz wielkości mrowiska

Jean Marie Leclerc, hrabia de Buffon, był obok swego rówieśnika ze Szwecji Carla Linneusza najsławniejszym naturalistą drugiej połowy XVIII wieku. Za jego życia ukazało się trzydzieści sześć tomów historii naturalnej, a jeszcze kilka po jego śmierci z pozostawionych przez uczonego materiałów. W młodości nic nie zapowiadało, że zdolny jest do tak gigantycznej pracy. Studiował nauki przyrodnicze i Newtona zamiast poświęcić się prawu i być jak ojciec, adwokat parlamentu Burgundii oraz poborca podatku od soli. W Angers zabił w pojedynku chorwackiego oficera i musiał uciekać. Podróżował dłuższy czas po Europie razem z Evelynem Pierrepontem, drugim diukiem Kingston-upon-Hall, potem osiadł w Paryżu i zaczął starać się o przyjęcie do Akademii Nauk. Bardziej od zasług naukowych liczyły się kontakty, Buffon napisał jednak oryginalną, choć nietrudną pracę dotyczącą pewnej gry hazardowej, le jeu du franc-carreau. Polegała ona na tym, aby upuszczać przypadkowo monetę na posadzkę z drobnych płytek. Liczyło się, czy moneta mieści się całkowicie wewnątrz jednej z płytek, czy przecina jakieś granice między nimi. Buffon zastanawiał się, jak duże muszą być monety w stosunku do długości boku kwadratowej płytki, aby gra taka była sprawiedliwa. Przedstawił też jej prostszą odmianę: rzucamy w sposób przypadkowy igły długości l na podłogę z desek o szerokości d i sprawdzamy, czy igła przecina linię oddzielającą deski. Znów można zadać pytanie, przy jakim stosunku l/d gra będzie sprawiedliwa.

BuffonsNeedle

http://demonstrations.wolfram.com/BuffonsNeedleProblem/

Okazuje się, że prawdopodobieństwo przecięcia którejś linii równe jest

p=\dfrac{2}{\pi}\dfrac{l}{d}.

Wzór ten słuszny jest dla l\le d.Buffon ogłosił swe rozważania, po czterdziestu z górą latach, w roku 1777, w długiej rozprawie Essai d’arithmétique morale (arytmetyka moralna to rachunek prawdopodobieństwa). Dla kogoś, kto przełożył na francuski Traktat o fluksjach Isaaca Newtona, nie było to trudne zagadnienie. W roku 1812 Pierre Simon de Laplace zwrócił uwagę, że jeśli znamy stosunek długości igły do odległości linii, możemy eksperymentalnie wyznaczyć wartość liczby \pi. Np. na rysunku powyżej wylosowano 100 rzutów i igła przecina linię 66 razy oraz l=d. Wartość liczby \pi oszacowana na podstawie tego eksperymentu równa jest

\pi=\dfrac{2}{0,66}\approx 3,03

 My pokażemy, jak znaleźć to prawdopodobieństwo, nie korzystając z żadnych całek. Jeśli igła dowolnej długości l pada losowo na układ równoległych linii, to może je przeciąć pewną skończoną liczbę razy. Załóżmy, że zliczamy liczby przecięć dla kolejnych rzutów.

buffon1

Wartość oczekiwana liczby przecięć równa jest

E(l)=p_1+2p_2+3p_3+\ldots.

 Prawdopodobieństwo, że przecięć będzie k oznaczyliśmy p_k, suma zawiera tyle składników, ile trzeba dla danej długości igły. Jeśli podzielimy naszą igłę na dwie części o długościach l=l_1+l_2, to można ustalić zawsze, która część przecina daną linię.

buffon1_5

Jeśli przecięcia obu części będziemy zliczać oddzielnie, a następnie je zsumujemy, wynik nie może być inny niż przed podzieleniem igły:

E(l)=E(l_1)+E(l_2).

Moglibyśmy podzielić igłę na dowolną liczbę kawałków, łatwo widać, że E(cl)=cE(l) dla dowolnych wymiernych wartości c. Funkcja E(l) jest rosnąca, możemy więc napisać

E(l)=E(1)l=cl.

Wyznaczenie E(l) sprowadza się więc do znalezienia stałej c, która jest niezależna od długości igły.

Wyobraźmy sobie, że nasza igła to kawałek drutu, który zaginamy, jak na rysunku. Wartość oczekiwana liczby przecięć nadal będzie sumą wartości oczekiwanych liczby przecięć obu części. Inaczej mówiąc, wygięcie drutu nie zmieni wartości oczekiwanej całkowitej liczby liczby przecięć.

buffon2

A skoro tak, to możemy wyobrazić sobie, że rzucamy jakieś wielokąty foremne i obliczamy wartość oczekiwaną całkowitej liczby przecięć wielokąta z liniami prostymi. Nadal powinna to być ta sama funkcja E(l).

buffon2_5

Aby znaleźć wartość stałej c rozpatrzymy zamiast wielokątów ich graniczny przypadek czyli okrąg o średnicy d. Okręgi takie przecinają nasze linie proste dokładnie w dwóch punktach.

buffon3

Możemy więc napisać równość

2=E(d\pi)=d\pi E(1) \Rightarrow E(l)=\dfrac{2l}{\pi d}.

Obliczyliśmy w ten sposób wartość oczekiwaną liczby przecięć dla dowolnej igły. Co to ma wspólnego z prawdopodobieństwem pojedynczego przecięcia? Jeśli nasza igła jest krótsza niż odległość linii, to może przeciąć najwyżej jedną z nich, a więc E(l)=p_1.

Nietrudno zauważyć, że nasze obliczenie sprowadza się do ustalenia stosunku dwóch pól powierzchni z rysunku, czyli inaczej mówiąc do obliczenia pola powierzchni między sinusoidą a osią odciętych.

buffon0Można sobie wyobrazić bardziej bezpośredni sposób obliczenia pola powierzchni i tym samym liczby \pi. Wyobraźmy sobie kwadrat i załóżmy, że losujemy w sposób całkowicie przypadkowy punkty wewnątrz tego kwadratu. Jeśli w kwadrat wpiszemy okrąg, to niektóre z nich znajdą się wewnątrz okręgu, inne na zewnątrz.

MonteCarlo1000

Na rysunku wylosowano 1000 punktów, 773 leżą wewnątrz okręgu, zatem

\dfrac{\pi}{4}\approx\dfrac{773}{1000}\Rightarrow \pi\approx 3,092

Obliczenie to stanowi prosty przykład działania metody Monte Carlo. Jest ona dość powolna, bo trzeba wygenerować wiele punktów, aby wynik był w miarę dokładny. Zauważmy jednak, że moglibyśmy w ten sposób zmierzyć pole pod dowolną krzywą, czyli mówiąc inaczej, obliczyć dowolną całkę. Metodę tę zaproponował w roku 1946 Stanisław Ulam, pracujący wówczas w Los Alamos. Dzięki pierwszemu komputerowi ENIAC można już było generować liczby losowe. Podczas rekonwalescencji po chorobie Ulam, specjalista od metod probabilistycznych, a do tego wielki miłośnik gier i hazardu, układał sobie pasjanse Canfielda i zaczął zastanawiać się, jak obliczyć w tym przypadku prawdopodobieństwo sukcesu. Było to trudne, ale można by np. wymodelować pewną liczbę gier i oszacować prawdopodobieństwo na podstawie częstości sukcesów. Razem z Johnem von Neumannem zastosowali po raz pierwszy metodę Monte Carlo do obliczeń dyfuzji neutronów.

Ciekawe zastosowania rozumowania typu igły Buffona można napotkać w biologii. Wyobraźmy sobie płaski obszar wypukły o polu powierzchni S. Zamiast igieł mamy dwa zestawy łuków krzywych. Ich całkowita długość to l_1 oraz l_2. Jeśli będziemy losowo umieszczać krzywe obu rodzajów w naszym obszarze, to średnia liczba przecięć między krzywymi obu rodzajów dana jest wzorem analogicznym do wzoru Buffona:

E=\dfrac{2l_1l_2}{\pi S}.

Możemy np. posłużyć się tą zależnością do statystycznego wyznaczenia pod mikroskopem długości pewnej krzywej (np. kawałka korzenia rośliny). Umieszczamy losowo w naszym obszarze badaną krzywą wraz z odcinkami prostej o ustalonej długości. Teraz wystarczy obliczyć, ile razy badana krzywa przecina się z odcinkami prostoliniowymi, co jest znacznie prostsze niż śledzenie za konkretną krzywą (wyobraźmy sobie, że mamy do zbadania tysiące takich korzeni).

root

Niech N będzie liczbę przecięć, zaś H całkowitą długością wylosowanych odcinków, wówczas długość krzywej równa jest

R=\dfrac{\pi NS}{2H}.

Zależność ta (oraz rysunek) pochodzą z klasycznej pracy E.I. Newmana, A Method of Estimating the total length of root in a SampleJournal of Applied Ecology, t. 3, (May, 1966), s. 139-145. Wzór Newmana można też wykorzystać do znalezienia pola powierzchni S, gdy znane są pozostałe wielkości. Sugerowano, że algorytmu tego rodzaju używają mrówki, szacując, czy jakieś miejsce nadaje się na nowe mrowisko. Dwa zestawy krzywych byłyby w tym przypadku dwoma trasami tej samej mrówki-zwiadowcy: liczyłaby ona, ile razy pierwsza trasa i druga się przecinają (trasy są znaczone feromonami, zakłada się, że mrówka reaguje na swoje indywidualne feromony). Nie potrafię ocenić, czy to dobra hipoteza, z pewnością ciekawa. Szczegóły można znaleźć w pracy: E.B. Mallon, N.R. Franks, Ants estimate area using Buffon’s needle, „Proc. R. Soc. London” B, t. 267 (2000) s. 765-770.