Stanisław Ulam (2/2)

Wciąż jest dla mnie źródłem nieustającego zdziwienia, że kilka znaków nagryzmolonych na tablicy lub na kartce papieru może zmienić bieg ludzkich spraw. [S. Ulam]

Każdego roku, od 1936 aż do 1939, Stanisław Ulam spędzał lato w Polsce. Spotykał się ze swoimi matematycznymi przyjaciółmi, w tym Banachem i Mazurem, we Lwowie albo gdzieś w okolicach, gdzie spędzali wakacje. Jego dorobek matematyczny obejmował szereg dziedzin: teorię mnogości, teorię miary i rachunek prawdopodobieństwa, teorię transformacji, teorię grup. Były to na ogół niewielkie prace rozwiązujące lub stawiające jakiś problem. Na uniwersytecie Harvarda we współpracy z Johnem Oxtobym Ulam napisał swoją najdłuższą pracę, opublikowaną następnie w „Annals of Mathematics”, wysoko cenionym piśmie wydawanym w Princeton. Praca dotyczyła teorii ergodycznej. W mechanice klasycznej każdy nietrywialny układ fizyczny wędruje po swojej przestrzeni stanów (in. przestrzeni fazowej) w taki sposób, że wraca kiedyś w sąsiedztwo każdego punktu już odwiedzonego. Fakt ten jest podstawą fizyki statystycznej, w której zakłada się, że wszystkie stany o określonej energii są jednakowo prawdopodobne. Praca Ulama i Oxtoby’ego dowodziła, że przekształcenia spełniające warunek ergodyczności są w pewnym sensie typowe. Uzyskany przez nich wynik nie mógł być wprost zastosowany do fizyki, ale tak jest bardzo często: ścisłe potwierdzenie intuicji fizyków zazwyczaj nie jest łatwe.

Stanisław Ulam łatwo przywykł do amerykańskiego życia i z przyjemnością wracał do niego po wakacjach. Latem 1939 roku zabrał ze sobą młodszego brata, Adama. Na statek w Gdyni odprowadzili ich ojciec i stryj. Widmo wojny wisiało nad Polską, choć, jak zauważył Ulam, zagrożenie to wyraźniej dostrzegano w Stanach Zjednoczonych niż w Polsce, gdzie do ostatniej chwili łudzono się nadziejami na jakiś zwrot dyplomatyczny w zaostrzającym się napięciu. Różnice w sposobie oceny wynikały zapewne nie tylko z dystansu Amerykanów. Do Stanów Zjednoczonych dotarło w ostatnich latach wielu uchodźców z Niemiec, którzy lepiej niż inni rozumieli istotę nazistowskiego reżimu. W Polsce prasa, koła wojskowe i politycy zgodnie uprawiali propagandę w stylu „nie oddamy ani guzika”, co skończyło się klęską nie tylko militarną i polityczną, ale także klęską moralną – kraj był bowiem zupełnie nieprzygotowany do wojny i tysiące, może miliony ludzi, rzuciły się do panicznej i bezładnej ucieczki: jedni na wschód, inni na zachód. Dowódcy niemieccy zdumieni byli łatwością tego zwycięstwa, które po dwu tygodniach było już w zasadzie zupełne.

Dla Stanisława Ulama wojna oznaczała nie tylko lęk o najbliższych i przyjaciół pozostawionych w kraju, ale i obowiązek utrzymywania młodszego brata, który zaczął jesienią studia (z czasem został znanym sowietologiem). Znalezienie płatnej pracy akademickiej nie było łatwe, Ulam musiał zadowolić się uniwersytetem stanu Wisconsin w Madison. Po Harvardzie i Princeton nie było to wymarzonym rozwiązaniem, jednak uczelnia okazała się całkiem przyzwoita, Ulam zaprzyjaźnił się tam z wieloma wykładowcami, nie tylko zresztą z matematykami, ale i z fizykami, ekonomistami. Wygłosił kiedyś zaimprowizowany wykład na zjeździe astronomów (na temat wyboru układu odniesienia, w którym ruch ciał wygląda prościej – była to topologiczna wersja problemu kopernikańskiego). W tym okresie wielu wybitnych uczonych, zwłaszcza pochodzących z Europy, pracowało na mniejszych uczelniach, fala emigracji wywołała bowiem nadmiar szukających pracy akademików. W Madison pracował Eugene Wigner, fizyk i szkolny kolega von Neumanna, przyszły noblista. Na seminaria prowadzone przez Ulama przyjeżdżali do Madison matematycy tej klasy co André Weil, urodzony w Warszawie Samuel Eilenberg czy Paul Erdös, wszyscy oni stali się sławami światowego formatu. Erdös zaprzyjaźnił się z Ulamem i odwiedzał go czasami, rozmowy były jego ulubioną formą pracy matematycznej, z czasem opublikował wspólne prace z kilkuset innymi badaczami. Matematycy obliczają liczbę Erdösa: on sam ma liczbę zero; ci, którzy z nim pracowali, mają liczbę jeden; ci, którzy pracowali z posiadającymi liczbę jeden, mają liczbę dwa itd. Oczywiście, Ulam miał liczbę Erdösa równą jeden. Zabawa ta unaocznia, jak silną rolę odgrywa współpraca nawet w dziedzinie tak z pozoru indywidualnej jak matematyka (choć trzeba też dodać, że Erdös, podobnie jak Ulam, wyjątkowo lubił pracę w towarzystwie innych).

W 1941 roku Ulam otrzymał obywatelstwo amerykańskie i kiedy Stany Zjednoczone przystąpiły do wojny, chciał pracować na rzecz wojska. Dzięki rekomendacji von Neumanna trafił do Los Alamos i Projektu Manhattan jako jeden z niewielu matematyków. Spotkał tam i poznał osobiście wielu fizyków i chemików o głośnych nazwiskach, nigdy chyba w historii nie zgromadzono w jednym miejscu w pracy nad wspólnym projektem tak wielu wybitnych specjalistów. Wielu z nich było emigrantami, których dotychczasowe życie zburzył mniej lub bardziej nazizm. Wśród kierujących projektem byli dwaj znakomici fizycy jądrowi: Hans Bethe i Enrico Fermi. Pierwszy miał babkę Żydówkę, przez co stracił profesurę w Tybindze, drugi miał za żonę Żydówkę i w roku 1938 zmuszony był opuścić Włochy. Ulam obu uczonych bardzo szanował, lecz szczególny respekt budził w nim Fermi – ostatni chyba fizyk będący zarazem eksperymentatorem i teoretykiem. Nie rozstający się z suwakiem logarytmicznym Fermi, który umiał szybko obliczyć każdą potrzebną wielkość, miał też solidne przygotowanie matematyczne i okazało się, że zna np. pracę Oxtoby’ego i Ulama. Dzięki Projektowi Manhattan Stanisław Ulam zaczął pracować z fizykami i tak już miało zostać przez długie lata. Jego talent matematyczny niespodziewanie okazał się przydatny w zagadnieniach z pogranicza inżynierii. Taki przeskok z podstaw matematyki do zagadnień praktycznych byłby niewyobrażalny dla większości matematyków. Ulam trafił do grupy kierowanej przez Edwarda Tellera, jeszcze jednego emigranta z Węgier. Pierwszym zagadnieniem, którym się tam zajął, było oddziaływanie gazu elektronowego z promieniowaniem. Teller uzyskał z rozważań wymiarowych postać równania, chciał aby te rozważania uściślić. Ulam zaproponował własne dość elementarne rozwiązanie, z którego wynikało, że wzór Tellera trzeba uzupełnić współczynnikiem cztery. Niezadowolony Teller zlecił to samo zadanie komuś innemu, kto posługując się znacznie bardziej rozbudowanym aparatem matematycznym, uzyskał dla owego współczynnika liczbowego także wartość zbliżoną do czterech.

Ulam, Richard Feynman i John von Neumann w Los Alamos

Rodzaj talentu matematycznego Stanisława Ulama był nietypowy, jedyny w swoim rodzaju. Posiadał on dar formułowania problemów w sposób jak najprostszy, zachowując jedynie najistotniejsze ich cechy. Wyobrażał sobie przy tym zjawiska, a nie tylko równania, które je opisują. Łatwo też przychodziły mu oszacowania liczbowe, co w Los Alamos było niezwykle ważne – nie chodziło tam przecież o zrozumienie idealnej sytuacji laboratoryjnej, ale o skonstruowanie jak najefektywniejszej bomby. Należało więc wejść w świat rzeczywistych obiektów, kształtów, własności różnych materiałów, współwystępowania rozmaitych zjawisk. Zazwyczaj praca fizyków polega na czymś odwrotnym: szuka się najprostszych i „najczystszych” sytuacji, w których można zmierzyć dane zjawisko.

Po zakończeniu wojny i Projektu Manhattan Stanisław Ulam wrócił do pracy akademickiej. Został profesorem nadzwyczajnym na Uniwersytecie Południowej Kalifornii (USC). Uczelnia okazała się słaba, Los Angeles było miastem trudnym do mieszkania i poruszania się z powodu korków ulicznych. Pewnego dnia Ulam poważnie zachorował, zaczął mieć problemy z mówieniem. Przeprowadzono operację, otwierając czaszkę. Znaleziono ostry stan zapalny, który leczono nowymi wówczas antybiotykami, podawanymi bezpośrednio do wnętrza czaszki. Uczony po pewnym czasie doszedł do siebie, jednak z obawą myślał, czy po tym wszystkim jego umysł wróci do dawnej sprawności. Przekonał się o tym, kiedy odwiedził go Paul Erdös. Zagrali w szachy i Ulam wygrał. Zaczął podejrzewać, że może przyjaciel pozwolił mu wygrać dla podtrzymania go na duchu. Zagrali więc jeszcze raz. Uspokoił się dopiero, kiedy wygrał po raz drugi, a Erdös wyraźnie się tym zirytował.

Nie pozostał na USC długo, tym bardziej że po chorobie wpadł w długi. Otrzymał propozycję pracy w Los Alamos dla armii amerykańskiej. Wprawdzie sławni i wielcy po zakończeniu Projektu Manhattan rozjechali się po różnych ośrodkach, ale laboratorium w Los Alamos zostało i nieoczekiwanie dawało Ulamowi możliwość ciekawej i względnie niezależnej pracy. Problemy, nad którymi tam pracowano, były konkretne, co zdaniem Ulama bardzo się liczyło. Sądził on bowiem, że naprawdę ważne problemy wywodzą się z praktyki, a nie filozoficznych rozważań. Mógł dobierać sobie współpracowników, co było szczególnie ważne wobec jego metody pracy. Polegała ona na tym, że Ulam szkicował możliwości rozwiązania danego zagadnienia, a współpracownicy starali się te pomysły zrealizować. Niewykluczone, że przebyta choroba odebrała Ulamowi czysto techniczną sprawność dokonywania obliczeń czy prowadzenia jakiegoś długiego dowodu. Starał się tego po sobie nie pokazywać. Pozostała mu jednak wyobraźnia i umiejętność dostrzegania bez dowodu, czy twierdzenie jest prawdziwe, czy nie, i w jaki sposób można dążyć do wytyczonego celu. Toteż pracował przede wszystkim nad wytyczaniem kierunków i formułowaniem problemów – co w sumie jest może ważniejsze niż szczegółowe rozwiązania. Przypominał swoim stylem pracy pracującego po przeciwnej stronie Atlantyku Jakowa Zeldowicza.

Dzięki pracy dla armii Ulam należał do pionierów stosowania komputerów. Układając pewien trudny pasjans w okresie rekonwalescencji, zdał sobie sprawę, że bardzo trudno byłoby obliczyć, jakie jest prawdopodobieństwo ułożenia tego pasjansa, łatwo natomiast można by go było modelować za pomocą komputera, który mógłby przeprowadzić wiele prób, dzięki czemu można by empirycznie stwierdzić, jakie jest szukane prawdopodobieństwo. Rozwinięciem tej idei opracowanym we współpracy z von Neumannem i Nickiem Metropolisem są metody Monte Carlo (nazwa zaczerpnięta ze skojarzenia z wujem Ulama, który pożyczał od krewnych pieniądze i następnie przepuszczał je w Monte Carlo). Zamiast np. rozwiązywać równanie różniczkowe, opisujące dyfuzję neutronów z pewnego stanu początkowego, możemy prześledzić losy wielu neutronów i zobaczyć, jakie są charakterystyczne cechy ich rozkładu. Dla pięćdziesięciu cząstek startujących z punktu x=0 tory w błądzeniu przypadkowym mogą być np. takie jak na wykresie.

Po zebraniu pewnej statystyki można znaleźć kształt rozkładu końcowego. Im więcej wykonamy losowań, tym dokładniej będziemy znali rozkład cząstek po danym czasie.

Rozkład uzyskany w tym przypadku jest łatwy do obliczenia analitycznego (jest rozkładem normalnym). Wystarczy jednak nieco zmodyfikować zagadnienie: dodać dwa wymiary, różne kształty i materiały, a problem dyfuzji stanie się bardzo trudny do rozwiązania metodami analitycznymi, choć symulacja komputerowa nadal będzie stosunkowo prosta. Pionierzy tej metody musieli zaczynać kompletnie od zera, rozwiązując np. zagadnienie, jak komputer, który prowadzi obliczenia arytmetyczne na liczbach – a więc otrzymując zawsze ściśle określony i jednoznaczny wynik, może generować liczby losowe. Jak sprawić, aby liczby te podlegały określonemu prawu statystycznemu? Jak sprawdzać uzyskane wyniki itd itp. Metoda Monte Carlo używana jest dziś w wielu dziedzinach od fizyki do finansów i stała się zespołem wyspecjalizowanych praktyk.

Stanisław Ulam odegrał istotną rolę w projekcie bomby wodorowej. Była to idée fixe Tellera: zbudować bombę opartą na procesie syntezy lekkich pierwiastków w cięższe. W przyrodzie procesy takie odbywają się we wnętrzu gwiazd, gdzie panują ogromne temperatury i materia jest bardzo gęsta. Warunki tak ekstremalne potrzebne są do tego, by dodatnio naładowane jądra mogły zbliżyć się do siebie, pokonując odpychanie elektrostatyczne. Dopiero bowiem w odległościach rzędu 10^{-15} m możliwe jest przegrupowanie nukleonów, wskutek czego wyzwala się energia.

Synteza helu z dwóch izotopów wodoru: deuteru i trytu; bomby wykorzystują głównie deuter (rys. Wikipedia)

Warunki takie można by wytworzyć za pomocą wstępnego wybuchu zwykłej bomby atomowej. Edward Teller (jeszcze jeden żydowski emigrant z Węgier) pracował nad pomysłem „superbomby” już w trakcie Projektu Manhattan. Nie zrezygnował z niego także i później. W roku 1950 prezydent Harry Truman podjął decyzję o pracach nad superbombą. Okazało się jednak szybko, że początkowy pomysł Tellera nie nadaje się do realizacji. Udowodnił to Stanisław Ulam ze współpracownikami, potwierdziły zaś obliczenia Ulama i Enrico Fermiego. Także obliczenia komputerowe von Neumanna dawały ten sam wynik. Sytuacja stała się trudna dla Tellera, którego oskarżano, że nakłonił władze polityczne do decyzji, nie mając w ręku żadnej rozsądnej teorii działania superbomby. Koszt przedsięwzięcia był ogromny, rywalizacja z Rosją zawzięta, a więc i stawka projektu bardzo wysoka. Impas przełamał Stanisław Ulam, który zaproponował implozyjny mechanizm działania superbomby. Razem z Tellerem napisali raport, który stał się podstawą amerykańskiego projektu. Bomba została zbudowana, lecz stosunki miedzy Tellerem a Ulamem gwałtownie się oziębiły. Teller nie potrafił prawdopodobnie wybaczyć Ulamowi dwukrotnej porażki prestiżowej. Ulam natomiast uważał, że zainteresowani i tak wiedzą, ile kto jest wart.

Raport Tellera i Ulama został po latach odtajniony, lecz większość z kilkunastu jego stron jest kompletnie pusta. Armia amerykańska najwyraźniej uznała, że wciąż jest za wcześnie na publiczne informowanie o technologii bomb wodorowych. Może to być zresztą także przykład nadmiernej ostrożności wojskowych w kwestiach tajemnic, militarne znaczenie bomb wodorowych nie jest bowiem aż tak wielkie, jak sądzono na początku. Dalsze prace szły raczej nad zmniejszaniem siły rażenia, bo co po wygranej wojnie, skoro zwycięzcy zostaną w niej zabici powiedzmy dziesięć razy, a pokonani – dwadzieścia. Angielszczyzna ma na to zgrabne słówko: overkill (*).

Gian-Carlo Rota charakteryzuje Ulama następująco:

Dopiero po kilku latach zdałem sobie sprawę z tego, co jest prawdziwą profesją Stana Ulama. Wielu z nas, pracujących w Laboratorium i mających z nim styczność, wiedziało, jak bardzo nie lubi on zostawać sam, że wzywa nas o zaskakujących porach, by wybawić go od samotności hotelowego pokoju albo czterech ścian swego gabinetu, kiedy już skończył codzienną rundę rozmów międzymiastowych.

Pewnego dnia zebrałem się na odwagę i zapytałem, czemu stale potrzebuje towarzystwa; odpowiedź, jakiej udzielił była wielce znamienna. „Kiedy jestem sam – zwierzył się – zmuszony jestem przemyśleć różne rzeczy i widzę ich tak wiele, że wolę nie myśleć”. Ujrzałem go wtedy w prawdziwym świetle: ten człowiek, mający na koncie największą liczbę trafnych przypuszczeń w matematyce, który potrafi pokonać inżynierów na ich własnym polu, który w jednej chwili ocenia zdarzenia i ludzi, należy do niemal już doszczętnie wymarłej profesji proroków.

Z mężami Starego Testamentu i wyrocznią delficką dźwigał on ciężkie brzemię natychmiastowego widzenia. I jak wszyscy zawodowi prorocy cierpiał na coś, co Sigmund Freud nazwałby „kompleksem Proteusza”. Wielka szkoda, że wśród pacjentów Freuda nie było żadnych proroków.

W dawnych czasach ciemne orzeczenia Sybilli interpretowane były przez wyszkolonych specjalistów, tak zwanych hermeneutów, których zadaniem było przełożenie kryptycznych fraz na greckie zdania. W przypadku Ulama laboratorium w Los Alamos wynajmowało konsultantów, których zadaniem było wyrażenie jego kryptycznych komunikatów w popsutym żargonie współczesnej matematyki.

Stanisław Ulam zmarł niespodziewanie w wieku 75 lat na atak serca. Jak pisze Françoise Ulam:

mawiał, że „najlepszym rodzajem śmierci jest nagły atak serca lub zastrzelenie przez zazdrosnego męża”. Miał szczęście umrzeć w ten pierwszy sposób, choć myślę, że chyba wolałby ten drugi.

(*) Ulam komentował w roku 1965: „Mam wrażenie, iż to interesujące pojęcie, jakim jest overkill, przez lewicę atakowane jest z powodu marnotrawstwa – jako nieekonomiczne, podczas gdy skrajna prawica popiera je z przyczyn psychologicznych: gdyż daje im poczucie męskości, której brak odczuwają.”

Toczyła się wówczas debata, czy Stany Zjednoczone powinny zgodzić się na zakaz prób jądrowych. Ulam i Teller stali na odmiennych stanowiskach, ilustruje to rysunek Herblocka: „Mądry ojciec zna swoje własne dziecko”.

Reklamy

Kto zamawiał cząstkę Higgsa? Dość krótka historia Modelu Standardowego

Tytuł nawiązuje do powiedzenia jednego z wybitnych eksperymentatorów, I. I. Rabiego, który na wieść o odkryciu kolejnej nowej cząstki (chodziło o mion) jęknął: „Kto to zamawiał?” Przez długi czas wydawało się, że nie sposób ułożyć w sensowną całość kolekcji znanych cząstek. Przypominało to chemię przed odkryciem układu okresowego. Spróbuję przedstawić logikę rozwoju teorii cząstek i wyjaśnić, czemu fizycy tak bardzo ekscytują się możliwością odkrycia cząstki Higgsa.

Pierwsze cząstki

Najwcześniej, bo pod koniec XIX wieku, odkryto elektrony: naładowane ujemnie, dwa tysiące razy lżejsze od atomu wodoru. Następnie stwierdzono, że każdy atom ma jądro złożone z protonów i neutronów. Te dwa rodzaje cząstek odpowiadają za większą część masy atomów, a więc i nas samych. Wszystkie cząstki naładowane przyciągają się bądź odpychają, wytwarzając pole elektromagnetyczne. Kwantowo oznacza to, że potrzebujemy jeszcze jednego rodzaju cząstek: fotonów, kwantów pola elektromagnetycznego. Szczególną cechą oddziaływań elektromagnetycznych jest ich długi zasięg: siła maleje odwrotnie proporcjonalnie do kwadratu odległości (znane ze szkoły prawo Coulomba). Innym przykładem tak wolno malejących sił jest grawitacja i dlatego (nieodkryte dotąd) kwanty pola grawitacyjnego – grawitony – pod pewnymi względami powinny przypominać fotony. Problem grawitacji kwantowej nie został jednak dotąd rozwiązany i nie będziemy o nim mówić.

Oddziaływania

Dość szybko się wyjaśniło, że wyliczone wyżej cząstki nie wystarczają do opisu świata. Przede wszystkim oprócz sił elektromagnetycznych i grawitacyjnych muszą istnieć jakieś inne rodzaje oddziaływań. Dodatnio naładowane protony znajdują się bardzo blisko siebie w jądrze atomowym, a więc silnie się odpychają, a mimo to jądra są stabilne – fakt niesłychanie ważny, bo my sami składamy się z takich stabilnych jąder. Musi więc istnieć jakieś oddziaływanie sklejające protony i neutrony i musi ono być „silne”, aby pokonać odpychanie elektryczne. Nazwano je po prostu oddziaływaniem silnym. Nie wyczerpuje to listy oddziaływań: wiadomo, że niektóre jądra atomowe rozpadają się samorzutnie i przekształcają na inne lżejsze. Jest to zjawisko promieniotwórczości badane m.in. przez Marię Skłodowską-Curie. Oddziaływania związane z rozpadami są dużo słabsze, niż te dotąd opisywane, dlatego zyskały niezbyt pomysłową nazwę oddziaływań słabych. Ostatecznie mamy więc w przyrodzie cztery rodzaje oddziaływań: silne, elektromagnetyczne, słabe i grawitacyjne. Model Standardowy zajmuje się pierwszymi trzema. Jest jednolitą teorią cząstek i oddziaływań, stworzoną w latach sześćdziesiątych i siedemdziesiątych XX wieku.

Bozony i fermiony

Wszystkie cząstki w przyrodzie dzielą się na fermiony i bozony (od uczonych: Fermiego i Bosego). Pamiętamy, jak w komedii Moliera Mieszczanin szlachcicem pan Jourdain dowiedział się ze zdumieniem, że całe życie mówił prozą: bo co nie jest wierszem, jest prozą. Podobnie w fizyce: każda cząstka należy do jednej z wymienionych wyżej kategorii. Fermionami są elektrony, protony i neutrony – podstawowe składniki „zwykłej” materii. Mają one wszystkie tę cechę, że unikają się wzajemnie: np. elektrony w atomie nie mogą zajmować tego samego stanu, stąd powłoki elektronowe, co z kolei określa własności chemiczne danego pierwiastka. Bozonem jest natomiast foton. Bozony nie unikają się wzajemnie, dlatego można wytworzyć silną wiązkę światła za pomocą lasera. Oddziaływania są przenoszone przez bozony.

Elektrodynamika kwantowa

Elektrodynamika kwantowa jest kwantową teorią oddziaływań elektromagnetycznych. Jest jedną z najdokładniejszych teorii fizyki. Każdy elektron oprócz ładunku elektrycznego ma także moment magnetyczny (w namagnesowanym kawałku żelaza te momenty magnetyczne, które można sobie wyobrażać jako małe strzałki, ustawione są równolegle do siebie). Elektrodynamika kwantowa pozwala obliczyć wielkość momentu magnetycznego elektronu i wartość ta zgadza się z wynikami pomiarów z imponującą dokładnością kilkunastu cyfr znaczących. Co ważniejsze, teoria ta pozwala rozumieć, co się dzieje w różnych sytuacjach.

Czy warto szukać ogólnej teorii wszystkiego?

Fizycy dążą zawsze do zastąpienia wielu teorii jedną ogólniejszą. W ten sposób w XIX w. powstała klasyczna teoria elektromagnetyzmu, łącząc optykę, elektryczność i magnetyzm w jedną wspólną dziedzinę opisywaną kilkoma równaniami. Ten pęd ku uogólnieniom nie wynika jedynie z ambicji teoretyków: każdy kolejny szczebel oznacza ogarnięcie szerszego zakresu zjawisk i zrozumienie nowych aspektów świata. Bez klasycznej teorii elektromagnetyzmu nie odkryto by zapewne np. fal elektromagnetycznych – nie trzeba przekonywać, że nasza cywilizacja byłaby niemożliwa bez systemów łączności, telewizji, telefonów komórkowych czy sieci bezprzewodowych. Abstrakcyjne równania teorii mają więc zawsze istotne konsekwencje, również praktyczne – jak dzieje się zawsze, gdy uda nam się coś prawidłowo zrozumieć.

Trudności z oddziaływaniami słabymi

Oddziaływania słabe wydawały się naturalnym obszarem do uogólnienia elektrodynamiki. Są „słabe”, więc obliczenia powinny być łatwiejsze. Oddziaływania te w odróżnieniu od elektromagnetycznych mają jednak bardzo krótki zasięg, mniejszy od rozmiarów jądra atomowego. Jeśli oddziaływania mają niewielki zasięg, to należy oczekiwać, że przenoszące je cząstki, tzw. bozony W i Z, powinny mieć dużą masę.

Fotony są wyjątkowe: zawsze poruszają się z prędkością światła, nie można zaobserwować spoczywającego fotonu, mówi się w takich sytuacjach, że cząstka ma zerową masę (jest bezmasowa). Foton ma zerową masę. Bozony W i Z są pod tym względem zupełnie zwyczajne, mogą się poruszać z dowolną prędkością (mniejszą od prędkości światła) albo spoczywać.

Z wyjątkowością fotonu związany jest też inny, wyjątkowy fakt: fotony występują w dwóch stanach polaryzacyjnych, mogą być prawoskrętne albo lewoskrętne. W języku fizyki klasycznej mówi się o polaryzacji światła. Ponieważ w przypadku fal elektromagnetycznych wektor pola jest zawsze prostopadły do kierunku rozchodzenia się fali, możliwe są dwie niezależne polaryzacje.

Skoro bozony przenoszące oddziaływania słabe nie są bezmasowe, to powinny występować nie w dwóch, lecz w trzech stanach polaryzacyjnych. Jednak kiedy próbowano konstruować teorie, w których zakłada się od początku, że cząstki W i Z mają masę, modele takie okazywały się matematycznie wadliwe (w żargonie: nierenormalizowalne). Wydawało się, że sukcesu elektrodynamiki nie da się powtórzyć.

Spontaniczne łamanie symetrii

Chodzi o sytuację, w której symetria jest ukryta. Przykładem może być magnetyzm kawałka żelaza. Momenty magnetyczne w magnesie („strzałki”) mają najmniejszą energię, gdy ułożone są w tym samym kierunku co sąsiedzi. W wysokich temperaturach, gdy każda strzałka dysponuje dużą energią, jej ułożenie może być niemal dowolne. Gdy ogólna energia strzałek maleje, a wraz z nią temperatura, następuje coraz większe porządkowanie się strzałek. Wreszcie, w dostatecznie niskiej temperaturze, wszystkie wybierają jakiś jeden wspólny kierunek. Kierunek ten jest zupełnie dowolny. Strzałki mogły ustawiać się w każdym kierunku, w równaniach, które opisują ich zachowanie wszystkie kierunki są równouprawnione. Jednak namagnesowanie próbki ma jakiś jeden konkretny kierunek. Patrząc na taką próbkę, widzimy kierunek wyróżniony. Symetria obrotowa naszego układu jest tu ukryta albo spontanicznie złamana.

Z teoretycznego punktu widzenia jest to sytuacja atrakcyjna, ponieważ im bardziej symetryczne równania, tym większa nadzieja na ich rozwiązanie. Okazuje się także często, że bardziej symetryczne, elegantsze równania lepiej opisują rzeczywistość.

Meksykański kapelusz

Teoretycy sporo czasu spędzają na analizowaniu różnych przykładów, które są swoistymi eksperymentami myślowymi: wiadomo z góry, że nie będzie to opis rzeczywistego świata, warto jednak prześledzić konsekwencje jakichś założeń. Takim modelem może być np. pole skalarne, opisywane jedną liczbą w każdym punkcie przestrzeni. W najprostszej sytuacji możemy sobie wyobrazić, że pole jest wszędzie takie same. Energię można wówczas wykreślić w funkcji wartości pola. Wygląda to następująco:

Mamy dołek energii. Przy pewnej wartości pola energia osiąga minimum. Zakrzywienie wokół tego minimum informuje o masie: im bardziej strome są zbocza, tym większa masa cząstki kwantowej. Cząstka taka byłaby bozonem.
Można też przeanalizować bardziej skomplikowaną sytuację. Wyobraźmy sobie, że pole jest scharakteryzowane parą liczb, jego wartość można teraz przedstawić jako punkt na płaszczyźnie. Wykreślając energię jako wysokość nad płaszczyzną otrzymamy pewną powierzchnię. Ciekawe rezultaty uzyskuje się biorąc powierzchnię energii o kształcie przypominającym meksykańskie sombrero.

Punkty o najniższej energii leżą teraz na okręgu: każdy z tych punktów jest równie dobrym stanem o najniższej energii. Kapelusz ma oś symetrii, ale wybór dowolnego punktu na dnie kapelusza będzie oznaczał złamanie tej symetrii obrotowej. Załóżmy, że któryś z punktów został wybrany. Jeśli przesuniemy się w kierunku do środka albo na zewnątrz, będziemy musieli wspiąć się na zbocze powierzchni energii – a to oznacza, że odpowiednie cząstki kwantowe będą miały masę (tak jak w poprzednim przykładzie). Teraz jednak możemy także poruszać się wzdłuż doliny, co nie wymaga energii – kwantowo odpowiada to cząstkom o zerowej masie. Tak więc w przypadku meksykańskiego kapelusza z dwuskładnikowego pola dostajemy dwa rodzaje cząstek: jedne obdarzone masą, drugie bezmasowe. Ta pierwsza cząstka jest prototypem cząstki Higgsa, okazuje się, że także i ta druga jest niezbędna.

Higgs i inni

Do przedstawionego przed chwilą modelu można dołączyć coś, co wygląda na pole elektromagnetyczne. To dodatkowe pole, tak jak w przypadku fotonów, powinno mieć tylko dwie polaryzacje. Jednakże w połączeniu z cząstkami z meksykańskiego kapelusza staje się ono trójskładnikowe i zachowuje się tak, jakby miało masę. Otrzymujemy w ten sposób zamiast fotonów masywne bozony przenoszące oddziaływania, mimo że w wyjściowych równaniach nie było żadnej masy. Cud polega na swego rodzaju wchłonięciu cząstek bezmasowych z meksykańskiego kapelusza – od nich pochodzi trzecia brakująca polaryzacja. Po przegrupowaniu całości zostaje nam jeszcze jedna cząstka z meksykańskiego kapelusza, ta masywna. Jest to właśnie cząstka Higgsa.

Podsumowując: równania teorii wyglądają tak, jakby nasze cząstki nie miały masy, jednak dzięki mechanizmowi meksykańskiego kapelusza zarówno bozon Higgsa, jak i bozon pośredniczący uzyskują masę.

Wyniki te uzyskali w roku 1964 Peter Higgs, a także François Englert, Robert Brout, G. S. Guralnik, C. R. Hagen i T. W. B. Kibble (kłopot dla Komitetu Noblowskiego, nagrodę wolno przyznawać najwyżej trzem uczonym).

Praca Stevena Weinberga z 1967 roku

W zasadzie istniał więc w 1964 r. sposób, aby uzyskać masywne bozony pośredniczące, czyli to, co było potrzebne, by oddziaływania słabe i elektromagnetyczne połączyć w jedną teorię. Rzecz nie była jednak oczywista, opisany mechanizm Higgsa został zastosowany do prawdziwego świata dopiero trzy lata później przez Stevena Weinberga. Niezależnie pracowali nad tym problemem Abdus Salam i Sheldon Glashow, wszyscy trzej otrzymali nagrodę Nobla w 1979 roku.

Wydaje się, że z początku sami autorzy tej teorii nie byli pewni, czy jest ona prawdziwa. Praca Weinberga, która z czasem stała się najczęściej cytowaną pracą z fizyki, przez kilka lat nie była w ogóle dostrzegana, i to mimo faktu, że autor publikował już od dekady i nie był bynajmniej outsiderem. Główny kłopot polegał na tym, że nie było jasne, czy model tego rodzaju, choć formalnie podobny do elektrodynamiki kwantowej, jest dobrze określony w sensie matematycznym – czy jest renormalizowalny. Bez ustalenia tego faktu nie można było twierdzić, że mamy prawdziwą teorię. Weinberg wyraził w swym artykule silną nadzieję, że tak jest, ale nie potrafił tego wykazać. Przez kilka lat nikomu nie udawało się pokonać trudności matematycznych. Dokonali tego dopiero Martinus Veltman i Gerard ‚t Hooft w 1974 roku (otrzymali za to nagrodę Nobla w 1999 roku). Dopiero wtedy nastąpił przełom, widoczny też w liczbie cytowań pracy Weinberga. Do oddziaływań elektromagnetycznych i słabych dołączono wkrótce także i silne, ale to już inna opowieść.

Epilog: Cząstka Higgsa?

Mówiliśmy dotąd o tym, jak uzyskać bozony W i Z, nie psując teorii. Okazuje się, że za pośrednictwem pola Higgsa uzyskać można także masy fermionów. Nie dotyczy to nukleonów, które są zbudowane z kwarków za pomocą oddziaływań silnych. Ale np. elektrony nie oddziałują silnie i bez Higgsa nie miałyby masy. Jest to więc cząstka niezbędna do tego, aby cała skomplikowana konstrukcja Modelu Standardowego się nie rozsypała. Okazało się też, że warto mieć w pewnych sytuacjach krótkie anglosaskie nazwisko, najlepiej jednosylabowe – wszyscy mówią o cząstkach i mechanizmie Higgsa, zapominając o pozostałych odkrywcach.

Przez lata nagromadzono wiele danych wskazujących na sensowność tego modelu teoretycznego, zaczęto nawet nazywać go Modelem Standardowym. Dopiero teraz jednak eksperymentatorzy będą mogli przyjrzeć się bezpośrednio samej cząstce Higgsa. Latem 2012 doniesiono o odkryciu bozonu, który może okazać się poszukiwaną cząstką. Trzeba poczekać na dalsze doniesienia z CERN-u, nikt ich w tym nie ubiegnie, ponieważ nie ma na świecie drugiego takiego urządzenia.

Istnieje też sporo różnych uogólnień Modelu Standardowego, być może zaczniemy się dowiadywać, które z nich odpowiadają rzeczywistości. Niewykluczone, że sytuacja jest bardziej złożona, niż wynikałoby z najprostszej wersji Modelu Standardowego. Tak czy inaczej docieramy do podstawowych założeń całej fizyki cząstek, a więc w pewnym sensie i fizyki w ogóle. Każde rozstrzygnięcie w tym obszarze warte jest nie jednej, lecz wielu nagród Nobla i może sprawić, że zmieni się treść podręczników fizyki.