• Panopticum - strona główna








  • H I P E R P R Z E S T R Z E Ń

    - elegancja w wyższych wymiarach


    Elegancja teorii fizycznych i odpowiadających im równań matematycznych, to przede wszystkim zwięzłe, oszczędne ale jednocześnie pełne i ścisłe zdefiniowanie jak największego zakresu zjawisk fizycznych. W życiu codziennym podobne wymagania mamy w stosunku do gier: dobra gra powinna posiadać proste ale ścisłe reguły i jednocześnie charakteryzować się dużą ilością wariantów (jak np. w szachach: 10134 !).

    "Cechą wielkich umysłów jest wyrazić wiele w kilku słowach, tak jak cechą umysłów miernych jest w wielu słowach nie powiedzieć nic" - La Rochefoucauld   (zobacz w "Ewolucji")

    Ideałem byłoby tutaj zawarcie samej istoty materii i energii oraz czasu i przestrzeni w jednym równaniu, z którego można by wyprowadzić wszystkie inne prawa fizyki czy też np. określić charakterystyki cząstek elementarnych, wartości stałych uniwersalnych itp.
    Od dziesiątków już lat prace gigantów fizyki, zmierzające do odkrycia takiej Uniwersalnej Teorii Świata, skupiają się na unifikacji czterech fundamentalnych sił przyrody, na pierwszy rzut oka wydających się zupełnie odmiennymi: oddziaływań elektromagnetycznych, silnych i słabych oddziaływań jądrowych oraz oddziaływań grawitacyjnych. Bez stworzenia Jednolitej Teorii Pola, teorii, która wyjaśni naturę i pochodzenie wszystkich znanych sił przyrody nie można mówić o zrozumieniu podstawowej natury materii.


    Isaac Newton (1642 - 1727)

    Prawo grawitacji Newtona:

    gdzie: G - stała grawitacyjna:
    G = 6,672 . 10-11Nm2/kg2

    Wzór ten jest dla nas oczywisty: siła jest proporcjonalna do każdej z oddziaływujących mas i odwrotnie proporcjonalna do kwadratu odległości między nimi.

        Gdy w II poł. XVIIw. sir Isaac Newton sformułował prawo powszechnego ciążenia oraz zasady mechaniki, wydawało się, że są to już absolutnie doskonałe, uniwersalne teorie. Ogłoszone w 1687 roku przez Towarzystwo Królewskie w Londynie "Philosophiae naturalis principia mathematica" Newtona to bez wątpienia dzieło o najdonioślejszym w historii ludzkiej myśli znaczeniu dla rozwoju nauk przyrodniczych.
    Przez sformułowanie jednolitej teorii ruchów ciał na Ziemi oraz planet, komet i innych ciał niebieskich, zasady jedności materii i powszechności praw fizyki znalazły swoje ścisłe potwierdzenie.


    Równanie obrazujące prawo grawitacji jest jasne i proste. Można by powiedzieć, że jest matematycznie piękne. Posiada tylko, tak samo jak teoria, którą ono opisuje, jeden "drobny" defekt: nie jest uwzględniony w nim czas. Oznacza to, że milcząco zakładamy, iż oddziaływania grawitacyjne są natychmiastowe, tzn. rozchodzą się z nieskończenie wielką szybkością. Poza tym działanie na odległość jest nienaturalne, ponieważ oznacza to, że jedno ciało może zmienić kierunek ruchu drugiego nawet go nie dotykając.

    Równanie grawitacji jest jasne i proste, ale nie oznacza to wcale, że nie ma problemów z rozwiązywaniem zagadnień z tego zakresu. Dotychczas nie udało się znaleźć ogólnego wzoru pozwalającego na obliczenie ruchu trzech ciał wzajemnie oddziaływujących grawitacyjnie (nie mówiąc o większej liczbie obiektów). Trochę więcej o tym, a także demonstrację ruchu obiektów w polu grawitacyjnym, można znaleźć w części dotyczącej DHTML.

    W XVIII wieku podobny matematyczny zapis sił działających pomiędzy ładunkami elektrycznymi oraz magnetycznymi (traktowano wtedy te oddziaływania jako całkowicie niezależne od siebie) wprowadził Charles Coulomb.


    Georg Bernhard Riemann
    (1826 - 1866)
    Z tą zasadą "natychmiastowego działania na odległość" po raz pierwszy, prawie po dwustu latach, zerwał Georg Bernhard Riemann. Pod namową "księcia matematyków" Carla Friedricha Gaussa, u którego studiował, opracował on teorię wyższych wymiarów. Przedstawił ją 10 czerwca 1854 roku podczas swego wykładu habilitacyjnego na Uniwersytecie w Getyndze.

    Gdyby teraz były rozprawy habilitacyjne takiego formatu, Uniwersalna Teoria byłaby chyba już opracowana.

    Teoria Riemanna zerwała z podstawami klasycznej geometrii Euklidesa, traktowanymi przez ponad dwa tysiąclecia jak dogmaty. Zawierała ona pełny matematyczny formalizm pozwalający na opis przestrzeni o dowolnej liczbie wymiarów, w tym także przestrzeni o dowolnej krzywiżnie, wykorzystujący tzw. tensor metryczny oraz tensor krzywizny.
    Więcej:
    Właśnie to zakrzywienie w czwartym niewidzialnym wymiarze naszej trójwymiarowej przestrzeni było wg Riemanna odpowiedzialne za działanie sił grawitacji, elektryczności i magnetyzmu. Obrazowo mówiąc, wędrując w naszej trójwymiarowej przestrzeni, która byłaby "pofałdowana" w czwartym wymiarze, odczuwalibyśmy działanie niewidzialnej "siły" spychającej nas na boki.


    James Clerk Maxwell
    (1831 - 1879)


        Prowadzone w XVIIIw. i I poł. XIXw. przez wielu znakomitych fizyków (należałoby tu szczególnie podkreślić wkład Michaela Faradaya) badania nad elektrycznością i magnetyzmem doprowadziły do stworzenia matematycznej teorii zjawisk elektromagnetycznych.
    Ogłoszenie w 1873 roku wielkiego dzieła Jamesa Clerka Maxwella "Treatise on Electricity and Magnetism" to, podobnie jak w końcu XVIIw. mechanika Newtona, kolejny przewrót w strukturze fizyki.
    Z równań Maxwella, zwanych dziś równaniami elektrodynamiki klasycznej, wynikało istnienie nowego, nie znanego wówczas zjawiska fal elektromagnetycznych, obejmującego również światło. W ramach jednej teorii połączone zostały trzy wielkie klasy zjawisk (elektryczne, magnetyczne i optyczne), przez długi okres czasu uważane za niezależne. Równania Maxwella to matematyczny opis pola elektromagnetycznego.

    Pojęcie pola zostało wprowadzone przez wspomnianego wyżej Michaela Faradaya. Można powiedzieć, że pole jest zdefiniowanym w każdym punkcie przestrzeni zbiorem liczb, które całkowicie opisują siłę w danym miejscu.
    Dla pola elektromagnetycznego w przestrzeni trójwymiarowej będzie to sześć liczb dla każdego punktu: trzy liczby określają natężenie i kierunek magnetycznych linii sił (typowo są to trzy składowe wektora natężenia) a kolejne trzy liczby definiują pole elektryczne.

    Równania Maxwella
    ( przyjmujemy c = 1 )



    Więcej

    Zestaw równań Maxwella nie jest już zbyt elegancki, gdyż każde z nich opisuje inną właściwość tego samego pola i jest ich po prostu zbyt dużo, bo w zasadzie aż osiem: dwa z czterech równań to równania wektorowe (rotacja pola wektorowego, w przestrzeni o liczbie wymiarów większej niż dwa, jest wektorem) i każde z tych dwóch zawiera właściwie trzy równania.
    Maxwell użył w swej teorii pojęcia eteru - hipotetycznego ośrodka wypełniającego przestrzeń, w którym miałyby rozchodzić się fale elektromagnetyczne (światło).


    Pod koniec XIX wieku wydawało się, że fizyka osiągnęła już szczyty sukcesu. Przez nikogo nie kwestionowana, mechanika newtonowska była z powodzeniem stosowana zarówno w świecie molekuł jak i w skali Kosmosu. Teoria falowa światła została zintegrowana w teorię elektromagnetyczną.
    Lord Kelvin, jeden z czołowych fizyków tego okresu wyraził przekonanie, że podstawowy zarys teorii fizycznych jest już dobrze ustalony i że pozostały tylko "dwie małe chmurki" na horyzoncie. Trzeba przyznać, że lord Kelvin umiał wybrać swoje "chmurki". Były nimi bowiem: negatywny wynik doświadczenia Michelsona-Morleya (pomiar prędkości światła w poruszających się układach) i niemożność przewidzenia rozkładu promieniowania ciała doskonale czarnego przy pomocy prawa Rayleigha-Jeansa. Te dwa właśnie zagadnienia doprowadziły w XX wieku do dwóch rewolucji w fizyce: powstania teorii względności i teorii kwantów.
    W 1899r. Charles H. Dull, szef Urzędu Patentowego USA, wystąpił z wnioskiem o likwidację urzędu patentowego, gdyż "... Wszystko, co można było wynaleźć, już zostało wynalezione".


        Gdy Albert Einstein, korzystając z nadmiaru wolnego czasu podczas pracy w urzędzie patentowym w Bernie, uważnie przeanalizował równania Maxwella, sformułował w 1905r. podstawę szczególnej teorii względności: prędkość światła jest taka sama we wszystkich poruszających się układach. Doprowadziło to do przyjęcia czasu jako czwartego wymiaru, a w konsekwencji do unifikacji wszystkich wielkości fizycznych mierzonych w przestrzeni i czasie, takich jak materia i energia. Znalazł w ten sposób precyzyjne matematyczne wyrażenie na jedność materii i energii: E = mc2, będące chyba najsłynniejszym równaniem fizyki.


    Albert Einstein (1879 - 1955)
    fot. z 1905r.
    Opracowanie spójnej szczególnej teorii względności było możliwe dzięki przyjęciu przez Einsteina koncepcji czterowymiarowej czasoprzestrzeni. Zwykła trójwymiarowa przestrzeń byłaby na to "zbyt ciasna". Wyższe wymiary upraszczają zagadnienie.
    Jest to podobny problem, jak w kartografii: nie można wiernie przedstawić powierzchni Ziemi na jednej mapie (dwuwymiarowej). Trzeba użyć kilku, a i tak będą to tylko przybliżenia (chociaż w praktyce wystarczające).
    Dobrym przykładem może być tutaj relatywistyczna wersja równań Maxwella. Jeśli potraktujemy czas jako czwarty wymiar, po wprowadzeniu tensora Maxwella , zestaw równań pola elektromagnetycznego można zapisać jednym równaniem:



    Szczególna teoria względności opisuje tylko zjawiska zachodzące w inercjalnych układach odniesienia (podmiot i przedmiot obserwacji znajdują się w jednostajnym ruchu względnym).



    Ogólny zapis równań pola Einsteina



    gdzie:

    - tensor pola Einsteina
    - tensor energii-pędu

        Następne lata upływają Einsteinowi na poszukiwaniu teorii grawitacji (czyli dotyczącej nieinercjalnych układów, w których na ciała działają siły grawitacyjne) zgodnej ze szczególną teorią względności. Formułuje podstawową zasadę: obecność materio-energii określa zakrzywienie czasoprzestrzeni, która ją otacza. Brakuje mu jednak odpowiedniego aparatu matematycznego, który pozwoliłby na opracowanie pełnego formalizmu teorii.
    Dopiero w 1915r., gdy jego przyjaciel, matematyk Marcel Grossman, natknął się w bibliotece na prace Riemanna sprzed sześćdziesięciu lat, okazało się, że jest to dokładnie to, o co chodziło. Prawie cały słynny wykład Riemanna z 1854r. znalazł swoje odbicie w teorii Einsteina, a sam tensor metryczny okazał się zapisem pola grawitacji. Można powiedzieć, że cały matematyczny opis teorii pola grawitacyjnego (zakrzywienia czasoprzestrzeni) stworzył Riemann. Zabrakło tu jednak fizycznej interpretacji równań, a przede wszystkim idei, że to materio-energia określa zakrzywienie przestrzeni.


    Będące kwintesencją ogólnej teorii względności równania pola Einsteina określają geometrię czterowymiarowej czasoprzestrzeni (czyli opisują pole grawitacyjne) w zależności od rozkładu energii (masy i pędu).
    Równania te wyrażone za pomocą tensora metrycznego Riemanna są wyjątkowo eleganckie. Noblista Subrahmanyan Chandrasekhar nazwał to odkrycie "najpiękniejszą teorią, jaka kiedykolwiek istniała".

    Wróćmy tu jeszcze do prac Riemanna. Po pierwszych latach fascynacji teorią wielowymiarowych przestrzeni, w późniejszym okresie, aż do 1905 roku, stała się ona domeną tylko czystej matematyki. Nikt w tym okresie nie próbował wykorzystać jej zgodnie z ideą, którą kierował się Riemann: użycie zakrzywionej hiperprzestrzeni do wyjaśnienia natury "sił przyrody".
    Koncepcje wyższych wymiarów miały w historii zawsze swoich przeciwników. Ich argumenty najczęściej sprowadzały się do stwierdzenia, że "czwarty wymiar nie istnieje, ponieważ nie można go sobie wyobrazić".
    Niektórzy udowadniali trójwymiarowość przestrzeni na podstawie przesłanek fizycznych: gdyby przestrzeń była czterowymiarowa, to oddziaływania (np. światło, grawitacja) malałyby wraz z sześcianem odległości. Takiego argumentu użył m.in. w 1917r. fizyk Paul Ehrenfest, nota bene przyjaciel Einsteina, w artykule "W jaki sposób w fundamentalnych prawach fizyki przejawia się trójwymiarowość przestrzeni?".

    Argument ten można zakwestionować przynajmniej w niektórych wypadkach: dla przestrzeni silnie zakrzywionych w którymś z wymiarów.
    Wyobraźmy sobie w płaskim dwuwymiarowym świecie punktowy ładunek wytwarzający typowe pole (np. elektryczne). Natężenie pola będzie malało proporcjonalnie do odległości od ładunku:  "powierzchnią" otaczającą ładunek będzie w tym wypadku obwód okręgu rosnący proporcjonalnie do odległości.
    Jeśli nasza "dwuwymiarowa przestrzeń" ulegnie w jednym z wymiarów całkowitemu zakrzywieniu, otrzymamy coś w rodzaju "rulonu". Linie sił pola będą tutaj obiegać "wszechświat" i natężenie pola tylko początkowo będzie malało w przybliżeniu proporcjonalnie do odległości. W odległościach kilkakrotnie większych, niż promień zakrzywienia "świata", natężenie będzie praktycznie stałe (tak jak w przestrzeni jednowymiarowej), gdyż ciągle taki sam strumień pola będzie przechodzić przez niezmieniający się "obwód świata".




    Podobna sytuacja byłaby w czterowymiarowym świecie, gdyby jeden z wymiarów uległ "zwinięciu": pole rozchodziłoby się tak, jak w zwykłej trójwymiarowej przestrzeni.

        Po sukcesach szczególnej i ogólnej teorii względności, Einstein podejmuje znowu próbę stworzenia kolejnej wielkiej teorii - zunifikowanej teorii pola. Na bezskutecznych poszukiwaniach tej "teorii wszystkiego", która wyjaśni naturę wszystkich znanych sił przyrody, włącznie ze światłem i grawitacją, Einsteinowi upływa ostatnie 30 lat życia.
    Gdy Einstein rozpoczynał te prace, zagadnienie dotyczyło tylko dwóch znanych wówczas sił: elektromagnetycznych (tzn. praktycznie siły Coulomba) i grawitacyjnych. Obydwie siły są oddziaływaniami dalekiego zasięgu, typu 1/R2. Mała wartość stałej powszechnego ciążenia powoduje, że oddziaływania grawitacyjne są znikomo małe w porównaniu z siłami Coulomba. Siła przyciągającego oddziaływania elektrycznego między protonem i elektronem jest ok. 1039 razy większa od oddziaływania grawitacyjnego między nimi. Podnosząc ze stołu skrawki papieru naelektryzowanym grzebieniem widzimy, że pole elektryczne wytworzone przez ten maleńki przedmiot jest silniejsze od pola grawitacyjnego całej Ziemi.

    Richard Feynman w swoich "Wykładach" podaje przykład, także bardzo sugestywnie przemawiający do wyobraźni.
    Gdyby jedna osoba stanęła w odległości ramienia od drugiej osoby i jeśliby każda z tych osób miała o jeden procent więcej elektronów niż protonów, to siła odpychająca między tymi osobami byłaby dostatecznie wielka, aby unieść ciężar równy "ciężarowi" całej Ziemi.

    Oddziaływania grawitacyjne są tak słabe, że można by pomyśleć, że są to tylko szczątkowe, wypadkowe siły elektryczne, wynikające z nierównomiernego rozmieszczenia ładunków elektrycznych w ciałach materialnych (wzajemne polaryzowanie się obiektów). Podobnie jak siły międzycząsteczkowe w równaniu gazu van der Waalsa.
    Przykładowo, neutron jest cząstką elektrycznie obojętną i między dwoma neutronami nie powinno występować oddziaływanie elektryczne. Wg obecnych teorii cząstka ta składa się z trzech kwarków o ładunkach elektrycznych (w jednostkach elementarnego ładunku): +2/3, -1/3, -1/3. Gdy przyjmiemy układ dwóch neutronów tak, jak na rysunku, to wypadkowa siła oddziaływania elektrycznego, wynikająca z minimalnych różnic w odległościach między kwarkami, będzie przyciągająca.


    Taki układ można sobie narysować dla kilku cząstek, ale co zrobić ze wszystkimi we Wszechświecie ?

    Poza rzędem wielkości obydwu sił, podstawowa różnica między tymi oddziaływaniami to fakt, że siła ciężkości jest zawsze przyciągająca a siły elektryczne mogą być i przyciągające i odpychające. Jednokierunkowość sił (jak w grawitacji) jest podstawową cechą równań ogólnej teorii względności, co znacznie utrudnia "wmontowanie" do nich sił elektromagnetycznych.


    Theodor Kaluza
    (1885 - 1954)
    W 1919r. Einstein został zaskoczony listem otrzymanym od nieznanego mu matematyka Theodora Kaluzy z Königsbergu (Królewiec, Kaliningrad; miejscem urodzenia T.Kaluzy w 1885r. było natomiast Opole, a dokładniej istniejący budynek przy ul. Strzelców Bytomskich, obok wicekonsulatu Niemiec). Ów matematyk, ni mniej ni więcej, tylko zaproponował rozwiązanie problemu zjednoczenia teorii grawitacji Einsteina z teorią światła Maxwella.
    Kaluza dodał jeden wymiar przestrzenny do czterowymiarowej czasoprzestrzeni Einsteina i założył, podobnie jak kiedyś Riemann, że światło jest zaburzeniem spowodowanym przez "pofałdowanie" tego wyższego wymiaru. Zapisał najpierw równania pola Einsteina dla grawitacji w tych pięciu wymiarach (tensor metryczny Riemanna można zapisać dla dowolnej liczby wymiarów). Wykazywał następnie, że te pięciowymiarowe równania zawierają w sobie czterowymiarową teorię Einsteina (czego należało oczekiwać) wraz z pewnym dodatkiem. Dodatkiem tym była dokładnie teoria światła Maxwella.
    Pomysł ten można zobrazować tensorem metrycznym w tej pięciowymiarowej czasoprzestrzeni:

    Blok gij jest starą czterowymiarową metryką Einsteina, gdzie w każdym punkcie przestrzeni jest zdefiniowany zbiór dziesięciu liczb (gij = gji). Piąty wiersz i piątą kolumnę identyfikuje się z polem Maxwella, dla którego w każdym punkcie przestrzeni jest zdefiniowany zbiór czterech liczb: składowe 4-potencjału pola elektromagnetycznego (jeden nie zaznaczony składnik to cząstka skalarna, nie mająca tutaj znaczenia).

    Oskar Klein
    (1894 - 1977)

    Teoria ta z punktu widzenia formalizmu matematycznego jest całkowicie spójna i logiczna. Posiada jednak poważny mankament: brak jest dowodu, że piąty wymiar rzeczywiście istnieje. Kaluza założył tutaj, że wymiar ten jest zwinięty do tak małych rozmiarów, iż nie możemy go zaobserwować. W 1926r. matematyk Oskar Klein pracując nad udoskonaleniem tej teorii, obliczył - przyjmując, że wyjaśnienie powodu zwinięcia piątego wymiaru leży w teorii kwantowej - rozmiar tego wymiaru na 10-33 centymetra, co jest wielkością zbyt małą aby jakikolwiek przeprowadzony na Ziemi eksperyment mógł go wykryć.


        Powyższa teoria, zwana tradycyjnie teorią Kaluzy-Kleina, już w latach trzydziestych została praktycznie zaniechana. Poza brakiem możliwości udowodnienia istnienia piątego wymiaru, powodem było pojawienie się nowej teorii, która zrewolucjonizowała świat fizyki.
    Teorią tą była mechanika kwantowa.
    W przeciwieństwie do gładkiej, geometrycznej interpretacji pola sił, stworzonej przez Einsteina, w teorii tej wszystkie siły powstają dzięki wymianie dyskretnych porcji energii, zwanych kwantami.


    Werner Heisenberg (1901 - 1976)
    i Niels Bohr (1885 - 1962)
    Budząca kontrowersje, leżąca u podstaw mechaniki kwantowej, zasada nieoznaczoności Heisenberga powoduje, że to już nie jest w pełni zdeterminowany newtonowski świat, gdzie można było przewidzieć ruchy wszystkich cząstek, lecz świat prawdopodobieństw i przypadków. Do tego indeterministycznego podejścia nie przekonał się nigdy Einstein. Znany jest jego spór na ten temat z Nielsem Bohrem a także jego powiedzenie: "Bóg nie gra w kości z Wszechświatem".
    Mechanika kwantowa pozwoliła wkroczyć w świat atomów i ich składników. Umożliwiła bardzo dokładny opis zjawisk rządzących światem mikrocząstek. Liczba tych najmniejszych obiektów, odkrytych w ciągu kilkudziesięciu lat, wzrosła do ponad stu, ale są to głównie cząstki wirtualne istniejące bardzo krótko - rzędu 10-10 sekundy i krócej. Odkryto dwa nowe oddziaływania rządzące właśnie w świecie mikrocząstek: słabe i silne oddziaływania jądrowe. Dzięki odkryciu pola Yanga-Millsa udało się stworzyć spójną teorię obejmującą oddziaływania elektromagnetyczne oraz obydwa oddziaływania jądrowe, tak bardzo zgodną z danymi doświadczalnymi, że nazywa się ją ze spokojem modelem standardowym.

    Mimo zgodności modelu standardowego ze wszystkimi znanymi danymi eksperymentalnymi, nie jest on ostateczną teorią materii. Poza tym, że nie obejmuje on grawitacji, jest nie tylko, że nieelegancki, ale sztuczny i wręcz brzydki. Jego twórcy czują się chyba nawet z tego powodu trochę zawstydzeni.
    Wystarczy tu powiedzieć, że w modelu tym występuje:

    Można sobie wyobrazić, jak fizycy pracowicie spędzają dziesiątki lat na manipulowaniu wartościami wszystkich tych 19 parametrów w celu ich optymalnego "dostrojenia". Kojarzy mi się to z dziedziną bardzo od fizyki odległą: polityką. Poszczególne ugrupowania przelicytowują się pomysłami na korygowanie w różnych kierunkach dziesiątków, dotyczących oczywiście głównie pieniędzy, wskaźników (stawek podatków, obowiązkowych ubezpieczeń, ulg, dotacji, koncesji itd.). Może to być niekończący się proces, bo żadne (powiedzmy: prawie żadne) z tych ugrupowań nie ma wizji zerwania z tym "brzydkim" modelem ręcznego sterowania i stworzenia "eleganckiego", samoregulującego się modelu, o prostych i jasnych regułach i ograniczonej do całkowicie niezbędnego minimum liczbie takich sztucznie wprowadzanych parametrów.

    ( "Im bardziej skorumpowane państwo, tym więcej praw" - Tacyt )

    Należałoby poza tym dodać, że istnieje możliwość, iż zostaną odkryte kolejne rodziny kwarków i leptonów.

    Oni tworzyli fizykę w I poł. XX wieku:


    Pierwszy rząd: I. Langmuir, M. Planck, M. Skłodowska-Curie, H.A. Lorentz, A. Einstein, P. Langevin, Ch. E. Guye, C.T.R. Wilson, O.W. Richardson
    Środkowy rząd: P. Debye, M. Knudsen, W.L. Bragg, H.A. Kramers, P.A.M. Dirac, A.H. Compton, L. de Broglie, M. Born, N. Bohr
    Tylny rząd: A. Piccard, E. Henriot, P. Ehrenfest, Ed. Herzen, Th. De Donder, E. Schrödinger, E. Verschaffelt, W. Pauli, W. Heisenberg, R.H. Fowler, L. Brillouin
    Na zorganizowany przez fundację Solvaya kongres w Brukseli została zaproszona tylko mała grupa specjalistów, mająca przedyskutować problemy teorii kwantów.



    Peter van Nieuwenhuizen (ur. 1938)
    fot. z 1993r.

        Po kilku dziesiątkach lat sukcesów mechaniki kwantowej i modelu standardowego, już z końcem lat sześćdziesiątych nadzieje na rozwiązanie tą drogą problemu Wielkiej Unifikacji i Teorii Wszystkiego zaczęły przygasać. Przypomniano sobie wtedy o starej teorii Kaluzy-Kleina i zaczęto wracać do idei wyższych wymiarów.
    Od czasów opracowania tej teorii fizyka wzbogaciła się o znajomość świata mikrocząstek z jego symetriami i polem Yanga-Millsa. Ale, gdy pół wieku wcześniej przed fizykami stało zadanie zjednoczenia tylko dwóch oddziaływań: grawitacji i elektromagnetyzmu, teraz doszły silne i słabe oddziaływania jądrowe. Było jasne, że trzeba tu będzie więcej, niż pięciu wymiarów.
    Z tych prób wykorzystania idei Kaluzy-Kleina wyłoniła się teoria supergrawitacji, przedstawiona w 1976r. przez trzech fizyków z Uniwersytetu w Stony Brook: Daniela Freedmana, Sergio Ferrarę i Petera van Nieuwenhuizena. Teoria ta już po dalszych udoskonaleniach, opierała się na jedenastowymiarowej czasoprzestrzeni. Sformułowanie superteorii Kaluzy-Kleina w 11 wymiarach wymagało znacznego zwiększenia ilości składników w tensorze Riemanna, który w ten sposób stał się supertensorem Riemanna. Łączył on teraz w sobie zarówno oddziaływania (grawitacyjne, elektromagnetyczne, jądrowe) jak i materię:



    Ta superunifikacja wszystkich sił i cząstek Wszechświata wywołała ogromny oddźwięk w świecie fizyki. Jeden z jej twórców, Peter van Nieuwehuizen, napisał, że supergrawitacja "może zjednoczyć wielkie zunifikowane teorie (...) z grawitacją, tworząc model który niemal nie ma swobodnych parametrów. Jest to unikalna teoria (...) tak piękna, że Natura powinna być jej świadoma". Stephen Hawking, gdy w kwietniu 1980r. obejmował w Cambridge profesurę Lucasa (stanowisko to niegdyś zajmował Isaac Newton), wygłosił wykład pod optymistycznym tytułem "Czy widać już koniec fizyki teoretycznej?".

        W latach osiemdziesiątych zaczęto jednak dostrzegać problemy związane z supergrawitacją. W żadnym z eksperymentów nie wykryto tzw. s-cząstek, których istnienie przewidywała teoria. Stało się też jasne, że teorii tej nie da się poprawnie skwantować (teoria nie poddaje się renormalizacji, czyli nie można pozbyć się nieskończoności powstających przy uwzględnianiu poprawek kwantowych). Te i inne problemy sprawiły, że zainteresowanie fizyków zaczęło się kierować w stronę innej teorii: chyba najdziwniejszej, ale i najpotężniejszej, jaka kiedykolwiek została zaproponowana.

    Ta nowa teoria to teoria superstrun.
    Jej historia zaczęła się jeszcze w 1968r., gdy młodzi fizycy z CERN-u w Genewie, Gabriel Veneziano i Mahiko Suzuki, poszukując funkcji matematycznych, które mogłyby opisać zachowanie silnie oddziaływujących cząstek, natknęli się niezależnie od siebie na funkcję beta, stworzoną w XIXw. przez Leonharda Eulera. Zaskoczyło ich, że funkcja ta ma prawie wszystkie własności niezbędne do opisania oddziaływania silnego cząstek elementarnych. W 1970r. Yoichiro Nambu z Uniwersytetu w Chicago i Tetsuo Goto z Uniwersytetu w Nihon wykazali, że za cudownymi własnościami funkcji beta kryje się drgająca struna.
    Po kilku latach intensywnych prac nad modelem Veneziano-Suzuki'ego, w 1974r. badania uległy gwałtownemu zahamowaniu. Okazało się, że teoria ta jest spójna tylko w dziesięciu oraz w dwudziestu sześciu wymiarach, a prawie nikt nie wierzył by teoria zdefiniowana w takiej hiperprzestrzeni miała coś wspólnego z rzeczywistością.
    Przez całe dziesięciolecie, od 1974 do 1984r., teoria pozostawała w zapomnieniu. Był to okres powrotu do teorii Kaluzy-Kleina oraz popularności modelu supergrawitacji.


    Edward Witten (ur. 1951)
    Gdy, zarówno teoria Kaluzy-Kleina jak i supergrawitacja doznały licznych niepowodzeń, a jednocześnie oswojono się z ideą hiperprzestrzeni, opór przeciwko teorii superstrun zaczął topnieć. W końcu 1984r. udowodniono (John Schwarz z California Institute of Technology i Michael Green z Queen Mary's College w Londynie), że teoria ta jest jedyną spójną teorią kwantowej grawitacji, a w następnym roku Edward Witten z Institute for Advanced Study w Princeton dokonał zasadniczych postępów w tym modelu, nazwanym teorią pola Wittena. Duży wkład w rozwój tej teorii wniósł "kwartet strunowy z Princeton": David Gross, Emil Martinec, Jeffrey Harvey i Ryan Rohm (wymyślili tzw. strunę heterozyjną - zamkniętą, wibrującą w dwóch kierunkach) oraz Michio Kaku z Uniwersytetu w Nowym Jorku (teoria pola strun).


    Michio Kaku (ur. 1947)
    W teorii superstrun cząstki elementarne są utożsamiane z rezonansami miniaturowych (miliardy razy mniejszych od protonu) strun, które zachodzą przy określonych częstościach drgań. Każdy rodzaj rezonansu odpowiada innej cząstce, stąd też takie bogactwo cząstek elementarnych.
    Teoria strun wyjaśnia nie tylko naturę cząstek, ale także czasoprzestrzeni. Poruszając się w czasoprzestrzeni struna może rozpadać się na mniejsze struny, albo zderzać się z innymi, tworząc dłuższe struny. Przy założeniu, że struna musi poruszać się spójnie w czasoprzestrzeni, z równań struny można wyprowadzić równania Einsteina! Kwant grawitacji (grawiton) to tutaj najmniejsze drganie zamkniętej struny. Jeśli nie wyrazimy teorii grawitacji Einsteina jako jednego z drgań struny, teoria superstrun staje się niespójna. Te ograniczenia na spójność są bardzo sztywne. Pozwalają one na poruszanie się struny tylko w przestrzeniach o magicznych liczbach wymiarów: dziesięć lub dwadzieścia sześć. W takich przestrzeniach jest już na szczęście wystarczająco dużo "miejsca", by zjednoczyć wszystkie podstawowe siły i wychodząc od prostej teorii wibrującej struny można otrzymać teorię Einsteina, Kaluzy-Kleina, model standardowy i teorię GUT. Edward Witten stwierdził nawet, że "wszystkie naprawdę wielkie idee w fizyce" są odgałęzieniami teorii superstrun, a odkrycie ogólnej teorii względności przed teorią superstrun "było zwykłym przypadkiem w historii Ziemi".
    Teoria superstrun mieści w sobie wszystkie symetrie modelu standardowego, a nawet teorii GUT, a poza tym jest to pierwsza w historii fizyki kwantowa teoria grawitacji renormalizowalna (mająca skończone poprawki kwantowe). Tego kryterium nie spełniały wszystkie znane wcześniej teorie, włącznie z oryginalną teorią Einsteina, teorią Kaluzy-Kleina i supergrawitacją.

    George Gamow jako dżin wyłania się z butelki z "ylemem", hipotetyczną pierwotną materią, z której powstał Wszechświat w Wielkim Wybuchu. Po lewej Ralph Alpher. Obdarzony poczuciem humoru Gamow namówił fizyka jądrowego Hansa Bethego (zm. 6.03.2005r. w wieku 98 lat), aby dodał on swoje nazwisko do listy autorów, dzięki czemu ich teorię nazywa się modelem "alfa-beta-gamma".
    W teorii tej zakłada się, że dodatkowych sześć, niewidzialnych dla nas, wymiarów jest zwiniętych do rozmiarów rzędu długości Plancka. Zgodnie z modelem Gorącego Wielkiego Wybuchu, opracowanym jeszcze w 1948r. przez George'a Gamowa (1904 - 1968) i jego studenta Ralpha Alphera, można przyjąć, że w chwili narodzin Wszechświata, przy fantastycznej temperaturze 1032 kelwinów, był on pięknym dziesięciowymiarowym tworem, w którym zjednoczone były wszystkie oddziaływania i istniała jedna wielka symetria GUT. Świat ten był jednak niestabilny i po 10-43 sekundy rozpadł się na cztero- i sześciowymiarowy. Sześciowymiarowy zapadł się do rozmiaru 10-32 centymetra, a nasz czterowymiarowy zaczął się gwałtownie rozszerzać. Po 10-35 sekundy silne oddziaływania oddzieliły się od elektrosłabych, a niewielki fragment większego wszechświata rozszerzył się 1050 razy, stając się ostatecznie naszym widzialnym Wszechświatem. Po upływie dalszego ułamka sekundy, oddziaływania elektrosłabe rozpadły się na elektromagnetyczne i słabe, a następnie, gdy temperatura spadła już do 1014 kelwinów, kwarki zaczęły się łączyć w protony i neutrony ...

    Z końcem lat osiemdziesiątych wydawało się, że w krótkim czasie uda się nadać teorii ostateczny kształt. Wyniknęły tu jednak problemy.
    Ukończenie teorii pola strun jest dobrze matematycznie zdefiniowanym problemem, ale rozwiązanie go wymaga technik, które wykraczają poza umiejętności jakiegokolwiek fizyka żyjącego współcześnie. Stosowany tu obecnie rachunek zaburzeń (teoria perturbacji) przynosi dosłownie miliony rozwiązań (różnych sposobów zwinięcia dodatkowych wymiarów), a nikt nie wie, jak wybrać spośród nich to poprawne! Można powiedzieć, że problem leży w tym, że podczas gdy fizyka XXI wieku znalazła się w dwudziestym stuleciu, matematyka XXI wieku jeszcze nie powstała.
    Z drugiej strony, dla empirycznej weryfikacji tej teorii musielibyśmy dysponować energiami porównywalnymi z energią Wielkiego Wybuchu!
    Witten w jednym z wywiadów powiedział: "Istoty ludzkie na Ziemi nigdy nie posiadały bazy pojęciowej, która doprowadziłaby je do świadomego stworzenia teorii strun. (...) Nikt nie wymyślił jej celowo, została odkryta przez szczęśliwy traf. Fizycy XX wieku w zasadzie nie powinni uzyskać przywileju studiowania tej teorii. Teoria strun nie miała prawa powstać, zanim nasza wiedza o pewnych ideach, które są dla teorii strun podstawowe, nie osiągnie poziomu umożliwiającego dokładne zrozumienie, o co w tym wszystkim chodzi".



    Bóg stwarzający Wszechświat
    Wiliam Blake, 1757-1827
        Od czasów Newtona fizyka przebyła długą drogę i ciągle nie wiemy, jak daleko jeszcze do jej końca, do całkowitego zrozumienia istoty świata. W gruncie rzeczy nie wiemy nawet, czy taki koniec istnieje.
    Chociaż fizycy skłaniają się, przynajmniej w części, do poglądu, że kwarki i leptony to już cząstki podstawowe, ciągle nie ma pewności, czy nie są one zbudowane z czegoś jeszcze mniejszego. Jeśli cząstka nie jest punktem i posiada rozciągłość przestrzenną, to coś powinno zajmować tę przestrzeń. Czymkolwiek jest to "coś", właśnie z tego musi być zbudowana cząstka. Przy tym rozumowaniu, stosując w mikroświecie wyobrażenia o materii zaczerpnięte z naszego makroświata, dojdziemy do przekonania, że najbardziej elementarnej "cegiełki" w ogóle nie ma, że materia jest "nieskończona w głąb" (przychodzi tu na myśl powiedzenie Lenina o "niewyczerpywalności elektronu").

    Należy sobie uświadomić, że utrwalone w naszej świadomości wyobrażenia o materii są nieco złudne. Wyobrażenia te oparte są na naszych zmysłach wzroku i dotyku. Przedmioty, które widzimy dookoła, wydają nam się ściśle wypełnione materią. W rzeczywistości ta materia to niemal pusta przestrzeń.
    Obszar, w którym elektrony krążą wokół jadra atomowego, jest więcej niż 10 tysięcy razy większy od objętości zajmowanej przez jądro. Odległość między atomami metalu w krysztale jest rzędu 10-8 cm, natomiast rozmiar nukleonu to ok. 10-13 cm.
    To elektrony powodują, częściowe lub całkowite, odbijanie kwantów światła (fotonów) przez przedmiot materialny i dlatego ten przedmiot możemy oglądać. Patrząc na błyszczący biały metal (srebro, aluminium) możemy powiedzieć, że "widzimy" swobodne elektrony; gaz swobodnych elektronów w tym metalu nie pozwala na przeniknięcie do środka fal świetlnych.
    Siły elektrostatycznego odpychania pomiędzy elektronami w powierzchniowych warstwach dwóch przedmiotów nie pozwolą także na "przeniknięcie" jednego przedmiotu przez drugi.

    W świecie fizyki tak już jest, że wraz ze zmniejszaniem się obiektów gwałtownie wzrastają siły działające na te obiekty, od bardzo słabych sił grawitacyjnych oddziaływujących we wszechświecie do krańcowo potężnych sił wiążących ze sobą kwarki w nukleonach. Te ostatnie siły są tak wielkie, że dotychczas nie wykryto eksperymentalnie kwarków jako cząstek swobodnych. Gdyby te cząstki miałyby się składać z kolejnych mniejszych elementów, to, można przypuszczać, występowałby tam nowy rodzaj sił jeszcze potężniejszych.

    Mechanika kwantowa z modelem standardowym, mimo niezaprzeczalnych osiągnięć (także w życiu codziennym: jej efektem są m.in. diody i tranzystory), jak już powiedziano, nie jest ostateczną teorią materii. Nie obejmuje ona grawitacji a jej zgodność z danymi doświadczalnymi okupiona została dopasowanymi (nie wynikającymi z teorii) parametrami. Nie jest to absolutnie elegancka teoria, czego należałoby oczekiwać od Uniwersalnej Teorii.
    Kontrowersyjna też jest jedna z podstawowych tez tej teorii: zasada nieoznaczoności.
    Zasada ta, odrzucając w istocie przyczynowość w pewnych obszarach świata fizycznego, podważa fundamenty, na których opiera się nasze poznanie świata. Przeczy ona w pewnym sensie tezie, że w całej przyrodzie obowiązują znane nam lub nieznane, ale ścisłe prawa.

    Generalnie, wydają się prawdopodobne dwa główne "scenariusze" podstawowej istoty materii:

    "Uznaję istnienie materii, lecz nie wiem, czy materia jest materialna" - F.Dostojewski

    Być może kluczem do stworzenia ostatecznej teorii są wielowymiarowe przestrzenie i właśnie teoria superstrun? Może właśnie geometria miniaturowej, około stu miliardów miliardów razy mniejszej od protonu, struny odpowiedzialna jest zarówno za pochodzenie sił jak i za strukturę materii?
    Jak widzieliśmy, w wyższych wymiarach zagadnienia się upraszczają a teorie zyskują na elegancji, obejmując swym zasięgiem większy zakres zjawisk.
    Słabym punktem teorii superstrun jest to, że nie potrafimy jej w chwili obecnej w żaden sposób udowodnić (tak samo, jak żadnej teorii zdefiniowanej przy energii Plancka wynoszącej 1019 miliardów elektronowoltów). Kontrowersje wzbudza zwłaszcza przestrzeń o dodatkowych, zwiniętych, wymiarach. Czy rzeczywiście świat posiada więcej niż trzy wymiary przestrzenne, a jeżeli tak, to dlaczego niektóre uległy zwinięciu?

    /rysunek pochodzi z "Ilustrowanej krótkiej historii czasu" Stephena Hawkinga, wyd. polskie ZYSK i S-KA, 1996r./
    Wydaje się oczywiste, że trzy wymiary to liczba minimalna, aby mogło istnieć bogactwo form, w szczególności tak skomplikowanych, jak materia ożywiona.
    Jako prosty przykład można przedstawić tutaj dwuwymiarowe zwierzę, które rozpadłoby się na dwie części rozdzielone przewodem pokarmowym. Równie trudno wyobrazić sobie na przykład obieg krwi w takim stworzeniu.
    Jeśli nasz obserwowalny Wszechświat jest "częścią" dziesięciowymiarowej czasoprzestrzeni, to można rozważać przynajmniej dwa wypadki:

    Teoria superstrun to bardzo zaawansowany matematycznie model. Niektórzy z matematyków stwierdzili, że może należałoby ją traktować jako gałąź matematyki, bez względu na to, czy ma jakieś fizyczne znaczenie.
    Istotne przede wszystkim jest, aby opracowany model był doskonale zgodny z fizyczną rzeczywistością we wszystkich jej przejawach. Być może, że teoria superstrun będzie takim modelem. I być może, że wtedy na pytanie, z czego zbudowana jest ta mała struna, w czym rozchodzą się te drgania będące cząstkami elementarnymi, będziemy mogli tylko odpowiedzieć, że tym tworzywem jest eter ...

    Aby nie ulec pochopnej fascynacji teorią superstrun i światami wielowymiarowymi trzeba jednak spojrzeć na tę teorię także krytycznie.
    Sceptyk może uważać, że to tylko matematyczna żonglerka z wykorzystaniem wyimaginowanego obiektu o bardzo szerokim spektrum możliwych zachowań (drgająca struna, a w nowszej teorii membrana) w tak dobranym n-wymiarowym świecie, aby matematyczny zapis własności tego obiektu można było dostosować do opisu pewnej grupy zjawisk fizycznych.
    Może to być sytuacja podobna, jak w poniższym przykładzie.

    Próbujemy dopasować krzywą, o możliwie prostym równaniu, do danych punktów.
    Przy dwóch punktach, naturalnym podejściem jest przyjęcie prostej o jakimś równaniu y = ax + b z dwoma odpowiednio dobranymi parametrami a oraz b.

    Jeśli następne pojawiające się punkty nie będą zgadzały się z naszym równaniem, przypuszczalnie będziemy zwiększać jego stopień i przy sześciu punktach, tak rozmieszczonych jak na rysunku, otrzymamy mało eleganckie równanie
       y = 0,01x5 + 0,01x4 - 0,35x3 - 0,01x2 + 0,98x - 5
    już z sześcioma parametrami.
    W tym momencie - mając na uwadze prostotę równania - możemy mieć wątpliwości, czy jesteśmy na dobrej drodze.

    I zupełnie słusznie, gdyż punkty należą do spirali Archimedesa o bardzo prostym równaniu r = φ, lecz w innego typu układzie współrzędnych (współrzędne biegunowe). Okazało się, że nie było konieczności wprowadzania żadnych dodatkowych parametrów.



    Sceptyk może właśnie kwestionować elegancję teorii superstrun - dodatkowe wymiary, ich promienie zwinięcia to przecież wprowadzane dodatkowe parametry ( stałe przyrody ). Może rozwiązanie jest prostsze, lecz polega na czymś innym?

    Powyższy przykład oczywiście odnosi się też, i to w większym stopniu, do mechaniki kwantowej. Jak pamiętamy, w modelu standardowym mamy aż 19 wprowadzonych sztucznie parametrów.

    Paradoksalne jest to, że im bardziej podstawowe i fundamentalne aspekty materii są badane, tym bardziej abstrakcyjne stają się rozważania nad nimi! Jeden z największych matematyków w XIX wieku, Alferd North Whitehead, powiedział, że matematyka na swoim najgłębszym poziomie jest nierozdzielna z fizyką na jej najgłębszym poziomie.

    "Hic sunt leones" (łac.: tu przebywają lwy) - na dawnych mapach tak oznaczano kraje nieznane ("białe plamy")
    Można wierzyć, że u podstaw fizyki leży niewielki zbiór podstawowych zasad, mogących być wyrażonych prostym językiem, bez konieczności odwoływania się do matematyki. I że z tych zasad, wyrażonych już w formie eleganckiego równania matematycznego, lub zestawu równań, będzie można odtworzyć otaczający nas świat z całym bogactwem zjawisk fizycznych oraz jego przeszłością i przyszłością. I w końcu można wierzyć, że te zasady określające istotę Natury zostaną przez nas kiedyś odkryte.

    Ale prawdopodobnym też jest, być może nawet bardziej, że świat jest jakościowo nieskończony i tym samym "niewyczerpywalny" poznawczo, że nigdy nie dojdziemy do końca ani że takiego końca w ogóle nie ma ( brzmi to dosyć pesymistycznie, ale z drugiej strony spróbujmy sobie wyobrazić nudę świata całkowicie znanego i nie kryjącego żadnych tajemnic! ).
    Einstein kiedyś powiedział: "Przyroda pokazuje nam tylko ogon lwa. Wierzę jednak, że na jego końcu znajduje się lew, jeżeli nawet z powodu jego olbrzymich rozmiarów nie możemy zobaczyć zwierzęcia w całości."

    Mieliśmy wcześniej dwa przykłady z historii fizyki, gdy wydawało się, że wiemy już prawie wszystko: optymistyczne stwierdzenie lorda Kelvina z końca XIX wieku i wykład Stephena Hawkinga wygłoszony w 1980 roku. Dwie "małe chmurki" lorda Kelvina, widniejące wówczas na horyzoncie, przekształciły się w XX wieku w dwie chyba największe burze w historii fizyki: teorię względności i teorię kwantów.

    W miarę jak wydzieramy Przyrodzie jej tajemnice i poszerzamy granice wiedzy pojawiają się nowe pytania. Wydaje się, że tym pytaniom nie będzie końca, że ciągle będą pozostawać białe plamy na naszej mapie poznania.
    Być może tego lwa Einsteina nigdy w całości nie zobaczymy ...



    Inspiracją do napisania artykułu była książka Michio Kaku "Hiperprzestrzeń" (wyd. polskie Prószyński i S-ka, 1999r.).


    Jan K. Nowakowski
    Opole, 2001r.





    do góry


    stat4u