piątek, 29 kwietnia 2016

To, co stanowi bazę dla dzisiejszego modelowania Wszechświata.

     Artykuł ten, wraz z dwoma wcześniejszymi, w gruncie rzeczy stanowi tło dla meritum rozważań, które przedstawione zostaną w dalszych artykułach traktujących o zagadnieniach kosmologicznych, a także dla innego spojrzenia na grawitację i na mikroświat – w artykułach następnych. Sygnalizują one odejście od tradycyjnego, powszechnie przyjętego widzenia spraw. Już choćby dlatego nie uważam za celowe wnikanie tu w szczegóły powszechnie znane. Rzecz opisana została w licznych książkach, sporo informacji uzyskać można w sieci. Jednakże poruszam te znane kwestie, by stworzyć i uwypuklić alternatywę dla dzisiejszego modelowania, dla dzisiejszych koncepcji, a nawet dla percepcji tego, co rejestrują nasze ukierunkowane zmysły.
  
Treść
1. Friedmannowskie modele kosmologiczne
2. Promieniowanie tła.
3. Ciemna energia.


1. Friedmannowskie modele kosmologiczne
Jak już niejednokrotnie zaznaczyłem, jeszcze w początkach dwudziestego wieku sądzono powszechnie, bez intelektualnej penetracji w głąb tego sądu, że Wszechświat jest statyczny i nieskończony. Z tego właśnie powodu, by zadość uczynić temu powszechnemu sądowi, tej oczywistości, Einstein w swych równaniach pola (OTW) wprowadził stałą kosmologiczną, która dziś robi oszałamiającą karierę pomimo, że niedługo po tym nazwał on ten zabieg swą największą pomyłką. Sądząc po treści artykułu pierwszego (Zasada Kosmologiczna) i dalszych, nie mylił się (przyznajac się do pomyłki). Jeszcze zanim się przyznał, powstało sporo modeli Wszechświata, już uwzględniających tę nieszczęsną stałą. 
     W roku 1922 Aleksander Friedmann (Rosja) znalazł nowe rozwiązania równań ogólnej teorii względności, mające modelować Wszechświat, nowe w związku z tym, że nie uwzględnił już stałej kosmologicznej. Z równań tych wynika możliwość rozwoju Wszechświata ekspandującego (być może nawet realnego) zgodnie z jednym z trzech modeli, w zależności nie tyle od jego masy, co średniej gęstości. Po odkryciu Hubble’a (1929), uznał Einstein ostatecznie wprowadzenie stałej kosmologicznej za błąd i przyjął friedmanowskie rozwiązania równań pola za słuszniejsze. Przebieg rozwoju Wszechświata według trzech wspomnianych modeli znaleźć można z łatwością w różnych źródłach. Tu przedstawię rzecz w sposób skrótowy. Do zagadnień tych wrócimy w innym miejscu, w kontekście innych rozważań i z uwzględnieniem prostych środków matematycznych.
Interesujące (z punktu widzenia historii nauki) jest to, że jednak w koncepcjach kosmologicznych drugiej połowy dwudziestego wieku, ten zarzucony pomysł stałej kosmologicznej powrócił do łask (Czy dlatego, gdyż wyczerpała się inwencja twórcza?). Czy dlatego, gdyż łatwiej było przyjąć mniej abstrakcyjny model Wszechświata statycznego i nieskończonego, który... ekspanduje? W sytuacji tej pomysł ciemnej energii trafił na podatny grunt. Czy dlatego, że jest słuszny? Chyba raczej nie. Meandry.
     Oto trzy modele friedmannowskie. Model otwarty – Wszechświat rozszerzać się będzie w nieskończoność, gdyż jego średnia gęstość jest zbyt mała, (grawitacja jest zbyt słaba), by zahamować nieograniczone rozszerzanie się. Model krytyczny, graniczny – o nim więcej dalej. Jeśli średnia gęstość (a więc i masa) Wszechświata jest odpowiednio duża, ekspansja jego ulegnie zatrzymaniu i rozpocznie się kontrakcja, aż do zapadnięcia się całości w osobliwość*, od której wszystko się zaczęło (tak powszechnie się rzecz wyobraża, jeśli osobliwość można faktycznie wyobrazić sobie) – model zamknięty. Czy właśnie taki jest Wszechświat? Być może Wszechświat realny pulsuje na przemian ekspansją i zapadaniem się? Model krytyczny stanowi granicę między otwartym, a zamkniętym. Sądząc po tym, że matematycznie jest to granica punktowa, krytyczny rozwój Wszechświata jest właściwie czymś nieprawdopodobnym lub też, (Uwaga!) rozwój „krytyczny” jest jedyną możliwą opcją. Pozwalam sobie na taki właśnie sąd choć zgodnie z modelem krytycznym Wszechświat miałby rozszerzać się ku nieskończoności, przy tym byłoby to balansowanie na linie o zerowej grubości – tzw. problem płaskości. Ja jednak zakładam, że Wszechświat oscyluje. Chodzi więc nie tyle o krytyczność, co o to, że przestrzeń Wszechświata jest płaska. Tak się składa, że także model krytyczny zakłada płaskość.
     Co wtedy z pozostałymi dwoma modelami? Jak widać mamy nowy powod do zastanowień, tym bardziej, że sam „start” Wielkiego Wybuchu nie jest przewidywany przez ogólną teorię względności. Energia próżni, inflacja, to inny paragraf. Sprawami początków Wszechświata zająłem się już w serii artykułów poświęconych grawitacji dualnej, zaraz po tym artykule. Jak widać, do kamienia filozoficznego jeszcze daleko. Problemem dynamiki Wszechświata zajmować się będziemy w niejednym tekście i w różnych kontekstach. 
     Modele friedmannowskie zakładają, że tempo ekspansji zmniejsza się, w analogii do ciała podrzuconego do góry zmniejsza się jego prędkość. Chodzi tu jednak o zmiany krzywizny przestrzeni, jaką tworzyć ma Wszechświat. Tempo ekspansji H jest tu zasadniczym parametrem. W tej pracy jednak nie mniej ważna jest względna prędkość, prędkość stała dla określonej pary obiektów, prędkość faktycznego ruchu galaktyk (a nie zmiany czynnika skali), której kresem górnym jest oczywiście prędkość niezmiennicza c. To właśnie prędkość ekspansji Wszechświata.  Mowa o stałej prędkości względnej pomimo, że Wszechświat ma także pulsować. Jakżesz to? Zobaczymy później, choć już coś zdążyłem wcześniej wypaplać. Do dyskusji na ten temat jeszcze wrócimy.  
     Trzy wspomniane modele będące rozwiązaniami równań pola Einsteina-Friedmanna stanowią do dziś podstawę kosmologii (pomijając zastrzyk heurezy za sprawą stałej kosmologicznej i ciemnej energii). To, jak realny Wszechświat rozwija się, co „nas” czeka, zgodnie z friedmannowskim modelem, zależy od jego gęstości średniej, której stosunek do gęstości krytycznej nazwano parametrem gęstości W. 
[Dlaczego nie uzależnia się od masy? Otóż masa jest wielkością ekstensywną, czyli zależną od wielkości układu. Przy założeniu, że Wszechświat jest nieskończony (lub, że nie jest widoczny w całości – zgodnie z dzisiejszym widzeniem spraw, „masa Wszechświata” jest czymś nieokreślonym. Dlatego właśnie stosuje się wielkość intensywną, czyli niezależną od ilościowej zawartości, w naszym przypadku – gęstość średnią. Jednakże jeśli przyjmujemy, że to, co dane jest obserwacji jest Wszystkością, rozważania nad masą Wszechświata mają sens, a nawet prowadzą do ciekawych wniosków. Przekonamy się o tym dalej.]
     Okazuje się, wskazują na to wyniki obserwacji, że realny Wszechświat ewoluuje (najprawdopodobniej) zgodnie z modelem krytycznym (W = 1). [Mówi się dla pewności, że „bardzo bliski krytycznemu”. Ja jednak twierdzę, że krytyczność jest jedyną opcją, zatem trudno to nazywać krytycznością. Jeszcze wrócimy do tych spraw.] Wcale nie znaczy to, że zawsze tak będzie. Kto wie, może ewolucja Wszechświata przebiega tak, że wszystkie trzy modele są w niej reprezentowane i stanowią określone jej etapy? Wrócimy jeszcze do tego przypuszczenia, nie koniecznie by je poprzeć.
     Jak wiadomo, po siedmiu latach od opublikowania przełomowej pracy Friedmanna, Hubble dokonał swego odkrycia. Z równań OTW wynika zmienność (stopniowe malenie) tempa ekspansji. Czy to raptem nie przeczy odkryciu Hubble'a? Otóż nie, gdyż teoria Friedmanna zajmuje się dynamiką Wszechświata, zmianami jego stanu, natomiast prawo Hubble'a odnosi się do przestrzeni w określonym momencie obserwacji.
     W ciągu krótkiego czasu, jeszcze w latach dwudziestych, namnożyło się sporo modeli Wszechświata, bazujących na ogólnej teorii względności. Stanowiły one doskonałą bazę intelektualną i heurystyczną dla odkryć, które przyszły potem. Najwcześniejszym było odkrycie Hubble’a. Modele, którym poświęcony jest ten rozdział nie straciły na aktualności, nawet uwzględniane są przez najbardziej współczesne teorie. Innym modelom poświęcam w swej pracy niewiele miejsca, gdyż na ogół nie korespondują z prezentowaną tu koncepcją, a poza tym mają tylko znaczenie historyczne. Co innego modele Friedmanna, pomimo, że „ideologicznie” nie w pełni pasują do mojej wizji świata. Przedstawiłem je między innymi po to, by uwypuklić swe zapatrywania. Ogólnej teorii względności nie odrzucam. Bez cienia wątpliwości akceptuję ją, bo lepszej dotąd nie wymyślono. Uważam jednak, że teoria ta znakomicie opisuje układy, natomiast w odniesieniu do opisu Wszechświata, który jest sam w sobie absolutną jednością i „wszystkością”, traci (kto wie) swą adekwatność. Nie ma bowiem skąd przypatrywać się Wszechświatowi, bo poza nim przestrzeń nie istnieje, nie istnieje układ odniesienia. Pogląd ten jakby sprzeniewierza się sposobowi myślenia badaczy, dla których ogólna teoria względności (stosowana do opisu Wszechświata) jest codziennością ich badawczego warsztatu. Nie ma mowy, by go porzucili, niezależnie od okoliczności. Sądzą oni (intuicyjnie, choć intuicja w znacznym stopniu bazuje właściwie na tym, co tworzy aktualną wiedzę), że istnienie wielu wszechświatów lub chociażby materii poza horyzontem jest jak najbardziej do przyjęcia. Sam horyzont bowiem ma właściwie tylko znaczenie „łącznościowe” (Wspominałem już o tym w poprzednim artykule. Będzie też o tym dalej.). Pogląd ten, jak sądzę, jest także wyrazem kurczowego przywiązania intuicji do wszechświata statycznego i nieskończonego (to już psychologia). Jeśli chodzi o ogólną teorię względności, to istnieje jeszcze jeden aspekt ograniczonego zakresu jej stosowalności. Chodzi o dualność grawitacji i jej konsekwencje w odniesieniu, szczególnie, do mikroświata w przypadku dużej koncentracji materii. Niebawem odkryjemy to.     
     Na zakończenie (i przy okazji) wypada wspomnieć o pracach belgijskiego kosmologa, Georgesa Lamaître, który doszedł (1927) niezależnie od Friedmanna i przed odkryciem Hubble`a, do bardzo podobych wniosków, pomimo, że zachował w swych równaniach stałą kosmologiczną. W swych dociekaniach próbował też zmodelować sam wielki wybuch. Tym właściwie zasługuje na miano „ojca wielkiego wybuchu”, choć nie on wprowadził tę nazwę. Wybuch ten poprzedził, według niego, stan „pierwotnego atomu” (tak to nazwał) o rozmiarach trzydzieści razy większych niż Słońce. W wyniku jego eksplozji powstał Wszechświat, który do dziś ekspanduje. 
     Aktualnie kosmologia czerpać może nadal z dobrodziejstwa niewyczerpanych możliwości jakie pozostawia do dyspozycji uczonych ogólna teoria względności, choć ich mnogość bynajmniej nie czyni nas bliższymi jednoznaczności bytu obiektywnego. Nie ma obawy. Przyroda nie da się nakłonić do wymowy równań jeśli nie będą jej wyrażać w sposób absolutny. Można więc swobodnie i spokojnie szukać dalej śladów kamienia filozoficznego. 

2. Promieniowanie tła. 
     Wyniki obserwacji astronomicznych, zbieżne z zasadą kosmologiczną, skłaniają nas do przyjęcia tezy (by nie powiedzieć: przekonują), że Wszechświat rozszerza się. Jeśli „teoria” ta jest słuszna, powinna także antycypować efekty obserwacyjne dotąd nie znane, wskazując kierunek przyszłych badań i poszukiwań. Jak wiadomo, materia Wszechświata to nie tylko gwiazdy i planety. To także promieniowanie elektromagnetyczne. Istniało ono z całą pewnością już w bardzo wczesnych fazach ewolucji, już w pierwszych sekundach po „starcie”. Tu nie chodzi o szczegóły.
     Można oczekiwać, że temperatura w pierwszych chwilach (nie koniecznie na samym początku) była bardzo wysoka. Jak wiadomo, materia (ciało) o dowolnej temperaturze bezwzględnej (wyższej od 0K), jest źródłem promieniowania elektromagnetycznego. Cechy promieniowania zależą od temperatury źródła. W tym sensie mówić można o temperaturze promieniowania. W pełni zasadne jest oczekiwanie, że do dziś istnieje promieniowanie będące reliktem bardzo wczesnego etapu ekspansji, momentu, w którym pojawiły się oddziaływania elektromagnetyczne. Wtedy też wyodrębnić się musiały cząstki masywne (leptony i hadrony), w każdym razie te, które oddziaływują elektromagnetycznie. Od tego momentu, przez jakiś czas, panowała równowaga między promieniowaniem, a materią cząstek. Kreacja cząstek i ich anihilacja, przebiegały z jednakową łatwością. 
     Zgodnie z sugestiami zawartymi w mych pracach, najwcześniej wyodrębniły się neutrina. Miało to miejsce jeszcze podczas trwania przyśpieszonej ekspansji, Ureli** (nie inflacji), aż do przemiany fazowej, w wyniku której wyodrębniły się kwarki i elektrony. Z kwarków utworzyły się od razu protony. Elektrony i protony są cząstkami trwałymi. Równocześnie, pojawiły się pozostałe cząstki – wszystkie nietrwałe, przede wszystkim skutek oddziaływania z neutrinami. W szczególności pojawiły się neutrony. O neutrinach, jak wyodrębniły się i o ich roli, napisałem rzeczy dosyć zaskakujące w eseju im poświęconym.  Tak ja to widzę. 
     Współistniała z tą materią (substancjalną) mnogość fotonów, tworzących środowisko, w którym zachodziły, jak opisałem powyżej, procesy kreacji i anihilacji par różnorodnych czastek. Z czasem, w związku z obniżaniem się temperatury, procesy kreacji i anihilacji w zasadzie zanikły i pozostało promieniowanie elektromagnetyczne odpowiadające coraz niższej temperaturze (patrz prawa promieniowania we Wiadomościach wstępnych). Istnieje ono do dziś jako relikt tej wczesnej fazy  ekspansji.
     Materia wraz z promieniowaniem na początku stanowiła kipiącą zupę o bardzo wysokiej temperaturze miliardów, bilionów kelwinów. Stopniowo, wraz z ekspansją, temperatura obniżała się. Dopiero po około pół miliona lat nieprzerwanej ekspansji (ściślej: 300 – 700 tys. lat) temperatura i gęstość spadły na tyle, by promieniowanie oddzieliło się ostatecznie od materii substancjalnej. To oddzielenie się nazwano rozprzężeniem. Od tego czasu promieniowanie ilościowo (liczbą fotonów) nie zmieniło się. Temperatura promieniowania wynosiła wówczas około 3000K, a Wszechświat stał się przeźroczysty ponieważ promieniowanie nie jest już w stanie usunąć elektronów z atomów***. Wodór i hel wypełniały przestrzeń prawie nie świecąc. Było dosyć ciemno pomimo istnienia promieniowania, gdyż jego oddziaływanie z materią było znikome... aż do pojawienia się pierwszych gwiazd po około 200 milionach lat. Promieniowanie to powinno istnieć do dziś będąc skamieniałością, reliktem czasów poprzedzających prawie o dwa miliardy lat powstanie galaktyk. Promieniowanie to nie opuściło przecież Wszechświata będąc jego integralną częścią. Dodajmy, tak „na chłopski rozum”, że nie było to możliwe w związku z tym, że prędkość ekspansji (hubblowskiej) równa jest c. Mamy więc przy okazji, jeszcze jeden argument wspierający to twierdzenie.
     Od procesu rozprzężenia do pojawienia się pierwszych gwiazd musiało jeszcze upłynąc sporo czasu. Materia była mimo wszystko zbyt gorąca, by się skupiać we fluktuacjach gęstości. Gaz będący mieszaniną wodoru i helu (lit stanowił znikomą domieszkę), nie mógł świecić na tyle, by mogło być to dostrzegalne nawet dla największych teleskopów. Bazując na znanych i ugruntowanych modelach ewolucji gwiazd, sądzić można, że pierwsze z nich pojawiły się dopiero po ok. 200 milionach lat. Czy kiedyś je dostrzeżemy? Chyba jesteśmy na dobrej drodze, by dostrzec. Dziś zdajemy się dostrzegać, dzieki teleskopom satelitarnym, coś w rodzaju poświaty, chyba pierwotnych gwiazd. Najnowsze obserwacje zdają się wskazywać na coś takiego, ale w znacznym stopniu, jak na razie, to sprawa interpretacji.       
     A samo promieniowanie... powinniśmy je wykryć, z tym, że dziś jego temperatura powinna być stosunkowo niska – nie powinno to być promieniowanie świetlne, sądząc po tym, że niebo jest przecież czarne. Jeśli rzeczywiście miał miejsce Wielki Wybuch, to promieniowanie takie powinno być wykryte. Powinno to być promieniowanie o charakterze cieplnym. Tak rozumowano już pod koniec lat czterdziestych ub. Wieku.
     Zatem promieniowanie to powinno istnieć cały czas i wypełniać całą przestrzeń (ograniczoną przez horyzont Hubblowski). Łączna ilość fotonów nie powinna ulegać zmianie. Powinno więc to promieniowanie dochodzić do nas zewsząd i manifestować się prawie tym samym natężeniem, zgodnie z zasadą kosmologiczną. „Prawie” w związku z lokalnymi niejednorodnościami materii, które chyba mają jakiś niewielki wpływ na gęstość promieniowania. Wpływ niewielki, gdyż fotonów jest znacznie więcej, niż cząstek masywnych.
     To promieniowanie cieplne o określonym widmie. Nie może więc to być promieniowanie monochromatyczne. By promieniowanie to odnaleźć, powinniśmy przewidzieć długość jego fali, która przecież musiała się zmienić przez te wszystkie lata ciągłego rozszerzania się Wszechświata. „Te same fotony by wypełnić zwiększającą się przestrzeń, powinny ulegać ciągłej zmianie. Powinna wzrastać długość ich fali (długość – jeden wymiar) w stosunku, w którym zwiększa się promień Wszechświata, w którym powiększają się wszystkie wymiary”, tak, jak ruch każdego z nich w jednym z trzech kierunków trójwymiarowej przestrzeni (a nie, jakby się rozszerzał – w trzech wymiarach równoczesnie). Tak na marginesie zauważmy, że podejście to jakby przeczy dzisiejszemu modelowaniu ekspansji Wszechświata w sensie malenia krzywizny przestrzeni, ekspansji nie dotyczącej wcale zawartości Wszechświata (galaktyk, ciał, cząstek). A jednak fotony wydłużają się, pomimo, że nawet galaktyki nie ulegają zmianie, unoszone jak punkciki na powierzchni balonu... W każdym razie tak się to dzisiaj opisuje poglądowo dla spełnienia poznawczych potrzeb amatorów. Mimo wszystko, czy to nie zastanawia (fotony tak, a galaktyki nie)? Ale to przecież duże uproszczenie. A jak jest w istocie?
    „Powinna wzrastać długość ich fali...” Tak na chłopski rozum, choć w latach czterdziestych ub. wieku nie było to wcale tak oczywiste. Właśnie wtedy G. Gamow wraz ze swymi uczniami na bazie przypuszczenia, że na początku temperatura musiała być bardzo wysoka, przewidywał istnienie promieniowania tła stanowiącego relikt najdawniejszych czasów – tuż po Big-Bangu (tak nazwał ten uczony Wielki Wybuch). „Powinno to być promieniowanie cieplne, którego rozkład zgodny ma być z prawem Wiena.” 
     Sądząc po przedstawionym wyżej uproszczonym modelu, stwierdzić można, że długość fali domniemanego promieniowania reliktowego wzrasta proporcjonalnie do rozmiarów Wszechświata, to znaczy do jego promienia. Zapisujemy to następująco:
                 
Problemem byłoby to, że początkowej (gdy w czasie samego Wybuchu pojawiło się promieniowanie elektromagnetyczne), tej najmniejszej w historii Wszechświata długości fali, nie możemy znać. Oczywiście nie jest możliwe jej obserwacyjne wyznaczenie. Całe szczęście możliwe jest obliczenie po jakim czasie od Wielkiego Wybuchu dojść musiało do separacji promieniowania i materii substancjalnej. Moment ten służyć może za punkt odniesienia. Jak wyżej wspomniałem, promieniowanie odseparowało się od materii substancjalnej, gdy odpowiadało temperturze 3000K. Nastąpiło to po upływie około trzystu tysięcy lat od momentu „wybychu”. Promień Wszechświata równy był tyleż samo lat świetlnych. Nie bierzemy oczywiście pod uwagę wstępnego, bardzo wczesnego, okresu, w którym, zgodnie z przyjętym powszechnie dość uzasadnionym poglądem (który i ja podzielam), miał miejsce wzrost nieliniowy. Trwał on jednak bardzo krótko, wprost drobny ułamek sekundy (zgodnie z naszą subiektywną miarą czasu).
   Oszacujmy najpierw długość fali promieniowania termicznego odpowiadającego wspomnianej temperaturze trzech tysięcy kelwinów. Oprzemy się na prawie Wiena:
Tutaj: C – stała, C = 2,898·10^-3 [m·K], T – temperatura w skali bezwzględnej, którą dla uproszczenia nazwiemy temperaturą promieniowania. W naszym przypadku temperatura ta wynosi 3000K. Otrzymujemy więc: λ(1) = 0,966·10^-6m.     
     Przyjmijmy teraz, że dziś promień Wszechświata, R(2) równy jest 15 miliardów lat świetlnych (zgodnie z przyjętą przez nas „roboczo” wartością stałej Hubble’a), a w momencie rozprzężenia wynosił 3·10^5ly. Bazując na równości (*) otrzymujemy: λ(2) = 4,83·10^-2m. Jest to długość fali promieniowania mikrofalowego. Wynik ten daje tylko oszacowanie rzędu wielkości. Trudno o większe wymagania. Wszak bazowaliśmy w gruncie rzeczy na programie fizyki licealnej. Czy takie promieniowanie w ogóle istnieje?… 
     Oszacowanie to, jak wspomniałem powyżej, jest dużym uproszczeniem również z tego powodu, że fotony stanowią ogromną przewagę ilościową w stosunku do cząstek masywnych. Na każdy barion przypada bowiem około miliarda fotonów. Zatem nawet jeśli temperatura odpowiadająca maksimum widma jest stosunkowo niska (na przykład 3.000K), bardzo dużo jest fotonów o bardzo wielkiej energii. Nie było więc tak, że jak za dotknięciem czarodziejskiej różdżki Wszechświat nagle stał się przeźroczysty. Oto jedna z przyczyn tego, że obliczenia powyższe są grubym oszacowaniwem, tylko dla potrzeb ogólnej orientacji. Poza tym, choćby z tego samego powodu, sam proces rozprzężenia rozciągnięty musiał być w czasie, nie mógł być aktem przbiegającym w mgnieniu oka. Dodać do tego należy, że sam Wszechświat, już wtedy, jednorodny był tylko w skali globalnej, a niejednorodności lokalne z całą pewnością już istniały. Czym spowodowane? – o tym później. 
     Można przypuszczać, że podobnie rozumował George Gamow w latach czterdziestych. Uczniowie jego: Alpher i Herman uznali, że powinno to być promieniowanie mikrofalowe. Pracujący w różnych ośrodkach Peebls i Zeldowicz oszacowali (w początkach lat sześćdziesiątych) temperaturę hipotetycznego promieniowania reliktowego na 5 – 10 K. Jest to temperatura odpowiadająca rzeczywiście promieniowaniu mikrofalowemu. Nie wiedzieli, że dokładnie w tym samym czasie dokonuje się największe odkrycie dwudziestego wieku (tak sądzi wielu, choć dziś raczej skłaniają się oni ku ciemnej energii, moim zdaniem niesłusznie.). 
     Promieniowanie reliktowe odkryte zostało w najbardziej odpowiednim momencie, już wiosną 1964 roku. Uczeni tak bardzo zaangażowani w jego przewidywanie nawet o tym nie wiedzieli. Odkrycia dokonali dwaj radioastronomowie Arno Penzias i Robert Wilson. W swej codziennej rutynowej pracy zawodowej wcale nie poszukiwali promieniowania reliktowego. Przypadkiem antena ich odebrała dziwny szum mikrofalowy o długości 7,35 cm, wyraźnie silniejszy od szumu aparaturowego. Nie pomogła zmiana orientacji anteny (i jej oczyszczenie). Promieniowanie było izotropowe. To było to. Odkrycie promieniowania reliktowego przesądziło o słuszności koncepcji Wielkiego Wybuchu. Za swe odkrycie, wymienieni astronomowie otrzymali nagrodę Nobla (1978). Cóż, wpadki zdarzają się nawet czcigodnej komisji noblowskiej, a w dwa tysiące eleven, to już zupełnie (ciemna energia).    
     Odkrycie to zapoczątkowało bardzo intensywne badania. Kosmologia stała się nawet modną dziedziną fizyki, szczególnie w ostatnim dziesięcioleciu. [Mnie te rzeczy bawiły już w dzieciństwie, ale dopiero na stare lata zdobyłem się na to, by upublicznić swe popełnienia. A w trakcie tego upubliczniania, to naturalne, opadła mnie lawina nowych pomysłów, tym bardziej, że zainspirowały mnie nowe odkrycia. Swoją drogą, upublicznić to mogłem stosunkowo niedawno, gdy pojawił się internet, a ja się go nauczyłem. Wbrew pozorom, mój wiek nie odegrał żadnej roli. Pod względem pomysłowości nie ustępowałem młokosom, którzy już trzydzieści lat temu wysłaliby mnie na emeryturę. Może dlatego w głowie mi bezeceństwa – przekonacie się dalej. Kto chciałby je opublikować? Chwała internetowi (jak w kolędzie).]  
     Okazało się, że promieniowanie tła (to reliktowe) wykazuje cechy promieniowania ciała doskonale czarnego o temperaturze 2,73K. Jak widać, w naszym grubym oszacowaniu nie pomyliliśmy się wiele. To by mogło potwierdzać słuszność samego podejścia.
     Co zaskakujące, promieniowanie to jest izotropowe pomimo, że z wyglądu Wszechświat wcale nie jest jednorodny. Niedawno odkryto bowiem rozległe obszary, w których koncentracja galaktyk przekracza znacznie średnią. Jeden z nich nazwano Wielką Scianą. Odkryto także obszary ciemne, a w nich tylko słabo świecące galaktyki – Wielki Atraktor. Wielkoskalowe obiekty tego typu wywierają wpływ nie do pominięcia na zachowanie się galaktyk. Stwierdzono na przykład, że Galaktyka (nasza) porusza się z nadspodziewanie dużą prękością 600 km/s w kierunku Wielkiego Atraktora****. Okazało się więc, że obszary wyjątkowo zagęszczone rozdzielone są przez nie mniej rozległe, rzędu setek milionów lat świetlnych, przestrzenie zdawałoby się puste. Badania z pomocą teleskopu Hubble'a (w pierwszych latach tego wieku) ukazują Wszechświat jako coś w rodzaju piany mydlanej, przy czym kondensacje galaktyk na obrzeżach „bąbli”, co ciekawe, pokrywają się przestrzennie z kondensacją materii ciemnej, o której obecności świadczyłby efekt soczewkowania grawitacyjnego. Wskazuje to na konkretny kierunek badań nad genezą galaktyk. Poświęciłem temu odrębny esej. Porównanie to (piana) dość często powraca w książkach poświęconych kosmologii. Jak to wszystko pogodzić z jednorodnością i izotropowością promieniowania reliktowego? Oto jest pytanie. I nad tym jeszcze podumamy.
      Należało więc zbadać jeszcze dokładniej to promieniowanie. Zadanie to powierzono satelicie COBE (Cosmic Background Explorer), wysłanemu na orbitę okołoziemską w listopadzie 1989 roku. Badania te przeprowadzono powtórnie (jeszcze bardziej precyzyjne) dzięki sondzie WMAP (Wilkinson Microwave Anisotropy Probe), wyniesionej na orbitę o specjalnej trajektorii: Orbita Lissajous wokół punktu libracyjnego L2 układu Zemia-Słońce, przez rakietę delta 2 w czerwcu 2001 roku. Okazało się, że jednorodność promieniowania reliktowego nie jest absolutna. Oznacza to, że już wtedy, gdy uwolniło się ono od materii substancjalnej (jakieś pół miliona lat po wybuchu), miało temperaturę nie w stu procentach jednakową we wszystkich miejscach. Chyba nie jest to aż tak dziwne zważywszy na to, że proces separacji promieniowania od materii substancjalnej był rozciągnięty w czasie (300 tys. do 700 tys. lat). „Dlaczego był rozciągnięty?” Można zapytać. Można przypuszczać, że ta (wykryta przez satelitę) drobna, zdawałoby się nieistotna, anizotropowość promieniowania, tłumaczy zadziwiający fakt niejednorodności występowania obiektów galaktycznych. Czy rzeczywiście? Może chodzi tu tylko o zbieżność faktów posiadających wspólne źródło? Dlaczego ta anizotropowość promieniowania jest tak znikoma w porównaniu z niejednorodnością wielkoskalową obiektów masywnych? Czy tylko dlatego, gdyż promieniowanie (liczba fotonów) stanowi ogromną przewagę nad liczbą cząstek masywnych (miliard razy więcej, niż barionów)? 
     A może na istnienie niejednorodności jakiś wpływ ma obecność ciemnej materii, która nie oddziaływuje elektromagnetycznie, ale swą grawitacją ma niepomijalny wpływ na samo promieniowanie? Na wielkość – tak, ale na sam fakt zaistnienia niejednorodności? Do kwestii tych ustosunkowałem się też w innym miejscu. Warto zajrzeć do artykułów traktujących ogólnie o grawitacji i przy tej sposobności, omawiających m. in. pierwsze chwile Wielkiego Wybuchu, w szczególności proces, ktory nazwałem Urelą, a także przemianę fazową zaraz po tym, stanowiącą przyczynę sprawczą zaistnienia fluktuacji – tych, które potem ujawniły się w postaci niejednorodności wielkoskalowych.
   Należy do tego dodać, że w skali globalnej, mimo wszystko uważa się, że Wszechświat jest jednorodny w pełni i potwierdza zasadę kosmologiczną. [Jeszcze bardziej (niż przypuszczalna jednorodność) potwierdza tę zasadę istnienie takich samych niejednorodności („pianki”) w oczach każdego obserwatora, niezależnie od jego położenia] Wyniki uzyskane za pomocą wymienionych wyżej sond ostatecznie przesądziły o słuszności twierdzenia, że ekspansję poprzedził stan, w którym cała materia Wszechświata, w tym samym momencie, skupiona była w bardzo małym obszarze i tworzyła układ samouzgodniony (tego ostatniego stwierdzenia nie uzgadniałem z nikim). Co prawda, wielu uczonych przekonanych jest, że była to osobliwość (ja w tym widzę osobliwość ludzkich nawyków myślowych), ale nie jest to wcale wiążące. Istotne jest to, że ekspansja była równoczesna dla wszystkich elementów przestrzennie wchodzących w skład ekspandującego obiektu. W tej chwili w zasadzie nikt w to już nie wątpi. Swoją drogą, ta równoczesność, jak wyżej wspomniałem, mogłaby oznaczać absolutne samouzgodnienie własności i procesów przebiegających w najwcześniejszej fazie Wybuchu pomimo, że paradygmat łącznościowy obowiązuje. Tematowi temu poświęcę też sporo miejsca w dalej.   
   W artykule poświęconym zasadzie kosmologicznej przyjąłem za obowiązującą, tezę, że obserwowalny Wszechświat jest Wszystkim, co istnieje, jest wszystkością. Nie ma nic poza nią. Nie ma niczego poza horyzontem, nie ma wszechświatów równoległych nie ma Wszechświatów przecinających się i skośnych. Jego konkretną, skończoną wielkość wyznacza współczynnik H i stała c. Świadczy o tym bezpośrednio promieniowanie reliktowe. „Czyżby?” Jak najbardziej. Oszacowanie temperatury tego promieniowania już przez Gamowa i potwierdzenie tego przewidywania, świadczy o tym wymownie. Przecież bazował na właściwościach promieniowania ciała doskonale czarnego zamkniętego w obszarze o ograniczonej objętości (we wnęce). [Gdyby Wszechświat był nieskończony, nie byłoby żadnej wnęki i oczywiście nie byłoby promieniowania reliktowego.] Zmiana temperatury promieniowania zawartego w niej jest wówczas w przybliżeniu proporcjonalna do zmiennych rozmiarów liniowych tej „wnęki” (odwrotna proporcjonalność). Znając temperaturę w epoce rozprzężenia (rzędu 3000K), oraz rozmiary Wszechświata wówczas, powiedzmy pół miliona lat świetlnych i znając przybliżone dzisiejsze rozmiary Wszechświata (na bazie prawa H i prędkości c) mogliśmy, również my, przewidzieć (z nienajgorszym wynikiem) długość fali promieniowania reliktowego. A teraz Uwaga! Gdyby istniało coś ekstra (nieobserwowalne), a przy tym należące do naszego Wszechświata (wielkość wnęki przekraczałaby rozmiary hubblowskie), to wyliczona z góry temperatura nie byłaby zgodna z temperaturą promieniowania reliktowego. Byłaby dużo niższa. O ile? Dobre pytanie. To chyba daje do myślenia. Przecież dziś uważa się, że Wszechświat sięga znacznie dalej, niż promień hubblowski. Nawet określono średnicę Wszechświata na równą ok. 92 miliardów lat świetlnych. To wyraźna (jeśli nie „wprost rażąca”) niekonsekwencja. No tak, ale przecież trzeba uwzględnić współrzędne współporuszające się. Poza tym miała miejce „inflacja”, która spowodowała to, że Wszechświat jest znacznie większy, niż jestJakąś rolę odgrywa także ciemna energia, za sprawą której Wszechświat jest wiekszy, niż jest... Już w artykułach poświęconych grawitacji dualnej, w artykułach następnych, opisałem Urelę i przemianę fazową, a także stwierdziłem (już w pierwszym artykule), że budulcem przestrzeni jest ruch (nawet bezwładny) materii uformowanej w wyniku tej przemiany. Warto kontynuować lekturę. [Pod warunkiem, że ciekawość przezwycięży odrazę w reakcji na głoszone herezje. Obiecuję, że tych herezji będzie znacznie więcej.]
    Bazowanie na inflacji i „ucieczce poza widomy Wszechświat” jego części, w dodatku bazowanie na paradygmacie łącznościowym – oczekiwanie obiektów dziś na razie nie widocznych (spoza horyzontu), wywołuje we mnie spory niedosyt (by nie nazywać tego inaczej). Te nadświetlne dalej sobie uciekają nie dając nam szans dogonienia. Dokąd? W nieskończoność? Ku innym wszechświatom? Przestrzeń jest nieskończona (i płaska) – jak wszechświat statyczny? A co z bąblem riemanowskim, majacym modelować nasz zaścianek? A co z promieniowaniem reliktowym? Spora niekonsekwencja.
Wniosek: Wszechświat obserwowalny jest Wszystkością. Granica horyzontu hubblowskiego zamyka wszystko. A co jest dalej? Nie ma sensu o tym mówić. Wszechświat widocznie jest obiektem o określonych, nie zgłębionych dotąd cechach topologicznych, których poglądowym (liniowym, a nie przestrzennym) modelem może być wstęga Möbiusa. Ta szczególna topologia narzuca też określoną, cykliczną zmienność Wszechswiata.
      Jeśli Wszechświat obserwowalny jest wszystkością, a w dodatku jego wielkość jest ograniczona i określona jednoznacznie, jak najbardziej naturalną kwestią jest określenie jego masy, a rozpatrywanie jedynie parametru gęstości stwarza niedosyt poznawczy, którego zaspokojenie jest rzeczą jak najbardziej uzasadnioną. Jednoznaczne określenie jego przestrzennych rozmiarów daje możliwość szacowania masy Wszechświata. Zaowocuje to zresztą ciekawymi konkluzjami (jeśli nie ustaleniami). Cierpliwości, pomimo, że bezeceństwa już dały osobie znać. Ale to dopiero początek. 

3. Ciemna energia?
Takie coś nie istnieje...

*) By wykluczyć punktowość, czyli nieskończoną małość, kłócącą się z realnością bytu materialnego, osobliwość traktować można jako obszar o rozmiarach plankowskich.
**) Urela – Ultra-relativistic acceleration.
***) Istniały wówczas tylko trzy pierwiastki: wodór, hel i lit. Warunki dla syntezy pozostałych pierwiastków stworzyły się dopiero z chwilą pojawienia się gwiazd. 
****) Zaintetresowanych namawiam do lektury interesującego artykułu przeglądowego: ,,A Map of the Universe” by J.Richard Gott, Mario Jurić, David Shlegel, Fiona Hoyle, Michael Vogeley, Max Tegmark, Neta Bahcal, Jon Brinkmann. Praca ukazała się w Astrophysical Journal (Gott et al., 2005, ApJ, 624, 463




niedziela, 24 kwietnia 2016

Prawo Hubble'a jako obserwacyjne potwierdzenie zasady kosmologicznej i modelu na niej bazującego.

Józef Gelbard
Prawo Hubble'a

Treść

1. Zasada kosmologiczna i prawo Hubble'a. Nawiązanie. W jaki sposób dokonuje się pomiaru     odległości galaktyk? Odkrycie Hubble'a. Obserwacyjne wyznaczenie stałej H.
2. Prawo Hubble’a i ekspansja Wszechswiata. Przemyślenia związane z prędkością   ekspansji. "Łącznościowe podejście na cenzurowanym. Prędkości względne i tempo ekspansji.
3Rozmiary Wszechświata (wyznaczenie promienia horyzontu).
4. Dalszy ciąg rozważań nad prędkością kosmologiczną i tempem ekspansji.  
5. Wiek Wszechświatai zmienność współczynnika H.

1. Zasada kosmologiczna i prawo Hubble`a

Nawiązanie

     W artykule pierwszym była mowa o zasadzie kopernikańskiej. Przez świat nauki zasada ta przyjęta została apriori jako rodzaj aksjomatu. Pięćset lat temu już sama myśl stanowiła ogromny przełom. Dziś raczej przyjmuje się to jako rzecz czywistą do tego stopnia, że nawet jej łamanie przez rozliczne hipotezy i teorie nie stanowi problemu. Wprost przestała stanowić kryterium ich oceny. Stała się zdroworozsądkowym marginesem i nie zaprząta umysłów zajętych sprawami „poważniejszymi”. Jeszcze trochę, a zajmować się nią będą tylko historycy nauki. Czy słusznie (w związku z tym „tylko”)? Dziś bowiem nie mówi się o ruchu galaktyk jako takim. Jak wiadomo, dziś mówi się tylko i wyłącznie o rozszerzaniu się przestrzeni. W tym kontekście zasada kosmologiczna jest jakby nierelewantna. Czy słusznie? Ponawiam pytanie pomimo, że stało się retorycznym w świetle ustaleń artykułu poprzedniego. Przecież już sam fakt istnienia prędkości niezmienniczej c wprost z niej wynika. Zgodność z zasadą kosmologiczną powinna więc stanowić nawet kryterium przy ocenie inicjatyw poznawczych, przy podejmowaniu badań w dziedzinie kosmologii i może nie tylko.

Główną konsekwencją przyjęcia zasady kosmologicznej, w odniesieniu do dynamiki obiektów o znaczeniu kosmologicznym, była (patrz artykuł poprzedni) hipoteza o proporcjonalności ich prędkości względnych do wzajemnych odległości. Symbolicznie przedstawia to wyrażenie: v/r = const. To rodzaj antycypacji. Czy badania naukowe ją potwierdzą? Czy możliwe jest wyznaczenie wielkości tej stałej? Znim zajmiemy się tą kwestią, dla porządku rzeczy, odpowiedzmy na pytanie:



W jaki sposób dokonuje się pomiaru odległości galaktyk?


     Dokonuje się tego przede wszystkim poprzez obserwację gwiazd. Jedną z nich jest Słońce, ale gwiazdy są różne. Istnieją olbrzymy, których promień większy jest niż promień orbity Marsa, wśród nich nawet takie, które ogarniałyby cały Układ Słoneczny; karły o rozmiarach dużej planety, a także gwiazdy neutronowe o promieniu rzędu dziesięciu kilometrów i niezwykle wielkiej gęstości. Nasza dzienna gwiazda jest stabilna, są jednak gwiazdy, których rozmiary i oczywiście jasność, zmieniają się. Wśród nich jedne pulsują regularnie lub nie, inne zaś eksplodują: Nowa lub Supernowa.

1. Na wyróżnienie zasługują gwiazdy nazywane białymi olbrzymami. Dzięki swej szczególnie dużej jasności, widoczne są one z daleka. Należą one w ogromnej większości do tak zwanej populacji I. Mowa o gwiazdach młodych, formujących się nawet dziś, na przykład w gromadach otwartych. Wszystkie one powstają z materii zawierającej stosunkowo dużo pierwiastków ciężkich, materii tworzącej ramiona spiralne*. Białe olbrzymy poznano dosyć dobrze. Poznano skład chemiczny i cechy ich widm, oszacowano także odległość od nas, a więc ich jasność absolutną. To odległość stosunkowo niewielka. Notabene, nasze Słońce także należy do gwiazd pierwszej populacji i znajduje się w jednym z ramion spiralnych. Znajomość cech Białych Olbrzymów daje możliwość oszacowania odległości galaktyk poprzez obserwację tego typu gwiazd, wykrywanych tam. Gwiazdy drugiej populacji, starsze, znajdują się na ogół znacznie dalej, większość poza dyskiem Galaktyki, a także w jej centrum, co czyni znacznie trudniejszą kalibrację ich odległości.
2. Szczególną uwagę astronomowie poświęcili cefeidom. Ich nazwa bierze się od nazwy gwiazdozbioru, w którym odkryta została pierwsza z nich (δ Cefeusza). Odkrył ją angielski astronom amator John Goodricke w roku 1784. Są to olbrzymy pulsujące w sposób regularny ze stałą w czasie częstotliwością (od 1 – 50 dni), przy czym w momencie maksimum ich jasność jest 3-4 razy większa, niż w minimum. Cechy te (wielkość i regularność pulsacji) stanowią o możliwości użycia ich do pomiaru odległości galaktyk, w których są one dostrzegalne. Już sam fakt istnienia pulsacji sprzyja wykryciu tych obiektów nawet w galaktykach, nie koniecznie tych z najbliższego sąsiedztwa.  Okazuje się, że istnieje ścisła zależność między okresem pulsacji, a jasnością (absolutną) gwiazdy. Jasność jest proporcjonalna do logarytmu okresu pulsacji, to znaczy funkcja M(logT) jest liniowa. Odległość gwiazdy od obserwatora nie ma wpływu na charakter tej zależności. Znając więc jasność wizualną gwiazdy (z pomiaru), oraz okres jej pulsacji (a więc jej wielkość absolutną), można obliczyć jej odległość. Oto wzór
Tutaj : m – jasność wizualna, M – jasność absolutna, r – odległość. Patrz Wiadomości wstępne.
   Dzięki istnieniu tej zależności Hubble mógł wyznaczyć odległość pewnej liczby obiektów, w których wykrył cefeidy. Dopiero wówczas okazało się, że znaczna ich liczba znajduje się poza obrębem Galaktyki (Układu Drogi Mlecznej). Zaliczane do niej wcześniej „mgławice” okazały się galaktykami często nie mniejszymi, niż nasza. Dodatkowo, dzięki badaniu widm, wyznaczył Hubble prędkość radialną tych odległych obiektów. Choć dysponował dość ubogim zbiorem danych, postanowił w odniesieniu do nich (tego wprost wymaga procedura badań) sporządzić wykres wiążący ze sobą wyznaczone parametry (odległość i prędkość radialna). O tym dalej.
   Warto przy tej okazji wspomnieć o klasie gwiazd przypominających bardzo cefeidy istnieniem związku jasności absolutnej z częstością pulsacji. Chodzi o gwiazdy typu RR Lyrae (pierwszą z nich wykryto w roku 1901 w gwiazdozbiorze Lutni). W odróżnieniu od cefeid są to gwiazdy II populacji. Na ogół poruszają się one dość szybko względem Słońca, w dodatku wiele, chyba nawet większość z nich, znajduje się opoza dyskiem Galaktyki. Cechuje je też stosunkowo małe stężenie metali. Są to białe lub żółto-białe olbrzymy o jasności mniejszej niż cefeidy. Istotne jest to, że znajduje się je w gromadach kulistych (co rzadkością jest w odniesieniu do cefeid). Dało to możliwość wyznaczenia odległości tych obiektów i tym oszacowania ich rozmiarów (w uśrednieniu). Jako obiekty rozległe i stosunkowo jasne, gromady kuliste widoczne są  także w innych galaktykach. Mamy więc jeszcze jeden sposób na oszacowanie odle-głości. Tak na marginesie wspomnieć można o gwiazdach typu W Virginis (też drugiej populacji) o podobnych (do cefeid) cechach pulsacji, ale słabszych. Uznanie gwiazd tych za cefeidy powodować musiało zawyżenie szacowanych odległości. Zdarzyło się to Hubblowi. Tenże, nie znalazłszy w galaktyce Andromedy gwiazd typu RR Lyrae, uznał, że galaktyka ta jest bardziej odległa, niż w istocie. Błąd ten poprawiony został przez Baadego.
3. Odległość można też wyznaczyć na podstawie obserwacji wybuchów gwiazd supernowych. Podczas wybuchu takiej gwiazdy jej jasność wzrasta w ciągu bardzo krótkiego czasu setki milionów razy. Gwiazda taka pojawia się ni stąd ni zowąd w którejś galaktyce. Jej stopniowe gaśnięcie w funkcji czasu, czyli charakterystyka czasowa jasności pozwala na przydzielenie gwiazdy do określonego typu w klasyfikacji gwiazd supernowych, utworzonej na podstawie obserwacji ich w naszej galaktyce, a więc na określenie jej jasności absolutnej. Do określenia odległości najbardziej nadają się supernowe typu Ia, których charakterystyki zmian blasku są bardzo podobne. Dzięki tym supernowym wyznaczać można odległości (znaczne) galaktyk, co do których metoda cefeid jest już nieprzydatna. Problem stanowią jednak ich jasności absolutne, których wartość ze zrozumiałych względów ma określony rozrzut. Innym problemem jest rzadkość występowania supernowej. Z tego powodu astronomowie nie dysponują (nie dysponowali do niedawna) wystarczjąco bogatym materiałem obserwacyjnym. Poziom niepewności w oszacowaniu wielkości absolutnych tych gwiazd, w związku z tym, do niedawna był nawet znaczący. Ostatnio, dzięki sporej liczbie zarejestrowanych supernowych tego typu, w licznych odległych galaktykach (w ostatnich latach nastąpił ogromny postęp w dziedzinie technik obserwacyjnych), właśnie supernowe typu Ia stanowią, jak to się mówi, świece standardowe, dające możliwość dość precyzyjnego wyznaczenia odległości. Czy to pewne?
   Wymienione tu metody nie wyczerpują tematu. Są to jednak metody najczęściej stosowane, szczególnie gdy mowa o aspekcie kosmologicznym badań. Stosuje się też (tam gdzie można) równoczesne pomiary wymienionymi tu dwiema metodami. W odniesieniu do obiektów szczególnie odległych, na przykład kwazarów, stosuje się też metodę bazującą na soczewkowaniu grawitacyjnym. Wyniki, choć nie w pełni dokładne, pozwalają jednak na wyciągnięcie daleko idących i dosyć wiarygodnych wniosków, niesprzecznych z ogólnymi koncepcjami kosmologicznymi i teoriami fizycznymi opisującymi mikroświat.  

Odkrycie Hubble’a 
  Jedną z najważniejszych metod badawczych astrofizyki jest analiza widmowa, dzięki której poznajemy skład chemiczny badanych obiektów, ich parametry termodynamiczne, a także opisujemy ich ruch. Nim się tutaj zajmiemy. Wiadomo, że linie określonego widma obiektu poruszającego się, przesunięte są względem tychże linii widma laboratoryjnego. Przyczyną tego jest jak wiadomo efekt Dopplera. Dysponując (z obserwacji) wielkością przesunięcia linii (z) możemy wyznaczyć prędkość obiektu. Oczywiście znane są też metody pomiaru odległości. „Interesujące, czy istnieje jakiś związek między prędkością obiektów, a ich odległością?[Chodzi tu o obiekty oddalone na tyle, że ruchy lokalne nie odgrywają już roli.] Pytanie to zadać można nawet jako naturalną kolej rzeczy, wprost z nagromadzenia danych obserwacyjnych, bez uświadomienia, że wiąże się ono bezpośrednio z zasadą kosmologiczną. Jeśli żaden związek nie istnieje, to powierzchnia zawarta między osiami prędkości i odległości (OXY) pokryta powinna być równomiernie punktami określonymi przez te dwa parametry, jeśli uwzględnić odpowiednio dużą liczbę obiektów, bo wszelkie pary liczb są możliwe. Wynik taki oznaczałby, że bardziej do przyjęcia jest model drugi z wymienionych w poprzednim artykule, mających spełniać zasadę kosmologiczną. Dla przypomnienia, model ten zakłada statyczność nieskończonego Wszechświata.
   Badanie to przeprowadził Edwin Hubble, przy czym wcale nie było jego zamiarem potwierdzenie (lub obalenie) zasady kosmologicznej. To był po prostu ciekawy, konkretny, szczegółowy temat badawczy, którego się podjął. Przede wszystkim odkrył, że wszystkie nielokalne (nie należące do lokalnej drupy, to znaczy, nie znajdujące się w sąsiedztwie naszej Galaktyki) obiekty oddalają się. W roku 1924 odkrył, że „mgławice spiralne” (tak nazywano wówczas te obiekty) są galaktykami tego samego rzędu wielkości, co nasza Galaktyka Drogi Mlecznej. W galaktykach tych dostrzegalne były (już w jego czasach) cefeidy – gwiazdy olbrzymy pulsujące regularnie. Znana już była wówczas zależność okresu ich pulsacji od ich jasności absolutnej (od roku 1912). Oczywiście jasność wizualna zależy od odległości. Mógł więc Hubble wyznaczyć odległość galaktyk. Dysponował też przesunięciem ich widm. Mógł więc sporządzić wykres.      W roku 1929 ogłosił wyniki swych badań. Pomimo, że dysponował dość ubogim zbiorem danych (kilkanaście wiarygodnych par liczb), okazało się, że już w tym bardzo ograniczonym zbiorze danych istnieje dość wyraźna liniowa zależność pomiędzy prędkością galaktyki, a jej odległością. Poniżej widzimy wykres przypominający to, co otrzymał Hubble. Z przeprowadzonego badania wynika więc zależność wprost proporcjonalna między względną prędkością obiektów o znaczeniu kosmologicznym, a ich wzajemną odległością.
    Choć uczony ten nie dysponował wystarczająco bogatym zbiorem danych, zdecydował się na opublikowanie pracy, przekonany, i słusznie, że dokonał odkrycia. Na wykresie oś odciętych stanowi stosunek r/R (zamiast odległości r – nie jest to wykres oryginalny). Tutaj R jest promieniem Wszechświata, czyli odległością odpowiadającą prędkości światła – odległością największą. Jej wartość, podana na wykresie, zgodna jest z obliczeniem poniżej. Rzecz uzasadnić można następująco:

Stosunek v/c ma duże znaczenie, już choćby w związku z tym, że stosunek ten określa przesunięcie linii widmowych w efekcie Dopplera.

   Dalsze obserwacje potwierdziły odkrycie. Ciekawe, że odkrycie zaskoczyło świat nauki i nikt (ważny) nie pomyślał, że to „tylko” potwierdzenie znanej od dwien dawna Zasady. Samo spostrzeżenie nazwane zostało prawem Hubble`a. Zapisuje się to w następującej postaci: 

                                                                             v = Hr                          (1)

Tutaj: H – to oczywiście współczynnik proporcjonalności widniejący w antycypacji bezpośrednio wynikającej z zasady kosmologicznej, jako „const” (patrz poprzedni artykuł). Nosi on nazwę stałej Hubble’a.



Obserwacyjne wyznaczanie stałej Hubble'a
   By wyznaczyć wielkość tego współczynnika, należy znać odległość – o jej wyznaczaniu było powyżej, oraz prędkość, z jaką dany obiekt oddala się. Tę wielkość wyznaczyć można na podstawie dopplerowskiego przesunięcia widm (red-shift). W Wiadomościach wstępnych podałem wzór na wielkość przesunięcia:
                                     
Łącząc wzory (1) i (2) mamy:
                               
Tak otrzymaliśmy sposób na wyznaczenie stałej Hubble’a. Widzimy, że do tego celu  wymagana jest znajomość względnego przesunięcia widma (ku czerwieni), oraz odległość wybranego obiektu. Pierwszy z tych parametrów możemy wyznaczyć dość dokładnie. [Nie gwarantuje to jednak, że zmierzona prędkość jest prędkością kosmologiczną. Można mieć na przykład do czynienia z galaktyką oddalającą się od nas z innych, lokalnych powodów (tak, jak zbliża się galaktyka M 31). Słuszne i znaczące to jest w odnisieniu do galaktych naszej lokalnej gromady.]
     Problem stanowi odległość. Dokładność jej wyznaczenia warunkują czynniki nie zawsze będące pod naszą kontrolą. Nie wszystko jest funkcją postępu technologicznego. Same obiekty (cefeidy, supernowe) różnić się mogą minimalnie między sobą. Także nie do pominięcia jest ewentualna obecność między nami, a danym obiektem, materii pochłaniającej w jakimś stopniu światło. Ma to niewątpliwie jakiś wpływ na stwierdzaną obserwacyjnie jasność obiektu. Należy więc wykonać wiele pomiarów, kierując teleskopy w różne strony. Nie można uniknąć badań o charakterze statystycznym.
     Wartość współczynnika H oszacowano na:  H = (15-20) km/s/na milion lat świetlnych lub: H = (48,9-65,2)km/s/Mps. [Mps – megaparsek, czyli milion parseków; parsek, to odległość odpowiadająca paralaksie sekundowej i wynosi 3,26 roku świetlnego] H jest zatem właśnie tym szukanym parametrem obserwacyjnym, o którego potrzebie wyznaczenia zasygnalizowałem (antycypacja) w artykule poprzednim, w konsekwencji rozważań nad wnioskami z zasady kosmologicznej (model  trzeci-czwarty). Nie jest go łatwo wyznaczyć (stąd dość szeroki przedział). Należy w tym celu zmierzyć prędkości i odległości jak największej liczby obiektów. Nachylenie tak otrzymanego wykresu v(r) (prostej) stanowi wynik. Najłatwiej uczynić to w odniesieniu do obiektów najbliższych, ale problem w tym, że ich prędkości kosmologiczne są porównywalne z prędkościami przypadkowych ruchów lokalnych, nawet mniejsze, a także ich zwrot może być przeciwny. Przykład stanowić może  galaktyka M 31 w  Andromedzie, zbliżająca się do nas z prędkością około 300 km/s. A obiekty dalsze? Wyznaczenie ich odległości nie jest pewne. Poza tym, reprezentują one sobą Wszechświat młodszy, z czasów, jak się dalej przekonamy, w których wartość współczynnika H była inna. Jeśli jest on stały (jako współczynnik proporcjonalności), to dlatego, gdyż Dziś w całym Wszechświecie jest jednakowy. Jeśli tak, to rzeczywiście istnieje globalny czas kosmologiczny – dla przypomnienia (z artykułu poprzedniego), jest to nasz czas, czas jaki upłunął na Naszych zegarach od Wielkiego Wybuchu.
     Okazuje się więc, że bardzo odległe galaktyki, wszystkie bez wyjątku, oddalają się od nas, przy czym ich prędkości radialne są proporcjonalne do odległości (co wyraźnie manifestuje się w odpowiednio dużym zbiorze danych pomiarowych). Spójne to jest oczywiście z wnioskami wynikającymi z zasady kosmologicznej. Nie psuje tego fakt, że niektóre galaktyki z tych najbliższych, jak wspomniałem, nawet zbliżają się.
     Reasumując możemy stwierdzić, iż odkrycie Hubble’a: a) stanowiło potwierdzenie obserwacyjne zasady kosmologicznej, nawet potwierdzenie naszego modelu roboczego; b) umożliwiło wyznaczenie wartości liczbowej stałej przewidywanej przez ten nasz prosty model; c) sugeruje nawet, że prędkości względne są stałe, a ściślej, stały jest stosunek v/c. To trzecie stwierdzenie (na razie to tylko sugestia), nie w pełni zbieżne jest z aktualnym widzeniem spraw, choć przyjęte może być jako niewiele wnosząca idealizacja. Dalej okaże się jednak, że właśnie w nim zawarty jest spory ładunek heurezy.
     I na tym właśnie polega zasadniczy postęp, jaki dokonał się dzięki odkryciu. Wyniki do jakich doszedł Hubble w swych badaniach, należy to zaznaczyć, choć bezpośrednio wynikają z zasady kosmologicznej, nie w pełni koherentne były z „zastaną” dynamiką badań. Nie dziw, że samo odkrycie zaskoczyło świat nauki. Wprost nie było kojarzone z zasadą kosmologiczną, nie mniej jednak stanowiło silny bodziec heurystyczny. Tak się złożyło, że rozwój kosmologii poszedł jednak, moim skromnym zdaniem, w kierunku niewłaściwym. Nowa koncepcja przestrzeni i Wszechświata bazująca na OTW zdominowała myślenie kosmologiczne na cały wiek (albo na dłużej, jeśli nie liczyć mojego skromnego wkładu).
Także w naszych czasach, choć tak dużo już wiemy, bywamy zaskakiwani (pomimo wprowadzenia najlepszego z modeli, bazującego na ogólnej teorii względności). Najklasyczniejszy przykład niech stanowi pociemnienie supernowych – asumpt do odkrycia ciemnej energii, przyjętego z entuzjazmem (i bezkrytycznie), bo wcześniej kombinowali ze stałą kosmologiczną, wprowadzoną i odrzuconą przez Einsteina jako jego największa pomyłka (już choćby w związku z niestatycznością i ewolucyjnością Wszechświata). Odkrycie Hubble'a stanowiło bowiem niespodziankę godząc w „obowiązujące” dotąd modele Wszechświata statycznego i nieskończonego. A mimo to stała kosmologiczna do dziś żyje i rozkwita... Meandry nauki. To na prawdę ciekawy przyczynek do historii nauki. A dzisiaj? Także teraźniejszość jest już historią...

2. Prawo Hubble’a i ekspansja Wszechswiata.
Przemyślenia związane z prędkością ekspansji. 
„Łącznościowe” podejście na cenzurowanym.
     Stwierdziliśmy zatem, że Wszechświat rozszerza się, bo taki jest kierunek prędkości obiektów mających znaczenie kosmologiczne. Po prostu wszystkie obiekty oddalają się. Już w artykule poprzednim, w konsekwencji przyjęcia zasady kosmologicznej, uznaliśmy, że istnieje kres górny prędkości obiektów, równy oczywiście prędkości światła. (Wynikł stąd wniosek, że rozmiary liniowe Wszechświata są ograniczone.) Mimo wszystko zapytajmy, tak z głupia frant, nie po raz ostatni zresztą: Jaka jest prędkość ekspansji Wszechświata? To pytanie „z głupia frant” jest jednym z pytań zasadniczych. Czy jest to prędkość „frontu natarcia”? Tak można sobie wyobrazić miejsce geometryczne – zbiór punktów o maksymalnej, niezmienniczej prędkości c. Jak się okaże, ten „front” ma spore znaczenie i jego sens jest głębszy. Nie mniej ważne jest roztrzygnięcie sprawy prędkości względnych odległych ciał niebieskich. Oczywiście, w kontekście naszych rozważań chodzi o uogólnioną prędkość względną obiektów mających znaczenie kosmologiczne, nie tyle o konkretne obiekty. Ocieramy się więc o problem topologii Wszechświata, z całą pewnością specyficznej – swoją drogą to niepospolity temat badawczy. Topologią Wszechświata, a właściwie zbiorem przesłanek dla jej odkrycia, zajmę się później, w innym artykule.
     Na tym etapie rozważań możemy sobie wyobrazić, że niezmienniczy „horyzont” tworzy sferyczną dla pojedyńczego obserwatora (w sensie miejsca geometrycznego absolutnie najdalszych punktów ze wszelkich kierunków patrzenia), nieprzebywalną granicę dla niezliczonych obiektów oddalających się od nas, a jego prędkość jest kresem górnym ich prędkości względem nas, czyli równa jest c. Tę właśnie prędkość nazwałem już w pierwszym (poprzednim) artykule i nazywać będę dalej prędkością ekspansji (świadom tego, że powszechnie podchodzi się do sprawy inaczej).
Do wielu spraw podchodzę w swych pracach po swojemu. Nie ma rady. Cechy modelu narzucają stosowny zestaw pojęć i definicji. Model ten różni się zresztą znacznie od tego, co dziś przyjęte. Nie musi to automatycznie oznaczać, że stanowi poważną alternatywę dla dzisiejszych przekonań, choć kto wie.. Z drugiej strony potrzeba udowodnienia, że ta druga droga jest błędna, być może da asumpt do zastanowień, do refleksji. Czy do wzmożenia badań? Proszę o wyrozumiałość i odrobi cierpliwości. Wszak nawet nie zdążyłem uzasadnić tego, że istnieje sens zjechania z autostrady na jakąś wyboistą dróżkę biegnącą wzdłuż przepastnej grani, prowadzącą do...(kąd?) 
   Mogłoby stąd.. ..wynikać, że wszystkie obiekty istniejące we Wszechświecie są „teoretycznie” dostrzegalne (nie rozważamy tu ich jasności). Zatem, innymi słowy, to, co dane jest obserwacji stanowi Wszechświat w całości. Poza granicą c nic nie istnieje. Można by nawet rzec, że poza horyzontem wyznaczonym przez prędkość niezmienniczą, nawet nie istnieje przestrzeń. Można więc pokusić się o twierdzenie, że Wszechświat jest jedynością i wszystkością, że nie istnieją inne wszechświaty. Ich mnożenie, to tak, jak mnożenie bytów bez potrzeby. Czy to mnożenie nam coś daje, gdy jeszcze mało wiemy o naszym Wszechświecie? Powiedziałbym: Taka sobie inercja fantazji. Czy tylko niewinna inercja? To chyba raczej pokutujaca w umysłach skamieniałość Wszechświata statycznego i nieskończonego. Jak kamień w woreczku żółciowym, który należałoby rozpuścić (to trwa długo) lub operacyjnie usunąć cały woreczek...
   A jednak dziś (może słusznie) sądzi się, że „prędkości” (w cudzysłowiu, bo chodzi o czasową pochodną czynnika skali) mogą się zmieniać. Można więc mówić o spowolnieniu (lub przyśpieszeniu) ekspansji. W dodatku dostrzegalność obiektów oznacza istnienie kontaktu, który warunkowany jest przez prędkość światła. Daje to możliwość istnienia bytów znajdujących się poza horyzontem („światło jeszcze od nich nie dotarło”) możliwość tę, że nie cały Wszechświat jest dostrzegalny. Jak widać, to inny horyzont. To horyzont bazujący na „paradygmacie łącznościowym”** (tak to nazwałem). Nazywany jest on często horyzontem cząstek.
   Także to łącznościowe podejście („Widać dany obiekt dzięki temu, że fotony wysłane przez niego dotarły już do nas i nie można dostrzec tych, od których światło jeszcze nie dotarło.”) wydaje się logiczne i uzasadnione. Jednak tutaj nie uwzględnia się faktu (dziś to już od dawna fakt), że miał miejsce Wielki Wybuch, że wszyscy kiedyś, w pewnym momencie, byliśmy razem i jesteśmy bez przerwy do dziś w kontakcie wzrokowym, widzimy się nawzajem przez cały ten czas. Interesujące, że to podejście („łącznościowe”) obowiązywało jeszcze zanim Hubble dokonał swego odkrycia, jeszcze w czasach, gdy uważano, że Wszechświat jest statyczny i nieskończony (wtedy było to uzasadnione). I tak pozostało. Wbrew pozorom to dość istotne (szczególnie dla historyków nauki) i chyba w pewnym sensie symptomatyczne. W wydanych wcześniej książkach, a także w tej, to łącznościowe podejście poddane jest, wyrażając się eufemistycznie, weryfikacji. 

Prędkości względne i tempo ekspansji
     Jak więc wygląda sprawa prędkości względnych? Chodzi oczywiście o ogólną tendencję, a nie li tylko o wybraną parę obiektów. Właściwie należałoby zapytać (w tym momencie) inaczej: Czy prędkość względna obiektów jest stała w czasie? Otóż do niedawna, przynajmniej intuicyjnie, sądzono, że maleje, z powodu grawitacji, podobnie jak ciało podrzucone do góry zwalnia, by w końcu zatrzymać się, a potem spadać z powrotem. Dziś sądzi się, już powszechnie, że wzrasta za sprawą ciemnej energii. Jest to jednak mimo wszystko rzecz świeża, na razie nie potwierdzona ostatecznie (co wcale nie przeszkadzało w przyznaniu Nobla). [Tu trzeba zaznaczyć, że powszechnie wyobraża się to jako normalny ruch, a nie jako zmianę czynnika skali w rozszerzającej się przestrzeni, wbrew rzeczywistemu stanowi zapatrywań.] W jednym z następnych artykułów ustosunkuję się do tej kwestii, wskazując na zgoła inną możliwą przyczynę zauważonego efektu obserwacyjnego (z supernowymi – rzekoma ciemna energia). Na razie zaznaczyć należy, że bezpośredni pomiar ewentualnych zmian prędkości (kosmologicznych) nie jest możliwy. Jeśli nawet zachodzą, są zbyt powolne. Rzecz ustala się drogą pośrednią. Problem jednak w tym, że ustalenia te nie oznaczają absolutnej prawdy, że są nawet funkcją stanu aktualnych zapatrywań. Tys prowda.
   Postarajmy się rzecz przedstawić w sposób bardziej jednoznaczny i ogólniejszy. W tym celu wprowadźmy (przynajmniej roboczo) pojęcie współczynnika ekspansji względnej. By je zdefiniować, wyobraźmy sobie dwie galaktyki, różnie od nas odległe. Oddalają się one od nas z różnymi prędkościami. Zapytajmy: Jaka różnica ich prędkości przypada na jednostkową różnicę ich odległości od nas? Jeśli różnica prędkości przypadajaca na jednostkową różnicę odległości jest duża (prędkość w miarę „oddalania się” narasta szybciej), to oznacza to większe tempo ekspansji. Zapisać to pytanie można symbolicznie następująco:   
Oto odpowiedź bazująca na prawie Hubble`a: 

Jak widzimy, właśnie współczynnik Hubble`a jest tym współczynnikiem ekspansji względnej i oznacza tempo ekspansji. Zauważmy że wielkość ta nie zależy od tego jaką parę obiektów wybierzemy. W tym sensie jest to wielkość stała. Stała w przestrzeni. Czy stała w czasie? Niebawem przekonamy się, że współczynnik H z czasem zmienia się. Czy oznacza to automatycznie zmianę prędkości względnych? Zgodnie z naszym modelem, prędkości te powinny być stałe, przy tym różnica odległości rośnie. Zatem współczynnik H powinien z czasem maleć. Zobaczymy to dalej. Już teraz jednak zauważmy, że sądząc po istnieniu kresu górnego prędkości względnych, możemy konkludować, że tempo ekspansji powinno maleć. 

     Także zgodnie z dzisiejszym widzeniem spraw, współczynnik H jest parametrem określającym tempo ekspansji. Podstawę dla dociekań kosmologicznych stanowi dziś równanie Friedmanna, bazujące na ogólnej teorii względności. Mowa więc o ekspansji przestrzeni, a nie o ruchu jako takim konkretnych obiektów. Sam „parametr” H dziś określa się następująco:
                                                                 
Tutaj a to wspomniany już powyżej, tak zwany czynnik skali, którego odpowiednikiem jest odległość związana z rzeczywistym ruchem materii, natomiast a z kropką u góry (w liczniku) oznacza pochodną względem czasu, odpowiadającą prędkości (w tradycyjnym pojmowaniu ruchu). Podejście to nie jest jednak konsystentne z koncepcją przedstawioną w tej pracy. Podkreślam: podejście, a nie ostateczne (na wieki wieków) ustalenie.

   Powyżej zauważyłem, że współczynnik H wyraża tempo ekspansji Wszechświata. W tej pracy oprócz tempa ekspansji występuje też bardziej intuicyjne pojęcie prędkości ekspansji. To oczywiście nie to samo. Zatem, jak to jest z prędkościami względnymi? „Prędkościami? Przecież tu chodzi o przestrzeń, która się nadyma coraz wolniej lub coraz szybciej.” Mi jednak chodzi o prędkości. Kosmologia naiwna?... Zobaczymy dalej. Dziś sądzi się bez cienia wątpliwości, że zmiana dotyczy jedynie metryki przestrzeni, jej zakrzywienia. Do niedawna sądzono, że „prędkości” maleją, dziś, że rosną. O stałość prędkości względnych w dodatku opisujących prawdziwy, faktyczny ruch względny obiektów (a nie szybkości wzrostu czynnika skali), nikt Wszechświata nie podejrzewa. Ideałami niech się zajmują filozofowie.

– A zasada kosmologiczna?

– Oczywiście tendencja, taka, czy inna, dotyczyć ma wszystkich obiektów o znaczeniu kosmologicznym (odpowiednio oddalonych). „Jeśli tempo maleje (wzrasta) dla każdego obserwatora w tym samym stopniu, to zasada ta jest spełniona. Wraz z tym Wszechświat się rozszerza. Jego krzywizna maleje, co oznacza, że „moc” grawitacji jest coraz mniejsza. Zatem grawitacyjne hamowanie ekspansji jest coraz słabsze, co mogłoby oznaczać w subiektywnym odczuciu, jej przyśpieszenie (nawet bez uwzględnienia ciemnej energii).” Tak w uproszczeniu mógłby skwitować sprawę miłośnik astronomii, pytając równocześnie: „Jak się ma ta krzywizna (jakakolwiek by nie była) do stwierdzonej obserwacyjnie płaskości geometrii Wszechświata?” Jak widać, sprawa wcale nie jest zakończona (nie tylko dla amatorów).   

   Na razie pozwolić sobie można na stwierdzenie, że standardowy Wszechświat (raczej w innym standardzie), zgodnie z koncepcją preferowaną tutaj, jako całość, rozszerza się z prędkością światła. To rozszerzanie się byłoby faktyczną Ekspansją Hubblowską. Jeśli jakiś punkt oddala się od nas nieprzerwanie od samego początku z prędkością niezmienniczą c, to dziś jest oddalony od nas w maksymalnym stopniu. Odległość, w jakiej się on znajduje nazwijmy Promieniem Hubblowskim Wszechświata. Niedługo, w innym artykule powiążemy go z Promieniem Grawitacyjnym Wszechświata. Konkretne obiekty oczywiście znajdują się bliżej. Czy wszystko, co się znajduje bliżej można zobaczyć? Czy hubblowski horyzont Wszechświata pokrywa się z horyzontem łącznościowym? Czy istnieje (mimo wszystko) coś poza tym horyzontem? Oto przykłady pytań, z którymi prędzej czy później trzeba będzie się zmierzyć. Nie wszystko na raz. Spróbujmy jednak odpowiedzieć już teraz na następujące pytanie: Co przedstawia sobą sam horyzont? Czy tylko jakiś tam „front”, będący miejscem geometrycznym punktów, których prędkość równa jest c? Otóż front ten jest też miejscem Wybuchu. Tam-Wtedy to się stało. Chodzi o to, że tuż po tym horyzont był bardzo blisko nas, tylko sięgnąć ręką. Od tego momentu oddala się z prędkością światła a teraz jest już „sferą” stanowiącą kres Wszechświata i właśnie tam strzeżona jest tajemnica genesis. Im dalej wzrok nasz sięga, tym dawniejsze czasy możemy dostrzec, aż ku początkom na granicy c. [A dalej?... Moglibyśmy poszukiwać kolapsu zapadajacego się Wszechświata, zanim nastąpił BB (jeśli oscyluje).] Jak daleko znajduje się dziś horyzont? Ile czasu minęło od momentu Wybuchu? Próba odpowiedzi na te pytania, w kontynuacji naszych rozważań.


3. Rozmiary Wszechświata (wyznaczenie promienia horyzontu)    
      Jak stwierdziliśmy, horyzont hubblowski znajduje się w odległości odpowiadającej maksymalnej prędkości c. Zapiszmy prawo Hubble’a w odniesieniu do tej granicznej prędkości c:

                                                      V = Hr   ó   r = v/H  →  R = c/H

Gdy  v = c, otrzymujemy: R = c/H. Łatwo obliczyć tę odległość (R). Wynosi 15 miliardów lat świetlnych, jeśli współczynnik H = 20 (liczba okrągła, wygodna w oszacowaniach, a przy tym dość bliska przyjętej dziś za najbardziej prawdopodobną). Sądzi się, że jest nieco większa, a potwierdzają to ostatnie badania promieniowania reliktowego, o których więcej w innym artykule. „Potwierdzają”, to istotne, że w ramach obowiązującego dziś modelu. Dodam, że w kontekście przemyśleń, których treścią są wymienione wyżej książki, no i oczywiście dalsze artykuły tej książki, taka, czy inna wartość stałej H nie posiada rangi przesądzającej sprawę, w dodatku, w naszych rozważaniach „dokładna” wartość współczynnika H nie ma znaczenia. Dostrzeżenie obiektów znajdujących się w odległości większej niż nasza umowna: 15*** mld lat świetlnych (nawet jeśli ktoś przyjmuje możliwość ich istnienia), nie jest możliwe – nie dlatego, gdyż światło stamtąd jeszcze nie dotarło, lecz dlatego, gdyż dalej nie ma żadnego materialnego istnienia. [Chyba, że istniałaby możliwość dostrzeżenia Wszechświata sprzed Wielkiego Wybuchu – dziś to wyłącznie fantazja dla filmowców.] W kontekście tym naturalną rzeczą jest przyjęcie tezy, że Horyzont Wszechświata, to, co sięga najdalej i jest granicą między bytem, a niebytem, jest quasi-sferą o promieniu hubblowskim R. „quasi” z powodu specyficznej topologii, jaką Wszechświat z całą pewnością sobą reprezentuje. Będzie jeszcze o tym mowa.

   Obiekty znane nam jako najbardziej odległe noszą nazwę kwazarów (quasi stellar objects). Względne przesunięcie widma ku czerwieni (z) w odniesieniu do tych obiektów przekracza nawet liczbę 4 (Do niedawna rekordzistą był kwazar, dla którego z = 5,96, a dziś mowa już nawet o obiektach, dla których z przekracza liczbę  10). Łatwo obliczyć prędkość, z jaką kwazar ten (z = 4) oddala się od nas. Wynosi ona w przybliżeniu 276923km/s. Czy to prędkość stała? Czy taką była też np. 2 miliardy lat temu? Cierpliwości. Odległość, w jakiej znajduje się nasz kwazar, oczywiście obliczamy z prawa Hubble’a: r = 13,85 mld lat świetlnych (dla wartości stałej H  = 20). To dosyć daleko, mniej, niż półtora miliarda lat świetlnych od horyzontu. Łatwo wykazać, że nawet w odniesieniu do obiektu, którego z = 10 i więcej, nie otrzymamy prędkości równej lub większej od c, a także nie otrzymamy odległości większej (lub równej) niż 15 miliardów lat świetlnych (dla H = 20).  Podstawę dla tych obliczeń stanowi wzór relatywistyczny****: 


Dla przypomnienia: λ długość fali; β = v/c. 

4. Dalszy ciąg rozważań nad prędkością kosmologiczną i tempem ekspansji. 

     Dziś operuje się pojęciem „tempo ekspansji”. Zdefiniowałem je powyżej. Ja ze swej strony wprowadziłem pojęcie „prędkości ekspansji”, której sens semantyczny jest inny. Tempo ekspansji określa współczynnik H, który mówi, w jakim stopniu wraz z odległością zwiększa się prędkość względna (kosmologiczna) w zbiorze różnych obiektów (a nie w zależności od czasu). [Nieistotne, czy chodzi o ruch jako taki, czy też o zmienność czynnika skali.] Natomiast prędkość ekspansji jest po prostu kresem górnym prędkości względnych i wynosi c. Przy badaniu ekspansji powinniśmy przede wszystkim śledzić ewentualne zmiany tempa, czyli wartości współczynnika H. Jednakże w tym rozdziale zajmować się będziemy prędkością faktycznego ruchu względnego obiektów, a nie zmianami czynnika skali a. W dodatku już tu warto zapostulować stałość w czasie, z tym, że nie samej prędkości względnej, lecz jej stosunku do prędkości światła b = v/c. Możemy wielkość tę nazwać roboczo „prędkością względną właściwą”. Chodzi o to, że wielkość dopplerowskiego przesunięcia linii widmowych wyraża się za pomocą tej właśnie wielkości b. Istnieje więc opcja, przynajmniej teoretyczna, zmienności c, co pociągnęłoby za sobą także zmienność (proporcjonalną) wielkości v. Jeśli c nie ulega zmianie, to także prędkość względna v jest stała. Także tym się zajmiemy w odpowiednim czasie.      

     Z odkrytej przez Hubble’a, a przez nas przewidzianej, proporcjonalności prędkości względnej i odległości wynika to, że gdybyśmy „cofnęli film”, stwierdzilibyśmy, że Wszechświat kurczy się, a wszystkie ciała niebieskie, wszystkie galaktyki, zbliżają się wzajemnie, by w końcu stać się w jednej chwili punktem, a właściwie kroplą, by konsekwentnie wykluczać osobliwość. Swoją drogą nawet kropelka wielkości kilometra byłaby czymś bardzo osobliwym w porównaniu z ogromem tego, co doświadczamy patrząc w niebo. Wszechświat ma więc swój początek: Wielki Wybuch. George Gamow nazwał to: „Big Bang”.  W skrócie często pisze się BB lub WW. Czy to absolutny początek? Sądzę, że to raczej wyróżniony momemt nieprzerwanej oscylacji.

     Czy faktycznie musimy się kiedyś spotkać? Czy „film” się kiedyś odwróci? Czy rozwój Wszechświata może mieć charakter cykliczny? Sugestia taka pojawiła się już w pierwszym artykule, traktującym o zasadzie kosmologicznej, m. in. we fragmencie: Sama zmienność sugerowałaby przy tym bądź istnienie absolutnego początku (kiedyś w przeszłości) lub dążenie, od nieskończonego dawna ku ostatecznemu końcowi, sprowadzającemu się do punktu lub też... cykliczność zmian. Co lepsze? Nie licząc się z tym zauważmy, że jeśli Wszechświat rozszerza się w nieskończoność, prędkość względna galaktyk może wzrastać (przyśpieszenie), być stała, a nawet maleć stopniowo, choć asymptotycznie do zera (zatrzyma się w nieskończoności). Czy zatem nie istnieje szansa odwrócenia kierunku, szansa na powrót Wszechświata do ,,punktu wyjścia”, na to, by jego rozwój miał charakter cykliczny? Tę właśnie opcję preferuje jakaś wewnętrzna potrzeba, chyba nie tylko moja. Czy słusznie? Jak się to ma do postulatu o stałości prędkości względnych? A może, by to odwrócenie kierunku nastąpiło, prędkość powinna maleć odpowiednio szybko? Maleć???  A jeśli już maleje, to co z horyzontem? Gdzie horyzont, a gdzie galaktyki? Horyzont powinien być w tej sytuacji znacznie dalej, niż najdalsze kwazary. „Strefa ciszy”? To chyba niekoherentne. Na co wskazuje obserwacja? Na to, że te najdalsze są dosyć blisko horyzontu, to znaczy, ich prędkość radialna jest dość bliska prędkości światła. Czy to odpowiedź na powyższe pytania? To raczej ich pogłębienie. To tylko część pytań, na które spróbujemy (przynajmniej na część z nich) odpowiedzieć, by... tym sprowokować następną lawinę pytań, a dzięki ich zawartości znów uchylić rąbka tej odwiecznej tajemnicy. Nauka rozwija się, gdy pytania górują nad odpowiedziami. A dziś? Chyba jest odwrotnie.

   Zgodnie z koncepcją przedstawioną tutaj, prawo Hubble’a mówi o proporcjonalności prędkości względnych obiektów do ich wzajemnej odległości. Jeśli jest to słuszne dziś, to słuszne jest zawsze, czyli czas nie stanowi tu parametru w odniesieniu do ogólnej tendencji przestrzennej (prawo Hubble'a). Nie dotyczy to jednak ewentualnych zmian (w czasie) prędkości względnych, niezależnie od dość (już) kategorycznego sądu o stałości prędkości właściwej. [Nie mam tu na myśli ani spowolnienia w skutek grawitacji (Friedmann), ani przyśpieszenia z powodu ciemnej energii.] Chodzi o to, że w innej chwili prędkości względne mogą być inne, z tym, że wszędzie, tylko z powodu ewentualnych zmian prędkości światła. Nie z innego powodu. Jeśli już się zmieniają, powinny to robić tak, by nie naruszyć prawa Hubble’a, które jeśli obowiązuje dziś, to obowiązuje zawsze. Wszak wyraża ono zasadę kosmologiczną, która stanowi (?) przecież bazę intelektualną dla powszechnie przyjętej wizji Świata, wizji, która ma duże szanse pokrywać się z obiektywną rzeczywistością. Zasada ta jednak dotyczy stanu Wszechświata, a więc nie jego ewolucji. Czas nie odgrywa tu roli. Sama stała Hubble`a jest stałą w przestrzeni. Czy także stałą w czasie? Za chwilkę przekonamy się, że zmienność współczynnika Hubble’a tkwi nawet w istocie samego prawa.

Właśnie, prędkości względne mogą się zmieniać, wszak zapostulowaliśmy tylko stałość prędkości właściwych (v/c). A jeśli prędkość względna mimo wszystko zmienia się? W tej sytuacji zmienność prędkości względnej oznaczałaby zmienność prędkości niezmienniczej c. Jeśli aktualnie maleje, to raczej chyba dąży do zera. W tym zerowym momencie nastąpiłaby inwersja, a Wszechświat zacząłby się kurczyć. Na tym właśnie polegałaby oscylacja Wszechświata – nie na jakimś spowolnieniu w skutek grawitacji (na bazie równania Friedmanna) i na podobieństwo kamienia rzuconego do góry. Dodajmy, że pewne wyniki obserwacji zdają się wskazywać na to, że inwariant c ulega zmianie (zmienność stałej struktury subtelnej). Na razie jednak sprawa nie jest jasna. Mimo wszystko jakieś podstawy dla takiego modelowania istnieją. Dodajmy do tego, że c jest stałą elektrodynamiczną i jako taka, w pewnych specyficznych warunkach może być inna (pomijam tu wpływ ośrodka na prędkość). Mechanizm zmian samego inwariantu, zmian o charakterze kosmologicznym, może nie mieć z tym żadnego związku. Problemem byłby wówczas pomiar tych ewentualnych zmian („na czym się oprzeć”). Jeszcze wrócimy do tego tematu.
     Będę więc obstawał przy twierdzeniu (nawet nie założeniu w sensie postulatu, jak to zrobiłem powyżej), że prędkość względna jest stała w czasie, przynajmniej gdy chodzi o wielkość v/c. Prowadzi to bowiem, jak się o tym przekonamy, do modelu (w moim guście) dość koherentnego. W dodatku przyjęcie założenia o zmienności prędkości względnych (przyśpieszeniu albo opóźnieniu ekspansji), przy równoczesnym założeniu a priori stałości inwariantu c, wymagałoby znalezienia (lub powołania) przyczyn fizycznych takiego stanu rzeczy, a także uporania się z wynikającymi stąd kłopotami – koniecznością takiego przedstawienia rzeczy, by nie godziło to w prawo Hubble’a, nie podważało zasady kosmologicznej i, co najważniejsze, by było zgodne z obserwacją. Oczywiście tu mamy na myśli ruch w sensie newtonowskim. Wbrew pozorom, „przyciąganie grawitacyjne, hamujące ekspansję lub odpychanie przez ciemną energię”, to rzeczy na prawdę bardzo kłopotliwe, a liczne próby, jakie podejmowałem, opisu przyśpieszanej lub opóźnianej ekspansji spaliły na panewce, gdyż prowadziły bądź do wyraźnej sprzeczności, bądź też do obrazu rzeczywistości nie koherentnego nadmiarem kombinacji myślowych i spekulacji, wraz z niebezpiczeństwem mnożenia bytów ponad potrzebę. Takiemu postawieniu sprawy, czyli rezygnacji z przyśpieszenia i opóźnienia, sprzyja zresztą to, że widomy Wszechświat, w globalnej skali, jest jednorodny. O przyciąganiu lub odpychaniu myśleć można jedynie w odniesieniu do obiektów lokalnych.  Zatem,  przynajmniej na razie warto obstawać przy stałości prędkości (w stosunku do c w każdym razie). Jeśli doprowadzi to do wyników wewnętrznie sprzecznych, zawsze się można wycofać i obrać inną drogę lub powrócić na bardziej uczęszczany trakt.***** 
     „Motywacje powyższe na rzecz tezy o stałości względnych prędkości ekspansji nie przekonują. Otóż pomiar prędkości odległych obiektów bazuje na analizie widmowej. Taką to, a taką prędkość miał określony kwazar wtedy, gdy wysyłał fotony, które dziś właśnie do nas dotarły. A dziś? Jego prędkość może być inna – większa lub mniejsza.” Rzeczywiście. Czy jednak na foton ten (poczerwieniony) czekamy, aż łaskawie przybędzie do nas? Jeśli tak, to nasz kwazar, w ciągu czasu wędrówki naszego fotonu, przebył dodatkową drogę. Ewentualne zmiany prędkości względnych nie mają z tym nic wspólnego. Zatem teraz znajduje się znacznie dalej, może nawet dalej, niż horyzont Wszechświata...Jak się tam dostał, jeśli nawet fotony, dużo przecież szybsze, nie mogły dolecieć dalej, niż horyzont? Czy zadbała o to inflacja? A jak on widzi nas? Kwestą tą zajmiemy się później. Tu możemy dla przypomnienia zauważyć, że wszystkie obiekty Wszechświata, w momencie Wybuchu musiały być razem, tworzyły jedną zintegrowaną całość i ze wszystkimi przez cały czas, od WW, jesteśmy w kontakcie wzrokowym. W odniesieniu do obiektów kosmologicznych, by je zobaczyć, nie musimy czekać na przysłowiowe fotony. [Coś innego, zdarzenia nie mające nic wspólnego z kosmologią, np. wybuch supernowej.] Jest to niezwykle ważna okoliczność. Jest ona zresztą konsystentna z prawem Hubble’a. Okoliczności tej jednak wielu zdaje się nie dostrzegać. A jednak wnioski, do których może prowadzić jej uświadomienie w odpowiednim kontekście przemyśleń, mogą mieć spore znaczenie heurystyczne. Stwierdzeniem tym uprzedziłem fakty, gdyż przekonanie o tym, iż Wielki Wybuch miał miejsce uzyskano dopiero po odkryciu promieniowania reliktowego.

5. Wiek Wszechświata i zmienność współczynnika H.
Wiek Wszechświata.  
     Wybierzmy w sposób losowy galaktykę odległą od nas o r, której prędkość względem nas równa jest v. Wszechświat rozszerza się, więc zapytajmy: Kiedy odległość między nami równa była zeru? Nie ważne jak wtedy wyglądaliśmy. Kiedy (ile lat temu) wszyscy, Wszechświat, znajdowaliśmy się w jednym punkcie (lub by uniknąć  osobliwości, w obrębie „kuli” o bardzo małych rozmiarach)? Otóż czas potrzebny na to  równy jest: t = r/v . Jak widać, wychodzimy z założenia o stałości prędkości względnej. [Jeśli prędkość ta zmienia się wraz z ewentualnymi zmianami c (a nie na przykład pod wpływem ciemnej energii), to, by wyznaczyć ten czas dokładnie, należałoby znać charakter zmian inwariantu c. Na to trochę za wcześnie.] Załóżmy, że inna galaktyka znajduje się dwa razy dalej niż pierwsza (2r). Jej prędkość równa jest więc 2v. Łatwo zauważyć, że upłynął ten sam czas. Nic dziwnego, wszak byliśmy wtedy wszyscy razem. Kiedy to było? Najlepiej obliczyć to posługując się promieniem horyzontu i prędkością światła: t = r/v = R/c . Od razu dostrzegamy, że:
                                                                         t = 1/H                          (*)
I tak otrzymujemy sens fizyczny współczynnika H jako odwrotność wieku Wszechświata. Sam wiek otrzymamy natychmiast. Właściwie znamy już go. Wszak horyzont znajduje się w odległości około 15- tu mld. lat świetlnych od nas (przyjmując uzgodnioną roboczo wartość stałej H za równą 20), a przecież promień R jest odległością odpowiadającą prędkości równej c. Ile czasu światło potrzebuje by przebyć drogę piętnastu miliardów lat świetlnych? Oczywiście czas równy tej liczbie lat. Jest to oczywiście liczba przykładowa, tak, jak przykładowa jest wartość stałej H przyjęta przez nas. Przypominam, że otrzymaliśmy to wychodząc z założenia o stałości prędkości względnych. Tu warto zauważyć, że według powszechnego sądu prawdziwy wiek Wszechświata jest inny niż ten „idealny”, przewidywany na podstawie prawa Hubble’a. Ten „idealny” nazywany jest czasem Hubble’a. Ten rzekomo prawdziwy wynika z równania Friedmanna i uwzględnia ciemną energię. Zgodnie z najnowszymi danymi wynosi: 13,7-13,8 mld lat. Przyznać trzeba, że to najnowsze oszacowanie uzyskano dzięki skrupulatnej analizie reliktowego promieniowania mikrofalowego. Jednak same obliczenia bazują, jak wspomniałem, na obowiązującym modelu Friedmannowskim, wraz z uwzględnieniem ciemnej energii (a więc i stałej kosmologicznej). Tak nawiasem mówiąc interesujące, że Einstein odrzucił stałą kosmologiczną, gdy po odkryciu Hubble’a równanie Friedmanna stało się podstawowym równaniem kosmologii. Uznał on wtedy wprowadzenie stałej L za swą największą pomyłkę. Cóż, meandry historii nauki.
     Wszechświat, zgodnie z tym obowiązującym sądem jest więc młodszy. Przyczyna w tym, że według aktualnie przyjętego modelu „standardowego”, tempo ekspansji dawniej było większe niż dziś. Według tego modelu tempo ekspansji sukcesywnie malało, z powodu grawitacji powszechnej, a po 7 miliardach lat po Wielkim Wybuchu wzrasta coraz bardziej za sprawą ciemnej energii. Notabene, to poważna niespójność, do której ustosunkowałem się już w pierwszym artykule i ustosunkuję się później.
     Uważam, że prędkość ekspansji Wszechświata równa jest c z powodów zasadniczych. Nasze obliczenia są przybliżone, nawet w stosunku do naszych modeli, które oddają ze zrozumiałych względów przybliżony obraz rzeczywistości. Ta jest jednoznaczna, jest idealizacją wszystkich modeli razem wziętych. Nie bójmy się więc operowania idealizacjami w poszukiwaniu prawdy obiektywnej. Ale to nie jedyny argument. Nie chodzi jedynie o względy estetyczne.
    Powyżej, wyszliśmy z założenia, że prędkość względna określonych dwóch galaktyk (o znaczeniu kosmologicznym) jest stała w czasie (w każdym razie w stosunku do c). W przeszłości, nawet odległej, ich względna prędkość była więc ta sama. Wynika stąd, że odległość wyznaczona na podstawie prawa Hubble’a, dla tych dwóch obiektów, zależna jest tylko i wyłącznie od wartości współczynnika H. Także dzisiejsze rozmiary Wszechświata określa dzisiejsza wartość współczynnika H. Zmiana odległości (Wszechświat rozszerza się) sugeruje zmianę po czasie wartości tego współczynnika, notabene wyznaczonego na podstawie obserwacji, przedstawiającej stan aktualny******. Możemy więc przyjąć (choćby hipotetycznie), że odległość wyznaczona na podstawie obserwacji jest odległością rzeczywistą, aktualną na dziś (gdyby nie uwzględniać niepewności co do wartości H). Jest odległością rzeczywistą, a nie „historyczną”, bazującą na łączności (za pośrednictwem fotonów) między nami, a obiektem. Inna sprawa, że wyznaczenie H możliwe jest na podstawie pomiarów dotyczących obiektów mających znaczenie kosmologiczne, a więc obiektów odległych. To trochę zawyża wynik, gdyż patrzymy w przeszłość, a dawniej wartość H była większa, zgodnie z naszym ustaleniem powyżej (dotyczącym sensu fizycznego wsp. H). Za chwilkę wrócimy do tego twierdzenia.
Stała H zmienia się w czasie.
   Powyżej zwróciliśmy uwagę na to, że H jest stałe w przestrzeni, to znaczy jednakowe wszędzie, zgodnie zresztą z zasadą kosmologiczną. Co innego w odniesieniu do czasu. Wystarczy zauważyć, że H zmienia się z czasem (maleje), gdyż przy stałej (nawet) prędkości względnej, zwiększa się odległość (mianownik ułamka wyrażającego H w prawie Hubble'a) – galaktyki się oddalają. To, że współczynnik H zmienia się w czasie, wynika zresztą w sposób natychmiastowy także ze wzoru (*). Wszak czas od początku wszechrzeczy przemija i jako liczba rośnie. Czas jest jedyną wielkością, która nie może być parametrem stałym, nie zatrzymuje się i idzie tylko do przodu. Możemy przyjąć, że tak było zawsze, bo nasz czas nie możemy traktować za wyjątkowy, nawet jeśli w innym miejscu zegar wskazuje inną godzinę. Chodzi bowiem o czas uniwersalny, kosmiczny. Wzór (*) wskazuje na to, że wykresem zmian wsp. H jest hiperbola (chodzi o zależność odwrotnie proporcjonalną), jeśli nie uwzględnić ewentualnych zmian inwariantu c. Chodzi tu o wartość tej wielkości u nas, wartość zmieniającą się, choć oczywiście w tempie zbyt powolnym, by był sens myśleć o próbie pomiaru zmian w rozsądnym czasie (np.miliona lat). Możliwe jest jednak określenie wartości tej wielkości w dawnych czasach, dzięki obserwacji bardzo odległych obiektów, w których czas, według nas płynie wolniej z powodu ich relatywistycznej prędkości (sądząc po rozważaniach prowadzonych w tej pracy) – będzie o tym mowa później, w jednym z następnych artykułów.
     Tak przy okazji zauważmy, że wsp. H maleje proporcjonalnie do czasu, za to odległość rośnie proporcjonalnie do czasu. Prędkość względna zatem, zgodnie z prawem Hubble’a nie ulega zmianie. „Obawy” co do faktycznej zmienności prędkości byłyby więc płonne.  

*) O kosmogonii galaktyk, a więc także o powstaniu ramion spiralnych będzie mowa w szczególności w eseju pt. Jak powstały galaktyki. Tam też będzie miejsce na wyjaśnienie dlaczego gwiazdy z ramion spiralnych, w większości, zawierają stosunkowo dużo metali (matalami nazywają astrofizycy wszystkie pierwiastki cięższe od helu). Tutaj, uprzedzając sprawę, tylko napomknę, że zgodnie z proponowanym tam modelem, ramiona spiralne uformowały się jako obiekty wtórne, gdy obiekt protogalaktyczny był już pełen gwiazd (dziś należących do tak zwanej populacji drugiej, a właściwie trzeciej, zgodnie z dzisiejszą tendencją).
**) „Paradygmat łącznościowy”, zbieżny z dzisiejszym pojmowaniem kwestii, przyjmuje istnienie „horyzontu łącznościowego” (To moja nazwa horyzontu cząstek). Jest to odległość, z jakiej mogą przybyć fotony, od najdalszego obiektu, który możemy jeszcze dostrzec, gdyż, aby go zobaczyć, czekać mamy na te fotony. Podejście „łącznościowe”, charakteryzujące dzisiejszy stan zapatrywań kosmologicznych, bazuje na paradygmacie obserwowalności; w uproszczeniu: „widzimy dzięki temu, ze stamtąd przybyły do nas fotony”. Wynika z niego możliwość istnienia obiektów poza widzialnym Wszechświatem. Doktryna ta (powszechnie przyjęta, wprost jak aksjomat), w odniesieniu do zagadnień kosmologicznych „zapomina”, że kiedyś w przeszlości „wszyscy byliśmy razem”, że miał miejsce Wielki Wybuch, potwierdzony przecież obserwacyjnie. Od tego momentu „wszyscy jesteśmy ze sobą w kontakcie wzrokowym” i niepotrzebni są jacyś „fotonowi gońcy”, by zobaczyć obiekt o charakterze kosmologicznym. Zatem obserwowany Wszechświat jest Wszystkością. Sam horyzont jest rodzajem topologicznej rozmaitości. I tak, jak sądzę, należy ogólnie traktować pojęcie Horyzontu. W powszechnie przyjętej nomenklaturze używa się nazwy „horyzont kosmologiczny”, ktory pokrywa się z horyzontem cząstek. Przy określeniu jego bazuje się na OTW. Dziś  uwzględnia się (od niedawna) stałą kosmologiczną.   W innym artykule przedstawię ten „klasyczny” opis rzeczy w sposób systematyczny, by skonfrontować z podejściem zastosowanym w tej pracy. Tak na marginesie, interesujace, że Grigorij Perelman (ur. 1966) udowodnił słynną hipotezę Poincarégo w zaskakujący (matematyków-topologów) sposób – jest fizykiem matematycznym, a bazą dla dowodu były rozważania o charakterze kosmologicznym. Jeszcze do tematu topologii Wszechświata wrócimy.

***) We wszystkich obliczeniach bazujących na prawie Hubble’a nie uwzględniam poprawek i uściśleń, jakie wnosi zastosowanie ogólnej teorii względności. Oczywiście pomijam też (jako nieistniejące) efekty związane z hipotetyczną ciemną energią. Dlatego przyjętą już dziś na amen wielkość 13,7-8 mld. lat jako wiek Wszechświata – odrzucam z kretesem. Z dwóch powodów. 1. Istotny dla mnie jest przede wszystkim aspekt jakościowy, a także poglądowość i przejrzystość wywodów, nawet jeśli cierpi na tym ścisłość wobec wymogów natury matematycznej i zgodność z aktualnym pojmowaniem sprawy; 2. Do dziś nie pozbyto się do końca problemu wieku gwiazd z gromad kulistych, do niedawna szacowanego na 15 mld. lat. 3. Artykuły te, to rezultat badań odosobnionych, czyli prowadzonych wyłącznie przez jedną osobę, stanowiących arogancką próbę stworzenia modelu Wszechświata, w miarę całościowego, z zasady nie bazującego na OTW i nie uwzględniajacego błędnej, moim skromnym zdaniem, interpretacji pociemnienia supernowych (ciemna energia). W eseju pod wymownym tytułem: Katastrofa horyzontalna uzasadniłem swą naganną postawę.

****) Pełne wyprowadzenie tego wzoru znajdziesz m.in. w mojej książce: Elementarne wprowadzenie do szczególnej teorii względności, nieco... inaczej.

 *****) Jak stwierdzimy dalej, wyniki nie będą sprzeczne. W eseju poświęconym neutrinom podałem fizyczną przyczynę, stwierdzonej obserwacyjnie (z niedowierzaniem), absolutnej płaskości geometrii Wszechświata, przyczynę tego, że nie ma ani globalnego przyciągania, ani odpychania, że problem płaskości jest problemem pozornym, a jego pierwotnym źródłem jest nieświadomość istnienia dualności grawitacji – mowa o tym będzie niebawem, w artykule piątym.
 
******) Nie ważne, że mowa tu o obserwacji obiektów bardzo odległych, a w związku z tym, domniemanym czasem wędrówki światła docierającego od nich, bardzo długim. Jak się niebawem przekonamy, problem łącznościowy związany z wędrówką fotonu roztrzygnięty zostanie w sposób dość zaskakujący. 


PS.

Oto artykuł opublikowany w serwisie PTA „Orion”: „Kosmiczne fatamorgany potwierdziły przyśpieszoną ekspansję Wszechświata.”  






Uważam, że nie koniecznie (że potwierdziły). Po pierwsze, nie ma żadnego dowodu na to że inwariant c jest absolutnie stały. Raczej maleje. Świadczyć by mogły o tym pomiary stałej struktury subtelnej w odniesieniu do kwazarów.
Po drugie, model Wszechświata budowany na równaniu Friedmanna (i w ogóle na OTW) wcale nie musi być prawidłowy.
Po trzecie, można wskazać na inną zupełnie przyczynę (wprost prozaiczną) pociemnienia supernowych. Podałem ją w eseju pod wielce mówiącym tytułem "Katastrofa Horyzontalna". Wyprowadziłem tam m.in. wzór na wielkość pociemnienia supernowych Ia w zależności od odległości, antycypujący (zgodny z wnikami obserwacji). Jeśli już tak, to ciemna energia nie istnieje.