Plankony i elsymony
Cz. 2.
Treść
1. Energia
potencjalna układu dwóch plankonów. Model matematyczny. Nisze energii potencjalnej - wnioski
dotyczace możliwości tworzenia struktur przez plankony.
2. Jak
budować cząstki elementarne? Podstawowe
powtarzalne elementy struktury cząstek.
3. Czym
jest ciemna materia? Panelsymon
– Wszechświat na starcie. Urela i przemiana fazowa. Ciemna materia i parametr
gestości. Dlaczego masy galaktyk są w zasadzie zbliżone do siebie? Jak
ukształtowały się wyspy przyszłych galaktyk?
Refleksje
1. Energia potencjalna
układu dwóch plankonów.
Paść może
pytanie: Co stanowi czynnik „zachęcający” plankony do tworzenia agregatów –
cząstek? Odpowiedź: Powinna istnieć jakaś nisza energii potencjalnej. Zbadajmy
więc jak zmienia się energia potencjalna układu dwóch plankonów wraz z
odległością. Oczywiście uwzględnić musimy tu ubytek masy układu wraz z maleniem
odległości między plankonami. Tu należy zaznaczyć, że nisza
taka nie może istnieć, jeśli grawitacja, to
wyłącznie przyciąganie. Zgodnie z panującym (nawet
zobowiązującym) dziś sądem, grawitacja, to przyciąganie – o odpychaniu nie ma
mowy. W sytuacji takiej trudno o motywację do podjęcia badań nad strukturą cząstek elementarnych, jakby badania te nie były możliwe. Dziś tak
się powszechnie sądzi. Argumentacja dla poparcia
tego sądu (a właściwie tej bezradności), sięga po nieoznaczoność i związane z
nią fluktuacje, niweczące możliwość wglądu w
rozmiary liniowe cząstek. Z tego powodu trudno mówić o ich strukturze (w
szczególności chodzi o leptony). Najlepiej więc przyjąć, że są obiektami
punktowymi. No
to skąd w ogóle bierze się strukturalizacja materii: pierwiastki chemiczne,
atomy, cząstki subatomowe...? Wbrew spodziewanej reakcji licznych czytelników,
problem istnieje. To nawet problem podstawowy. Mamy tu paradygmat
obserwowalności warunkującej możliwość poznania.
Czy rzeczywiście taka nisza istnieje? Sądząc
po jakościowych rozważaniach w poprzednim artykule*
– tak. Czy ilościowe rozważania potwierdzą przypuszczenia? Zobaczymy.
Bazując na dotychczasowych ustaleniach (wzory: (8), (9), (10) w poprzenim artykule) możemy napisać wzór na energię potencjalną układu z uwzględnieniem
defektu masy:
Jak widać, wypadkową masę grawitacyjną
układu należało podzielić przez dwa, by otrzymać masę przypadającą na jeden
plankon.
Na tym jednak sprawa się nie kończy. Należy oczekiwać, że energia
potencjalna w odniesieniu do odległości mniejszych niż połowa długości Plancka,
powinna być dodatnia (będąc ujemną dla odległości większych) – sądząc po rozważaniach dotyczacych układu dwóch punktów
materialnych (przypadek ogólniejszy). Chodzi
bowiem o odpychanie. Przy minimalnej
odległości**, energia potencjalna (dodatnia) powinna być maksymalna. W
przypadku izolowanego układu dwóch plankonów mielibyśmy do czynienia w gruncie rzeczy z ruchem cyklicznym, z drganiami.
Kojarzy się to z oscylującym Wszechświatem. Energia
potencjalna równa jest zeru, oczywiście wtedy, gdy
wzajemna odległość równa jest połowie długości Plancka. Masa
grawitacyjna układu równa jest wówczas zeru. Można ustalenie nasze zapisać
symbolicznie następująco:
Ze wzoru
(11) wynika jednak, że energia potencjalna powinna być zawsze ujemna. Byłoby to
słuszne, gdyby grawitacja oznaczała tylko i wyłącznie przyciąganie. Okazuje
się, że tak nie jest. Należy więc we wzorze na energię uwzględnić to poprzez
dostawienie współczynnika, który zdefiniować należałoby
następująco (podobnie, jak to zrobiliśmy w artykule pierwszym***:
Przyjmijmy teraz dla
wygody, że: r = xL , x > 0. Zwróćmy też uwagę na to, że:
na podstawie wzoru (10). Otrzymujemy więc
następujący wzór na energię potencjalną:
Funkcję E(x) można zbadać.
Proponuję to licealistom (choć dziś to już
przegrana sprawa). Poniżej widzimy szkic wykresu energii potencjalnej. Wyrażamy
ją oczywiście w jednostkach Mc². Zauważmy spójność otrzymanego wyniku z wynikami
poprzednimi, w szczególności z zerowaniem się masy układu gdy odległość między
plankonami równa jest połowie długości Plancka.
Sądząc po wykresie,
zauważamy (O dziwo?) też istnienie minimum
energii potencjalnej, odpowiadające odległości 3/2 długości Plancka (-8/27Mc²). Odpowiada
to energii 3,67·10^18
GeV. Tak na marginesie, byłaby to
energia o dwa rzędy większa, niż energie rozpatrywane przez teorie GUT. To minimum energii sprzyja łączeniu się
plankonów w układy. Są nimi, tak można przypuszczać, wszystkie cząstki (oprócz
fotonów i neutrin). Tak, neutrin, w związku z ich wyjątkowymi cechami, różniącymi je od pozostałych
cząstek. Zajmę się nimi w trzeciej części książki. Także „na rozdrożu”, w punkcie 1/2, tworzy się nisza (dalej jest
przciąganie, a bliżej odpychanie), a w niej miejsce na układy plankonowe, z
tym, że energia potencjalna tam równa jest zeru. Odpowiada to więc także
zerowej masie układu. Jest to miejsce, w którym tworzą się fotony. Tak przy okazji, zauważmy idealną
zbieżność tego wykresu z wykresem zmian energii potencjalnej układu dwóch
punktów materialnych (artykuł piąty). Tego należało się spodziwać (należałoby
tylko wziąć pod uwagę to, że R = 2L).
Jak widać, nie znaleźliśmy tu miejsca na neutrina. To
znak, że mimo wszystko nasz wgląd jest tylko częściowy. Ale chyba trochę
posunęliśmy się do przodu. Zwiększyła się bowiem liczba opcji, których
wykluczenie przybliży rozwiązanie kwestii. Tak na marginesie, oznaczać by to
mogło, że neutrina są po prostu układami złożonymi (nasze rozważania
„teoretyczne”, dla przypomnienia, dotyczą przecież jedynie układu dwóch
plankonów). By się zająć neutrinami należałoby
też zwrócić uwagę na ich dość szczególne własności. Mogłoby to (już teraz)
sugerować, że nie musiały wyodrębnić się w jakimś dole potencjału, lecz w inny
sposób. Rzecz opisana jest, jak
zauważyłem, w innym miejscu. Poza
tym, zgodnie z jedną z hipotez
oddzieliły się jeszcze przed zajściem przemiany fazowej.
Kontynuujmy naszą interpretację. Otrzymana przez nas wartość energii
potencjalnej w minimum: -8/27, zastanawia. Jest bowim trzecią potęgą liczby
-2/3. Zauważmy przy tym, że wartość ta przypada w punkcie o odciętej 3/2. Także
to zastanawia, choćby tym, że iloczyn tych dwóch liczb daje jedność (minus
związany jest z przyciąganiem), co między innymi oznacza pewność. Odpowiada to
właściwie zasadzie „zupełności” żądającej, by rzeczywistość w jej formie
obiektywnej była ideałem, do którego zmierzają wszystkie opisy przybliżone, pretendujące
do trafnego opisu Przyrody, nazywane teoriami. Między
innymi właśnie dlatego uczeni poszukują
estetyki w swych równaniach – to rodzaj niepisanego kryterium w poszukiwaniu
prawdy. Poszukują rozwiązań w postaci liczb całkowitych lub ułamków prostych
wyrażających coś lub liczb specjalnych, jak liczba π. Na szczególną uwagę
zasługuje też liczba φ = 1,61803..., nazywana złotą liczbą, będąca stosunkiem długości dwóch
części odcinka w złotym podziale, a także granicą, do której zmierza stosunek
kolejnych liczb ciągu Fibonacciego. Za chwilkę powrócimy do tego. Nie chodzi tu bynajmniej o zabawę
kabalistyczną. Chociaż kto wie, być może kabalistyka bazuje między innymi na
niezgłębionych (jeszcze) przez nas cechach Przyrody, opisanych w sposób
symboliczny w Torze (?).
Zauważmy,
że liczba 2 symbolizuje podstawową alternatywę, wyraża istnienie dwóch
wykluczeń (góra–dół, prawo–lewo, prawda–fałsz, przyciąganie–odpychanie itp).
Wraz z tym liczba 3 określa liczbę elementów podstawowego zbioru opcjonalnego:
plus, minus, zero; w dodatku wskazuje na symetrię świata – rozdziela zerem „po
równo” dwie przeciwstawności, których połączenie też tworzy zero.
W przyrodzie jest to rzeczą
powszechną. Weźmy choćby absolutną w przyrodzie równość ilościową ładunków
dodatnich i ujemnych. Oznaczać by to mogło, że byt ładunkowy (elektryczny)
powstał z dysocjacji jakiegoś tworu pierwotnego. Już to świadczy pośrednio o
istnieniu strukturalizacji (a więc i atomistyczności) gdzieś głęboko, poniżej
progu obserwowalności. Pole do popisu dla plankonów (i przyszłych
doktorantów).
W tym
kontekście trzecia potęga liczby -2/3 jest być
może (Być może? To wprost naturalne.) wyrazem trójwymiarowości przestrzeni. Zauważyłem już to w artykule piątym.
Gdybyśmy
byli płaszczakami, zamiast -8/27 otrzymalibyśmy 4/9... A
gdybyśmy byli czterowymiarowcami? Być może we wzorze, który otrzymalibyśmy,
występowałby wykładnik potęgi 4, czyli mielibyśmy 16/81. To
podpowiada wyobraźnia, która może być przecież zawodna, tym bardziej, że
czasami żarty mi w głowie. A tak nawiasem mówiąc, energia byłaby dodatnia, co
oznaczałoby maksimum, a nie niszę. Cząstki by nie istniały, przynajmniej w tym
punkcie. Nawet jeśli to żart.
Przecież objętość określona jest przez
trzecią potęgę długości. Trójwymiarowość. To godne zastanowienia, choć
niezbieżne jest z ustaleniami teorii superstrun. Widocznie, by do
mikrorzeczywistości dotrzeć od góry (w dodatku obligowani przez paradygmat
obserwowalności), powinniśmy zaopatrzyć się w kilka dodatkowyh wymiarów. Od
dołu, u źródeł, jednak wszystko wygląda prościej. Być może u źródeł, przestrzeń
tworzona przez mnogość plankonów jest trójwymiarowa, a zakładana
wielowymiarowość związana jest ze złożonością układów tworzących rzeczywistość,
a także stanowi warunek dający możliwość opisu tej rzeczywistości za pomocą
środków dostępnych naszej percepcji. [W naszej
percepcji istnieją trzy rodzaje oddziaływań (słabe dotyczą neutrin,
znajdujacych się poza granicą naszej percepcji – by zrozumieć dlaczego, być
może już teraz warto zajrzeć do eseju poświęconego neutriniom). Jeśli
odniesiemy do każdego z tych trzech oddziaływań, trzy wymiary niezbędne dla
pełnego poznania układów dynamicznych, to razem otrzymamy dziewięć wymiarów.
Pamiętamy superstruny? Ot takie sobie skojarzenie.] Ponadto, jeśli wszystkie oddziaływania
ostatecznie sprowadzają się do grawitacji (będąc efektem złożoności struktur),
nie dziw, że dotarcie do elementarnej struktury na bazie nieświadomości tego
(faktu?), wymaga dodatkowych procedur, które poszerzają przestrzeń danych o
dodatkowe „wymiary” (i bardzo komplikują modelowanie
matematyczne). Tak można
by sądzić, chociaż zastanawiają cechy wewnętrzne samego plankonu, sugerujące,
że dla ich opisu mimo wszystko zmuszeni będziemy do poszerzenia naszej
„wyobraźni” przestrzennej.****
By zakończyć tę kwestię, we wzorze (13),
zastępując masę wyrażeniem definiującym ją (Wzór (2) w poprzednim artykule), otrzymujemy
wzór inny na energię potencjalną:
Istnieją (choćby w mojej wyobraźni)
różnorodne elsymony, liczba możliwości jest ogromna, prawie nieskończona.
Jednak nie każdy układ posiada cechy trwałości, nie każdy może stanowić cząstkę
o znośnym czasie życia. Nie jest celem moim (także nie czas na to) poszukiwanie
formalnych reguł wyboru i reguł wykluczania umożliwiających konstruowanie (na
papierze) tworów mających cechy określonych cząstek, choć nie jest to
niewykonalne. A jeśli ktoś się tym zajmie, okaże się, że obowiązujący
dziś model standardowy jest przypadkiem szczególnym,
a właściwie „lokalną” prawidłowością – po
uwzględnieniu dualnej grawitacji i oczywiście tego, co wnosi koncepcja bytu
absolutnie elementarnego. Nawet wiadomo, w jakim należy pójść kierunku.
Będzie mowa o tym dalej. Mam nadzieję, że będę mógł pozostawić dalszy ciąg
dociekań (fascynujący temat badwczy) młodym. [Czy to nie
marzenia dotkniętego zespołem Aspergera?]
W kontekście tym istnienie „nietrwałości” (rozpadów cząstek), samo w sobie jest rzeczą interesującą, a
pytanie: „Co jest jej przyczyną?”, wcale nie jest tuzinkowe. Przecież
„grawitacja jest czynnikiem tylko i wyłącznie spajającym”. Trwałość układu
wiąże się z pojęciem równowagi. Określony układ jest w równowadze trwałej, gdy
stan jego charakteryzuje minimalna wartość energii potencjalnej. Dla przykładu,
ciało znajdujące się na dnie dołu jest w stanie równowagi trwałej. Gdyby
grawitacja była tylko przyciąganiem, nie byłoby problemu…i nas by nie było.
Sam dół byłby właściwie jednostronną otchłannie głęboką przepaścią. Wszystko by
weń wpadało i nic by nie zostało (inna sprawa, skąd by się to wzięło, żeby
potem wpadać). O równowadze i trwałości trudno tu mówić.
O tym jakoś cicho. Problem przestaje istnieć, jeśli o nim
nie rozmawiamy. A jeśli ktoś się odezwie, to jego problem...
Fascynujące, jak w tej sytuacji Wszystko mogło powstać, a w dodatku
rozszerzać się? Uczeni znaleźli na to sposób. Na wszystko jest. Zatem mimo
wszystko istniejemy, z całym szcunkiem dla miłościwie nam panującej syngularnej czarnodziurokracji uzbrojonej w energię próżni.
Spytajmy więc: Co sprawia, że jednak możliwe
jest istnienie układów trwałych? Ten tajemniczy czynnik z jednej strony nie
dopuszcza do nieograniczonej zapaści, z drugiej zaś powoduje rozpady układów. To
z całą pewnością rodzaj odpychania. Co może być więc jego źródłem? Na pewno nie
elektrostatyka. Jak wiadomo, rozpady cząstek przebiegają zawsze z udziałem
neutrin, które nie oddziaływują elektromagnetycznie. Mamy jeszcze jeden powód
do zastanowień.
Zatem
istnienie odpychania zmienia sytuację. Nie dość
na tym. Z jednej strony uświadomiliśmy sobie istnienie pewnych problemów, a
nawet sprzeczności wewnętrznych wynikających z tradycyjnego widzenia
grawitacji, z drugiej zaś, problemy te zostały (ideowo) rozwiązane. Ale to jeszcze nie wszystko. Wróćmy do naszych plankonów, które
przenikają się wzajemnie. Jak już wyżej zauważyliśmy, istnieją dwie nisze
energii potencjalnej, umożliwiające tworzenie się układów-cząstek. W
szczególności tam, gdzie odległość między środkami plankonów równa jest połowie
długości Plancka istnieje nisza masy zerowej, nisza fotonowa. W przypadku
odległości jeszcze mniejszej, masa układu staje się ujemna. Manifestuje się to
działaniem odpychającym. Wartość liczbowa energii potencjalnej (dodatniej) wraz
z maleniem odległości wzajemnej, wzrasta bardzo szybko. Układ plankonów
przypomina więc sprężynę, (wcale nie w
spoczynku). Jak stwierdzimy dalej,
drgającą. Przypomina też Wielki Wybuch, a wraz z tym, właściwie to, co
go poprzedziło. Odpychanie grawitacyjne, równocześnie w całej objętości.
2. Jak budować cząstki elementarne?
Mamy już dość solidną bazę „ideologiczną”
dla zastanowień, może nawet wstępnych ustaleń dotyczących kryteriów budowy
cząstek-elsymonów. Zbierzmy więc rozproszone w tekście (tym i poprzednich)
myśli w jedną całość.
W rozważaniach nad energią potencjalną układu dwóch plankonów, doszliśmy do
konkluzji o istnieniu dwóch minimów, dwóch miejsc, w których najchętniej łączyć
się powinny plankony. To dość istotne kryterium, jednak wykres energii
potencjalnej, jaki uzyskaliśmy, dotyczy układu dwóch plankonów, a cząstki
konkretne stanowią chyba dość złożone ich układy. A jakie to są układy? Powinny
być trwałe, to znaczy, pozostawione w odosobnieniu, nie ulegać rozpadowi. Powinny więc to być układy o charakterze cyklicznym.
Rzecz wyjaśniłem w odnośniku z trzema gwiazdkami w poprzednim artykule. Cząstka
jest więc układem cyklicznym. Jest układem złożonym. W nim zachodzą wprawdzie ciągłe (i ciągle)
zmiany, ale zmiany te mają charakter cykliczny. Chodzi więc o drgania. Plankony
tworzące cząstkę, a także, niezależnie od tego, ich układy (podukłady całości),
drgają. Są to podukłady sprzężone ze sobą. Można przypuszczać, że rozkład drgań
całości ma charakter fourierowski. Drgania są „dopasowane” do siebie. Układ
powinien być stabilny. Niestabilność powoduje szybkie rozerwanie układu.
Oczywiście, gdy mowa o układzie plankonów, nie ma mowy o promieniowaniu
elektromagnetycznym podczas zachodzących w nim przemian. Nie tylko dlatego, że
są to przemiany cykliczne. Także dlatego, gdyż sam foton jest właśnie takim
układem.
Ale to jeszcze nie wszystko. Dodatkowe
kryterium dotyczace struktury cząstek bazuje na (trzeba przyznać, że dosyć
zaskakującej) hipotezie o istnieniu wysycenia pola grawitacyjnego (rzecz
opisałem w poprzednim artykule). Koncepcja, zakładajaca istnienie wysycenia
pola grawitacyjnego, jak dotąd nie była brana pod uwagę, gdyż nie koresponduje
z głównym nurtem badań i oczywiście z dzisiejszym zbiorem przekonań. Bodźcem
dla przemyśleń w tym nowym kierunku (poza bardzo dawnymi, studenckimi
spekulacjami) jest to, że jednak nie wszystko to, co dziś stanowi stan
zapatrywań, pasuje jak ulał, stanowi monolit. Wszak wiadomo, że dzisiejszy stan
wiedzy nie antycypuje już w zasadzie nic nowego, przy tym obserwacje
astronomiczne na ogół zaskakują i trzeba się do nich dostosowywać poprzez
(niekoniecznie uzasadnione) tworzenie nowych bytów. Przykład dobitny stanowi tak zwana ciemna energia
(uhonorowana nawet Noblem). W innym miejscu przedstawiłem model (ilościowy)
wyjaśniajacy efekt z supernowymi, który dał asumpt do wymyślenia ciemnej
energii, model antycypujący wielkość pociemnienia w zależności od odległości;
zgodny z obserwacją. To tworzenie przez
dzisiejszą naukę nowych bytów na lewo i na prawo, jest rzeczą dość symptomatyczną
(Wraz z tym, że słowa te wzbudzają zdecydowany sprzeciw u niejednego członka
społeczności fizyków, a ja, choć też jestem fizykiem, z grona tego niebawem
zostanę usunięty. Ku mojej radości, bo to znak, że czytali.). Ale to (tworzenie
nowych bytów)
jest faktem, nawet jeśli dzisiejsi geniusze
naśmiewają się z flogistonu.
Oczywiście
nową koncepcję należy sprawdzić, choćby dlatego, gdyż burzy ona aktualny
porządek rzeczy. Sprawdzić dla obalenia. Sprawdzić, gdyż... stanowi spory
przyczynek dla ewentualnej heurezy. Otwiera wprost róg obfitości z tematami
badań, wśród nich badań problemów tradycyjnych, między innymi do dziś
uznawanych za nierozwiązalne, także tematów badań, dziś na razie będących poza
horyzontem oczekiwań nauki i dzisiejszej świadomości poznawczej. Implikacje
mogą być rozliczne, znaczące do tego stopnia, że wykluczenie rozważań
bazujących na modelu przedstawionym w mych pracach, bez poważnych studiów i
badań, nie byłoby rzeczą zbyt roztropną. Należy więc za wczasu wszystko to
odrzucić i oczywiście skwitować milczeniem... To, co ma miejsce.
W poprzednim artykule, dla upoglądowienia
rzeczy posłużyłem się (jakby trochę infantylnym) modelem rąk, których
ograniczona liczba oznacza istnienie wysycenia. Stwierdziłem tam, że rzecz
warta jest opisu przede wszystkim w odniesieniu do układów prawdziwie
elementarnych, układów plankonowych. Można powiedzieć, że przyroda jest
minimalistyczna. Plankon posiada więc najmniejszą liczbę rąk, dzięki którym może,
po pierwsze, łączyć się z innymi, a tym utworzyć najprostszy elementarny układ
przestrzenny, po drugie, ten najprostszy układ w dalszym ciągu jest źródłem
pola grawitacyjnego, by tworzyć układy bardziej złożone. Zatem plankon posiada
cztery ręce. Dzięki nim powstaje układ elementarny czworościanowy (czworościan
foremny), mający też cztery ręce. Dlaczego właśnie cztery? Cztery punkty (cztery plankony tworzące
czworościan foremny) tworzą więc jednorodną przestrzeń trójwymiarową (Przestrzeń trójwymiarową tworzą cztery punkty – wierzchołki
czworościanu, tak, jak trzy tworzą płaszczyznę, a dwa linię prostą.)
Oczywiście układ nie jest statyczny. Plankony drgają.
Można się wstępnie zastanowić jak: Czy wszystkie cztery zbliżają się do siebie i oddalają w
zgodnych fazach powodując cykliczne zmiany rozmiarów czworościanu? A może drgają parami w
fazach przeciwnych? – tu opis byłby bardziej skomplikowany. Zachęcam do
przemyśleń, a w nich poszukiwań możliwości, przy których układ pozostaje
stabilny. To oczywiście układ elementarny, który połączony jest z innymi
identycznymi, także drgającymi. Chodzi więc właściwie o stabilność układu nawet
wielu takich połączonych ze sobą czworościanów. W
przypadku czworościanu pojedyńczego, w związku z jego elementarnością, nie ma
mowy o wyższych harmonicznych.
Plankony
utworzyć też mogą dwunastościan foremny, dodekaedr*****.
Ściany jego są pięciokatami foremnymi. Posiada on 20 wierzchołków, czyli
zbudowany jest z dwudziestu plankonów. Czy ma
więc dwadzieścia rąk na zewnątrz? To by mogło wynikać, z tym, że nie od razu. „Wprawdzie boki pięciokątów foremnych mogą być długością równe bokom
czworościanu, ale przecież tutaj istnieją przekątne dłuższe (deficyt masy
mniejszy – masa większa). Przekątnych nie posiada wyłącznie czworościan.” W zacytowanym zdaniu nie uwzględniono jednak istnienia
wysycenia pola grawitacyjnego – plankony po dwóch stronach przekątnej nie czują
wzajemnie swego istnienia. W naszym modelu potrzebne by były dłuższe ręce, ale
te nie istnieją, gdyż wszystkie mają tę samą długość. Wszystkie wolne ręce wychodzą na
zewnątrz.
Warto zastanowić się, nawet jeśli to model bardzo infantylny. Modeluje on bowiem grawitację kwantową. A jeśli sobie przypomnimy prawo Gaussa, to od razu
skonkludujemy, że tam wewnątrz nie ma pola grawitacyjnego. Wewnątrz tej „piłki”
grawitacja nie istnieje.
Niezależnie od tego także
układ dwunastościenny warto preferować, już choćby ze względu na związek pięciokąta
foremnego ze złotym podziałem odcinka, który manifestuje się jako cecha
naturalna ogromnej liczby układów fizycznych. Na
szczególną uwagę zasługują tu organizmy żywe, w
których proporcje budowy ciał bazują na złotym podziale, a pytanie: „Dlaczego mamy (nie tylko my) pięć palców?” w
tym kontekście nie jest wcale tuzinkowe (chyba,
że jesteśmy bohaterami filmu rysunkowego). Sądząc po tym wszystkim,
przypuszczać można, że masa grawitacyjna formy dwunastościennej jest
pieciokrotnie większa od masy formy czworościennej (20 wobec
4). Czy to daleko posunięte
uproszczenie? Możecie to sprawdzić, jeśli nie będziecie tak leniwi, jak ja.
A może te dwie formy z osobna tworzą dwa różne typy cząstek: leptony i hadrony? Proton byłby na przykład
układem wyłącznie komórek dwunastościennych (Więc także kwarki?), a elektron układem wyłącznie czworościanów. Takie czyste połączenia
byłyby bardzo trwałe i niemożliwe do rozbicia środkami pozostającymi do naszej
dyspozycji. Przypomnijmy sobie wielkość minimalnej energii
potencjalnej w układzie dwóch plankonów, to 3,67·10^18
GeV. A w czworościanie energia wiązania jest niewiele mniejsza. Rzeczywiście, mamy tylko dwie cząstki absolutnie trwałe. A neutrino? Jeśli także neutrino nie
ulega rozpadowi, to jego budowa jest chyba inna. Tak swoją drogą, sądzę, że przyczyną wszelkich
rozpadów cząstek są właśnie neutrina tła. Jeśli tak, to czy są też dla siebie
niebezpieczne? Jakoś do
dziś nie zauważono rozpadów neutrin, choć odkryto zjawisko ich oscylacji. Ale
to nie rozpad na coś innego. W dodatku
samo neutrino także zbudowane powinno być z takich czworościanów. Czworościan czworościana
nie rozbije. Neutrinom poświęcę specjalny cykl artykułów w
trzeciej części książki.
Natomiast układy mieszane łatwiej rozbić, w
szczególności rozdzielić układy posiadające
w sobie połączone ze sobą formy
dwunastościenne i czworościenne. Wystarczyłoby do tego neutrino, sądząc po wcześniejszych sugestiach. Energia
wiązania między tymi dwiema formami jest mniejsza, niż między plankonami
tworzącymi daną formę lub między formami
identycznymi. To raczej rozsądne założenie. Układów „homogenicznych” neutrino, w
zasadzie, nie byłoby więc w stanie
naruszyć. [„W
zasadzie”, gdyż także miuony i taony (leptony) ulegają rozpadowi.] Żadne z neutrin. Przy tym istnieją
tylko dwa formy układy nienaruszalne:
elektron i proton. To też ważna wskazówka.
A co robi neutrino w momencie rozbijania cząstki? Chyba
nawet wystarczy, że swym wtargnięciem, własnym polem, wymuszającym rezonans (co
za fantazja) zakłóca porządek drgań autonomicznych cząstki, doprowadzając do
jej rozerwania. W dodatku pewne przesłanki wskazują na to, że neutrino jest
cząstką odpycającą (grawitacyjnie, a nie z wyglądu). Ale to nie
wyjaśnienie, to co najwyżej jakościowe przesłanki.
Jeśli przy tym samo neutrino nie rozpada się
(sam spontanicznie lub poprzez wymuszenie), to byłby to jakiś argument za
tym, że właśnie ono odpowiedzialne jest za rozpady pozostałych cząstek. Eksperyment
zdaje się to potwierdzać (obecność
neutrin odczas procesu rozpadu cząstek). To także znak, że posiada
pewną wyjątkową cechę. Czy cechę odpychania? Bo jakże by inaczej? Przecież ma rozbijać. Same neutrina między sobą przyciągałyby się, nie mogąc siłą rzeczy powodować rozpadów we własnym środowisku. Być może
zjawisko oscylacji świadczyłoby o tym. Zwróciłem
już na taką możliwość uwagę w artykule poświęconym dualnej grawitacji (artykuł pierwszy tej serii, a piąty w ogóle). Zwróciłem
wówczas uwagę na to, że dwa układy o ujemnej masie grawitacyjnej, przyciągają
się wzajemnie. W świetle tamtych uwag i wniosków, hipoteza, że
masa neutrina jest ujemna, nie jest aż tak zwariowana, jak by się wydawało na
pierwszy rzut oka. W dodatku, to by coś
mogło mówić o warunkach, w których ta cząstka wyodrębniła się. Raczej wcześniej, niż pozostałe cząstki.
Osobna
uwaga należy się układom tworzącym ładunek elementarny, występującym tak w
leptonach, jak i w hadronach. To także układy absolutnie trwałe i
trwale przyłączone do jednego lub drugiego układu. Ciekawe, jak zbudowany jest ten byt. Czy
istnieje jakaś trzecia forma, albo jedyne w swym rodzaju (na dokładnie dwa
sposoby) połączenie znanych nam form, połączenie absolutnie trwałe? A może, to zwariowany (jeszcze jeden) pomysł, jakaś strukturalna
biegunowość, coś, co kojarzy się z parami chromosomów płci: XX i XY.
Kontynuując to podniecające skojarzenie zauważamy, że istnieje asymetria –
pierwiastek żeński górą. Jeszcze do tego skojarzenia wrócimy.
Na uwagę zasługują też kwarki – co różnicuje
między nimi? Jak to jest z ich ułamkowym ładunkiem? Jakie
uwarunkowania strukturalne decydują o przynależności do określonej, jednej z trzech,
generacji (dwa kwarki + dwa leptony)? A
jak to jest z leptonami rozpadającymi się (mion i taon)? Na czym strukturalnie polega wzbudzenie
elektronu lub innej cząstki? Nie, nie mam odpowiedzi
na pytania te i wiele innych. Czy mechanistyczna intuicja zdoła uporać się z
nimi? A jak jest w istocie? Cóż, nieposkromiona fantazja. Mimo wszystko
posunęliśmy się trochę na przód, co wcale nie
znaczy, że we właściwym kierunku. A jeśli nawet, to czy ja
mam się wszystkim zajmować?
Wracając do drgań
zachodzących w układach plankonów, szczególnie w kontekście przemyśleń
powyższych, zauważmy, że w
związku z istnieniem symetrii, jaka istnieje w obydwu
zresztą rozważanych formach, drgania w obydwu
tych formach
powinny być skoordynowane. Zauważyć można, że te elementarne
geometrycznie twory nie są zamknięte dla sąsiadów. Mogą się wzjemnie w jakimś
stopniu nawet przenikać. Tworząc układy
bardziej złożone. Przy tym warunkiem ich trwałości,
a właściwie ich istnienia jest to, że drgania, mimo złożoności powinny być także
skoordynowane ze sobą. Nie mogą więc istnieć układy
niecykliczne – jako absolutnie nietrwałe. To zmniejsza liczbę możliwości w
miarę wzrostu złożoności układów. Zdajemy sobie
sprawę z tego, że liczba cząstek nie jest nieograniczona. Już dowodem tego była
możliwość zbudowania modelu standardowego cząstek. Brak ograniczeń
uniemożliwiłby to.
Istotne jest także
to, że masa wypadkowa tych układów jest dużo mniejsza od masy pojedyńczego
plankonu. Masy wszystkich cząstek nam znanych są dość zbliżone do siebie. Zwróciłem
na to uwagę już w poprzednim artykule – zbliżone dzięki istnieniu trwałych, nie do rozbicia, form (dwóch). Masy te są stosunkowo niewielkie w związku ze znacznym
wysyceniem grawitacyjnym. To znane nam cząstki.
Wśród nich wyróżniają się
fotony tym, że są wysycone
całkowicie. Wiadomo też, że
liczba ładunków dodatnich i ujemnych jest dokładnie równa w całym
Wszechświecie. Dlaczego? Widocznie powstały z dysocjacji... czego? Czy połączenie (nieznanej nam dziś) strukturalnej formy
ładunkowej elementarnej dodatniej z ujemną tworzy foton? Chyba nie całkiem, w związku ze zróżnicowaniem fotonów
pod względem energii. Byłby to więc rodzaj dodatku do powtarzalnej
formy o różnej złożoności – tak, jak identyczne łańcuchy (Może pierścienie
łańcuchowe?) z różną liczbą ogniw, mające określone charakterystyczne,
powtarzalne końcówki, na przykład XX – patrz powyżej. Więcej na ten temat
będzie w trzeciej części książki, w artykule pt. „Dualizm korpuskularno-falowy
w wersji deterministycznej”. Dziś o fotonach wiemy tyle, że są bozonami
przenoszącymi oddziaływania elektromagnetyczne. Warto zastanowić się,
warto pokombinować. Grawitacja dualna temu sprzyja.
Przed nami oczywiście jeszcze sporo pytań,
sporo problemów badawczych, może nawet więcej, niż zanim mi odbiło. To pewne. Na przykład: Jaka forma, jaki układ
plankonów posiada cechy tego, co my percepujemy jako ładunek elektryczny (coś wyjątkowego, coś
powtarzalnego, coś, co występuje w większości cząstek)? Jaka jest (strukturalna,
plankonowa) istota pola magnetycznego? Wszak pole magnetyczne jest
efektem ruchu ładunku. Jak przebiega anihilacja
cząstek z antycząstkami? Czym się one właściwie różnią pod
względem struktury? Jaki układ tworzy formę oddziaływującą
silnie? Jaka jest struktura kwarków? Itd. Pytań bez liku. Czy to źle? To
wspaniale. Szkoda, że jestem za stary, by się tym wszystkim zająć. Ale jest przecież wielu młodych, w dodatku bardziej
utalentowanych, niż ja pod względem sprawności
warsztatowej.
Przedstawiony
powyżej opis ma charakter jakościowy. To tylko sugestie. Najchętniej nazwiesz je, czytelniku, fantazjowaniem. Nie
namawiam jednak do lekceważącego odrzucania zawczasu. Chyba nie pożałuje ten,
kto wytrwa czytając dalej. Wraz z tym przyznać bowiem musisz, że, jak dotąd, nikt nie próbował
zmierzyć się z problemem struktury cząstek. Wprost nie rozważa się tego. Czy to
znaczy, że nie należy tego rozważać? Że za wcześnie? Jak dotąd nie było punktu
zaczepienia. A teraz? Odrzucając ortodoksyjne
pojmowanie teorii względności, a także mechaniki
kwantowej...
Jeśli przyjąć za możliwe istnienie
dualności grawitacji, bazującej na innej, niż dotąd definicji masy
grawitacyjnej, jeśli przyjąć (nie tylko pozornie) istnienie struktury, ziarnistości, dyskretności w budowie materii za prawdę
przyrodniczą, siłą rzeczy przyjąć za fakt istnienie bytu elementarnego
absolutnie, to nawet jeśli nie istnieją plankony, tutaj modelujące ten byt, to
porywanie się na próbę opisu struktury samych cząstek jest jak najbardziej
uzasadnione pomimo, że dotąd nikt się tym nie zajmował. Nawet jest naturalną
konsekwencją dociekań i nie trzeba do tego geniusza, by to stwierdzić. Wystarczył odpowiedni poziom niedouczenia, plus
odrobina fantazji. To był dopiero opis jakościowy. Myślę, że może on wskazać
kierunek dla dalszych, już ilościowych dociekań. Mamy więc źródło heurezy raczej
nietuzinkowej. Tak mi się wydaje. Dodam, że na bazie modelu plankonowego
wytłumaczyć można sporo rzeczy, w dodatku bez godzenia w potwierdzone przez
doświadczenie cechy znanej nam materii. Przy tym można nawet z łatwością „zmaterializować”
fale materii i zmodelować kawa na ławę, w sposób wprost mechanistyczny, dualizm
korpuskularno-falowy. Materia pozostaje tą samą materią. A co z ciemną materią?
3. Czym jest ciemna materia?
Ten Wszechświat „na starcie”, podobny był pod względem strukturalnym do
monokryształu. Nazwałem go Panelsymonem. Jego gwałtowne rozszerzanie się, wskutek grawitacyjnego odpychania
się tworzących go plankonów, spowodowało stopniowe rozluźnianie się więzów
między jego elementami i w następstwie tego, w pewnym momencie, ich rozerwanie
się, a w wyniku tego rozproszenie różnorodnych elsymonów. Zaszła wtedy
przemiana fazowa. Pojawił się chaos. W ostatecznym rezultacie zachodzących
wówczas przemian, powstało środowisko materialne, w skład którego wchodzą
fotony (dominujące ilościowo), oraz inne znane nam (i nie znane) cząstki
masywne.
Był też „gruz” pozostałości: „niedorozwiniętych” elsymonów i przede
wszystkim swobodnych plankonów, które dotąd pełniły funkcję łączników między
strukturami, które po rozdzieleniu zyskały cechy autonomicznych cząstek. Jak
już wiemy, rozmiary plankonów są mniejsze, niż ich własny horyzont grawitacyjny. Poszukiwanie ich (wizualne) jest więc bezcelowe,
choć ich łączna masa grawitacyjna powinna być nawet bardzo duża, zważywszy na
bardzo dużą, w porównaniu z masą znanych nam cząstek, masę pojedyńczego
plankonu.
Ich wyodrębnienie się wiązałoby się z bardzo szybką, nadświetlną
ekspansją (URELA)****** i nie w pełni
skoordynowanym rozproszeniem materii po jej ustaniu, w wyniku wspomnianej wyżej
przemiany fazowej. Warunki chaosu, a w tym fraktalizacja dopełniły reszty.
Oprócz materii, która ewoluowała, by uczynić Nas faktem obserwowalnym (mnie
należy poddać szczególnej obserwacji), sporo też było gruzu, czegoś w rodzaju
śmietnika na placu budowy.
W chaosie spowodowanym przez przemianę
fazową pojawiły się zgrupowania materii plankonowej. Tam, dzięki wyjątkowo
silnej grawitacji gromadzić się zaczęła materia. W materii tej zaczęły tworzyć
się gwiazdy. A później w miejscach tych zaczęły formować się galaktyki. Teraz
już wiemy, czym jest ciemna materia. To po prostu zgrupowania plankonów.
Nic dziwnego, że ciemna materia nie promieniuje, że jest źródłem wyłącznie
grawitacji. Potwierdzają to, czy chcą, czy nie chcą, badania ostatnich lat –
soczewkowanie grawitacyjne światła biegnącego z bardzo odległych galaktyk. Jak
widać, ten właśnie model ciemnej materii jest najbardziej spójny i logiczny.
Przy tym nie wymaga powoływania do życia nowych, okolicznościowych bytów.
Ockhamowi rośnie zarost.
Galaktyki tworzyły się we fraktalach,
zgęszczeniach plankonów tworzących ciemną materię. Natomiast plankony
rozproszone w przestrzeni międzygalaktycznej tworzą w miarę jednorodną sieć
wypełniającą Wszechświat. W tych rozległych obszarach siły działające na
pojedyńcze ciało (powiedzmy, że próbne),
kompensują się wzajemnie, prawie całkowicie. Mamy więc próżnię i oczywiście
energię próżni. Czy to wszystko jest niemożliwe? Czy niemożliwe z tego powodu,
że jest zbyt proste i nie wymaga równań? Czy niemożliwe z tego powodu, że nikt liczący
się na to nie wpadł, a mnie
to spotkało?
Dlaczego nie wpadł? Bo trzeba było, bagatela, trochę inaczej zdefiniować masę
grawitacyjną i uznać za możliwe istnienie bytu elementarnego absolutnie (nie
ważne, czy to plankon, czy coś innego).
Wszystkie te plankony, wszystkie razem
wzięte, stanowią poważny
wkład do łącznej masy Wszechświata. Są, powtarzam to,
poszukiwaną przez uczonych
ciemną materią, której wizualne wykrycie, z oczywistych już powodów, nie
jest możliwe. A teraz, jeśli uwzględnimy istnienie
ogarniającej cały Wszechświat sieci plankonowej, mamy powód do przypuszczenia,
że nie jest nam potrzebna do szczęścia ciemna energia, by parametr gęstości******* Wszechświata równy
był jedności. Będzie o tym mowa. Samą ciemną
energię sprowadzę do niebytu w eseju pod wymownym tytułem „Katastrofa Horyzontalna”. Przecież zauważyłem powyżej, że siły działające na każdy obiekt w
przestrzeni międzygalaktycznej, kompensują się prawie całkowicie, pomimo ogromnej masy
sieci plankonowej. Trudno więc bezpośrednio wykryć potencjalne przyczynki do
jedynkowej wartości parametru gęstości.
Do tematu tego jeszcze wrócimy¹ gdy przejdziemy do zagadnień
kosmologicznych.
Proces rozpraszania się
elsymonów, w całej różnorodności ich rodzajów, zyskał, jak wyżej wspomniałem,
cechy chaotyczności i fraktalizacji. To (uwzględniając istnienie wyjątkowo
masywnej materii „ciemnej”) tłumaczyłoby obserwowaną przecież niejednorodność
rozkładu materii wykrywalnej wizualnie. Reasumując stwierdzić możemy, że
wspomniany wyżej „elsymon powszechny (panelsymon)” o cechach strukturalnych
monokryształu, pękł w pewnym momencie podczas gwałtownego rozszerzania się i
„rozprysł się” (jak kieliszek o podłogę). Stworzył się chaos, a tym samym zaistniała
Temperatura. Dopiero wtedy (!). Wtedy też pojawiły się oddziaływanuia niegrawitacyjne: silne i elektromagnetyczne. Pojawiło się oczywiście promieniowanie
(fotony) i cząstki masywne, a grawitacja stała
się przyciąganiem. Także pojawiły się fluktuacje gęstości, odpowiedzialne
za, obserwowaną dziś, strukturę wielkoskalową.
A jak powstały galaktyki?
Wielokrotnie nurtowało mnie pytanie: Dlaczego masy galaktyk są zbliżone
(tego samego rzędu)? Oczywiście nie chodzi tu o małe galaktyki satelickie. Jak
to się stało? Około 200 mln. lat po Wielkim Wybuchu pojawiać się zaczęły
gwiazdy. Materia wszędzie była jeszcze wystarczajaco gęsta. Zajmować więc
powinny były gwiazdy całą przestrzeń Wszechświata. Gdyby zbiór ten był
absolutnie jednorodny, nigdy nie doszłoby do skupienia materii w rozlicznych centrach.
Wszechświat bowiem nie posiada jednoznacznie określonego centrum, zgodnie z
zasadą kosmologiczną.
Na szczęście istniały (dzięki chaosowi (przemiana fazowa)) fluktuacje
gęstości. Jednak zwykłe fluktuacje spowodować mogły jedynie
tworzenie się zgęszczeń
materii gwiazd o dowolnych rozmiarach, nie gwarantując wcale, że utworzą się
galaktyki. Fluktuacje raczej utworzyły strukturę
wielkoskalową – gromady galaktyk, „ściany”. A galaktyki, jak już powyżej
zaznaczyłem, mają przecież zbliżone do siebie masy.
Fluktuacje tego nie wyjaśniają. Uzasadnione więc jest pytanie: Co miałoby
limitować wielkość (i masę) „wysp” z których utworzyły się galaktyki?
I tu daje o sobie znać chwalebna rola ciemnej materii (wraz z koncepcją
niedoboru masy bazującą na nowej definicji masy grawitacyjnej). Fluktuacje
koncentracji materii dotyczą też plankonów (ciemnej materii). Miejsca ich
większego zagęszczenia zaczęły przyciągać, ściągając gwiazdy z okolicy. Tak,
ale dlaczego masy galaktyk są do siebie zbliżone? Otóż materia plankonów w
takim zagęszczeniu zbierała się i zagęszczała. Tworzyła więc wyraźne centrum.
Jednak w miarę jej zagęszczania się wzrastał deficyt masy takiego układu. Ostatecznie, niezależnie od liczby plankonów, masa samego
jądra takiego zgrupowania, najgłębiej, pozostawała zbliżona
do zera. W rezultacie wypadkowa
masa grawitacyjna, niezależnie od liczby
plankonów w „wyspie”, była prawie jednakowa.
Jeśli nie ma innego tłumaczenia, to mamy, tak
przy okazji, pośrednie potwierdzenie słuszności całej koncepcji dualności
grawitacji. Dlaczego masa taka, a nie
inna? To jedna z tajemnic Wielkiego Wybuchu i oczywiście cech samego plankonu.
Znając te cechy można będzie w przyszłości odpowiedzieć i
na to pytanie.
Tak zagęszczać się mogły tylko
plankony. O nukleonach, by się mogły tak zagęszczać, nie ma mowy. Jądra
atomowe są nieściśliwe. Przecież konkretne obiekty, które my identyfikujemy jako
cząstki są układami nierozbijalnych form (czworościanowych i dwunastościennych)
o masach znikomych (i o dużych prędkościach względnych – temperatura). O ich skupianiu się w chaosie, w
tych pierwszych chwilach Wszechświata, trudno wówić. W początkach były
względnie jednorodnym żywiołem. Zagęszczanie się masywnych gwiazd i jąder
galaktyk w twory grawitacyjnie zamknięte, to na razie sprawa nawet dalekiej
przyszłości, co najmniej kilkuset milionów lat.
Możemy już teraz spróbować opisać proces kształtowania
się galaktyk. Po około 200 milionach lat temperatura była na tyle niska, że
rozpocząć się mógł proces formowania się pierwszych gwiazd. Proces ten z czasem
nasilał się. Materia była wówczas jeszcze wystarczająco gęsta. Także trochę
czasu zabrało formowanie się zgęszczeń ciemnej materii, stanowiących
grawitacyjne centra, ku ktorym zmierzać miała materia gazu i gwiazd. Trwać to
musiało nie mniej, niż około miliarda lat, co jest zrozumiałe po uwzględnieniu
skali rozmiarowej układów (w porównaniu z rozmiarami samych gwiazd). Mamy więc na razie mrowie gwiazd pierwszego
pokolenia, przyciąganych przez wyspy ciemnej materii. Nic dziwnego, że masy utworzonych zbiorowisk
gwiezdnych były do siebie zbliżone, nawet jeśli
zawierały zupełnie różne liczby plankonów. A
gwiazdy? Same gwiazdy ściągane ku środkowi naparły na siebie ze
wszystkich stron. Spowodować to musiało
hipereksplozję termojądrową z udziałem miliardów gwiazd. Mamy więc kwazary,
mamy pierwotne (i najobfitsze) źródło metali. Nie jakieś tam supernowe –
kapryśne i wyjątkowo rzadkie. Zauważmy, że materia, z
której powstał Układ Słoneczny istniała już co najmniej 6 miliardów lat temu.
Powstanie galaktyk opisałem w innym miejscu, w
eseju: „Jak
powstały galaktyki?”. Tam
jest wszystko. Jeśli ktoś chce dyskutować na poruszone tu tematy, niech zapozna
się najpierw z treścią tych artykułów.
Tymczasem mnożą się hipotezy dotyczące natury domniemanej ciemnej
materii. Przykład stanowić mogą hipotetyczne WIMPY (Weakly Interacting
Massive Particles), które z oczywistych względów nie uczestniczą w
oddziaływaniach elektromagnetycznych. Jeszcze jeden byt ponad potrzebę.
Astronomowie poszukują ich śladów. Co powiedzą o plankonach i elsymonach? Nic
nie powiedzą...
Refleksje
¹Być może tworzą też te plankony niewidzialną jednorodną sieć, którą
przyrównać można od biedy do słynnego eteru. Czy to byłby jego sens fizyczny? Jeśli
już mowa o tym, warto zastanowić się nad istotą prędkości światła. Czy to
jedynie „wewnętrzna” sprawa oddziaływań elektromagnetycznych?
Najprawdopodobniej nie. W modelu Wszechświata, który przedstawiłem szczególnie
w artykułach drugiej części i oczywiście w swoich książkach wydanych
w 2010*******, prędkość światła jest przede wszystkim prędkością
ekspansji Wszechświata, czyli jest kresem górnym zbioru prędkości względnych
obiektów, a jej niezmienniczość wynika wprost z zasady
kosmologicznej – jeszcze będzie o tym sporo w pierwszych dwóch artykułach. Dla przypomnienia, zgodnie z poglądem, który wyrażałem już przy innych
okazjach, istnienie przestrzeni jest bezpośrednim
rezultatem tego ruchu (dlatego płaska). Rzecz w skrócie opiszę także w
następnym artykule.
Zatem, ponieważ
Wszechświat jest w skali globalnej izotropowy (obowiązuje zasada
kosmologiczna), a przy tym prędkość światła jest także prędkością jego
ekspansji liniowej, szybkość c powinna być także jednakowa wszędzie i we
wszystkich kierunkach, czyli nie zależeć od doboru układu odniesienia,
powiedzmy, że absolutna. Wielkość c jest parametrem Wszechświata i nie
tylko prędkością, z którą rozchodzą się pola elektryczne i magnetyczne. Nic
więc dziwnego, że eter nie mógł być wykryty w doświadczeniu Michelsona-Morley'a. Ponieważ c przede wszystkim określa tempo ekspansji
Wszechświata, to nie może zależeć od układu odniesienia, który przecież ma
charakter lokalny. Dziś wszystko, szczególnie w kontekście opinii wyrażonych
powyżej, wydaje się proste. Jednak przed ponad stu laty, gdy Wszechświat
uznawany był za nieskończony i statyczny, postulat Einsteina dokonał rewolucji,
utorował drogę ku fizyce dwudziestego wieku. Niezmienniczość prędkości światła
stanowi podstawę szczególnej teorii względności. W tych dawnych (?) czasach
wcale nie wiązano niezmienniczości prędkości światła z zasadą kosmologiczną. A dziś? Chyba też
się nie wiąże. W tych dawnych czasach obowiązywały tylko równania Maxwelle'a i istniały jakieś
niedopasowania do klasycznej mechaniki bazującej na zasadzie względności
Galileusza. Właśnie to,
tak w uproszczeniu, stanowiło przyczynę badań (prowadzonych przez wielu
badaczy), które doprowadziły w rezultacie do ogłoszenia szczególnej teorii
względności.
A tak wracając
do eteru (odrzuconego przecież przez Einsteina) powiedzmy, że tutaj (roboczo) reaktywowanego
(z nazwy), przypuszczać można, że rozprzestrzenianie się światła
zachodzi jako fala zgęszczeń i rozrzedzeń (podłużna) w globalnej sieci
plankonowej. Pięknie, ale jak to pogodzić z faktem, że fala
elektromagnetyczna jest falą poprzeczną? Czy szybkość rozchodzenia się nie ma z
tym związku? A
dualizm korpuskularno-falowy (fotony są tworami bezwzględnie materialnymi)?
Hipoteza goni hipotezę, a wraz z tym stare pytania nie tracą na aktualności,
nawet jeśli ich trochę ubywa. Sporo rzeczy
jeszcze trzeba będzie przemyśleć. Jeśli już, to dodajmy jeszcze coś. Otóż, w
związku z tym, że Wszechświat rozszerza się, wzrasta odległość między
poszczególnymi plankonami naszej sieci. Wynika stąd, że szybkość, z jaką
rozchodzi się światło powinna stopniowo maleć. Interesujące, że do tegoż
wniosku, a właściwie przypuszczenia dojść można inną drogą, na podstawie
rozważań kosmologicznych (o tym w dalszych artykułach). Obserwacja astronomiczna (badanie widm kwazarów) zdaje
się wskazywać na to, że rośnie stała struktury subtelnej: α = e²/ħc. Jak widzimy, stwierdzona obserwacyjnie zmienność tego
parametru oznaczać może zmienność stałych uniwersalnych. Jedną z opcji, w
związku ze wzrostem stałej struktury subtelnej, jest malenie prędkości światła.
Jeśli prędkość światła stopniowo maleje, to rozszerzanie się Wszechświata
dobiegnie końca w minimum (jeśli nie w zerze) wartości parametru c.
Nastąpi wówczas inwersja, a po tym Wszechświat zacznie się zapadać. Sądząc po
pewnych obliczeniach, ma się to stać, gdy wiek Wszechświata będzie rzędu 10^20
lat. Właśnie na tym (a nie na wartości parametru gęstości Ω) bazuje model
Wszechświata oscylującego, opisywanego w tej książce i opisanego w pierwszej ze wspomnianych książek.
Czy
to FN (Fantazja), a może jednak FN (Fikcja)? Co na to wzmiankowane cząstki Higgsa? Niech lepiej siedzą cicho. A nuż...
*) Cz. 1. Bereszit... (Na początku...)
**) Jak się okaże (w artykule następnym),
istnieje minimalna odległość, na jaką mogą się zbliżyć dwa plankony. Bliżej już
nie (zakaz Pauliego?). Istnieje więc maksymalna, dodatnia wartość energii
potencjalnej ich oddziaływania. Sam wykres nie sięga wyżej (nie jest więc
asymptotą). W tym punkcie funkcja uzyskuje maksimum absolutne. To rzecz godna
uwagi, także w kontekście filozoficznym. Fakty przyrodnicze, prawdy
ontologiczne, nie są tworami matematycznymi, wbrew sądom tych, których
refleksyjność ma matematyczny kres górny. Zwracałem już na to uwagę w różnych
kontekstach.
***) „Dualny charakter grawitacji”
****) Oto przykład z innej beczki takiego
poszerzenia. W roku 1919 Albert Einstein otrzymał list, którego nadawcą był matematyk z
Królewca, Teodor Kaluza (Kałuża?). W pracy swej, opisanej w liście, przedstawia
Kaluza możliwość połączenia „w jednym równaniu” dwóch podstawowych oddziaływań:
grawitacji (ogólna teoria względności) i elektromagnetyzmu (teoria Maxwelle`a).
Warunkiem na to, jak się okazało, jest wprowadzenie dodatkowego, czwartego
wymiaru przestrzennego. List zaskoczył Einsteina. Artykuł Kaluzy ukazał się
dopiero po dwóch latach, pod tytułem: „O problemie jedności w fizyce”.
Opóźnienie to jednak nie miało znaczenia, gdyż pomysł Kaluzy trafił na podatny
grunt dopiero po pięćdziesięciu latach nieprzerwanego rozwoju nauki. Dziś mówi
się o hiperprzestrzeni posiadającej jedenaście wymiarów (wraz z czasem), w
której dokonuje się pełna unifikacja wszystkich znanych nam oddziaływań. Teoria
superstrun jest wyrazem tego nowego podejścia do sprawy. Jej rozwinięciem jest
M-teoria. To zachęcająca opcja na przyszłość. A ja śmiem zawrócić bieg
historii? Osobiście nie mam takiego zamiaru, choć nie zaprzeczam, że historia
kołem
się toczy.
*****) [Pozostałe wielościany foremne (sześcian, ośmiościan a
także dwudziestościan) nie nadają się do
naszych celów. Łatwo się o tym przekonać.]
******) Urela – ultra-relativistic acceleration, to wymyślony
przeze mnie proces przyśpieszonej ekspansji na samym początku Wielkiego
Wybuchu, alternatywa (znacznie bardziej konsystentna) wobec „inflacji”, która w
zasadzie przyjęta jest przez społeczność uczonych na zasadzie „z braku laku”...
i w oczekiwaniu na coś lepszego. Polega na odpychaniu wzajemnym plankonów
tworzących na samym początku ściśniętą do granic sieć „monokryształu” –
panelsymonu. Urela zakończyła się przemianą fazową w momencie
wyzerowania się masy grawitacyjnej układu (i rozerwania wiązań między węzłami „kryształu”).
O tym wszystkim w tekście (tym i następnym).
*******) Parametr
gęstości: stosunek średniej gęstości Wszechświata do jego gęstości krytycznej;
stosowany przede wszystkim w kosmologii bazującej na ogólnej teorii względności
(równanie Friedmanna), jako kryterium określające tendencję rozwojową
Wszechświata. Równy jest jedności jeśli geometria Wszechświata jest płaska,
czyli euklidesowa – to co się stwierdza obserwacyjnie. Po prawdzie, to
„płaskość na ostrzu noża” lub, jak kto woli, balansująca na cienkiej linie, a
jednak nienaruszalna przez całą historię Wszechświata (począwszy od przemiany fazowej).
Na tym, w skrócie, polega tak zwany problem płaskości, który cechuje kosmologię
friedmannowską. Będzie o tym sporo, szczególnie w
drugiej części książki. Tam,
za sprawą moich dociekań, problem ten zniknie. Kosmologia dwudziestego wieku
oddaliła ten problem dzięki hipotezie inflacji, z którą rozprawiam się pod
koniec części drugiej.
********) 1. Józef Gelbard – „Pofantazjujmy o Wszechświecie I.
Oscylujący? To nie takie proste.” ISBN: 978-83-62740-06-2
2. „Pofantazjujmy o
Wszechświecie II. W głąb materii: grawitacja w podwymiarach.” ISBN:
978-83-62740-13-0
Artykuł następny: Plankony i elsymony.
Cz. 3
Niektóre konsekwencje dotychczasowych ustaleń.
Zagadnienie siły, prędkości; jaka jest bezwzględnie minimalna odległość między
plankonami? Zakaz Pauliego inaczej.Wielowymiarowość. Plankony kontra struny.
Józef Gelbard, w kwietniu 2013
Kontakt: madajg@gazeta.pl