niedziela, 17 lutego 2019

Dualizm korpuskularno-falowy w wersji deterministycznej


Bóg nie gra w kości

Albert Einstein


Dualizm korpuskularno-falowy w wersji deterministycznej 

na bazie dualności grawitacji i w powiązaniu z podstawowymi faktami kosmologicznymi.     



Wstęp

Oczywiście podstawę dla naszych rozważań stanowi grawitacja dualna, której poświęciłem już sporo postów. Już w związku z tym uznałem za stosowne, krótkie podsumowanie ze wskazaniem na elementy najbardziej istotne.

Dualność grawitacji.

   Warunki panujace w materii bardzo skondensowanej nie pozwalają na swobodne stosowanie tak ogólnej teorii względności, jak i mechaniki kwantowej. W zasięgu bardzo krótkim, zasięgu struktury cząstek elementarnych, grawitacji nie można zaniedbywać, gdyż staje się elementem nawet dominującym (jeśli nie jedynym) w układzie oddziaływań. Istnienie dualności grawitacji pozwala na podejście deterministyczne, tworzy bazę dla badań nad strukturą cząstek, wprost umożliwia modelowanie wszelkich struktur materialnych, w skalach najbardziej elementarnych. Mamy tu bowiem odpychanie w krótkim i przyciąganie w dalszym zasięgu. Idea dualności konsystentna jest z modyfikacją newtonowskiego prawa grawitacji. Pozwala to na inne spojrzenie w głąb struktury materii, na przykład wyjaśnienie asymptotycznej swobody w oddziaływaniach silnych (Wilczek, Gross, Politzer – nagroda Nobla za jej odkrycie). Pozwala też na dostrzeżenie głębszych, deterministycznych uwarunkowań dla zakazu Pauliego. Z drugiej strony, prowadzi także do konkluzji w zasadzie zbieżnych z wynikami obliczeń w ramach ogólnej teorii względności – rzecz godna wnikliwszych badań. W pracach moich omawiane są bowiem tylko zagadnienia podstawowe, fundamentalne. W szczególności sprowadza się to do wstępnej analizy ilościowej zagadnienia dwóch ciał i w ekstrapolacji, do wstępnego ideowego opisu obiektów, choćby czarnych dziur. Idea grawitacji dualnej spoczywa na trzech (głównych) filarach. Pierwszym z nich jest, inna niż dziś przyjęte, definicja masy grawitacyjnej jako masy układu, drugim, konsekwentne uwzględnianie defektu masy grawitacyjnej (zdefiniowanego ilościowo jednoznacznie właśnie dzięki takiej, a nie innej definicji masy grawitacyjnej) – rzecz istotna w odniesieniu do materii skondensowanej, a trzecim, postulat o istnieniu bytu absolutnie elementarnego, którym, jak już wiemy, ma być plankon. Definicja masy grawitacyjnej jako masy układu prowadzi do modyfikacji newtonowskiego prawa grawitacji, z uwzględnieniem defektu masy – sporo wskazuje na to, że modyfikacji uzasadnionej. Zakładane w tej (i tylko w tej) pracy istnienie bytu absolutnie elementarnego otwiera nowe, nawet nie przewidywane dotąd perspektywy istotnego postępu w wielu kwestiach, na przykład daje szansę poznania struktury cząstek elementarnych, a także daje szansę uporania się z problemem ciemnej materii. Na wielu perspektywy takie, o dziwo, działają odpychająco. To dość symptomatyczne.  Zamiast podjąć rękawicę i wskazać na ewentualne niedostatki, milczą (lub wysyłają niegramotnych, by nazywali to bzdurami). Najlepsze są gołosłowne epitety emitowane przez nie znających się na rzeczy – dla manipulowania świadomością społeczną. To typowe, a najlepszą amunicją jest gołosłowność. Metoda znana od dawien dawna.  

Plankony.

Cząstki elementarne, pomimo mnogości ich stanów, można usystematyzować – model standardowy. Chodzi o kwarki z jednej strony i o leptony – z drugiej. Możliwość ta prowadzi do wniosku, że powinien istnieć byt elementarny absolutnie. Na początku wieku dziewiętnastego możliwość usystematyzowania pierwiastków chemicznych i odkrycie stałych zależności ilościowych między nimi w związkach chemicznych, prowadzić musiała do wniosku, że istnieje byt elementarny określający cechy danego pierwiastka. Tak pojawiła się idea atomu – John Dalton (1809). Jego odkrycie jako konkretnego bytu fizycznego (a nie idei filozoficznej), miało miejsce dopiero w początkach dwudziestego wieku. W początkach dwudziestego pierwszego wieku, dzięki systematyzacji cząstek, mogła pojawić się kocepcja bytu absolutnie elemntarnego, na razie wyłącznie w moich pracach, znów jako idea raczej filozoficzna. Nazwałem go plankonem, przyjmując arbitralnie, że posiada parametry masy i długości Plancka – w oczekiwaniu na to, co z tego wyniknie. Wynikło wiele. Jeśli coś takiego istnieje, to wnioski wyciągnięte na tej bazie, także ustalenia ilościowe, powinny być zgodne z badaniami empirycznymi. Jak na razie nie odkryłem sprzeczności tego modelu z rzeczywistością badań. Przeciwnie, model ten wyjaśnia wiele znanych faktów, nawet dotąd niewyjaśnialnych i w dodatku sporo antycypuje. Kto czytał poprzednie artykuły, zdaje sobie z tego sprawę i nie zawiedzie się jeśli oczekuje dalszych przykładów. 

Elsymony.

   Wbrew oczekiwaniu, że skala Plancka tworzy świat niedostepny dla dzisiejszej fizyki, masa Plancka jest bardzo wielka w porównaniu z masą najbardziej masywnych cząstek (0,22·10^-7 kg.)ta niedostępność jest pozorna. Przecież wielkośći (stałe uniwersalne) tworzące parametry Planckowskie, wszystkie trzy, wyznaczono doświadczalnie, w dodatku różnymi metodami. Istnieje więc możliwość wejścia („szkiełkiem i okiem”) w ten świat. Siła oddziaływania grawitacyjnego między plankonami powinna więc być bardzo wielka, bez porównania większa od sił jądrowych – z  odległości długości Plancka: 3·10^43N. Ciekawe, że do tego samego wyniku dojść można, o dziwo (?), także bazując na ogólnej teorii względności.
Dziś mowa o tak zwanej energii próżni, bez jawnego związku z grawitacją; energii bardzo wielkiej (sądząc po wielkościach planckowskich). Grawitacji nie rozważa się, gdyż w świecie cząstek elementarnych jest zaniedbywalnie słaba, a w dodatku „jest przecież wyłącznie zakrzywieniem przestrzeni”. Tu tkwi źródło sprzeczności i niedopasowań istniejących w dzisiejszej fizyce. „Tam siły, a tu autonomiczna i plastyczna przestrzeń, w dodatku zespolona z czasem (też plastycznym).” Nie sprzyja to przekonaniu o jedności praw przyrody. Tutaj, w tej pracy, grawitacja jest oddziaływaniem bazowym dla wszystkich oddziaływań, jest oddziaływaniem unifikującym je.
Jeśli rozważamy układ dwóch plankonów (nie trzeba więcej przy opisie podstaw), w zasięgu krótszym, niż połowa długości Plancka, działa siła odpychania, rosnąca bardzo szybko w miarę zliżania się. Uniemożliwia to pokrywanie się dwóch (lub więcej) plankonów. „W tym przejawia się istota zakazu Pauliego.” – to moja hipoteza.
Dzięki istnieniu odpychania w krótszym zasięgu i przyciągania w dalszym, a ściślej, istnieniu dwóch nisz energii potencjalnej, plankony tworzyć mogą układy stabilne – właśnie dzięki temu, że grawitacja ma charakter dualny. Takie różnorodne układy plankonów stanowią właśnie znane nam cząstki. Pierwsza nisza – zerowej energii potencjalnej, a więc też zerowej masy układu, to miejsce, w którym utworzyły się fotony (w odpowiednim momencie pierwotnej ekspansji – początek przemiany fazowej). Druga (późniejsza w czasie) nisza – miejsce, w którym wyodrębniały się cząstki masywne. Ich rozmiary i złożoność ograniczają cechy oddziaływań (wtórnych), w jakich uczestniczą z podobnymi sobie: elektromagnetycznych i silnych, a także oddziaływań z udziałem neutrin, które rozpoznajemy jako słabe. Taki układ plankonów nazwałem elsymonem (elementary system of matter).
Rzeczą interesującą jest to, że cząstki mikroświata, międy sobą, nie różnią się zbytnio pod względem masy (najwyżej o czynnik 10^3), przy czym masa Plancka jest większa od masy protonu 1,3·10^19 raza. Gdyby cząstka – elsymon była dowolnym zlepkiem plankonów, istniałoby znacznie wiecej różnych cząstek, a poza tym ich masy różniłyby się w dużo większym zakresie. Systematyzacja ich byłaby dużo trudniejsza (gdyby była możliwa). Co wówczas stanowiłoby czynnik rozdziału między takimi agregatami? Może byłby to jeden wielki zlepek, a nie zbiór ograniczony konkretnych cząstek. Na tym by się afera skończyła i co tu po nas. Po prostu nie zaistnielibyśmy.  
Wpadłem więc na pomysł, by modelować cząstki jako różnorodne połączenia pewnych trwałych i powtarzalnych, uprzywilejowanych w sensie energetycznym, segmentów utworzonych przez plankony. [Wiązało się to też z ideą wysycenia grawitacyjnego układów.] Ich masa powinna być w zasadzie tego samego rzędu, co masa znanych nam cząstek, a właściwie, ich masa grawitacyjna narzuciła wielkość masy cząstek, na które się składaja. Wybór padł na czworościan foremny, dwunastościan foremny i sześcian. Wybór ten oczywiście uzasadniłem zwracając uwagę przede wszystkim na możliwość wysycenia grawitacyjnego. Tak uzyskaliśmy bazę strukturalną dla trzech rodzajów cząstek: leptonów, barionów i mezonów. Jednak zasadniczym czynnikiem ograniczającym „niekontrolowany wzrost” jest warunek zgodności drgań wewnętrznych plankonów i ich elementarnych układów. Istniejące (mogące w ogóle istnieć) cząstki elementarne spełniają ten warunek. Na razie rozważania te mają charakter jakościowy. Była o tym mowa w postach: siodmym i ósmym poprzedniej serii. Właściwie warto znów sięgnąć do całego bloku poświęconego grawitacji dualnej.  
Wszechświat na samym początku, w momencie swego minimum, zgodnie z moimi przypuszczeniami, stanowił rodzaj monokryształu, ściśniętego do granic ostateczności. Węzłami tej sieci były plankony, a siła odpychania między nimi w tym momencie była największą z możliwych. Nazwałem go panelsymonem. I wtedy właśnie rozpoczął się Wielki Wybuch. Panelsymon rozszerzał się gwałtownie powszechnym odpychaniem plankonów (Urela, a nie inflacja). W pewnym momencie, gdy dotąd ujemna masa osiągnęła wartość zero, nastapiła przemiana fazowa – obiekt pękł, wyodrębniły się cząstki i oddziaływania między nimi. [To tak, jak przejście z fazy stałej do ciekłej.] Dynamika rozwoju materii podlegać zaczęła prawom chaosu. Pojawiła się temperatura, najwyższa w dziejach. Pojawiło się promieniowanie elektromagnetyczne, którego prędkość okazała się niezmiennicza, tak, jak prędkość ekspansji Wszechświata w tym momencie. Fotony stanowią bowiem widocznie relikt stanu, w którym pojawiła się ekspansja hubblowska. Przy tym wszystkie materialne elementy tego układu były sobie równoważne, również przestrzennie. Nie stnieje bowiem przestrzeń poza Wszechświatem, a ten zmienia swe rozmiary. Wyrażeniem tego jest zasada kosmologiczna. Wynika z niej między innymi niezmienniczość maksymalnej prędkości (granicznej), stanowiącej kres górny prędkości względnej obiektów najbardziej oddalonych od siebie. Dlatego właśnie prędkość fotonów, jako relikt tej wyjątkowej chwili, jest prędkością niezmienniczą. To w każdym razie wynika z treści moich wywodow już tam, na początku mej książki (i w postach poświęconych zasadzie kosmologicznej. Sama prędkość ekspansji (hubblowska), zaraz po przemianie fazowej, była chyba dużo większa, niż dziś. Jej wielkość jednak szybko zmalała i prawie ustaliła się. Wyobrażam to sobie jak powierzchnię wody w naczyniu szklanym (menisk). 

Brak komentarzy:

Prześlij komentarz