środa, 18 stycznia 2017

Dlaczego nie superstruny?

Prawda jest jedna. A niepewności (przecież to ludzkie)? Te tworzą zbiór nieskończony. Łatwiej więc jest szukać prawdy w ich gąszczu.  

  
    W licznych artykułach, przy różnych okazjach, wspominałem mimochodem o teorii, (mowa w gruncie rzeczy o grupie teorii) która, jak sądzić można było do niedawna, ma szansę pogłębić w jakimś stopniu nasze zrozumienie mikroświata, w ogóle przyrody. Teorii? Raczej manifestacji określonej, obowiązującej dziś megakoncepcji, bazującej na dzisiejszym stanie zapatrywań. Nie antycypuje ona bowiem nieznanych dotąd efektów, dających możliwość sprawdzenia, choćby testowania.  Prawdziwa teoria powinna. Czym jest? Jest przede wszystkim niezliczonością równań matematycznych i obliczeń przybliżonych. A jednak dziś to właściwie jedyny znany nauce pomysł, mający pogłębić zrozumienie Przyrody, jedyna (bo dotąd nie wymyślono innej) zdawałoby się szansa na jakiś postęp w próbach unifikacji grawitacji z pozostałymi oddziaływaniami. Właściwie to nawet kulminacja wysiłków, zważywszy na ogrom włożonej pracy (obliczeniowej). Wdrapaliśmy się na szczyt, z którego widok zapiera dech, nie mówiąc o wysiłku i zadyszce, ale wyżej już nie można. To jedna z kulminacji odwiecznego dramatu stanowiącego historię nauki. Z dołu widać solidny pień, przechodzący w liczne gałęzie, te zaś w gałązki i dalej w niezliczone pędy, coraz rzadziej kończące się pąkiem. Chyba dosyć porównań.  
     Chodzi oczywiście o teorię superstrun. Pierwsze poważniejsze prace związane z nią, wyznaczające nowy kierunek badań, pojawiły się już w latach siedemdziesiątych ub. stulecia. Była wielką nadzieją, a przede wszystkim była nową niszą przyciągajacą młodych, dla kariery naukowej, łaknących sławy. W krótkim czasie liczba publikacji tematycznie związanych z nią osiągnęła liczbę dziesiątek tysięcy. Stała się modna. Na tę modę dały się złapać tysięce najzdolniejszych młodych ludzi. Na jednoznaczne roztrzygnięcia ilościowe należy jeszcze poczekać. Ad Kalendas Graecas... Jak dotąd, nie poświęciłem jej wiele miejsca. Wspominałem o niej tu, czy tam. Zainteresowania moje poszły zresztą zdecydowanie w innym kierunku, a dociekania, którym się oddawałem, nie bazowały na procedurach badawczych przyjętych dziś za obowiązujące. Miało w tym jakiś udział moje wyjątkowe lenistwo, lenistwo wobec tematów, które intuicja odrzuca. Może miałem nie najlepszych wykladowców, a może zbyt dużo było „na wiarę”. Zawierzyłem intuicji.

    O teorii superstrun wspominałem oczywiście, szczególnie tam, gdzie wskazana była konfrontacja moich konkluzji z dzisiejszym stanem zapatrywań. Przy tej sposobności zwróciłem też uwagę na to że moje fantazje właściwie nie są sprzeczne z docelowym sednem tej teorii (bez aspektu ilościowego), pomimo istotnej różnicy w odniesieniu do koncepcji struktury, a także (właściwie przede wszystkim) bazy. W dociekaniach swych bowiem bazowałem na klasycznym, choć nie w pełni newtonowskim, acz deterministycznym, modelu przyrody (nie omijając aspektu relatywistycznego). Teoria superstrun natomiast próbuje połączyć dwie zasadnicze sprzeczności w jedną komplementarną całość pozostając w zasadzie przy obowiązujacych paradygmatach. Próbuje pogodzić ze sobą deterministyczną ogólną teorię względności z indeterministyczną mechaniką kwantową, widząc w tym klucz do zgłębienia tajemnic bytu. Pogodzić na zasadzie iloczynu zbiorów? Zgodnie z przypuszczeniami raczej powszechnymi superstruny posiadać mają cechy bytu faktycznie elementarnego. Czy słusznie? „Pogodzić”. Czy chodziło więc o jakiś kompromis? Kompromis to ostatnia rzecz, która mogłaby doprowadzić do jednoznacznej prawdy obiektywnej. Teraz wiadomo już, że można inaczej: jednoznacznie i deterministycznie w każdej skali, przynajmniej na moim podwórku.   
     W artykule: „Indeterminizm kontra determinizm? Nie ma sprzeczności! Plankony i obrót” ustosunkowałem się do tej sprawy: Dzisiejsze usiłowania połączenia grawitacji ze skwantowaniem, na ogół kończą się granicą niewłaściwą, czyli prowadzą do rozbieżności. Nic dziwnego. Pragnie się połączyć dwie (rzekome) sprzeczności. A jednak sprzeczność w rzeczywistości nie istnieje. Po prostu mechanika kwantowa u swych podstaw nie uwzględnia grawitacji z powodu jej słabości gdzieś tam wysoko w skali atomowej, a swym rozpędem w głąb zapomniała, że ta sama grawitacja w innnej skali (piętro niżej), stanowić może czynnik decydujący. Inna sprawa, że formalną przyczyną nieuwzględniania grawitacji jest jej nierenormalizowalność pojawiająca się przy obliczeniach w ramach kwantowej teorii pola (na co także zwróciłem uwagę). Właśnie ten fakt mógł zastanowić, sprowokować do pytań, rozbudzić inwencję. Ale to się nie stalo. Tak między nami, jak grawitacja miałaby być renormalizowalna, jeśli nie jest uwzględniana przez mechanikę kwantowa, jakby nie istniała? Oczywiście istnieje, ale jako zakrzywienie przestrzeni, wprost obca jakość, gdyż mechanika kwantowa bazuje na konkretnych oddziaływaniach. Tak między nami, chodzi o jak najbardziej ludzką skłonność do kompromisu. Czasami to rzecz wprost niebezpieczna, szczególnie wobec bezkompromisowości zła. Wystarczy spojrzeć na ten nasz świat. A Przyroda?
     „Teoria superstrun stwarza też poważne szanse dla unifikacji wszystkich oddziaływań – rzecz dotąd nieosiągalna.” Do niedawna w to wierzono. Szanse te jednak topnieją w konfrontacji z koniecznością pokonania kolosalnych trudności natury matematycznej, związanych z wprowadzeniem dodatkowych wymiarów i z supersymetrią. 
     Z drugiej strony, nie można negować osiągnięć. Obliczenia w ramach kwantowej teorii pola i modelu standardowego cząstek są bardzo dokładne w konfrontacji z doświadczeniem. Godne to najwyższej uwagi. Nieuwzględnienie grawitacji ogranicza jednak zasięg wglądu w rzeczywistość. Uczeni zdają sobie z tego sprawę doskonale. A jeśli przyłączyć jakoś OTW? Usilne poszukiwania teorii unifikującej wszystkie oddziaływania są tego wyrazem, a monstrualna matematyka – dowodem. Sądząc po moich wyczynach, nie trzeba jednak szukać daleko. Pod latarnią świeca nie jest potrzebna.  
     Zgodnie z moimi konkluzjami, unifikacja polega na tym, że istnieje tylko jedno oddziaływanie podstawowe – grawitacja. Pozostałe, to oddziaływania specyficznych powtarzalnych układów – chodzi o te uwarunkowane obecnością struktury manifestującej się nam jako ładunek elektryczny, oraz te, które rozpoznajemy jako oddziaływania silne. Źródłem obydwu jest grawitacja. 
     Godne zastanowienia jest to, że superstruny właściwie kojarzą się z naszymi elsymonami. Mam nadzieję, że nie popełnię niestosowności zbyt wielkiej zauważając, że dociekania moje stanowić mogą nawet brakujące ogniwo wspomnianej teorii (upraszczające ją w sposób wydatny), pomimo, że jej punkt wyjścia jest zupełnie inny...
     Mowa więc o teorii będącej szczytem osiągnięć fizyki zmatematyzowanej „pod niebiosa”, teorii rozbudowanej i skomplikowanej. Właściwie „teorii”, gdyż nie generuje antycypacji. Bazując wyłącznie na tradycyjnych koncepcjach i paradygmatach dwudziestowiecznych, teoria ta zawiodła nas na szczyt osiągnięć myśli i... chyba zawiodła. Jest symbolem schyłku dwudziestego wieku. A jednak przydało się. Z tego szczytu bowiem widać doskonale wszystkie niedostatki, nawet to, że fundament fizyki dwudziestowiecznej jest już zmurszały, a ten wielki gmach jakby się zaczyna sypać. Ale, jak na razie, ma się dobrze, dzięki entuzjazmowi kolejnych adeptów „wiedzy tajemnej”.  
      Środkiem opisu cząstek elementarnych i ich oddziaływań jest dziś relatywistyczna kwantowa teoria pola. Według tej teorii cząstki traktowane są jako kwantowe wzbudzenia określonych pól. Procedury obliczeniowe stosowane w tej teorii prowadzą do bardzo dobrej zgodnosci z doświadczeniem. Obliczenia te bazują na rachunku perturbacyjnym, na kolejnych, coraz lepszych przybliżeniach. Wymagają one jednak zabiegu renormalizacji, bez którego prowadziłyby do granicy niewłaściwej, do nieskończoności.
      Fizyka cząstek-pól i ich oddziaływań nazywana jest też fizyką wysokich energii, wobec których grawitacja (w tej skali) jest niezmiernie słaba. Nieuwzględnienie jej nie ma więc, jak się sądzi, istotnego wpływu na wyniki obliczeń. Jednak zasadniczą przyczyną niewłączania grawitacji do bezpośrednich badań jest jak już niejednokrotnie zaznaczałem, niemożliwość stosowania zabiegu renormalizacji w odniesieniu do grawitacji. Wiąże się ona z tym, że grawitacja (w dzisiejszym pojmowaniu spraw) prowadzi do osobliwości. W kwantowej teorii pola (i nie tylko), osobliwości te prowadzą do nieskończoności. To na prawdę nic dziwnego. Stąd nierenormalizowalność. Tak od siebie mogę dodać, że postulowane tu odpychanie grawitacyjne usunęłoby ten problem. Ale to już tylko moje fantazje. To problem poważny. Należałoby go ominąć w jakiś sposób. Rezultatem tego byłaby kwantowa teoria grawitacji, której zręby próbuje się dziś stworzyć. Pierwsze prace w tym kierunku podjęte zostały już w początkach lat 70 ub. wieku. Mowa oczywiście o teorii strun.
      Sprawa, w gruncie rzeczy, zaczęła się od próby opisu kwarkowego modelu mezonów, a ściślej, od dociekań nad sposobem łączenia się kwarków tworzących mezony. Wyobrażano sobie, że kwarki wiąże ze sobą coś w rodzaju napiętej struny. Jak wiemy, w strunie, sprężynie, energię potencjalną określa jej naprężenie. Nie ważne co tę strunę naciągnęło. Stąd droga do zróżnicowania mas mezonów w zależności od wielkości tego naprężenia (zgodnie z równoważnością masy i energii). Naprężenie takiej struny stanowi zasadniczy parametr danej cząstki. Okazało się, że model taki pogodzić można z teorią względności i mechaniką kwantową. „Energia równoważna jest masie, a masa stanowi źródło grawitacji” – powinniśmy więc otrzymać jakąś kwantową reprezentację grawitacji w rozwiązaniach równań pola. W takich mniej więcej okolicznościach pojawiła się teoria strun.
      Ten nowy model przewidywał też istnienie stanu o spinie 2 i zerowej masie spoczynkowej. „To jest to”. Arbitralnie uznano, że powinien to być grawiton – bozon przenoszący oddziaływania grawitacyjne. Mamy więc kwantową grawitację (!). O kwantowaniu grawitacji myślano poważnie już wcześniej i oto mamy punkt zaczepienia dla poważniejszych studiów w tym kierunku. Już znacznie wcześniej stwierdzono, że, by opisać grawitację, należy zejść do wymiarów plankowskich. Dopiero w tych skalach grawitacja powinna bowiem stać się czynnikiem istotnym. Problem w tym, że „Jeśli nie można zobaczyć, to nie istnieje, to znajduje sie poza fizyką” – zgodnie z dość popularną doktryną metodologiczną. Wiąże się to z masą plankowską*, która jest bardzo wielka w porównaniu z masą znanych nam cząstek. Wprowadzenie dodatkowego, grawitacyjnego czynnika do kwantowej teorii pola, bynajmniej nie uprościło sprawy. Wprost stanowiło wyzwanie, tak w sensie matematycznym, jak i konceptualnym. Przecież grawitacja, to zakrzywiona przestrzeń. Koniecznością okazało się między innymi wprowadzenie dodatkowych wymiarów. Ich liczba rosła w sposób dramatyczny (6 dodatkowych wymiarów przestrzennych). Precedens ku temu już był. Wszak właśnie wprowadzenie dodatkowego wymiaru (cztery przestrzenne) przez Kaluzę dało możliwość połączenia w jedną całość oddziaływań grawitacyjnych i elektromagnetycznych. Podążono więc tym obiecującym tropem, choć to połączenie miało charakter deterministyczny – "właśnie dlatego było warto”.

*) W artykule szóstym pierwszej części wprowadzone zostało pojęcie plankonu, jako modelu bytu elementarnego absolutnie. Jego masa jest właśnie tą masą plankowską.
      Kłopot sprawiło też to, że teoria strun przewidywała istnienie cząstek szybszych, niż światło, tak zwanych tachionów, których nie można było wetknąć w dotychczasowe schematy, choćby przez to, że powodowały łamanie zasady przyczynowości. Od siebie dodam, że dzisiejsza fizyka bazuje na paradygmacie łącznościowym. Właśnie to jest przyczyną tego „łamania”.
      Rzecz rozwiązało wprowadzenie supersymetrii. To była tzw. Pierwsza Rewolucja Strunowa. Dzięki (już) superstrunom udało się wyeliminować tachiony. Dodatkowo, dzięki superstrunom grawitacja nie sprowadza się do osobliwości, gdyż czasoprzestrzennie struna przedstawia rodzaj rurki, to znaczy posiada określone wymiary przestrzenne. Pojawiła się więc szansa unifikacji standardowego modelu cząstek z kwantową teorią grawitacji. Opis jednak stał się bardzo skomplikowany. Nie dość, że wymaga aż dziesięciu wymiarów (wraz z czasem), to w dodatku prowadzi do ogromnej różnorodności możliwych opcji, na ogół nie realizowalnych w rzeczywistej Przyrodzie.
      Wprowadzenie symetrii dualności (jedną z jej postaci jest istnienie pól elektrycznego i magnetycznego, stanowiących wspólną całość) spowodowało drugi skok jakościowy w rozwoju teorii. Nazwano to Drugą Rewolucją Strunową. Ed Witten, jeden z głównych sprawców tej rewolucji nazwał nową teorię M – teorią (chyba M, jak matka, a może membrana...). Okazało się, że teoria ta wymaga wprowadzenia dodatkowego, jedenastego wymiaru. M-teoria, to dziś główny front natarcia fizyki teoretycznej. To dziś bardzo modne. Nawet większość doktoratów dotyczy superstrun, membran i wszystkiego, co się z tym wiąże. [Pisałem to w roku 2009.] Zgodnie z równaniami teorii, struny sa obiektami jednowymiarowymi. M-teoria przewiduje jednak istnienie także obiektow o większej liczbie wymiarów, nazywanych branami. Membrana pozbawiona „przedrostka” „mem” stała się dwu-, trój-...p-braną (p – liczba wymiarów, nie większa, niż 10). Interesujące, że teoria ta nie wyklucza też możliwości istnienia cząstek będących czarnymi dziurami. Od razu sprawdzono, bo to już nawet kryterium poprawności teorii, choć wcale nie jest pewne, że czarne  dziury (te powszechnie znane) istnieją. W tym kontekście warto przypomnieć sobie serię artykułów o dualnej grawitacji i plankonach. Tam zauważyliśmy, że rozmiary plankonów są mniejsze, niż sfera ich promienia grawitacyjnego. W dodatku do tego nie trzeba było angażować potężnego arsenału środków matematycznych. Obyłem się prawie bez matematyki. W dodatku cechy fizyczne tych „czarnych dziur” (mojego chowu) możliwe są do określenia w oparciu o model zaproponowany w tej pracy.
      A to dzięki temu, że tym razem koncepcja wyprzedziła matematykę. Dziś jednak matematyka dyktuje, narzuca koncepcję, pomimo, że stanowi system aksjomatyczny (ludzki), nie koniecznie zbieżny z obiektywnymi cechami Przyrody. Nie może przecież człowiek z góry znać tych praw, jeśli je poszukuje, wymyślając w tym celu matematykę. Jako aksjomatyczna, jakąkolwiek by nie była, nigdy nie doprowadzi do znalezienia kamienia filozoficznego przez swą immanentną aksjomatyczność. Zbliża się jak Achilles do żółwia w jednej z aporii Zenona. Z tą różnicą, że aporie te można było obalić (za pomocą...matematyki). I tu jest pies pogrzebany. 

     Ktoś mógłby teorię superstrun nazwać fiaskiem. Ja określiłbym to mianem zwiastunu czegoś nowego. 
      Można też na sprawę spojrzeć inaczej. Po pierwsze, nieoznaczoność wskazuje na rodzaj rozmycia, stosunkowo dużego w małych skalach. Dla przykładu, nie jest możliwe jednoznaczne określenie rozmiarów (i ewentualnie kształtu) elektronu. Określa się go więc jako obiekt punktowy. Relatywistyczna kwantowa teoria pola, rozważa więc cząstki jako obiekty punktowe. Po drugie, w związku z nieoznaczonością, przyjętą przez mechanikę kwantową (jako cechę swoistą Przyrody, a nie jako cechę opisu), zakłada się istnienie fluktuacji pól, które są tym wyraźniejsze, tym bardziej przeszkadzają w poznaniu, im większe powiększenie zastosujemy, im bardziej zagłębiamy się w strukturę materii. O energii próżni, cząstkach-polach Higgsa, o polu inflatonowym, dzięki któremu miała miejsce (podobno) inflacja, była już mowa w eseju poświęconym inflacji. Tam, szczególnie na inflację, zapatrywałem sie z dużą dozą sceptycyzmu, ale cóż, fantazjonerzy (wśród nich ja) są jak wióry z rąbanego drwa. Pocieszam się, że wióry zostaną, a drewno posłuży na rozpałkę. Dziś właśnie to jest ważniejsze. A wióry? Niektóre z nich zapuszczą korzenie.  
      W tym samym kwantowym duchu ustosunkować się można do grawitacji. Formą grawitacji, zgodnie z ogólną teorią względności, jest zakrzywiona przestrzeń. Nie zawadzi więc (by sprawdzić co z tego wyjdzie) zgodnie z imperatywem kwantowania, przyjąć za realne istnienie fluktuacji przestrzeni, fluktuacji jej zakrzywień. Byłyby to oczywiście fluktuacje kwantowe pola grawitacyjnego. Wobec względnej słabości (w skalach dostępnych obserwacji) tych oddziaływań, fluktuacje te mogłyby być tym wyraźniejsze, im sięgamy głębiej, ku skalom odpowiednio małym, w szczególności, zbliżając się do skali Plancka.  Mamy tu więc do czynienia z kwantowaniem grawitacji, mamy też szansę połączenia wszystkich oddziaływań w jedną spójną całość. Właśnie to jest ambicją teorii superstrun. Zbieżne to jest zresztą z próbą modelowania samej materii, uwzględniającego wszystkie możliwe czynniki.         
      Z drugiej strony, odpowiednio blisko wymiarom plankowskim fluktuacje są tak wielkie, a „wrzenie” jest tak intensywne, że przyporządkowanie jakiegokolwiek punktu tej niespokojności jednoznacznym współrzędnym jest z zasady niemożliwe. Rozmycie czyni wszystkość nieprzebywalną mgłą. Tym zaznacza się granica wglądu fizyki  w byt materialny. Tak można widzieć granicę poznawalności....od góry. „Co ze strunami?” Nieprzeliczalność czyni nieskończonym zbiór równań, w którym tylko jedno odpowiada realizowalności fizycznej. Zdeterminowanie w nieskończonym gąszczu. Szukaj wiatru w polu, albo igły w stogu siana z pomocą bomby atomowej. Jedno spośród nieskończenie wielu? Czy to logiczne? Jedno, gdyż prawda jest jedna. A niepewności (przecież to ludzkie)? Te tworzą zbiór nieskończony.
      ...Od dołu wszystko wygląda inaczej. Świat plankonów, trzy wymiary (patrz artykuły poświęcone plankonom, szczególnie ten trzeci.), itd. Trójwymiarowość jako cecha immanentna zdeterminowanego bytu? Tak by mogło wynikać.
     Superstruny są obiektami mającymi stanowić bazę strukturalną dla znanych nam cząstek elementarnych, dotąd traktowanych jako punkty materialne. W tym istota postępu konceptualnego. Już wcześniej zdążyłem zauważyć, że superstruny, jeśli by je troszkę zmodyfikować, są naszymi... elsymonami! Tak w każdym razie kojarzą mi się. Dałem temu wyraz niejednokrotnie. Od strony matematycznej teoria superstrun jest jednak niezwykle skomplikowana. Wiąże się to między innymi z koniecznością wprowadzenia co najmniej sześciu dodatkowych, wymiarów przestrzennych. Sądzę, że oznacza to potrzebę innego podejścia do sprawy, zaatakowania problemu z innej (dosłownie) strony. Wskazywałaby na to niejednoznaczność wyników badań. Jest to jednak sąd jak najbardziej prywatny. Tak ja to odbieram.
     To, co my, naszymi dotychczasowymi teoriami postrzegamy jako punkty, jest w rzeczywistości „tętniącą życiem złożonością”, dla której opisu niezbędne jest wprowadzenie dodatkowych wymiarów. W dodatku, by dotrzeć do granicznej długości Plancka, należałoby „odpunkcić” rzecz punktowo małą dla naszej trójwymiarowej percepcji, jeszcze dwukrotnie. Zatem dla opisu pełnego musielibyśmy przedstawić tę rzeczywistość jako posiadającą dziewięć wymiarów przestrzennych (3 + 3 + 3). Tak to sobie wyobrażam. Struktura bytu tworzy zatem jakby trzypiętrową budowlę. W niej, najwyżej znajduje się piętro naszych bezpośrednich doznań, które zawdzięczamy fotonom (do atomów włącznie); niżej, kwantowe, piętro pośrednie, struktur nazywanych przez nas cząstkami elementarnymi (kwarki, leptony); najniżej, piętro o rozmiarach odpowiadających przeliczalnej wielokrotności długości Plancka, piętro struktury elementarnej, czyli układy plankonów, w moim mniemaniu, stanowiących o istnieniu tak zwanych strun. Właściwie należałoby do tego uwzględnić także specyficzną topologię plankonu, a poprzez to całego Wszechświata (dodatkowy, dziesiąty wymiar przestrzenny, może nawet nie ostatni). Tak by można w daleko posuniętym uproszczeniu przedstawić tę rzecz z mojego punktu widzenia. W tym sensie większa niż trzy liczba wymiarów oznaczać by mogła strukturalną złożoność tego, co percepcyjnie jawi się nam punktem. Dla przypomnienia, nasza percepcja wysługuje się fotonami. Gdybyśmy mogli patrzeć czymś innym, oglądalność nawet najbardziej elementarnej struktury mogłaby być trójwymiarowa. Czym byłoby to „coś innego”? Nie mam pojęcia. Plankony? Ta wielowymiarowość, tak nawiasem mówiąc, także kojarzy mi się z faktem zasadniczej niemożności pełnego (bez metod zaburzeniowych i aproksymacji), jawnie deterministycznego opisu układu dynamicznego, zbudowanego z więcej niż dwóch elementów. Dla przypomnienia, nasze rozważania ilościowe ograniczyły się jedynie do układów dwuelementowych. Z tego zresztą powodu (nie mówiąc o moim lenistwie) do szczegółowych obliczeń zaprosiłem młodych, by zbudowali „superstruny” na bazie plankonowej. To tak, jak by wiadome było, w przeciwieństwie do samej teorii superstrun (jeśli to, co popełniłem nazwać można wiedzą), jak te superstruny są zbudowane, co wcale nie ułatwia sprawy. Mają być bowiem struny bytami stanowiącymi kres podziałom w głąb, przez to, że rozmiary ich ogranicza długość Plancka; bytami (ponoć) prawdziwie elementarnymi. O czymś mniejszym „nie można bowiem w ogóle mówić”, zważywszy na unifikację (odpowiednio zakrzywionej grawitacyjnie) czasoprzestrzeni ze skwantowaniem. To nawet przemawia do wyobraźni, takie zdyscyplinowane zawirowania... Ale to chyba nie całkiem tak. Tej „elementarności strun” przeczy ich różnorodność (w sensie zróżnicowanego „naciągu”, a tym zróżnicowanej energii-masy, zbieżnej z różnorodnością cząstek), która świadczy przecież jednoznacznie o ich złożoności strukturalnej. Przeczy, nawet jeśli mowa tu o tworach, powiedzmy dziesięcio- (lub jedenasto-) wymiarowych (dodatkowy wymiar stanowi czas), o specyficznej topologii, o orbifoldach, których istotą jest nie ich „wnętrze”, lecz forma całościowa. „Nie ma więc mowy o strukturze superstrun. To nie dotyczy sprawy”. Czyżby? Chyba nie w tym zasadza się prawdziwa elementarność. W kontekście tym nie dziw, że można by pokusić się o sąd, iż to, co szumnie nazwałbym teorią elsymonów, stanowi jeśli nie alternatywę, to przynajmniej bazę konceptualną (nawet) dla teorii superstrun, uzupełnienie „od dołu”. Czy sąd ten jest słuszny? To przecież tylko fantazje... Gdzież mi do...     
     Co ważne w teorii superstrun, to zarysowująca się po raz pierwszy, możliwość połączenia w jedną jakość fizyczną, dwóch sprzecznych ze sobą koncepcji, dwóch teorii sprawdzonych i niewątpliwie słusznych (w zakresie naszego dotychczasowego wglądu): mechaniki kwantowej (statystycznej i bazującej na nieoznaczoności heisenbergowskiej) z ogólną teorią względności (deterministyczną). Łatwo zauważyć, że do „połączenia” grawitacji ze skwantowaniem, tym razem nawet chyba dość udanego (w każdym razie jakościowo), doszliśmy także w naszych rozważaniach, badając własności plankonu. Dla przypomnienia, elsymony nasze tworzą układy grawitacyjne, przy czym liczba ich rodzajów jest ograniczona (tylko do układów drgających, zrezonowanych wewnętrznie – to nam przypomina struny). Już to tworzy rodzaj skwantowania. Dodajmy do tego, że różnorodne elsymony tworzą nieprzeliczalną mnogość, choć w artykule szóstym (tego blogu) siódmym pierwszej części raczej ograniczyliśmy ten festiwal do form, których podstawowym elementem jest czworościan foremny, oraz dwunastościan foremny, uzasadniając to potrzebami organizacji przestrzeni**. Stanowi to nawet w moim odczuciu określony postęp w sensie konceptualnym w stosunku do wcześniejszych przypuszczeń.

**) Dodatkowo, optymalizacja polegałaby na jak najgęstszym upakowaniu. To kieruje uwagę ku naturalnemu rozwiązaniu preferowanemu przez przyrodę, odkrytemu jeszcze w Starożytności,  jako „złoty podział”.  Wiąże się to z ciągiem Fibonacciego. Zwróciłem już na to uwagę w innym miejscu. 

     A jednak mimo wszystko nieprzeliczalna mnogość. Wyłowienie z niej cech tworów konkretnych zawdzięczamy, to należy podkreślić, metodom mechaniki kwantowej. Sprzeczność między dwoma wymienionymi wyżej podejściami jest więc właściwie pozorna, szczególnie gdy schodzimy wystarczająco głęboko w hierarchii struktur materialnych, ku skalom małości już niepercepowalnym. Można nawet mówić wówczas o komplementarności. Nie zapominajmy w tym kontekście, że tak zwana „teoria standardowa” cząstek elementarnych odniosła sukcesy nie podlegające dyskusji dzięki jej dokładności w konfrontacji z doświadczeniem i, co nie mniej ważne, z obserwacją astronomiczną (na przykład trafnym określeniem rozkładu występowania pierwiastków we Wszechświecie). Aż dziw, że teoria ta cząstki elementarne postrzega właściwie jedynie jako punkty materialne, a same obliczenia w jej ramach mają charakter aproksymacji. To jednak ogranicza głębokość jej wglądu w istotne cechy materii (jak już zdążyłem wspomnieć) tam, gdzie grawitacja stanowić zaczyna czynnik istotny, ujawniając się przy tym także działaniem odpychającym. Należy dodać, że sama wspomniana wyżej teoria standardowa, odwrotnie, niż na przykład teoria Maxwelle’a, nie może jeszcze stanowić bazy konceptualnej, nie może antycypować (przewidywać z góry), gdyż właściwie pełza w ślad za nowymi ustaleniami doświadczalnymi i otwarta jest na nowe pomysły o charakterze konceptualnym. W tym sensie rozwija się. Dopiero przyjęcie za bazę, istnienia bytu absolutnie elementarnego, utożsamianego (nawet) z plankonami daje chyba szansę na sformułowanie takiej „bazowej” teorii. Być może uwzględnienie tego nowego czynnika, odpychania, zredukowałoby wydatnie uciążliwość obliczeń skazanych na konieczność renormalizacji (nawet jeszcze w ramach aktualnych poglądów, w ramach struktury poznawczej obowiązującej dziś). Uzasadniałoby też moje lenistwo.
     Teoria superstrun, mająca zniwelować „feler” niepełnej adekwatności z powodu „punktowego postrzegania”, jest jednak teorią kwantową, która przecież w swej istocie metodologicznej bazuje na obserwowalności (observable), warunkowanej istnieniem fotonów (oto jeden z paradygmatów) i ich rolą, a także (i przede wszystkim) na nieoznaczoności widzącej swą bazę ontologiczną we fluktuacjach pól i próżni. W dodatku nie uwzględnia (bo nie może) wewnętrznej, strukturalnie adekwatnej grawitacji, a same struny traktuje siłą rzeczy całościowo. Być może w tym właśnie należy upatrywać fakt, że teoria ta jest aż tak skomplikowana w swej strukturze pojęciowo-formalnej. Zdjęcie satelitarne nawet, najbardziej precyzyjne, posiada określoną miarę nieoznaczoności (rozdzielczość obrazu), w dodatku nigdy nie zastąpi szpiega pracującego w terenie (mądrego, zaangażowanego i nieprzekupnego), mającego przy tym dostęp do tajnych dokumentów. Trudno jest z fragmentarycznych przesłanek stworzyć obraz jednoznacznie prawdziwy i spójny wewnętrznie. Mucha z odległości dziesięciu metrów jest punktem, a wymiary (trzy) przewodu trakcji elektrycznej, z odległości, powiedzmy pięćdziesięciu metrów zwinięte są do jednego. Trzeba się więc sporo napocić, by z punktu i kreski, poprzez eksperyment „na odległość”, wydobyć muchę i kabel, a co dopiero szczegóły ich budowy wewnętrznej (znów dwie fazy schodzenia w głąb, poczynając od percepcji bezpośredniej). Aż dziw bierze do czego mimo wszystko już doszliśmy. W tym kontekście rola plankonów wydaje się nawet zaszczytna.  

Brak komentarzy:

Prześlij komentarz