2,99 €
Kritischer Rückblick auf die »Standard«-Modelle der Physik. Charakteristisch für die Neue Physik ist ihre hierarchische Organisation in Potenzen von 8 Dimensionen (Matrioschka-Prinzip) und deren Aufspaltung in 2 Kanäle. Nach Bell ermöglicht dies die Koexistenz von Kausalität und Verschränkung, beschreibt die Auskondensation der sichtbaren Materie mit ihren Nicht-Valenzteilen aus dunkler Materie, erklärt das Quark-Confinement und die asymptotische Flachheit der Ewigen Inflation. Die Weltformel vereinheitlicht alle Kräfte der Natur zur Grand Unified Theory und diese GUT mit der Quantengravitation zur Theory of Everything (ToE). Dies liefert den korrekten Wert der Feinstrukturkonstante und zeigt so, dass die schwache Wechselwirkung ein Dipoleffekt ist. Eine Neuabgrenzung zwischen Mikro- und Makrokosmos erklärt den Messprozess und die Irreversibilität der Zeit. Sie zeigt die logischen Lücken in Einsteins Allgemeiner Relativitätstheorie auf, indem sie seine krummlinige Geometrie (inklusive virtueller Zustände, dunkler Energie etc.) quantisiert und so eine konsistente Physik Schwarzer Löcher ohne Singularitäten erzeugt. Für all dies hatten A. Young und P. Dirac die mathematischen Grundlagen bereitgestellt, während die klassische Physik und Einstein sich nur in selbst erzeugten Sackgassen tummeln.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 174
Veröffentlichungsjahr: 2019
Claus Birkholz
Propheten der Neuen Physik
Sind wir reif für die neuen Erkenntnisse?
Copyright: © 2019 Claus Birkholz
Freigegeben: 05.08.2019
Umschlag & Satz: Erik Kinting – www.buchlektorat.net
Verlag und Druck:
tredition GmbH
Halenreie 40-44
22359 Hamburg
978-3-7497-2473-4 (Paperback)
978-3-7497-2474-1 (Hardcover)
978-3-7497-2475-8 (e-Book)
This Book is also available in Englisch:
978-3-7497-2476-5 (Paperback)
978-3-7497-2477-2 (Hardcover)
978-3-7497-2478-9 (e-Book)
Das Werk, einschließlich seiner Teile, ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlages und des Autors unzulässig. Dies gilt insbesondere für die elektronische oder sonstige Vervielfältigung, Übersetzung, Verbreitung und öffentliche Zugänglichmachung.
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Die Theorie
1. Freier Wille und Reproduzierbarkeit
2. Endlichkeit und Atomismus
3. Schneller als das Licht
4. Historischer Hintergrund
5. Quantengravitation
6. Generatoren und Metrik
7. Makrokosmos vs. Mikrokosmos
8. Diracs Vermächtnis
9. Nur für Spezialisten: Mathematischer Einschub
10. Kosmologie und Teilchenphysik
11. Das Kosmische Hyperboloid
12. Kosmische Inflation
13. Das Matrioschka-Prinzip
14. Dimensionen
15. Technische Basis zur Philosophie
16. Was ist Zeit, was Raum?
17. Rätselhafte Zeit
18. Der gar nicht so mysteriöse Messprozess
19. Ereignishorizont
20. Leben im Schwarzen Loch
21. Die kausale Lücke
22. Das Mater-Mundi-Prinzip
23. Quark Confinement
24. Vereinheitlichte Feldtheorien
25. Reichweite-Horizonte
26. Wie Teilchen aus Dunkler Materie auskondensieren
27. Das salzige Universum
28. System natürlicher Einheiten
29. Koordinatensysteme
30. Ladungen
31. Die chiralen Kräfte der Natur
32. Geometrie der Kräfte
33. Abstoßung und Anziehung
34. Leptonen
35. Angeregte Zustände
36. Schalenmodelle
37. Flavour
38. Das Pauli-Prinzip
39. Das Spektrum stabiler Teilchen
40. Das Paritätsproblem bei Neutrinos
41. Masselosigkeit
42. Resonanzen
43. Zahlen und Quanten
44. Die offenen Grundfragen in der QG
Die Story dazu
II-1. Erster Kontakt
II-2. Arbeitsbeginn
II-3. Assistenz
II-4. Später Erfolg
II-5. Das Leben geht weiter
II-6. „Wissenschaft“
Fußnoten
Die Elektrodynamik hatte den Weg zur Speziellen Relativitätstheorie geöffnet; Einsteins Verdienst war die krummlinige Metrik seiner Allgemeinen Relativitätstheorie – eher ein Strohfeuer, wie sich herausstellte; mit den Folgen daraus gezogener Kurzschlüsse (Abkoppelung der kosmischen Inflation von der Relativitätstheorie, fehlende dunkle Energie und dunkle Materie usw.) haben wir in der Kosmologie noch heute zu kämpfen. Als die wahren Wegbereiter moderner Physik schälen sich inzwischen mehr und mehr der Mathematiker A. Young und der Grundlagen-Theoretiker Dirac heraus; beide lehrten in Cambridge.
Schrödinger steht für die klassische Quantenmechanik, nicht für die Quantengravitation, dem Sinnbild für die Vereinheitlichung von Plancks Welt der Quanten mit Einsteins Allgemeiner Relativitätstheorie. Für Eingeweihte ging es dabei eher um Bells “verborgene Parameter”. 1936 hatten die Podolsky, Einstein und Rosen postuliert, um
beim quantenmechanischen
Messprozess
das Problem einer “kollabierenden Wellenfunktion” in den Griff zu bekommen,
Einsteins “spukhafte Fernwirkung”, die sog. “
Verschränkung”
, zu erklären.
Verschränkung bezeichnet das Faktum, dass ein gekoppeltes System die Kopplung seiner Quanten ohne jede zeitliche Verzögerung über beliebige Distanzen aufrechtzuerhalten vermag, eine Wirkung schneller als das Licht. Dies verletzt ganz klar die Grenzen, die uns die Kausalität setzt. Einsteins Idee war es, dass seine Allgemeine Relativitätstheorie möglicherweise unvollständig sei und ihm verborgene Parameter einen Streich spielten. 1964 jedoch publizierte der irische Physiker Bell seine No-go-Theoreme mit der Aussage, dass jene verborgenen Parameter in der erwarteten Form eben nicht existierten.
Seither eroberten Bells No-go-Theoreme die Grundlagenphysik. Jeder Theoretiker, der etwas auf sich hielt, verkündete stolz die Nicht-Existenz verborgener Parameter in der Quantenwelt ganz allgemein. Wie eine Seuche verbreitete sich diese Ansicht. Jeder, der es noch wagte, Einwände zu erheben, bekam die geballte Macht wissenschaftlicher Lobby zu spüren: niemand mehr nahm ihn ernst. Dergestalt geriet selbst Einstein nachträglich ins Abseits.
Ironischerweise aber stellte sich heraus, dass Einstein doch recht hatte! 1985 gab Bell nämlich selber im Rahmen eines BBC-Interviews zu, dass seine No-go-Theoreme entscheidend auf seiner stillschweigenden Voraussetzung beruhten, dass in der Natur so etwas wie ein freier Wille existierte. Ohne diesen freien Willen aber wurden seine Theoreme zu reiner Makulatur!
Bell bezeichnete sein derart korrigiertes Ergebnis als „absoluten Determinismus“, kurz: „Superdeterminismus“: Nach ihm sollte alles für alle Zeiten eindeutig vorherbestimmt und unabänderbar sein. Superdeterminismus war demnach eine Art verallgemeinerte Konsistenzbedingung, die ausnahmslos unsere gesamte Welt umfasste.
Dies bedeutete eine offene Kriegserklärung an die klassische Kultur des Abendlandes. Man denke nur an unsere Rechtsprechung mit ihren Sanktionen gegen Verbrecher. Wäre alles bereits vorherbestimmt, so dürften wir niemanden wegen seiner Untaten als schuldig verurteilen. Denn nicht er, sondern die superdeterministische Verkettung von Umständen hätte dann schuldhaft zu diesen Taten geführt, die unsere Vorväter einst als Verbrechen deklariert hatten. Verkannt wird dabei allerdings, dass auch jene Sanktionen unabänderlich Bestandteil jenes Superdeterminismus sind.
Im Endergebnis wurden Bells Erkenntnisse von 1985 weitgehend ignoriert. Stattdessen stehen noch heute Bells überholte No-go-Theoreme hoch im Kurs. Dies findet insofern Unterstützung, als sich Bells BBC-Interview schon rein technisch schlecht für eine Zitierung in offiziellen Zeitschriften eignet. Einmal von den offiziellen Meinungsmachern vorschnell und subjektiv festgeschriebene Gerüchte haben in unserer heutigen Welt bemerkenswerterweise mehr Gewicht als spätere objektive Erkenntnisse. Praktisch niemand wagte bisher den Gesichtsverlust, jenen Superdeterminismus auf die Teilchenphysik oder gar auf die Kosmologie anzuwenden.
Theoretische Physik definiert sich als Abbildung (von Teilen) der Natur in die Mathematik. Wir nehmen nur wahr, was uns unsere Sinne mitteilen. Dies mag auch Unfug sein. Seriöse Physiker akzeptieren deshalb nur, was sich eindeutig reproduzieren lässt. Wesentliches Charakteristikum ist die Reproduzierbarkeit ihrer Aussagen. Dadurch unterscheiden sie sich von den Religionen, die sich auf nicht reproduzierbare „Wunder“ berufen.
Doch auch die Folgen eines „freien Willens“ sind nicht eindeutig reproduzierbar. Schon deshalb ist es verwunderlich, wieso sich in der Physik die Hypothese eines „freien Willens“ überhaupt erst bilden konnte und dann derart lange aufrechterhalten ließ.
Eine weitere Eigenschaft der Physik ist ihre atomistische Natur, wie sie Planck 1900 bei seinen Arbeiten an der „Strahlung schwarzer Körper“ entdeckte. Schon im Altertum hatten griechische Philosophen darüber spekuliert. Dieser Atomismus sollte jedoch bereits jedem Laien klar sein. Denn niemand ist in der Lage bis unendlich zu zählen. Zur Wahrung der Übersicht muss in der Physik demnach alles endlich bleiben, um sich eindeutig beschreiben zu lassen. Ohne eindeutige Beschreibung ist eine Reproduzierbarkeit aber schlecht nachweisbar!
Angewandt auf reelle Zahlen, lehrt uns diese Endlichkeit sbedingung, dass die Grundlagenphysik lediglich rationale Zahlen zulässt. Für irrationale Zahlen würden wir nämlich eine unendliche Anzahl von (sich nicht wiederholenden) Nachkommastellen benötigen. Ein endlicher Satz von Elementen lässt sich hingegen in seine Einzelteile zerlegen und abzählen. Dies führt zu obiger atomistischer Struktur. Ihre endlich-vielen „Atome“ wollen wir als „Quanten“ bezeichnen.
Die klassische Physik verleugnet jenen Atomismus. Klassisch wird die Physik als kontinuierlich betrachtet. Für kontinuierliche Systeme wurde die Infinitesimalrechnung erfunden. Ihr mechanistisches Weltbild gedieh über Jahrhunderte. Noch heute versucht man, es aufrecht zu erhalten. Schrödingers kontinuierliche Wellengleichung stellt ein Paradebeispiel für die Vorbehalte dar, den die Anhänger jenes mechanistischen Weltbildes noch heute gegenüber Plancks Welt diskreter Quanten hegen.
Nun lässt sich eine kontinuierliche Beschreibung auch als Grenzfall einer Überlagerung diskreter Eigenschaften deuten. Dies ist ihr statistischer Aspekt. Man verkenne jedoch nicht, dass eine geglättete Statistik das Ergebnis eines Grenzfalles darstellt, der stillschweigend eine Extrapolation hin zu einer unendlichen Anzahl von Elementen bedeutet! Diese Extrapolation umschließt indirekt aber zusätzliche Elemente, die nicht bereits von Anfang an vorhanden waren.
Jene „verborgenen Parameter“ sind natürlich unphysikalisch, mehrdeutig, reine Fantasie. Ihre Auswahl wäre willkürlich. Sie stellen das dar, was Bells No-go-Theoreme für eine erfolgreiche Verknüpfung der Kausalität mit der Verschränkung ausschließen. Ihre Einbeziehung bildet aber die Quelle für eine makroskopische Erweiterung einer im Grunde mikroskopischen Welt.
Halten wir fest: Eine makroskopische Beschreibungsweise umfasst mehr Parameter, als experimentell gemessen wurden! Eine Quantentheorie beschreibt den Mikrokosmos, in dem nur 1 („diagonale“) Richtung messbar ist. Der makroskopische Blick darauf ist weniger scharf: Das Ergebnis der Messung eines Zustandes A – sagen wir an der Position z – könnte ein Zustand B an der Position z‘ sein. Ist jetzt die Differenz z’–z vernachlässigbar klein gegenüber dem Absolutwert von z, so könnte das Messresultat dennoch näherungsweise gleich z sein und B dann ebenfalls „näherungsweise“ gleich A. Ohne Quantisierung der Raumzeit ist davon auszugehen, dass ein ganzes Spektrum von Werten B als exakt =A (miss)interpretiert wird – mit all den abstrusen Folgen für ein Theorie-Verständnis!
Mit Bells Worten wären solche mikroskopischen Abweichungen dem Makrokosmos gegenüber dann „verborgen“; sie würden verschleiern, dass der Endzustand B nicht exakt gleich dem Ausgangszustand A ist. Der Makrokosmos arbeitet also mit Näherungen. Technisch bedeuten sie (reduzible wie auch irreduzible) Überlagerungen einer großen Anzahl solcher in etwa übereinstimmenden Zustände.
Diese Neudefinition davon, was gemäß Bells Superdeterminismus als „makroskopisch“ zu gelten habe, ist die allerwichtigste Errungenschaft der Neuen Physik und kann gar nicht unterschätzt werden! Plancks Summation einer endlichen Anzahl diskreter Quanten, statt sie kontinuierlich aufzuintegrieren, bildet den Schlüssel zu diesem Problem. Durch seine Methode, die Singularitäten hinauszuwerfen, wie sie für Potenziale wie denen von Yukawa oder gar Coulomb klassisch typisch sind, werden singuläre Modelle der klassischen Literatur plötzlich einfach und endlich. Geeignet diskretisiert können auch Yukawa- und Coulomb-Potenziale nicht-singulär werden!
Nach Pythagoras wird ein (quadrierter) Abstand durch Aufaddition seiner quadrierten Komponenten gemessen. In 2 Dimensionen definiert er einen Kreis (bzw., wenn gestreckt, die Hauptachsen einer Ellipse), bei höherer Dimension eine Kugel (bzw. ein Ellipsoid).
Zur korrekten Beschreibung von Maxwells Elektrodynamik, zeigte Einstein, ist die Dimension der Zeit, anders als die des Raumes, mit der imaginären Einheit zu multiplizieren. Eingesetzt in Pythagoras, schaltet dieses Quadrat der imaginären Einheit beim Zeitquadrat das positive Vorzeichen dieser Komponente in das negative Vorzeichen um. Als Resultat erhalten wir die Spezielle Relativitätstheorie.
Dieser Vorzeichenwechsel bei der Zeit überführt Pythagoras‘ Kreis (bzw. seine Kugel) in eine Hyperbel (bzw. ein Hyperboloid). Anders als ein Kreis oder eine Ellipse besitzt eine Hyperbel aber 2 getrennte Äste, die sich nicht berühren. Diese durch den Vorzeichenwechsel ausgelöste Transformation von einem kompakten Kreis (oder einer Ellipse) zu einer nicht-kompakten, offenen Hyperbel führt dazu, dass
der ursprüngliche Kreis (bzw. die Ellipse) in 2 Stücke zerrissen und
der Rest gedehnt und gestaucht wird.
Nun bezeichnet in der Physik der (negative) Dichtegradient einer Punkteverteilung eine „Kraft“. Auf einer homogenen Kugeloberfläche, wo alle Lagen gleichberechtigt sind, sollte für seine Punkte-Konzentration also Gleichverteilung herrschen. Transformieren wir die Kugeloberfläche Punkt für Punkt in die eines Hyperboloids (für einen Mathematiker eine reine Übungsaufgabe), so liefert die transformierte Konzentration dort jedoch eine deutliche Ungleichverteilung.
Auf dem Hyperboloid entstehen demnach (geometrische) Kräfte, die es auf der originären Kugel nicht gibt! Sie werden an den Stellen extrem (Lichtgeschwindigkeit), wo die Originalstruktur entzweigerissen wird.
Halten wir nun einen Teil der Koordinaten fest und lassen den Rest laufen, so wird damit die Gesamtheit der Punkte in Abhängigkeit von den festgehaltenen Punkten in lauter zueinander orthogonale Scheiben aufgetrennt. Aber beide Koordinatensysteme zerschneiden die komplette Punktemenge unterschiedlich (rot bzw. grün dargestellt):
Klassisch würde eine reell-wertige Formel beide Schemata verknüpfen (was, quantisiert, eine gemeinsame reelle „Lie-Algebra“ ergäbe – was immer dies auch sein mag); in der Quantengravitation (QG) benötigen wir dazu jedoch eine komplex-wertige Formel (gemeinsame „komplexe Lie-Algebra“). Der Punkt ist: Die QG unterscheidet zwischen einer kompakten, „abgeschlossenen“ Darstellung im „Reaktionskanal“ und einer (formal) nicht-kompakten, „offenen“ „Pseudo“-Darstellung im „dynamischen Kanal“.
In beiden Fällen wollen wir die „Punkte“ dieser beiden Kanäle als (die Erwartungswerte von) „Generatoren“ bezeichnen; denn, anders als die klassische Physik, ist die QG ein durch und durch quantisiertes Modell, das Quantenmechanik und Einsteins Allgemeine Relativitätstheorie beide als klassische Grenzfälle umschließt.
Da beide Kanäle dieselbe Punktemenge beschreiben, drückt sich die Endlichkeit des abgeschlossenen Reaktionskanals auf den dynamischen Kanal durch: Dessen asymptotische „Pseudo“-Offenheit muss also irgendwo abgeschnitten sein. Physikalisch heißt dies: auch die Dynamik benötigt nur endlich-dimensionale Darstellungen!
Die klassische Physik arbeitet hier stattdessen mit un endlichen Darstellungen. Viele ihrer Probleme basieren auf jenen unphysikalischen Singularitäten, die niemand braucht oder beobachten kann. Die QG vermeidet sie von Anfang an. Klar: Es ist ein hartes Stück Arbeit, die ältere Generation zu überzeugen, ihre technischen Vorbehalte aufzugeben, die sie so lange gepflegt und gehätschelt hat. Ihre internationale Lobby hindert die QG daran, trotz ihrer atemberaubenden experimentellen Erfolge, in der Wissenschaft Fuß zu fassen.
Die Dynamik ist also beschränkt. Anders als in der klassischen Physik existieren hier keine Singularitäten. Das bedeutet jedoch nicht, dass unser Universum irgendwo einen Rand hätte, wo wir anklopfen könnten. Vielmehr dünnt dieses sich mehr und mehr aus. Irgendwo passieren wir dann seinen letzten Punkt ohne zu bemerken, dass dahinter kein weiterer mehr folgt.
Nun summieren sich Wahrscheinlichkeit(s-Amplituden) gemäß Pythagoras auf. Die von der Physik geforderte „Wahrscheinlichkeits-Erhaltung“ ist also eine Eigenschaft des Reaktionskanals; entsprechend arbeitet auch die Verschränkung mit dem Reaktionskanal. Die Dynamik erweist sich hingegen als Eigenschaft des dynamischen Kanals, und Kausalität ist eine Eigenschaft der Dynamik. Die klassische Physik identifiziert beide Kanäle. Bells Widersprüche basieren auf dieser Identifikation.
Der Punkt x in obiger Skizze kann aber nicht in die rote, senkrechte Richtung und zugleich in die grüne, horizontale Richtung wandern. Trotz der Identität des vollen roten Bereiches mit seinem vollen grünen Gegenstück sind deren herausgeschnittene Scheiben, die im Reaktionskanal Wahrscheinlichkeits-Erhaltung und im dynamischen Kanal Bewegungslosigkeit charakterisieren, jedoch nicht miteinander identisch – wie es die klassische Physik stillschweigend unterstellt. Dieser Widerspruch ist ja gerade die Quelle von Bells No-go-Theoremen. Aber beide Kanäle lassen sich in der QG ineinander entwickeln! Damit verschwindet Bells Einwand. Beide Kanäle sind lediglich nicht kommensurabel zueinander. (Man vergleiche dies mit den Spin-Komponenten.)
Vor 1900 war Physik noch ein Sammelsurium aus lauter voneinander unabhängigen Einzeldisziplinen gewesen. Danach startete im 20. Jahrhundert ein Schmelzprozess, in dessen Verlauf sich sogar die Chemie als bloße Kombination von Quantenmechanik und Thermodynamik herausstellte. Biologie und Medizin widerstanden jedoch noch diesem Vereinigungsbestreben.
Physik wurde nun als Folge des Variationsprinzips verstanden, tief verbunden mit dem Lagrange-Modell. Beide waren im 18. Jahrhundert entwickelt worden, mit dem Variationsprinzip als Highlight zur Abhandlung mechanischer Prozesse. Mathematisch gesehen, gründet sich der Lagrange-Formalismus auf der kontinuierlichen, nicht-diskreten „Funktionentheorie mehrerer Variabler“. Kritisch ist deren Eigenschaft zu betrachten, alles Geschehen unter nur einem einzigen Parameter zu subsummieren.
In der Physik ist dieser 1 Parameter normalerweise die Zeit. Sogar jene berüchtigten „String-Modelle“ lassen lediglich 1 „zeitartige“ Dimension zu und setzen sämtliche anderen Dimensionen als „raumartig“ an. Wir werden jedoch sehen, dass sich diese Einschränkung für die Physik als zu stark herausstellt.
Das 20. Jahrhundert begann mit dem Paukenschlag von Plancks Einführung diskreter „Quanten“, gefolgt von Einsteins Relativitätstheorien. Beide Modelle, das der Relativität und das der Quanten, entwickelten sich rasch zu „Feldtheorien“ fort. Doch selbst Quantentheorien nutzten noch immer jenes mächtige Netzwerk einer kontinuierlichen Funktionentheorie für die Behandlung diskreter Probleme von Quanten; man vergleiche nur Schrödingers Methode.
So erwies sich die Welt der Physik als noch unreif für die QG: Die Erfordernisse von Variationsrechnung und Lagrange-Formalismus verhinderten die Vereinheitlichung von Quanten- und Allgemeiner Relativitätstheorie. Haupthindernis: die nicht-verstandene Dualität zwischen dem dynamischen Kanal und dem Reaktionskanal.
Das vorige Kapitel war dem Loswerden ungerechtfertigter Einschränkungen in der Grundlagenphysik gewidmet. Die Physik wurde auf ein Modell „auf Generator-Basis“ umgestellt. (Deren „komplexe Lie-Algebra“ ist der größte gemeinsame Nenner beider Kanäle. Und ein Generator wird durch eine quadratische Matrix dargestellt. Mehr dazu später.)
In n Dimensionen sind die n diagonalen Matrixelemente simultan messbar. Dies ist das mikroskopische Bild der Physik. Das makroskopische Bild benutzt hingegen das Gesetz der großen Zahl und greift auf Überlagerungen zurück. Wie wir noch sehen werden, lassen sich sämtliche n x n Elemente einer nxn-Matrix, die einen Generator darstellt, durch Anwendung einer geeigneten Statistik in Näherung kommensurabel machen.
Derlei Ergebnisse stammen aus der mathematischen Disziplin „Gruppentheorie“. Auch Spin ist ein Begriff daraus. Einstein hielt nicht viel von ihr. Für seine Allgemeine Relativität ist Spin ein Fremdkörper. Für die Gruppentheorie ist er aber eine ihrer fundamentalen Eigenschaften. Dies mag mit eines der Hindernisse sein, die einer erfolgreichen Vereinigung beider Theorien bisher entgegenstanden.
Der Hauptbegriff in der Gruppentheorie lautet jedoch „Irreduzibilität“. Sie teilt uns mit, welche Kombination von Quanten z.B. zur Bildung eines Teilchens zusammengehört und welche nicht. Wie den Spin, so benutzte Einstein auch diesen eminent wichtigen Begriff in seiner ART nicht.
Andererseits jedoch ist diese „Irreduzibilität“ auch derjenige Begriff, der es erst gestattet, jene „Weltformel“ hinzuschreiben, nach der Einstein bis an sein Lebensende vergeblich gefahndet hatte. Denn die Invarianten der Gruppentheorie definieren sich gerade durch diese Irreduzibilität; sie heißen dort „Casimir-Operatoren“. (Später mehr dazu.) Einsteins „Weltformel“ muss demnach (für sämtliche existierende Casimirs) lauten:
Lassen Sie mich kurz zusammenstellen, was wir bisher als von Bedeutung für die Quantengravitation bereits gefunden haben:
Reproduzierbarkeit benötigt Bells Superdeterminismus. Dies verbietet die Existenz eines Freien Willens.
Endlichkeit liefert ein atomistisches Weltbild ohne (nicht-behebbare) Singularitäten.
Eine komplexe Lie-Algebra führt zurDualität zweier Kanäle: Kausalität und Verschränkung koexistieren.
Die Ableitung eines dynamischen Sekundärkanals aus einem primären Reaktionskanal liefert geometrische Kräfte.
Über das „Gesetz großer Zahlen“ kreiert die Statistik aus dem mikroskopischen Bild ein makroskopisches Bild.
Weitere Schlussfolgerungen sind:
Der Wahrscheinlichkeitsgradient liefert
Bewegung
als
Sprung von Zeitscheibe zu Zeitscheibe
.
(In Polarkoordinaten wären dies
Zeitschalen
.)
Man vergleiche dies mit dem allzu vereinfachten Versuch von Wheeler und deWitt, statt den Gordischen Knoten unserer beiden nicht-kommensurablen Kanäle zu lösen, ihn dadurch mit Brachialgewalt zu durchschlagen, dass sie jegliche Zeitabhängigkeit aus der Theorie verbannten. Sie hatten nämlich korrekt festgestellt, dass eine exakte Zeitmessung diese trivialerweise am Variieren hinderte. Das entspricht unserer Zeitscheiben-Technik.
Ihre stillschweigende Identifikation beider Kanäle führte sie jedoch ins Abseits: Funktionentheorie ist kein guter Führer, wenn es um die Handhabung diskreter Quantenzustände geht! Was sie getan haben, das war, das Kind mit dem Bade auszuschütten.
Als Vereinheitlichung von Plancks Welt der Quanten mit Einsteins Allgemeiner Relativitätstheorie ist es die Zielsetzung der Quantengravitation, Elementarteilchen und den Kosmos mittels derselben Gleichungen zu beschreiben; der Unterschied soll lediglich in den Werten ihrer numerischen Konstanten liegen. Mit denen enthält eine Quantengravitation notwendigerweise auch externe Parameter , die von ihr selber nicht vorhergesagt werden können. Unser Universum erweist sich damit als ein untergeordnetes Teilsystem, das sich – wie auch immer – in irgend ein übergeordnetes System einbetten muss, das jene Parameter festzulegen hat und möglicherweise anderen Axiomen unterliegt.
Warnung: Dieses Kapitel ist – leider notwendig für das tiefere Verständnis der Physik – ein wenig mathematisch. Wer beim ersten Lesen nur Bahnhof versteht, sollte sich trotzdem nicht irritieren lassen.
Schon Einstein benutzte Tensoren in der Grundlagenphysik. Seine ART ist ein Modell, das auf Tensoren beruht. Die Mathematik von Tensoren heißt kontinuierlich Differentialgeometrie, diskret Gruppentheorie. Tensoren sind Mehrfach-Vektoren, will heißen: Sie basieren auf (Kronecker-)Produkten von Vektoren und überlagern diese linear, sodass sich im Endergebnis der entstandene Tensor normalerweise nicht mehr in ein einfaches Produkt von Vektoren rückfaktorisieren lässt.
Ein Tensor trägt also mehrere Vektor-Indizes. Die Gruppentheorie klassifiziert diese nach Symmetrieklassen (Young-Tableaux). Physikalisch betrachtet, existieren Vektoren in 2 (zueinander kontragredienten) Typen:kontravariant (Index unten) als Input und kovariant (Index oben) als Output eines Prozesses (oder auch umgekehrt).
(Man beachte die Mehrdeutigkeit des Begriffes „kontravariant“! So kommt es zu der paradox klingenden Sprechweise, einen (fix:) kovarianten Index als (wechselseitig:) kontravariant zu einem (fix:) kontravarianten zu bezeichnen. Ferner ist „kontravariant“ ein Begriff aus der reell-wertigen Differentialgeometrie (Einstein). Komplex-wertig (Dirac) ist der linke Faktor im Skalarprodukt zusätzlich konjugiert-komplex zu nehmen!)
Tensoren können auch Indizes beider Typen zugleich tragen; Beispiel:
Nur verstößt die Teilchenphysik mit ihrer „2. Quantisierung“ gegen die saubere Trennung zwischen Input- und Output-Größen. Direkte Folge dieser mathematischen Inkonsistenz ist die Stagnation der Grundlagentheorie in puncto „vereinheitlichte Feldtheorien“ seit Dirac in den 1930er Jahren. Denn sein Formalismus untergräbt die Erhaltung der Quanten als individuelle Erhaltungsgrößen:
Plötzlich war das Vakuum nicht mehr leer, Teilchen entstanden paarweise aus dem Nichts und verschwanden dorthin auch wieder! Die beiden großen Hindernisse auf dem Weg zur Konstruktion einer QG sind aufseiten der Teilchenphysik also die 2. Quantisierung und aufseiten der ART das Ignorieren des Begriffes der „Irreduzibilität“.
Allgemeiner wird eine Transformation T gern exponentiell mit einem Exponenten dargestellt, aus dem die imaginäre Einheit und, als laufender Parameter, ein Winkel t als Faktoren abgespalten werden:
Der eigentliche Kern g der Transformation heißt Generator. In einem quantisierten System ist man geneigt, den laufenden Winkel t in Einheiten „Anzahl Quanten“ auszudrücken und auf diejenige Anzahl t‘ zu beziehen, die sich auf einem kompletten Kreisumfang (gleich) verteilen würden.
Makroskopisch ist der Quotient t/t‘ dann normalerweise verschwindend klein – Funktionentheoretiker würden sagen: infinitesimal. Quadrate und höhere Potenzen von t im Exponenten dürfen makroskopisch i.a. somit als vernachlässigbar klein weggestrichen werden. Die „Reihenentwicklung nach Taylor“ endet i.a. also de facto bereits nach dem linearen Glied:
Diese lineare Näherung heißt in der Physik Metrik. In der ART ist das „it“ proportional zur (winzig kleinen) Gravitationskonstante.
Bei n Dimensionen existieren aber nxn Übergangsmöglichkeiten, und die Tab sind Komponenten von nxn-Matrizen. Alle n Diagonal-Elemente der Matrix sind unabhängig voneinander messbar; sie sind miteinander „kommensurabel“. Lassen wir (in einer Überlagerung derartiger Produkte vw deren Indizes a und b unabhängig voneinander jeweils alle Werte von 1 bis n durchlaufen, dann definieren ihre Komponenten (in diesem Spezialfall zweier entgegengesetzt-varianter Basisvektoren) über T–1 gerade (implizit) einen Satz von nxn Generatoren g. (Was die Sache umständlich macht: Auch t wird dann zur Matrix.)
Multiplizieren wir m dieser Generatoren g derart zusammen, dass in solch einem Produkt der obere Index des einen Generators mit dem unteren Index des benachbarten Generators zur Rechten übereinstimmt! (Der Generator links außen gelte dabei zyklisch als der Generator zur Rechten des Generators rechts außen.) Summation über all diese gleichen Indexpaare liefernInvarianten, die in der Mathematik auch als Casimir-Operatoren der Stufe m bezeichnet werden:
(Einsteins Summen-Konvention: Paare gleicher Indizes sind über diese zu summieren.)