61,99 €
Die Autoren präsentieren eine integrierte Darstellung von Atom- und Molekülphysik. Neben grundlegenden Themen wie Quantenmechanik und Statistik behandeln sie auch neuere Anwendungen, z.B. die Hochpräzisionsspektroskopie. Das bewährte didaktische Konzept der Vorauflage wurde beibehalten. Inhaltlich wurde der Band vollständig überarbeitet und aktualisiert, eine ganze Reihe neuer Kapitel sind hinzugekommen.
Dass Atom- und Molekülphysik eng miteinander vernetzt sind, ist bekannt. Diese Einsicht in einem Lehrbuch umzusetzen, war das Anliegen der Autoren, als sie sich an die Arbeit zur ersten Auflage dieses Bandes machten. Und der Erfolg gab ihnen Recht. Nun liegt ihr Werk in einer völlig überarbeiten und aktualisierten Neuauflage vor.
Der Band verbindet die Vermittlung von Grundlagenwissen mit der Darstellung modernster Methoden und Anwendungen. So kann sich der Leser nicht nur die "Basics" etwa in Quantenmechanik und Statistik aneignen. Denn in den neuen Kapiteln finden sich nun auch die jüngsten Erkenntnisse aus der Quantenoptik, zu Atom- und Ionenfallen, Atomen in starken Magnetfeldern und aus der Hochpräzisions-spek-troskopie. Auch die Geheimnisse der Bose-Einstein-Kondensate werden gelüftet.
Am erfolgreichen didaktischen Konzept der ersten Auflage wurde nichts geändert. Alle Herleitungen werden ausführlich erklärt und durchgerechnet, schwierige Gedankengänge und komplizierte Rechnungen werden Schritt für Schritt erläutert.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 582
Vorwort zur 2. Auflage
Teil I Propädeutik und Existenz
1 Einleitung
1.1 Physikalische Begriffe
1.2 Historischer Überblick
2 Atome als Elemente Größer Gesamtheiten
2.1 Gaskinetik
2.2 Elemente der statistischen Physik
2.3 Die Maxwell–Boltzmann-Verteilung
2.4 Fluktuationen
2.5 Die Hohlraumstrahlung
2.6 Quantenstatistik und Photonengas
2.7 Übungsaufgaben
3 Äußere Merkmale und Eigenschaften der Atome
3.1 Die Ladung
3.2 Die Masse
3.3 Massenspektroskopie
3.4 Die spezifische Ladung des Elektrons
3.5 Relativistische Massenzunahme
3.6 Die Größe
3.7 Übungsaufgaben
Teil II Instrumentarium
4 Dualismus Welle–Teilchen
4.1 Das Licht als Teilchen
4.2 Das Elektron als Welle
4.3 Welle–Teilchen-Dualismus
4.4 Übungsaufgaben
5 Quantenmechanik
5.1 Wahrscheinlichkeits-Amplituden
5.2 Grundelemente und Wellengleichung
5.3 Interpretation
5.4 Die Unbestimmtheitsrelation
5.5 Minimales Wellenpaket
5.6 Erwartungswerte und klassischer Grenzfall
5.7 Teilchen in Potentialfeldern
5.8 Antiteilchen
5.9 Übungsaufgaben
6 Experimentelle Methoden der Spektroskopie
6.1 Lichtquellen
6.2 Spektralzerlegung
6.3 Strahlungsnachweis
6.4 Übungsaufgaben
Teil III Das freie Atom
7 Das Wasserstoffatom
7.1 Serien-Formel und Bohrsches Atommodell
7.2 Der Franck–Hertz-Versuch1
7.3 Die Schrödinger-Gleichung mit Coulomb-Wechselwirkung
7.4 Der Bahndrehimpuls
7.5 Die Eigenfunktionen
7.6 Der Spin des Elektrons
7.7 Feinstrukturen im Energiespektrum
7.8 Wasserstoffähnliche Atome
7.9 Übungsaufgaben
8 Periodensystem und Schalenstruktur
8.1 Pauli-Prinzip und Schalenbau
8.2 Experimentelle Daten zum Periodensystem
8.3 Rontgen-Spektren
8.4 Übungsaufgaben
9 Mehrelektronenatome
9.1 Die Spektren der Alkali-Atome
9.2 Näherungsverfahren mit Zentralpotential
9.3 Identische Teilchen
9.4 Hartree–Fock-Verfahren
9.5 Multiplettstruktur
9.6 Rydberg-Atome
9.7 Übungsaufgaben
10 Strahlende Übergänge
10.1 Lebensdauer von Anregungszuständen
10.2 Die Intensität von Spektral-Linien
10.3 Die Breite von Spektral-Linien
10.4 Der Laser
10.5 Der Freie-Elektronen-Laser (FEL)
10.6 Spektroskopische Methoden mit hoher Auflösung
10.7 Bose-Einstein-Kondensate
Teil IV Wechselwirkungen
11 Dynamische Atomprozesse
11.1 Schnelle Atomstöße
11.2 Experimentelle Untersuchungen dynamischer Atomprozesse
11.3 Spektroskopie bei Innerschalenanregung
11.4 Exotische Atome
11.5 Übungsaufgaben
12 Atome in äußeren Feldern
12.1 Die Addition magnetischer Momente
12.2 Der Zeeman-Effekt
12.3 Der Paschen-Back-Effekt
12.4 Atome in sehr starken Magnetfeldern
12.5 Der Stark-Effekt
12.6 Übungsaufgaben
13 Zweiatomige Moleküle
13.1 Arten der chemischen Bindung
13.2 Bindungs-Potentiale
13.3 Separation der Schrödinger-Gleichung
13.4 Das Wasserstoff-Molekül
13.5 Elektronische Energien und Termsymbolik
13.6 Molekülorbitale
13.7 Hybridisierung
13.8 Schwingungsenergie
13.9 Das Franck–Condon-Prinzip1
13.10 Rotationsenergien
13.11 Molekülspektren und das Fortrat-Diagramm
13.12 Der Raman-Effekt
13.13 Zwischenmolekulare Kräfte
14 Ausblick
Anhang
A Herleitungen und Rechnungen
B Naturkonstanten
Zitierte Literatur
Weiterführende Literatur
Personenregister
Sachregister
Autoren
Klaus Bethge
Johann-Wolfgang-Goethe-Universität
Frankfurt, Germany
e-mail: [email protected]
Gernot Gruber
Mainz, Germany
e-mail: [email protected]
Thomas Stöhlker
GSI-Atomphysik
Darmstadt, Germany
e-mail: [email protected]
1.Auflage 1990
2., erweiterte und überarbeitete Auflage 2004
Titelbild
Prinzip der Paul-Falle
Das vorliegende Werk wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler keine Haftung.
Bibliografische Information Der Deutschen Bibliothek
Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
© 2004 WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim
Alle Rechte, insbesondere die der Übersetzung in andere Sprachen vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden.
Print ISBN 9783527404636
Epdf ISBN 978-3-527-66256-2
Epub ISBN 978-3-527-66255-5
Mobi ISBN 978-3-527-66254-8
Vorwort zur 2. Auflage
Nachdem das Buch in Lehr- und Studienkreisen gut aufgenommen wurde, hat sich der Verlag Wiley-VCH entschlossen eine neue Auflage herauszubringen. Seit der ersten Auflage hat die Forschung im Bereich der Atomphysik große Fortschritte zu verzeichnen, vor allem neue Experimentiermöglichkeiten, wie sie die Fallen, z. B. die EBIT darstellen, auch analytische Methoden, die durch Computer ermöglicht werden, haben in vielen Fällen zu besserem Verständnis geführt. Ein Teil der neuen Ergebnissse ist in den Laboratorien der GSI Darmstadt erarbeitet worden. Wir haben versucht, diesen Ergebnissen Rechnung zu tragen, ohne den Grundcharakter der Darstellung zu ändern. Herrn Prof. E. Jaeschke, BESSY-Berlin, danken wir für die neuesten Daten der Synchrotron-Lichtquellen. Herrn Prof. J. Ullrich, Heidelberg, und Herrn Prof. R. Dörner, Frankfurt am Main, für die Bereitstellung von Unterlagen zur Rückstoßionenspektroskopie. Material über die vielfältigen neuen Anwendungen der Fallen stammt freundlicherweise von Herrn Prof. H.J. Kluge, GSI. Die Hinweise von Herrn Prof. U. Steinlin (Basel) auf die Daten der COBE-Mission waren sehr hilfreich. Herrn Prof. A. Richter, Darmstadt, danken wir für die freundliche Genehmigung ein FEL-Bild zu verwenden. Herr Prof. Klaus Heilig, Mannheim, stellte sein Vorlesungsskript zur Spektroskopie zur Verfügung. Frau Claudia Freudenberger hat wieder in bewährter Weise Bilder computergemäß neu erstellt oder bearbeitet. Dem Verlag Wiley-VCH, vor allem Frau C. Wanka und Herrn Dr. A. Großmann danken wir für die gute Zusammenarbeit. Besonders hervorzuheben ist das Engagement und die ständige Hilfsbereitschaft von Herrn Dr. M. Bär beim Umsetzen des alten Textes und beim Einbau der zahlreichen Ergänzungen.
Klaus Bethge, Gernot Gruber, Thomas Stöhlker
Darmstadt, im Juli 2004
Atome und Moleküle sind die unsichtbaren Bausteine, aus denen unsere makroskopische Welt aufgebaut ist. In allen Bereichenb der Natur und in vielen Bereichen der Technik werden Phänomene und Prozesse durch quantenhafte Vorgänge beherrscht. Die Grundlagen der zu ihrer Erforschung angewendeten experimentellen und theoretischen Methoden sowie das zur Beschreibung erforderliche Begriffsystem wurden in der Zeit um die letzte Jahrhundertwende und vor allem in den ersten Jahrzehnten dieses Jahrhunderts anhand der Untersuchung der Atome geschaffen; ihre Weiterentwicklung hält auch heute noch an. Die dabei erzielten Resultate wirkten von Anfang an nicht nur in andere Gebiete der Physik, sondern befruchteten auch Naturwissenschaften wie Chemie und Biologie und fanden darüber hinaus Nutzen durch Anwendung in Technik und Medizin. Die Atomphysik kann in ihrer faktischen und methodischen Bedeutung daher kaum überschätzt werden, und sie nimmt im Rahmen der Physikausbildung nach wie vor, zurecht, eine zentrale Stellung ein. Darüber hinaus werden dem Studenten in der Atomphysik die statistischen Methoden nahegebracht, die die gesannte moderne Physik beherrschen. Ihre Betonung in diesem Buch unterscheidet es z. T. von anderen Lehrbüchern der Atomphysik.
Der für das Buch gewählte Titel Physik der Atome und Moleküle – eine Einführung, ist sein Programm. Als Lehrbuch konzipiert, macht es sich zur Aufgabe, die Leser – vor allem Physikstudenten der ersten Semester, sowie Studenten benachbarter Fachgebiete – in den Bau der Atome sowie deren Wechselwirkungen mit äußeren Feldern und miteinander einzuführen um einen Grundstock sowohl an Faktenwissen als auch an Verständnis zu legen. Hierzu gehört, daß das für eine widerspruchsfreie Beschreibung erforderliche Begriffssystem entwickelt und seine Eigenart erläutert und begründet wird. Die Hinführung auf den Gegenstand, sowohl begrifflich, als auch historisch, die Beschreibung der wichtigsten Elemente und die Bereitstellung des benötigten theoretischen Instrumentariums nehmen daher einen breiten Raum ein; ihnen sind die beiden ersten Teile des Buches gewidmet. Auf diesem Grundwissen bauen die anderen Teile auf: Sie beschreiben die Physik freier Atome sowie die Besonderheiten, die sich zeigen, wenn Atome dem Einfluß äußerer Felder unterworfen werden oder in so innige Wechselwirkung miteinander treten, daß Moleküle gebildet werden. Das Buch schließt mit einem Ausblick auf einige Ausweitungen des Gebiets sowie auf aktuelle Anwendung. In seinem Anhang enhält es einige rechnerische Herleitungen sowie eine Zusammenstellung wichtiger Naturkonstanten.
Wir verwenden durchweg SI-Einheiten, bisweilen in Verbindung mit den üblichen Abkürzungen für Zehnerpotenzen. Abweichungen hiervon werden ausdrücklich vermerkt. Eine Bemerkung ist vielleicht auch am Platz zu dem hier geübten, etwas saloppen, aber in der physikalischen Literatur durchaus üblichen Umgang mit dem mathematischen Begriff der Funktion. Mit Gleichungen wie ψ(x, y, z) ψ(rϑ,φ) ist gemeint, daß ein und demselben Punkt im Raum, der einmal in kartesischen Koordinaten angegeben wird, das andere Mal in sphärischen Polarkoordinaten, der gleiche Funktionswert zugeordnet ist; bisweilen wird dafür nur ψ(r) geschrieben oder einfach ψ. Das ist insbesondere bei der Bildung partieller Ableitungen zu beachten.
Wir möchten für die Hilfe bei der Erstellung des Manuskripts Frau E. Kühn, Frau I. Platte, Frau M. Ammon, Frau P. Seyler-Dielmann und Frau Ch. Thimmel herzlich danken, sowie für die Neuzeichnung vieler Bilder Frau C. Freudenberger. Wichtige Anregungen und Verbesserungen verdanken wir Hinweisen von Horst Schmidt-Böcking und Eberhard Krimmel. Für die Erlaubnis, Bilder aus ihren Originalarbeiten zu verwenden, danken wir Hans Ruder, Tübingen, und Theodor Hänsch, München. Der Satz des Buches wurde von Frau E. Schmidt und Herrn I. Schneider im System erstellt, unter der ständigen geduldigen und engagierten Betreuung durch W. Greulich von VCH. Allen Helfern, kritischen Lesern und Kommentatoren gilt unser herzlicher Dank.
KlausBethgeundGernotGruber
Frankfurt, im März 1990
Die Wende vom neunzehnten zum zwanzigsten Jahrhundert fällt zusammen mit dem Beginn zweier Entwicklungslinien der Physik, die bald richtungweisend wurden und auch heute noch, zu Beginn des nächsten Jahrhunderts, weite Bereiche der physikalischen Forschung bestimmen: Die Erkundung der Welt des ganz Kleinen und die Auslotung des Universums.
Auf dem Weg in den Mikrokosmos ist die Atomphysik mit dem theoretischen Apparat der Quantenmechanik und der Quantenelektrodynamik historisch und methodologisch die erste Stufe, woraus sich – in Verbindung mit der Tatsache, daß atomare Vorgänge nahezu das gesamte Geschehen der uns unmittelbar umgebenden Natur beherrschen – ihre zentrale Stellung im Rahmen der heutigen Naturwissenschaften ergibt. Die Entwicklung dahin vollzog sich mit einem in der Wissenschaftsgeschichte einmaligen Tempo, trotz einer sie begleitenden Revolution im Selbstverständnis der Physik. Denn obwohl das Atom, mit seinen wesentlichen Bestandteilen Kern und Elektron, Masse und Ladung trägt, sperrte es sich paradoxerweise von Anfang an der Aufklärung seiner inneren Struktur mit Hilfe der, wie man glaubte wohlfundierten, klassischen Theorien der Mechanik und der Elektrodynamik – alle Versuche der Konstruktion eines Atom-Modells auf deren Grundlage führten zu unlösbaren Widersprüchen.
Diese Anfänge liegen mehr als ein Jahrhundert zurück, und die seither entwickelte Theorie, mit deren Hilfe die Überwindung der Widersprüche gelang, ist naturwissenschaftliches Gemeingut geworden. Trotzdem bleiben das anfängliche Scheitern und die nachfolgende Umwälzung unter allgemeinen erkenntnistheoretischen Aspekten bemerkenswert, und sie verdienen es, einer modernen Darstellung der Atomphysik, wie der vorliegenden, vorangestellt zu werden.
Das Scheitern der klassischen Theorien an der Entschlüsselung der atomaren Struktur liegt zutiefst in dem ihnen inhärenten Dualismus begründet. Die klassische Punktmechanik nämlich ist durch ihre Objekte, die Singularitäten im Raum darstellen, eine Diskontinuumstheorie und fixiert die klassische Vorstellung eines Teilchens, während die klassische Elektrodynamik, mit der Beschreibung der stetigen Verteilung elektromagnetischer Felder in Raum und Zeit, eine Kontinuumstheorie und Grundlage des klassischen Wellenbildes ist. Quasi als Synthese dieser beiden Antithesen hat die Erforschung des Atoms den offenbaren Widerspruch aufgelöst. Sie lehrt uns, daß die Grundstrukturen beider Theorien, jede für sich, nur bedingt auf die Naturerscheinungen anwendbar sind und daß jede von ihnen für eine adäquate Beschreibung der Wirklichkeit einiger Elemente der andern bedarf. Einerseits muß im atomaren Bereich die Vorstellung von Punktmassen an wohldefinierten Orten um eine Beschreibung in Feldbegriffen erweitert beziehungsweise durch eine solche ersetzt werden, anderseits aber sind die Felder der klassischen Theorie einer Quantisierung zu unterwerfen.
Weil diese Einsicht nicht willkürlich durch Deduktion gewonnen, sondern unwillkürlich durch das Experiment erzwungen wurde, wirkte die Atomphysik befruchtend auf die Methodologie der gesamten Wissenschaft. Daß sowohl die Theorie als auch das Experiment, Rationalismus und Empirie, für das Gewinnen von Erkenntnis erforderlich sind, ist danach unabdingbar. Der Erfassung und Ausdeutung experimenteller Fakten geht ein theoretisches Konzept voraus, ein theoretischer Entwurf aber muß der experimentellen Überprüfung standhalten, nur dann ist er wahr. Widersprüche in Form von Paradoxien – darauf hat insbesondere Niels Bohr hingewiesen – sind stets ein Hinweis, daß die zugrunde gelegten Begriffe überprüft und, soweit erforderlich, revidiert werden müssen. Weil dieser Prozeß historisch bedingt und begrifflich bestimmt ist, wollen wir in den nun folgenden einleitenden Unterkapiteln die Bedeutung zunächst der Begriffsbildung und die dann, der historischen Entwicklung für das Entstehen einer wissenschaftlichen Theorie, wie der des Atoms, veranschaulichen.
Ein Begriff ist der Inbegriff dessen, was ist. Seine Bildung geschieht durch Abstraktion aus der Erfahrung. Die Grundbegriffe der Physik entstammen der Erfahrung der Umwelt, und ihnen liegt, wie denen der allgemeinen Umgangssprache, das unmittelbare, sinnbedingte Erleben zugrunde. Sie sind durch unsere Sinnesorgane faßbar und werden nach Art und Größe gesondert. Dazu einige Beispiele:
Wir können Längen schätzen: Jeder weiß sofort, was ein Zentimeter ist oder ein Meter, und unsere Anschauung reicht von etwa einem Zehntel Millimeter („Haaresbreite“) bis zu einigen Kilometern („meilenweit“).
Wir haben ein ursprüngliches Gefühl für Kraft und damit auch für Massen. Sie sind anschaulich faßbar, etwa von einem Bruchteil eines Gramms („federleicht“) bis zu einigen Tonnen („Zentnerlasten“).
Wir empfinden zeitliche Abläufe und können deshalb Zeitintervalle zwischen etwa einer Zehntel Sekunde („Augenblick“) und einigen zig Jahren („Menschenalter“) unterscheiden.
Wir können sehen, fühlen oder hören, was eine Relativgeschwindigkeit zwischen etwa einem Meter pro Stunde (Minutenzeiger auf der Uhr) und einigen tausend Kilometern pro Sekunde („blitzschnell“) ist.
Wir spüren Temperaturen und können sie unterscheiden in einem Bereich, der etwa vom Gefrierpunkt des Wassers („eiskalt“) bis zu dessen Siedepunkt reicht („kochend heiß“).
Wir nehmen Helligkeitsunterschiede wahr („hell wie der Tag – dunkel wie die Nacht“), wir haben einen Sinn für Ort und Richtung relativ zu unserer Umgebung, und in einem gewissen Umfang können wir auch Elektrizität unmittelbar wahrnehmen.
Zu diesen Grunderfahrungen aus dem Bereich unserer Sinne kommt eine weitere, deren sich die Menschheit seit langem bewußt ist, daß nämlich die uns unmittelbar erfahrbaren Vorgänge kontinuierlich verlaufen („natura non facit saltus“). Das findet seinen Niederschlag darin, daß in der klassischen Physik alle beobachtbaren Größen als Variable von Differentialgleichungen aufgefaßt werden können und daher vollständig determiniert sind.
Solange die Erfahrung nichts anderes lehrte, mußte diese Vorstellung vom kontinuierlichen Verlauf natürlicher Vorgänge als universell gültiges Gesetz erscheinen. Und dennoch folgt aus der Möglichkeit der sinnvollen Anwendung von Begriffen und Vorstellungen in den Erfahrungsbereichen, denen sie entstammen, keineswegs, daß sie überall gelten. Man kann sich das leicht veranschaulichen, indem man versucht, die oben skizzierten Erfahrungsbereiche numerisch beliebig auszudehnen. Was ist zum Beispiel eine Entfernung von 10–100 cm oder eine von 10100 Lichtjahren? Es ist zwar möglich, solche Größen hinzuschreiben, nicht jedoch anzugeben, was sie in der Wirklichkeit bedeuten sollen. Wir müssen folglich beim Versuch, einen Begriff über seinen gewohnten Anwendungsbereich auszudehnen, untersuchen, ob das möglich und sinnvoll ist.
Es war wohl die Erkenntnis, daß es einen absoluten Nullpunkt der Temperatur gibt, mit der die Physik erstmals an die Grenze eines ihrer Begriffe stieß. Danach war es nicht mehr möglich – weil sinnlos – von Temperaturen unterhalb dieses Punktes zu sprechen. Die erste wirklich erkenntniskritische Analyse physikalischer Begriffe aber lieferte Einstein mit der Untersuchung der bekannten Widersprüche der Elektrodynamik (Stichworte: Äther-Theorie und Michelson-Morley-Experiment), in deren Folge er die Begriffe „Gleichzeitigkeit“ und „Maßstab“ einer gründlichen Revision unterzog. Die daraus hervorgegangene Relativitätstheorie führte unmittelbar zu einer weiteren Beschränkung: Es gibt keine Signal- oder Energietransportgeschwindigkeit, die größer wäre als die des Lichts1. So weit reicht unser Begriff der Geschwindigkeit, obwohl die tatsächliche Größe der Lichtgeschwindigkeit weit jenseits unserer Wahrnehmungsfähigkeit liegt.
Für natürliche Vorgänge wurde lange Zeit ein kontinuierlicher Verlauf angenommen, doch diese Vorstellung mußte aufgrund experimenteller Fakten aus dem atomaren Bereich zugunsten einer realistischeren Theorie aufgegeben werden. Das führte in der Folge zu einer gründlichen Untersuchung unserer Vorstellung vom Messen. Die daraus resultierende Erkenntnis, daß der Geltungsbereich einer Theorie nicht aus dieser selbst gefolgert werden kann, sondern experimentell bestimmt werden muß, markiert den Beginn der modernen Physik. Sie hatte ein neues Verständnis von dem zur Folge, was die Physik leistet: Sie sagt nicht, was ist, sondern sie beschreibt, was wahrgenommen, d. h. gemessen wird. Der Geltungsbereich physikalischer Begriffe ist daher eng mit ihrer Meßbarkeit verknüpft, d.h. mit einer Meßvorschrift. Die klassische Physik geht davon aus, daß es praktisch immer möglich sei, von der Störung eines Systems durch den Meßprozeß selbst abzusehen. Sie nimmt an, daß man entweder die Störung so klein halten könne, daß sie vernachlässigbar ist, oder aber, daß sie rechnerisch kompensierbar sei.
Diese Annahme hat weitreichende Konsequenzen. Die Vorstellung einer Teilchenbahn zum Beispiel, die scheinbar nichts mit einer Messung zu tun hat, beruht in Wahrheit auf eben dieser klassischen Konzeption. Denn wenn wir uns die Bahn eines Teilchens vorstellen, so implizieren wir, daß wir jederzeit mit Bestimmtheit angeben könnten, an welchem Ort und in welchem Bewegungszustand das Teilchen sich befindet. Genau das ist aber nicht möglich, und nach dem heutigen Verständnis der Physik gibt es dann auch keine Bahn.
Die klassische Vorstellung von dem, was eine Messung sei, mußte konsequenterweise dort zu Widersprüchen führen, wo ihre Voraussetzungen nicht mehr gegeben sind: im Bereich des submikroskopischen Geschehens. Hier kann die Störung eines physikalischen Systems eben nicht immer vernachlässigt beziehungsweise kompensiert werden. Das ist vielmehr grundsätzlich nur so weit möglich, wie es das von Heisenberg formulierte Unbestimmtheitsprinzip erlaubt, das besagt: Es gibt Paare physikalischer Größen, nämlich kanonisch konjugierte Variablekanonisch konjugierte Variable, die nicht gleichzeitig mit beliebiger Genauigkeit meßbar sind. Dieses Prinzip läßt sich wie folgt quantifizieren:
Sind q und p zwei kanonisch konjugierte Variable und Δq und Δp ihre näher zu qualifizierenden Ünbestimmtheiten, dann unterliegen diese der Relation
Sind im besonderen q der Ort eines Teilchens und p der dazu konjugierte Impuls, dann folgt aus dem Unbestimmtheitsprinzip, daß es nicht möglich ist, die Werte dieser beiden Variablen gleichzeitig exakt anzugeben. Da aber eine Teilchenbahn durch das geltende Kraftgesetz und durch die (gleichzeitigen) Anfangswerte von Ort und Impuls bestimmt ist, ist die exakte Bestimmung einer Teilchenbahn niemals möglich. Wir werden in Kapitel 5 ausführlich hierauf eingehen.
Die durch die Ünbestimmtheitsrelation gegebenen Unschärfen sind so klein, daß sie bei makroskopischen Messungen weit unterhalb der Meßgenauigkeit liegen und nicht festgestellt werden können. Es nimmt daher nicht wunder, daß man auf ihre Konsequenzen erst aufmerksam wurde, als durch die Verfeinerung der Meßverfahren die physikalischen Objekte so klein werden konnten, daß die Meßwerte den durch die Ünbestimmtheitsrelation gegebenen Unschärfen vergleichbar wurden.
Aus dem Unbestimmtheitsprinzip folgt, daß sich Vorgänge im atomaren Bereich nicht streng deterministisch beschreiben lassen, sondern Wahrscheinlichkeitsgesetzen gehorchen. Diese Tatsache und die auf der endlichen Größe des Wirkungsquantums beruhende Erkenntnis, daß die Natur im atomaren Bereich – aller Sinnfälligkeit zum Trotz – doch Sprünge macht, fanden ihren Niederschlag in der Formulierung der Quantenmechanik. Der Umstand, daß das unmittelbar wahrnehmbare Geschehen im Gegensatz dazu offenbar kontinuierlich verläuft, kann aber mit den Vorstellungen der Quantenmechanik versöhnt werden, wenn die Beobachtung dieses Geschehens als Bildung von Mittelwerten vieler Stichproben aufgefaßt wird – Mittelwerte ändern sich auch nach den Gesetzen der Quantenmechanik stetig.
Der Atomismus, die Lehre von der Existenz kleinster Teilchen, war ursprünglich eine philosophische Theorie, die im griechischen Altertum entwickelt wurde, um die Vielfalt der Erscheinungen und deren Veränderung aus einem einheitlichen Seinsprinzip zu erklären. Mangels eines Beweises für die Existenz der postulierten Teilchen und ihrer Eigenschaften fand diese Theorie jedoch jahrhundertelang keine allgemeine Anerkennung sondern blieb bis in die Neuzeit hinein umstritten.
Die heutige Wissenschaft sieht üblicherweise in Leukipp (etwa 480–420 v. Chr.) und seinem Schüler Demokrit (etwa 460–370 v. Chr.) die Schöpfer des Atomismus. Demokrit lehrte:
Die Welt besteht aus kleinsten unteilbaren Teilchen – Atomen (griechisch ατoμoς: unteilbar)
Um Bewegung zu ermöglichen, nahm er außerdem das Vorhandensein eines leeren Raumes an.
Dieser Auffassung schlossen sich später Epikur (341–270 v. Chr.) und Lukrez (1. Jhdt. v. Chr.) an. In der Neuzeit wurde die Atomhypothese von Pierre Gassendi (1592–1655) wieder aufgenommen und u.a. von Sebastian Basso (2. Hälfte 16. Jhdt. ), Daniel Sennert (1572–1637), Joachim Jungius (1587–1657) und Robert Boyle (1627–1691) weiter verfolgt, wobei sich der Schwerpunkt des Interesses von der allgemeinen philosophischen Fragestellung auf konkrete physikalische und chemische Probleme zu verlagern begann. Besonders bedeutsam war, daß auch Isaac Newton (1643–1727) zu den Verfechtern der Atomhypothese gehörte.
Im Gegensatz zu deren Auffassung stand der sogenannte Plenismus (lateinisch plenus: voll, erfüllt), der eine kontinuierliche Erfüllung des Raumes mit Materie behauptete und damit die Vorstellung vom leeren Raum ablehnte. Diese Lehre wurde insbesondere von René Descartes (1596–1650) und von Gottfried Wilhelm Leibniz (1646–1716) vertreten.
Gegen Ende des 18. Jahrhunderts war der Atomismus von Gasen, d. h. deren Zusammensetzung aus kleinsten Teilchen, vor allem durch den Einfluß Newtons allgemein akzeptiert, führte jedoch zu keinen Konsequenzen für andere Bereiche der Physik, da unklar blieb, in welcher Beziehung die Atome zueinander stehen. Erst mit der Entwicklung der kinetischen Gastheorie, die neben der bloßen Existenz von Atomen auch deren freie Beweglichkeit und in dieser die alleinige Ursache von Druck und Warme postulierte, wurde die Atomhypothese für die Physik fruchtbar. Ein früher Ansatz hierzu findet sich bereits 1738 bei Daniel Bernoulli (1700–1782). Dessen Arbeit war der Entwicklung der Physik seiner Zeit jedoch um ein Jahrhundert voraus – sie wurde nicht akzeptiert und geriet in Vergessenheit.
Mit John Dalton (1766–1844), der die Idee Antoine Lavoisiers (1743–1794) aufgriff, daß das Unterscheidungsmerkmal verschiedener Atome ihr Gewicht sei, nahm sich zunachst die Chemie der weiteren Entwicklung an, indem sie postulierte, daß verschiedene Elemente aus verschiedenen Atomen zusammengesetzt seien. Dalton konnte sich damit später rühmen, den Atomismus zu neuem Leben erweckt zu haben. Hinfort war es von vorrangiger Bedeutung, die relativen Atomgewichte der Atome zu bestimmen. Dazu wurden zwei wichtige Sätze formuliert. Zunächst von Dalton
1803:das Gesetz der multiplen Proportionen: Die Gewichtsverhältnisse zweier sich zu verschiedenen Verbindungen vereinigender Elemente stehen im Verhältnis kleiner ganzer Zahlen.
Dieser Satz über die Umsetzung verschiedener Elemente zu einer Verbindung macht jedoch noch keine Aussage über die Gewichtsverhältnisse der Atome untereinander. Das leistete erst
1811:der Satz von Amedeo Avogadro (1776–1856): Gleiche Volumina idealer Gase enthalten bei gleichem Druck und gleicher Temperatur gleich viele Moleküle.
Avogadro führte damit den neuen Begriff „Molekül“ oder „Molekel“ ein (neu-lateinisch molecula : kleine Masse).
Es ist hiernach vielleicht kein Zufall, daß es ein Chemiker war, nämlich August Karl Krönig (1811–1879), der mit einer Arbeit aus dem Jahre 1856 den Beginn des endgültigen Durchbruchs der kinetischen Gastheorie zur allgemeinen wissenschaftlichen Anerkennung markierte. Zuvor war zwei weiteren Autoren, John Herapath (1790–1868) und James Waterston (1811–1883), mit ihren Arbeiten zur elementaren Begründung dieser Theorie, die sie 1821 bzw. 1846 vorlegten, das gleiche Schicksal beschieden wie Bernoulli: Ihre Arbeiten wurden nicht akzeptiert, blieben unbekannt und damit ohne Folgen für die weitere Entwicklung der Atomtheorie.
Daß Krönig, der kaum über Bernoulli und Herapath hinausging, geschweige denn über Waterston, Anerkennung fand, lag vielleicht an der damaligen Bekanntheit des Autors, vor allem aber wohl an der allgemeinen Änderung des geistigen Klimas. Dazu gehörte einerseits die Überwindung der Wärmestofftheorie, die mit ihrem ausgeklügelten System und den damals überzeugenden Argumenten1 zuvor jeden Erfolg der kinetischen Theorie verhindert hatte. Andererseits war die Erörterung des Prinzips der Erhaltung der Energie oder der Kraft, wie sie damals noch hieß, vorausgegangen, zu deren namhaftesten Exponenten Julius Robert Mayer (1814–1878), James Prescott Joule (1818–1889) und Hermann von Helmholtz (1821–1894) gehörten.
Zuvor muß noch Sadi Carnot (1796–1824) erwähnt werden, dessen Arbeit über den Kreisprozeß (1824) bereits wesentliche Aussagen des Ersten und des Zweiten Hauptsatzes der Wärmelehre enthält. Das wissenschaftliche und geistige Klima damals wurde auch beeinflußt durch die Verbreitung der Erkenntnis über verschiedene Umwandlungsprozesse, die Analyse der neu entstehenden Wärmemaschinen samt dem zugehörigen Begriff der Arbeit, das Bestreben der Naturphilosophie, alle Naturerscheinungen aus einem Grundprinzip heraus zu erklären, und schließlich auch Newtons Programm der Rückführung aller Phänomene auf die Bewegung und Wechselwirkung der Atome.
Wenn es nun zutraf, daß Wärme, mechanische Arbeit und andere physikalische Erscheinungen das Prinzip Energie gemeinsam hatten, dann lag es bei der damaligen Vorliebe für mechanische Erklärungen nahe, die mechanische Energie als die Grundform anzusehen, und es mußte dann nur konsequent erscheinen, die Wärme als kinetische Energie der Moleküle aufzufassen. Diesen Schritt vollzog noch Joule, als Experimentator verfügte er jedoch nicht über die für eine eigene Formulierung der zugehörigen Theorie erforderlichen Mittel.
Als eigentliche Neubegründer der kinetischen Theorie werden Rudolf Clausius (1822–1888) und James Clerk Maxwell (1831–1879) angesehen, als ihre klassischen Vollender Ludwig Boltzmann (1844–1906) und Josiah Willard Gibbs (1839–1903). Clausius’ erste Arbeit zur kinetischen Theorie erschien 1857, und seine Beiträge erstrecken sich über etwa zwanzig Jahre. Seine herausragenden Leistungen sind die Formulierung des Zweiten Hauptsatzes der Thermodynamik (1850), die Einführung des Begriffes der mittleren freien Weglänge (1858) und die Weiterführung der mechanischen Wärmetheorie auf der Grundlage des Begriffes der Entropie (1865). Durch die Einführung der mittleren freien Weglänge gelang es ihm, den Molekülen gewissermaßen physikalische Realität zu verleihen, da sie aufgrund der Wirkungssphäre, die er ihnen zuschrieb, auch untereinander zusammenstoßen konnten und nicht nur mit der Wand des Behälters. Mit Hilfe der Theorie der freien Weglänge war es möglich, die Koeffizienten vieler Transportphänomene recht genau vorherzusagen, und es gelang mit ihr auch, Einwände, die gegen die errechneten hohen Geschwindigkeiten der Moleküle erhoben wurden (z.B. die vergleichsweise langsame Ausbreitung von Gerüchen), teilweise zu entkräften. Daß das nicht vollständig gelang, lag daran, daß Clausius keine Möglichkeit zur Größenbestimmung der Wirkungssphären der Moleküle hatte.
Als eigentliche Neubegründer der kinetischen Theorie werden Rudolf Clausius (1822–1888) und James Clerk Maxwell (1831–1879) angesehen, als ihre klassischen Vollender Ludwig Boltzmann (1844–1906) und Josiah Willard Gibbs (1839–1903). Clausius’ erste Arbeit zur kinetischen Theorie erschien 1857, und seine Beiträge erstrecken sich über etwa zwanzig Jahre. Seine herausragenden Leistungen sind die Formulierung des Zweiten Hauptsatzes der Thermodynamik (1850), die Einführung des Begriffes der mittleren freien Weglänge (1858) und die Weiterführung der mechanischen Wärmetheorie auf der Grundlage des Begriffes der Entropie (1865). Durch die Einführung der mittleren freien Weglänge gelang es ihm, den Molekülen gewissermaßen physikalische Realität zu verleihen, da sie aufgrund der Wirkungssphäre, die er ihnen zuschrieb, auch untereinander zusammenstoßen konnten und nicht nur mit der Wand des Behälters. Mit Hilfe der Theorie der freien Weglänge war es möglich, die Koeffizienten vieler Transportphänomene recht genau vorherzusagen, und es gelang mit ihr auch, Einwande, die gegen die errechneten hohen Geschwindigkeiten der Moleküle erhoben wurden (z.B. die vergleichsweise langsame Ausbreitung von Gerüchen), teilweise zu entkräften. Daß das nicht vollständig gelang, lag daran, daß Clausius keine Möglichkeit zur Größenbestimmung der Wirkungssphären der Moleküle hatte.
Während Clausius seine Resultate aufgrund der Annahme gewisser Mittelwerte, z. B. der Geschwindigkeit der Gasmoleküle und ihrer freien Weglänge, herleitete, suchte und fand Maxwell als erster einen statistischen Zugang zur kinetischen Theorie und schuf so auch die Grundlage der modernen statistischen Mechanik (1859/60). Durch die mathematische Analyse eines Modells praktisch unendlich vieler völlig elastischer Teilchen, die nur durch Steöße miteinander wechselwirken, gelangte er zu der heute nach ihm benannten Geschwindigkeitsverteilung der Moleküle eines Gases. Damit konnte er nicht nur wie andere vor ihm die bekannten Relationen zwischen Druck, Volumen und Temperatur herleiten, sondern auch den Satz von Avogadro beweisen. Er gab eine Erklärung für die innere Reibung der Gase, fand, daß diese unabhängig vom Druck sein müsse und berechnete unter Zuhilfenahme experimenteller Ergebnisse die mittlere freie Weglänge eines Teilchens und damit die Wärmeleitung der Luft, in guter Übereinstimmung mit der Erfahrung.
Maxwell befaßte sich auch mit dem Problem der Verteilung der Energie auf die Freiheitsgrade der Bewegung. Ansätze dazu finden sich erstmals bei Waterston (1845), der die Verteilung der Energie auf die Moleküle unterschiedlichen Gewichts bei Gasgemischen darstellte. Clausius hatte dann gezeigt, daß das Verhältnis der Energie der Translation zu dem der Rotation konstant sein müsse, und Maxwell nun konnte keinen überzeugenden Grund dafür finden, daß diese beiden Anteile nicht gleich sein sollten. Damit aber geriet er in Widerspruch zu experimentellen Befunden über die spezifischen Wärmen und schloß daraus richtig, daß sein Modell vollkommen elastischer Teilchen die Wirklichkeit der Gasmoleküle nur unzureichend beschrieb.
Trotz vieler späterer Versuche blieb dieses Problem der Gleichverteilung der Energie auf die Freiheitsgrade der Bewegung bis zum Aufkommen der Quantenmechanik ungelöst – und dann stellte sich heraus (wie wir in Kapitel 13 über zweiatomige Moleküle zeigen werden), daß es mit den Mitteln der klassischen Physik gar nicht zu lösen war.
Maxwell erkannte, daß Transportphänomene mit dem Konzept der freien Weglänge im allgemeinen nicht befriedigend erklärt werden konnten, und stellte für ihre Behandlung ein System von Transportgleichungen auf (1867). In diese Gleichungen geht die Funktion der Geschwindigkeitsverteilung der Moleküle explizit ein, die damals jedoch nur in der besonderen Form der von Maxwell selbst angegebenen Gleichgewichtsverteilung bekannt war. Die allgemeine Lösung dieses Gleichungssystems wurde erst 1916 von Sydney Chapman (1888–1970) angegeben. Boltzmann formulierte für die Zeitabhängigkeit der Geschwindigkeitsverteilungsfunktion eine Integro-Differential-Gleichung (1872), die der Maxwellschen Formulierung der Transportphänomene äquivalent ist, für die er jedoch ebenfalls keine allgemeine Lösung angeben konnte. Das gelang erst 1917 David Enskog (1884–1947). Die Maxwell–Boltzmann–Chapman–Enskogsche Theorie ist die Vollendung der klassischen kinetischen Theorie der Gase geringer Dichte, und sie ist in ihren Grundlagen bis heute im wesentlichen unverändert geblieben. Damit reicht die Entwicklung der kinetischen Theorie bis weit in die Entstehungsphase der Quantentheorie hinein, und es ist ihr Verdienst, diese befruchtet zu haben, indem sie bis an die Grenzen ihrer Leistungsfähigkeit ausgeschöpft wurde.
Obwohl der Beitrag der kinetischen Gastheorie zur Anerkennung der Atomhypothese kaum überschätzt werden kann, wurde diese, wie fast alle großen Entwicklungen nicht nur aus einer Quelle gespeist, und es ist ein wesentliches Merkmal der Physik des 19. Jahrhunderts, daß viele Wissensgebiete zur Entstehung der modernen Atomtheorie beitrugen. Das soll im folgenden kurz dargestellt werden, doch zuvor sind noch einige Bemerkungen nachzutragen.
Der Name Boltzmann ist heute vor allem durch den nach ihm benannten Boltzmann-Faktor exp (−E/kT) bekannt, der die Wahrscheinlichkeit einer Konfiguration bei der Energie E und mit der Boltzmann-Konstanten k multiplizierten Temperatur T angibt. Er ist die Grundlage für alle Berechnungen der Gleichgewichtseigenschaften materieller Systeme vom molekularen Standpunkt. Boltzmann gewann ihn aus der Verallgemeinerung der Maxwell-Verteilung bei Anwesenheit molekularer Kräfte und äußerer Felder.
Im Gegensatz zu Boltzmanns Werk blieb das des fast gleichzeitig lebenden Willard Gibbs zu dessen Lebzeiten fast unbemerkt, obwohl es mindestens ebenso bedeutsam ist. Der besondere Wert der Gibbsschen Ensemble-Theorie besteht darin, daß diese Formulierung in gleichem Maß auf die Quantenmechanik angewendet werden kann wie auf die klassische Physik. Gibbs’ Bedeutung bis auf den heutigen Tag liegt auch in seinem Beitrag zur Theorie chemischer Gleichgewichte und Reaktionen, der ebenfalls auf seinem statistischen Werk fußt.
Trotz der unbestreitbaren Erfolge der kinetischen Theorie bei der Erklärung und quantitativen Beschreibung vieler Phänomene blieben einige Forscher skeptisch. Zu den namhaftesten unter ihnen gehörten Max Planck und die Positivisten Ernst Mach (1828–1916) und Wilhelm Ostwald (1853–1932). Während Planck einen Widerspruch zwischen der kinetischen Theorie und dem Zweiten Hauptsatz der Wärmelehre entdeckt zu haben glaubte und deswegen seinen Schüler Ernst Zermelo (1871–1953) einen Disput mit Boltzmann austragen ließ, taten Mach und Ostwald die Atome als „Gedankending“ ab, denen keine physikalische Realität zukame.
Die letzten Zweifel an der Richtigkeit der kinetischen Theorie und an der Existenz der Atome und Moleküle wurden erst ausgeräumt, als es mit Hilfe dieser Theorie Albert Einstein (1879–1955), Marian von Smoluchowski (1872–1915) und Jean Baptiste Perrin (1870–1942) gelang, die Brownsche Molekularbewegung zu erklären. Eine statistische Theorie dafür lieferten Einstein und Smoluchowski 1905 bzw. 1906 unabhängig voneinander. Diese Theorie beinhaltet insbesondere, daß die Gleichverteilung der Energie im thermischen Gleichgewicht auch für makroskopische Teilchen gilt. Perrin verifizierte diese Theorie im Jahre 1908 und bestimmte aufgrund vier verschiedener, unäbhangiger Messungen die Avogadro-Konstante NA.
Drei weitere, zunächst unabhängige Entdeckungen trugen ebenfalls zum Erfolg des Atommodells bei. Der erste war, daß Materie auch geladen auftreten kann. Michael Faraday (1791–1867) formulierte dazu
1833:das Elektrolytische Äquivalenzgesetz:
Ein Gramm-Mol Ionen führt eine bestimmte elektrische Ladung
(1.1)
oder ein ganzes Vielfaches davon mit sich. F heißt Faraday-Konstante.
Dieser Satz ist gewissermaßen eine Umkehrung des Gesetzes der multiplen Proportionen und mit der Annahme zu erklären, daß die Materie aus Atomen bzw. Molekülen besteht, von denen jedes als Ion im Elektrolyt ein Elementarquantum der elektrischen Ladung oder ein ganzzahliges Vielfaches davon trägt. Das Äquivalenzgesetz war somit nicht nur ein weiterer experimenteller Befund zur Unterstützung der Atomhypothese, sondern brachte darüberhinaus die Chemie mit den elektrischen Eigenschaften der Materie in Verbindung.
Ein eng damit zusammenhängender Erfahrungsbereich erschloß sich der Forschung in der Mitte des 19. Jahrhunderts mit der Untersuchung elektrischer Entladungen in Gasen. Bei derartigen Experimenten stellte erstmals Julius Plücker (1801–1868) fest, daß von den Kathoden der Entladungsröhren eine Art Strahlung ausgeht. So fällt in das Jahr
1859:die Entdeckung der Kathodenstrahlung,
die ihren Namen allerdings erst 1876 bekam: Eugen Goldstein (1850–1931) konnte sie hinter der durchbohrten Anode nachweisen und nahm ihren Ursprung daher in der Kathode an.
Goldstein beschrieb auch eine andere Art von Strahlen, die Kanalstrahlen genannt wurden, weil sie durch einen Kanal in der Kathode aus dem Reaktionsvolumen austraten:
1886:Entdeckung der Kanalstrahlen.
Es dauerte jedoch bis gegen Ende des Jahrhunderts, bis allgemein akzeptiert war, daß es sich bei beiden Strahlungsarten um Korpuskularstrahlung handelt, wobei die Kathodenstrahlen aus negativ geladenen Teilchen bestehen (so bewiesen 1895 von J.B. Perrin und 1897 von Joseph John Thomson, 1859–1940), die jedes ein Elementarquantum der elektrischen Ladung tragen. Für dieses Elementarquantum wurde 1894 von G. Johnstone Stoney (1826–1911) der Name Elektron (von griechisch ηλεκτρoν: Bernstein) vorgeschlagen. Die Kanalstrahlen dagegen bestehen aus wesentlich schwereren Teilchen (Ionen), die eine oder mehrere positive Elementarladungen tragen.
Ebenfalls bei Untersuchungen von Gasentladungen fanden Philipp Lenard (1862–1947) und Wilhelm Conrad Röntgen (1845–1923) schließlich eine Strahlung, die beim Auftreffen schneller Elekronen auf Glaswände entsteht:
1895:Entdeckung der Röntgen-Strahlen.
Daß es sich bei ihr um elektromagnetische Strahlung handelt, wurde jedoch nur von Röntgen erkannt (1895). Die Ergebnisse der Spektroskopie der Röntgenstrahlung hatten eine besondere Bedeutung für den Konsistenzbeweis des Atom-Modells.
Ein besonders wichtiger Zweig experimenteller Forschung wurde von Gustav Robert Kirchhoff (1824–1887) und Robert Wilhelm Bunsen (1811–1899) eröffnet. Sie entdeckten
1859:die Spektralanalyse: Chemische Elemente und ihre Verbindungen lassen sich eindeutig aus ihren optischen Spektren identifizieren.
Daraus mußte gefolgert werden, daß die elektromagnetischen Spektren das Geheimnis des Atombaues enthalten. Das Ziel der Spektroskopie war es folglich, diese Botschaft zu entschlüsseln.
Mit dieser Einsicht war erneut ein enger Bezug zur Chemie hergestellt. Die Verflechtung mit der Chemie setzte sich fort mit der Aufstellung des Periodensystems der chemischen Elemente durch Dimitri Iwanowitsch Mendelejew (1834–1907) und Julius Lothar Meyer (1830–1895):
1869:Periodensystem der chemischen Elemente.
Es erfuhr seine vollstandige Erklärung allerdings erst durch die Entwicklung des heutigen Atom-Modells und der Quantenmechanik.
Die intensive experimentelle Erforschung der optischen Spektren in zahlreichen Laboratorien beherrschte in der zweiten Hälfte des 19. Jahrhunderts die physikalische Forschung, wobei die Klassifikation nach spektroskopischen Merkmalen eine große Bedeutung hatte (Walter Ritz, 1878–1909, Johannes Robert Rydberg, 1859–1917, Heinrich Rubens, 1865–1922, Otto Lummer, 1860–1925, Ernst Pringsheim, 1859–1917). Einen wichtigen ersten Schritt dabei machte Johann Jakob Balmer (1825–1898) mit der nach ihm benannten Formel, die das Spektrum des Wasserstoffatoms zu klassifizieren erlaubte:
1885:Balmer-Formelfur das Wasserstoffspektrum.
Mit ihr begann der Siegeszug der modernen Atomphysik, der schließlich zur Aufklärung der Atomstruktur führte.
Die exakten Untersuchungen des Spektrums des Hohlraumstrahlers durch Lummer, Pringsheim und Rubens veranlagten Planck, die Formel für dieses Spektrum herzuleiten. Grundlegend neu war dabei der Gedanke einer Quantelung der Energie:
1900:Plancksche Quantenhypothese: Der Austausch von Energie zwischen dem elektromagnetischen Strahlungsfeld und der Materie erfolgt in Quanten der Größe hv (h: Planck-Konstante, v: Frequenz).
Antoine Henri Becquerel (1852–1908) trug ein weiteres, für das spatere Atom-Modell Bohrs wesentliches Faktum bei:
1896:Entdeckung der Radioaktivität.
Die Radioaktivität wurde als Elementtransmutation erkannt. Obwohl zu jenem Zeitpunkt ihre Ursache nicht bekannt war, stellte sich bald aufgrund der Untersuchungen von Ernest Rutherford (1871–1937) und seiner Mitarbeiter Hans Geiger (1882–1945) und Ernest Marsden (1889–1970) heraus, daß es im Inneren des Atoms einen zentralen Bereich gibt, den Atomkern, der eine positive Ladung und fast die ganze Masse des Atoms trägt:
1911:Rutherfords Kernmodell des Atoms:
Das Atom besteht aus einem positiv geladenen Kern mit einem Radius von etwa 10–15 m, in dem fast seine ganze Masse konzentriert ist, und einer Hülle aus Elekronen mit einem Radius von etwa 10–10 m.
Eine Synthese aus den vorgenannten Entdeckungen gelang Niels Bohr (1885–1962) mit der Aufstellung seines Atom-Modells:
1913:Bohrsche Resultate zum Atom-Modell:
(1.2)
Die Übereinstimmung mit vielen experimentellem Fakten und die intensive theoretische Begründung und Erweiterung des Modells durch Arnold Sommerfeld (1868–1951), stützten die Atomhypothese Bohrs. Die Existenz diskreter Energieniveaus bewiesen James Franck (1882–1964) und Gustav Hertz (1887–1975):
1914:Franck–Hertz-Versuch: Nachweis der Existenz von inneren Atomzuständen und der Aussendung monochromatischer Strahlung bei Zustandsänderungen.
Mit der auf dem Bohr-Sommerfeldschen Atom-Modell fußenden Alten Quantentheorie fand die Entwicklung ihr vorläufiges Ende, und es zeigte sich, daß sie in einer Sackgasse gelandet war. Wir werden die Alte Quantentheorie in diesem Buch daher nicht weiter darstellen und uns stattdessen den Grundlagen der nunmehr als richtig erkannten neuen Theorie sowie deren experimentellem Fundament zuwenden.
1unbeschadet einer möglichen Existenz von Tachyonen
1Eines davon lieferte die Wärmestrahlung, die ja etwas transportieren mußte, wenn sie ein materiefreies Vakuum durchqueren konnte.
Es ist ein charakteristisches Merkmal der atomaren und der subatomaren Physik, daß in ihren Bereichen ein Zustand als völlig bestimmt gilt, wenn für alle gleichzeitig meßbaren Größen die relativen Wahrscheinlichkeiten aller möglichen Werte, d. h. aller Werte, die diese Größen überhaupt annehmen können, bekannt sind. Dagegen verlangt die klassische Physik für die Definition eines Zustandes die Angabe der tatsächlichen Werte aller gleichzeitig meßbaren Größen. Die atomphysikalische Definition umfaßt hiernach die klassische, denn sie ist dann mit ihr identisch, wenn für jede Größe ein einziger Wert mit Gewißheit bekannt ist.
Der Begriff der Wahrscheinlichkeit eines Wertes impliziert, daß nicht individuelle Gegenstände oder Beobachtungen Objekte der Untersuchung sind, sondern gewisse Mengen oder Gesamtheiten, über die in geeigneter Weise gemittelt wird. Das kommt in der Bezeichnung „Mittelwert“ deutlich zum Ausdruck; ein Mittelwert ergibt sich dann, wenn alle möglichen (d. h. in Betracht kommenden) Werte nach ihrer Wahrscheinlichkeit gewichtet und dann addiert werden.
Weil in der Atomphysik ein Zustand im allgemeinen nur mit Hilfe von Wahrscheinlichkeiten definiert werden kann, ist es wichtig, sich klarzumachen, daß, wenn z. B. von einer bestimmten Messung am Wasserstoffatom die Rede ist, dieser Aussage immer eine Vielzahl von Einzelbeobachtungen zugrunde liegt. Sowohl wegen der hierauf beruhenden zentralen Bedeutung des Begriffs der Wahrscheinlichkeit für die Atomphysik als auch zur Illustration der Mächtigkeit des aus der kinetischen Theorie hervorgegangenen Instruments der statistischen Physik wollen wir uns in diesem Kapitel mit einigen Anwendungen ihrer Methoden befassen. Beginnend mit einem einfachen Modell der Gaskinetik, gelangen wir über eine knappe Darstellung einiger allgemeiner statistischer Aussagen und Begriffe sowie deren Anwendung auf die Herleitung der Maxwell–Boltzmann-Verteilung schließlich zur Statistik eines Photonengases.
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!