Der Traum von der Klimarettung - Der Albtraum von der Energiewende - Eberhard Därr - E-Book

Der Traum von der Klimarettung - Der Albtraum von der Energiewende E-Book

Eberhard Därr

0,0

Beschreibung

Zum Inhalt der 2. Ausgabe 2024: Das alles beherrschende Thema in der deutschen Öffentlichkeit ist der Kli-mawandel. Um ihn aufzuhalten, hat die Politik ein offenbar unverhandel-bares Ziel gesetzt: Deutschlands Klimaneutralität ab dem Jahr 2045. Der Autor, promovierter Naturwissenschaftler und viele Jahre in Industrieun-ternehmen in Sachen Nachhaltigkeit und Umweltschutz engagiert, geht in dem vorliegenden Buch der Frage nach, ob dieses Ziel erreichbar ist oder eine Vision, ein unerfüllbarer Traum bleiben wird. In diesem Buch analysiert der Autor - was über die Ursachen, das Ausmaß und die Folgen des Klimawandels bekannt ist, was Fakt, was Fiktion und was Spekulation ist, - welche Alternativen zu fossilen Brennstoffen denkbar sind, - wie realistisch die Umstellung der Energiewirtschaft, der Industrie und der gesamten Gesellschaft auf alternative Energiequellen ist, - welche Herausforderungen, Risiken und Nebenwirkungen mit einer durchweg "grünen" Energieversorgung verbunden sind, - und warum die Energiewende unter den aktuellen, globalen ökono-mischen Bedingungen zum Albtraum werden könnte. Das Buch liefert eine Fülle von Informationen zum Klimawandel und zu den Möglichkeiten, diesem zu begegnen. Es versetzt den Leser damit in die Lage, sich ein eigenständiges Bild davon zu machen, ob die Rettung des Klimas Aussicht auf Erfolg haben wird.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 573

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Titelbild: Gletscherschwund im Tal der Pasterze am Großglockner

(zu Abschnitt 4.1)

Der Autor:

Eberhard Därr ist promovierter Chemiker und Biologe. In den 1980er Jahren hat sich unter anderem mit den Potentialen numerischer Computermodelle bei der kernresonanzspektroskopischen Strukturermittlung chemischer Verbindungen befasst.

Später hat er unterschiedliche leitende Funktionen in der Konsumgüter- und Pharmaindustrie übernommen. Schwerpunkte seiner Tätigkeit lagen in der nachhaltigen und umweltkonformen Produkt- und Prozessentwicklung, im Qualitäts- und im Umweltmanagement sowie in der Entwicklung und Validierung klinischer Software. Die Sicherstellung der Umweltverträglichkeit und der Nachhaltigkeit industrieller Prozesse haben seinen gesamten Berufsweg begleitet und geprägt.

Seit dem Eintritt in den Ruhestand verfasst Eberhard Därr als freischaffender Autor gelegentlich Beiträge zu aktuellen naturwissenschaftlichen Themen.

Der Traum von der Klimarettung

Der Albtraum von der Energiewende

Die Vorrede zur 2. Ausgabe

Der Klimawandel hat sich in den letzten Jahren in Deutschland zum alles beherrschenden Thema entwickelt. Wenn man die deutschen, vor allem die öffentlich-rechtlichen Medien verfolgt, dann drängt sich der Eindruck auf, dass deren vordringliche Aufgabe inzwischen ist, im Minutentakt vor dem unmittelbar bevorstehenden Weltuntergang, vor der Klimakatastrophe zu warnen.

Diese mediale Dauerpräsenz zeigt Wirkung. Nicht nur Wissenschaftler, sondern auch die Politik, zahllose Klimaaktivisten und mit ihnen die breite Öffentlichkeit scheinen überzeugt, dass der Klimawandel jetzt und sofort mit allen zur Verfügung stehenden Mitteln bekämpft werden müsse, weil sich nur so die Welt wird retten lassen. Dieser Mainstream-Konsens fußt auf einer Reihe von Annahmen:

Der Klimawandel findet statt.

Die den Klimawandel auslösende Erderwärmung wird maßgeblich von den CO

2

-Emissionen der Menschheit verursacht.

Die Erderwärmung wird in eine globale Klimakatastrophe führen.

Sie lässt sich verlangsamen oder auch rückgängig machen, indem die Menschheit kein CO

2

mehr produziert.

Jetzt muss alles getan werden, um den Klimawandel zu stoppen.

Die Menschheit wird in der Lage und willens sein, ihre CO

2

-Emissionen zurückzufahren.

Klimaschützer und die meisten Klimaforscher erachten die vorgenannten Hypothesen als erwiesen. Ihnen gegenüber steht eine Reihe unerschrockener Klimaskeptiker, welche die vorgenannten Überzeugungen in ihrer unreflektierten Unumstößlichkeit nicht teilen. Diese Skeptiker werden gern als Klimaleugner diffamiert. Von ihnen hört man inzwischen kaum noch etwas. Ob sie sich haben überzeugen lassen, ob sie mundtot gemacht wurden oder ob sie schlicht ignoriert werden, will ich nicht beurteilen.

Unsere Medien und die Lobby der Klimaschützer haben sich die Aussage zu eigen gemacht, dass 97 % der Wissenschaftler den menschengemachten Klimawandel für erwiesen erachten. Aber eine Mehrheitsmeinung ist kein Garant für die Richtigkeit einer Hypothese. Wissenschaftliche Erkenntnis entsteht nicht durch Mehrheitsbeschluss. Auch in der Wissenschaft haben sich viele klare Mehrheitsmeinungen später als Irrtümer entpuppt. Als man beispielsweise im Altertum erkannte, dass die beobachteten Bewegungen der Planeten im Widerspruch zu der Hypothese standen, dass sie sich auf Kreisbahnen um die Erde bewegten, erfand Claudius Ptolemäus die Epizykel, und rettete damit die Idee von den Kreisen. Der Glaube daran hielt sich fast 2.000 Jahr lang unter den Astronomen, Koryphäen wie Tycho Brahe und Nikolaus Kopernikus eingeschlossen. Erst Johannes Kepler und später Isaac Newton haben die Sache einigermaßen richtiggestellt. Bis Albert Einstein auch deren Ideen wieder korrigierte. Aber selbst dessen Gravitationstheorie passt nicht zu einer Reihe evidenter physikalischer Befunde. Um den Widerspruch zu umgehen, haben die Wissenschaftler kurzerhand die Dunkle Materie und die Dunkle Energie erfunden. Seit nun schon einem Jahrhundert wartet die Wissenschaft vergeblich darauf, dass in dieser Angelegenheit buchstäblich Licht ins Dunkel kommt. Noch weiß niemand, ob sich diese dunklen Dinge am Ende nicht als moderne Epizykel erweisen werden.

Es gibt zahlreiche andere Beispiele für wissenschaftliche Theorien, die jeweils schon nach nur wenigen Jahrhunderten ad absurdum geführt worden sind; Äthertheorie und Phlogiston sind die wohl bekanntesten Sackgassen der Forschung. Und immer waren mindestens 97 % der Experten ihrer Zeit von der Richtigkeit dieser Theorien überzeugt. Aber heute sind wir ja schlauer, heute passieren uns solche Irrtümer nicht mehr.

Wissenschaftliche Dispute haben einen Grundkonsens: Man respektiert die Hypothesen von Andersdenkenden, solange diese nicht eindeutig falsifiziert sind. Sie könnten nämlich richtig sein. Und selbst falls jemand wieder einmal bewiesen haben will, die Kernfusion funktioniere im Reagenzglas, oder mit dem neuen Katalysator könne man Kohlendioxid fast ohne Energiezufuhr wieder zu Kohle machen, so wird dem ein seriöser Wissenschaftler je nach Mentalität amüsiert, achselzuckend oder auch leicht genervt, in jedem Fall aber sachlich begegnen. Entsprechend muss man tolerieren, wenn jemand der augenblicklichen Mainstream-Meinung zum Klimawandel nicht folgen mag. Auch der könnte damit richtigliegen.

Tatsächlich ist der Klimawandel längst von einer naturwissenschaftlichen Frage zu einem Politikum mit den dafür typischen, auch politischen Schwarz-Weiß-Malereien geworden. Das ist eine fragwürdige Entwicklung. Wann immer sich die gesellschaftlichen Machthaber, Kleriker oder gar Politiker im Laufe der Geschichte in die Wissenschaft eingemischt haben, war das verheerend; zumindest für die Wissenschaftler, die man entweder widerrufen ließ oder lieber gleich verbrannt hat. Noch verheerender wurde es immer dann, wenn sich Wissenschaftler für politische Ziele einspannen ließen. Wie für den Bau von Atombomben, der dann wenig später zur angeblichen Überraschung derselben Wissenschaftler zum Massenmord an der Zivilbevölkerung Japans führte.

Als Naturwissenschaftler bin ich notorisch skeptisch. Ich bin gewohnt, wissenschaftliche Thesen zu hinterfragen. Das gilt umso mehr, wenn die Medien sich der jüngsten Erkenntnisse der Forschung annehmen. Denn die korrekte und objektive Aufbereitung wissenschaftlicher Sachverhalte ist eine Herausforderung, der viele Medienschaffende augenscheinlich nicht gewachsen sind. Nicht zuletzt deswegen hat sich in der Öffentlichkeit inzwischen ein (Schreckens-) Bild vom Klimawandel etabliert, das aus wissenschaftlicher Sicht zumindest in Teilen fraglich erscheint.

Ich habe versucht, den offensichtlichen Missverständnissen, den Merkwürdigkeiten und den Widersprüchlichkeiten in diesem Bild auf den Grund zu gehen: Was ist dran an den Aussagen der Klimaforscher, was sind mediale Verfälschungen, was sind zweifelhafte Forschungsergebnisse und was kann als gesicherte oder wenigstens plausible Erkenntnisse gelten? Und inwieweit können daraus zielführende Maßnahmen zum Klimaschutz abgeleitet werden? Aus diesen Überlegungen ist dieses Buch entstanden. Es dreht sich um die Frage, wie groß der Beitrag des Menschen zum Klimawandel und dessen Folgen sein kann, und wie realistisch es ist, die Erderwärmung aufzuhalten. Mit diesem Buch möchte ich in erster Linie den Blick dafür öffnen, dass sich die Sache mit dem Klimawandel und seiner Bekämpfung auch ganz anders darstellen könnte, als es Klimaaktivisten, Politiker und vor allem die der Meinungsmacher unserer Gesellschaft zu wissen glauben.

Ich kann auf eine lange wissenschaftliche und industrielle Laufbahn und folglich auf eine lange Reihe persönlicher Irrtümer, Fehler und Fehleinschätzungen zurückblicken. Mir wohlgesonnene Menschen loben das als meine Erfahrung. Das Buch erhebt gerade wegen dieser Erfahrungen nicht den Anspruch, eine fehlerfreie naturwissenschaftliche Schrift zu sein. Denn auch ich werde mit meinen Darstellungen an der ein oder anderen Stelle irren. Falschzuliegen ist das Risiko, wenn man eine eigene Meinung hat.

Eberhard Därr

Köln, im November 2023

Inhalt

Die Vorrede zur 2. Ausgabe

1 Der Klimawandel und die Politik

1.1 Wie der Klimawandel zum Politikum wurde

1.2 Energiepolitik im Wandel der Zeit

2 Die Atmosphäre und ihre Klimageschichte

2.1 Mut zur Lücke: der Mangel an Messdaten

2.2 Die gemessene Erderwärmung

2.3 Das große Unbekannte: das Klima

2.3.1 Klimaproxys

2.3.2 Die Schlüsselbegriffe des Klimawandels

2.3.3 Die globale Oberflächentemperatur und die globale Erwärmung

2.4 Die Atmosphäre im Wandel

2.4.1 Der atmosphärische Sauerstoff

2.4.2 Der natürliche, fragile Kohlenstoffkreislauf

2.4.3 Gashydrate als Kohlenstoffsenke

2.4.4 Gleichgewichtsstörungen – die Vernichtung von Biomasse

2.5 Die Klimageschichte der Erde

2.5.1 Die Milanković-Zyklen

2.5.2 Eisbohrkerne – das Klimaarchiv

2.5.3 Was ist normal?

2.5.4 Das Klima der jüngeren Vergangenheit

2.5.5 Die messbare Klimasensitivität des CO

2

2.5.6 Klimaunterschiede: Antarktis und Grönland

2.5.7 Methan

2.6 Die Schlussfolgerungen aus der Klimageschichte

3 Der Treibhauseffekt – die Physik und die Modelle

3.1 Die physikalischen Grundlagen

3.1.1 Die Strahlung bei Festkörpern: Stefan, Boltzmann und Planck

3.1.2 Die Infrarot-Absorption der Treibhausgase

3.1.3 Die Messung der Infrarot-Absorption

3.1.4 Warum absorbieren Sauerstoff und Stickstoff kein Infrarotlicht?

3.2 Physikalische Komplikationen

3.2.1 Nicht dasselbe: Gase und plancksche Strahler

3.2.2 Die Entkopplung von Absorption und Emission

3.2.3 Die Totalabsorption

3.2.4 Die Sonne und die theoretischen Oberflächentemperaturen

3.3 Der Treibhauseffekt und die Gegenstrahlung

3.3.1 Den Treibhauseffekt einfach messen?

3.3.2 Die Gegenstrahlung empirisch mit Ångström

3.3.3 Ein einfaches Strahlungstransport-Modell

3.3.4 Luftfeuchte und Treibhauseffekt

3.3.5 Ein Fazit zur Physik des Treibhauseffekts

3.4 Klimamodelle – was sie uns erzählen und was nicht

3.4.1 Grundsätzliches zu Modellen

3.4.2 Das Strahlungsmodell

KT97

3.4.3 Klimamodelle – einfach komplex oder nur undurchschaubar?

3.4.4 Ähnlich, aber nicht gleich: Klima- und Wettervorhersagen

3.4.5 Kann man den Klimamodellen (ver)trauen?

3.4.6 Tuning – der Spagat zwischen Verbesserung und Manipulation

3.5 Das Fazit zu den Klimamodellen

4 Der Klimawandel und die Folgen

4.1 Schwindende Gletscher

4.1.1 Ursachen des Gletscherschwunds

4.1.2 Die Auswirkungen des Gletscherschwunds

4.1.3 Fazit zum Gletscherschwund

4.2 Der steigende Meeresspiegel

4.2.2 Fazit zum Anstieg des Meeresspiegels

4.3 Die Versauerung der Meere

4.4 Veränderungen von Meeresströmungen

4.4.1 Die aufschreckende These: der Golfstrom versiegt

4.4.2 Der Golfstrom und die AMOC

4.4.3 Der Motor der Meeresströmungen

4.4.4 Das Schwächeln der AMOC – ausgerechnet

4.4.5 Das Schwächeln der AMOC - ausgemessen

4.4.6 El Niño – vom Klimawandel unbeeindruckt

4.4.7 Fazit zu den Ozeanen

4.5 Das veränderte Wetter

4.5.1 Veränderungen der globalen Niederschläge

4.5.2 Extremwetterlagen

4.5.3 Fazit zur Wetterlage

4.6 Land und Forstwirtschaft, Fauna und Flora

4.6.1 Landwirtschaft

4.6.2 Forstwirtschaft

4.6.3 Wüsten, Halbwüsten und Steppen

4.6.4 Fauna und Flora im Klimawandel

4.6.5 Neubürger mit Migrationshintergrund

4.7 Methan–Freisetzung als Klimafolge

4.8 Steigende Versicherungsschäden

4.9 Fazit zum Klimawandel und seinen Folgen

5 Die Klimarettung

5.1 Der Rahmen

5.1.1 Energieverbrauch, Wirkungsgrad und andere Missverständnisse

5.1.2 Die Mengenbilanz des anthropogenen CO

2

5.1.3 Der Stand der Dinge beim Energiebedarf

5.1.4 Die Stromversorgung ist sicher!?

5.1.5 Energie sparen, ohne Energie zu sparen

5.2 Die Vor- und Nachteile alternativer Energieträger

5.2.1 Erdgas

5.2.2 Wasserstoff

5.2.3 Wasserstoff und synthetische Brennstoffe

5.2.4 Metallhydride

5.2.5 Ammoniak

5.2.6 Mythos Brennstoffzelle

5.2.7 Batterien (Akkus)

5.3 Potentiale der erneuerbaren Energien

5.3.1 Windkraft

5.3.2 Photovoltaik

5.3.3 Solarthermie

5.3.4 Biomasse

5.3.5 Wasserkraft

5.3.6 Geothermie

5.3.7 Umweltwärme

5.3.8 Kernenergie – eine Wiederauferstehung?

5.4 Die Reduzierung der Treibhausgas-Emissionen

5.4.1 CO

2

-Vermeidung im Verkehr

5.4.2 CO

2

-Vermeidung in der Industrie

5.4.3 CO

2

-Vermeidung bei der Versorgung mit Fernwärme

5.4.4 CO

2

-Vermeidung in Haushalt und Gewerbe

5.4.5 CO

2

- und Treibhausgasvermeidung in der Landwirtschaft?

5.4.6 Das CO

2

wieder einfangen?

5.4.7 Biomasse als Kohlenstoffspeicher!?

5.4.8 Der Energiebedarf in der klimaneutralen Zukunft

5.5 Die Stromerzeugung aus erneuerbaren Energien

5.5.1 Die Volatilität der erneuerbaren Energien

5.5.2 Szenario 1: Stromerzeugung aus eigener Kraft

5.5.3 Szenario 2: Energieimport statt Speicherung

5.5.4 Szenario 3: Der Kohleausstieg bis 2030

5.5.5 Untaugliche und völlig untaugliche alternative Energiequellen

5.6 Die CO

2

-neutrale Zukunft – nur eine Utopie?

6 Die Energiewende

6.1 Transformationskosten

6.2 Subventionen

6.3 Die Finanzierung: was geht und was geht nicht?

6.4 Unerwünschte Nebenwirkungen der CO

2

-Bepreisung

6.5 Die Absage an energieintensive Industrien

6.6 Worauf man so alles verzichten kann

6.7 Politische Risiken und Nebenwirkungen

6.8 Die Zukunft der Energiewende

7 Zum Schluss

7.1 Es geht nicht ums Klima: Es geht um alles.

7.2 Die weiteren Aussichten

8 Quellenverzeichnis

Für S.

Ich gebe zu, dass ich irren kann, dass du Recht haben kannst, und dass wir beide vielleicht der Wahrheit auf die Spur kommen werden.

Karl Popper

1 Der Klimawandel und die Politik

1.1 Wie der Klimawandel zum Politikum wurde

Kohle und Erdöl wurden nachweislich schon im frühen Mittelalter sporadisch als Brennstoff verwendet. Marco Polo traf auf seinen Reisen in Aserbaidschan dann bereits auf einen regen Handel mit Petroleum. Aber erst in den letzten 250 Jahren entwickelten sich Kohle, Erdöl und Erdgas zu den universellen und offenbar unersetzbaren Energielieferanten, als die wir sie heute empfinden. Genaugenommen beruht unsere ganze moderne Gesellschaftsentwicklung, unser ganzer technischer Fortschritt seit dem ausgehenden 18. Jahrhundert auf der Nutzung dieser fossilen Energieträger.

Bei deren Verwendung entsteht zwangsläufig und unabwendbar Kohlendioxid, CO2. Seitdem Menschen angefangen haben, fossile Brennstoffe im großen Stil zu verheizen, reicherte sich CO2 in der Atmosphäre an. CO2 ist ein infrarot-aktives Gas. Es wirkt deswegen in der Atmosphäre wärmedämmend. Diese Wirkung wird im Volksmund – pauschal, populistisch und außerdem physikalisch falsch – als Treibhauseffekt bezeichnet. Der wärmedämmende Effekt des atmosphärischen CO2 ist als solcher unter Wissenschaftlern unumstritten. Umstritten ist aber seit jeher, wie groß dieser Effekt auf das globale Klima ist. Einer der Ersten, der das auszurechnen versucht hat, war Svante Arrhenius (1). Er hat schon vor 125 Jahren die damals bekannten Strahlungsgesetze, einige andere physikalische Grundprinzipien und die Vorarbeiten etlicher Kollegen genutzt und erstmalig die durchschnittlichen Oberflächentemperaturen in Abhängigkeit vom CO2-Gehalt der Atmosphäre berechnet, oder besser gesagt: abgeschätzt.

Abgeschätzt sage ich, weil sich aus prinzipiellen Gründen eine CO2-abhängige Erderwärmung nicht so ohne weiteres exakt errechnen lässt, auch nicht mit Supercomputern. Anders als viele Klimaforscher es suggerieren, konnte sich die Wissenschaft bis heute nicht abschließend auf die Größe der sogenannten Klimasensitivität des CO2 einigen. Selbst für diese wichtigste Kennzahl, die angibt, bei welcher Erhöhung des CO2-Gehalts der Atmosphäre welche globale Erwärmung zu erwarten ist, gibt es bis heute nur Schätzwerte mit einer sehr weiten Bandbreite.

Von der Klimasensitivität des CO2 über die Abschätzung der globalen Temperaturänderung bis hin zu einer Vorhersage des zukünftigen Klimas ist es ein weiter Weg. Die Atmosphäre ist ein überaus komplexes und über weite Strecken chaotisches, zufallsbestimmtes System. Eine wie auch immer definierte Durchschnittstemperatur ist nicht nur die Ursache für das Wetter, sondern sie ist gleichzeitig die Folge des Wettergeschehens. Das langfristige Wetter und dessen Bandbreite ist aber das, was das Klima ausmacht. Arrhenius konnte seinerzeit aus der von ihm errechneten Temperaturänderung weder auf das Wetter noch auf das Klima schließen. So war er der Meinung, dass die von ihm errechnete Erwärmung für die Menschheit segensreich sein müsse. Von Wetterextremen und Dürren war bei Arrhenius nie die Rede.

Bei der Bekämpfung des Klimawandels geht es in erster Linie um die Verringerung der CO2-Emissionen. Es geht darum, welche Energieträger mittelfristig für eine Nutzung durch die Menschen in Frage kommen. Es geht um die sogenannte Energiewende, weg von fossilen, hin – oder genaugenommen: zurück zu sogenannten erneuerbaren Energieträgern. Denn Jahrtausende lang ist der Mensch mit erneuerbarer Energie ausgekommen. Er hat Holz und Torf verheizt, er hat Wind- und Wassermühlen betrieben, er ist mit Segelschiffen gereist. Im Laufe der Zeit reichte das nicht mehr aus. Mitteleuropa und die Britischen Inseln waren am Ausgang des Mittelalters faktisch entwaldet; in den heutigen Niederlanden waren die Moore ausgebeutet, überflutet und zu Seen geworden. Glücklicherweise fand man einen Ersatz. Der Mensch fing an, in großem Stil fossile Brennstoffe zu nutzen: zunächst nur Kohle, dann mehr und mehr Erdöl und Erdgas; und zuletzt kam die Atomenergie hinzu. Parallel dazu hat unsere Gesellschaft den Sprung von der vorindustriellen Zeit in die technische Neuzeit geschafft. Die Nutzung fossiler Energieträger war das Erfolgsmodell, was uns in unser so angenehmes digitales Zeitalter versetzt hat.

Der Erfolg hatte aber von Anfang an einen Haken. Den Menschen wurde sehr schnell bewusst, dass die Vorräte an fossilen Brennstoffen wie alle anderen irdischen Ressourcen endlich sind. In den 1970er Jahren wurde zudem eine fortschreitende Umweltzerstörung unübersehbar. Sie rückte mehr und mehr in das Bewusstsein der Menschen. Diese und das explosive Bevölkerungswachstum waren die größten Sorgen, als die Ölkrise und der Club of Rome mit seiner Studie Die Grenzen des Wachstums (2) die Schlagzeilen beherrschten. In dieser Zeit entstanden auch die dystopischen cineastischen Zukunftsvisionen wie Lautlos im Weltraum (3) oder Soylent Green (4). Kurz darauf, im Jahr 1977, veranlasste die amerikanische Regierung das US-Außenministerium zu einer umfassenden Umweltstudie namens Global 2000 (5).

Die Studien und die Filme hatten die gleiche Botschaft: Wenn die Menschheit so weitermacht wie bisher und sich ungehemmt der irdischen Ressourcen bedient, bricht die ganze Sache früher oder später zusammen. Die Studien verorteten den Zeitpunkt des Zusammenbruchs um die Jahrtausendwende herum. Über diesen Zeitpunkt darf man schmunzeln: Schon anlässlich der vorangegangenen Jahrtausendwende hatten die Experten des Mittelalters den Weltuntergang prophezeit. Glücklicherweise irrten sich wieder einmal alle, sowohl die Studien als auch die Visionäre der Filmkunst, genauso wie zuvor schon die Propheten des Mittelalters oder die Interpreten des Maya-Kalenders: Die Welt ist nicht untergegangen. Noch nicht.

Die Global 2000-Studie und die Weissagungen des Club of Rome beruhten auf sogenannten Weltmodellen. Diese hochtrabende Bezeichnung hat sich bis heute gehalten: auch die aktuelle Klimaforschung glaubt an ein Earth Model. Nach meiner Erinnerung hat der Club of Rome seinerzeit über das Klima nichts verlauten lassen; es gehört demnach nicht zur Welt. In der Studie Global 2000 tauchte es dann aber auf. Sie stellte unter anderem die Frage, ob und inwieweit sich das Klima bis zum Jahre 2000 ändern könnte. Die Studie bezog sich dabei auf eine Messreihe der amerikanischen National Oceanic and Atmospheric Administration NOAA zur globalen Temperatur. Demnach war diese zwischen dem Äquator und 80° nördlicher Breite zwischen 1884 und 1945 um etwa 0,5 K gestiegen, war dann aber bis 1970 wieder um gut 0,2 K gefallen. Die Frage war, welcher Trend setzt sich fort: der Anstieg oder das Absinken, oder bleibt alles, wie es ist?

Bei der Beantwortung dieser Frage standen die Studieninitiatoren dann vor einem Problem. Es zeigte sich nämlich, wenig überraschend, dass es keine validen Methoden gab, das zukünftige Klima vorauszusagen. Also befragte man 24 Meteorologen und Wissenschaftler verwandter Fachrichtungen aus sieben Ländern, ob sie sich in dieser Sache für kompetent hielten. Als diese das bejahten, hakte man nach, wie sie denn die weitere Temperaturentwicklung bis zum Jahr 2000 einschätzten.

Wie nicht anders zu erwarten, gingen die Meinungen der Experten darüber weit auseinander. Einige nahmen an, die Temperatur ginge wieder auf den Wert von 1884 zurück, andere prognostizierten einen Anstieg um mehr als ein Kelvin. Parallel dazu wurden diverse Szenarien mit mehr oder weniger veränderten Niederschlagsmengen und -verteilungen skizziert. Und es wurden auch unterschiedliche Annahmen bezüglich der Klimawirksamkeit von CO2, FCKWs, Aerosolen, Vulkanausgasungen und sonstigem Dreck in der Atmosphäre getroffen. Validiert wurde das Ganze, indem andere Berater die Ergebnisse diskutierten und dabei dasjenige Szenario verwarfen, welches die größte Abkühlung versprach. Sie können dieses skurrile Verfahren auf den Seiten 1055 ff in der deutschen Übersetzung des Reports (5) nachlesen. Im Bericht findet man dann auch die bemerkenswerte Aussage, dass dessen Ergebnisse die persönliche Meinung der Befragten darstellen. Man kann es treffender so sagen: Die Studie war keine wissenschaftliche Analyse, sondern gemeinschaftliche Kaffeesatzdeuterei. Sie war pure Spekulation.

In der breiten Öffentlichkeit fand eine Klimadiskussion zu diesem Zeitpunkt nicht statt. Wir erinnern uns: in den Siebzigern beherrschten bei uns der Kalte Krieg, die atomare Nachrüstung, die Anti-Atom-Bewegung und die Rote-Armee-Fraktion die Schlagzeilen. In den Achtzigern kamen die Perestroika, die – inzwischen beendete – Pause in der Ost-West-Konfrontation, der Zusammenbruch der DDR und dann die deutsche Wiedervereinigung. Der Öko-Bauer Baldur Springmann wurde zum Vorbild für den ökologischen Landbau, im Bundestag wurde schon mal gehäkelt, gegen AIDS musste gekämpft werden, Vegetarier und Homosexualität wurden salonfähig; Klima aber fand nicht statt.

Es blieb daher von der Öffentlichkeit weitgehend unbemerkt, als die UNO auf Betreiben der USA im Jahre 1988 den Weltklimarat, das Intergovernmental Panel on Climate Change IPCC, etablierte. Seither veröffentlicht das IPCC mit schöner Regelmäßigkeit seine Berichte, die mit ebenso schöner Regelmäßigkeit den baldigen Weltuntergang orakeln.

Damit nahm die Sache endlich Fahrt auf.

1.2 Energiepolitik im Wandel der Zeit

Bis zur Mitte des 20. Jahrhunderts waren fossile Energieträger die einzigen ausreichend verfügbaren Energiequellen. Nur damit konnte der Energiebedarf der industriellen Gesellschaft bedient werden. In den 1970ern stand die Welt damit vor mehreren Problemen. Die Umwelt- und Landschaftszerstörung schritt fort. Ein erheblicher Teil der Zerstörung war auf den Schadstoffausstoß bei der Verbrennung von Öl und Kohle zurückzuführen, vor allem auf Ruß und Schwefelsäuren. Die Versorgung mit Öl aus dem Nahen Osten war darüber hinaus geopolitisch unsicher. Erdgas kam schon damals, zumindest in Europa, von einem anderen politischen Wackelkandidaten, aus der Sowjetunion. Die Versorgung mit den wichtigsten fossilen Energieträgern war gefährdet. Das kumulierte im Jahre 1973 in der sogenannten ersten Ölkrise, als uns der damalige Bundeskanzler Helmut Schmidt die autofreien Sonntage verordnete. Fortan verlangten die Ölscheiche für die wichtige Energiequelle Erdöl Unsummen, jedenfalls für damalige Verhältnisse. Als Ölpreisschock ist das im Gedächtnis geblieben.

Energiesparen und Umweltschutz waren seit den Siebzigern das beherrschende Thema. Offiziell standen damals schon die Bestrebungen um die Erhaltung der Natur im Fokus. Die eigentlich ausschlaggebenden und politisch bedeutenderen geostrategischen Aspekte wurden offiziell in den Hintergrund gedrängt. Man sparte Energie, um die Umwelt zu schützen, und nicht etwa, weil man die Abhängigkeit von den Ölscheichen und den Sowjets fürchtete, und ihnen weder die Macht noch das Geld gönnte.

Glücklicherweise lag die Rettung in Sachen Energieversorgung nahe: Sie bestand in der Kernkraft, die schier unerschöpflich zu sein schien. Seit den 1960ern galt sie als beherrschbar. Die Politik setzte voll darauf. Überall auf der Welt wurden Atommeiler hochgezogen. Sie versprachen beides: eine saubere und praktisch unerschöpfliche Energiequelle, ohne sauren Regen und sonstigen Dreck in der Luft, und zudem eine Unabhängigkeit von den unheimlichen Ölscheichen. Vor dem Hintergrund der unsicheren Verfügbarkeit fossiler Energie boomte die Kernenergie.

Nun ist die Atomenergie eine riskante Angelegenheit. Zwar kann ein Kernreaktor auch im allerschlimmsten Fall nicht wie eine Atombombe explodieren; das ist physikalisch ausgeschlossen. Dennoch bedeutet ein größter anzunehmender Unfall, ein GAU, einen gewaltigen Kollateralschaden in der Umgebung des Meilers. Tatsächlich ereilte dann in den 1980ern zwei Kernkraftwerke dieses Schicksal. Zuerst betraf es das Kraftwerk Three Miles Island in Harrisburg, USA, im Jahre 1979. Der Unfall ging trotz einer Kernschmelze noch mal glimpflich ab. Wenig später aber, im Jahre 1986, jagten dann die Sowjets ihr Kernkraftwerk bei Tschernobyl im Wortsinn in die Luft. Das war nicht einmal ein Unfall im eigentlichen Sinn, sondern die katastrophale Folge eines geplanten, aber misslungenen Experiments. Die Ironie dabei: bei dem Experiment ging es darum, die Sicherheit des Reaktors bei einem Stromausfall nachzuweisen.

Wegen der erkennbaren Risiken mochten viele Menschen von Anfang an keine Kernkraftwerke; vor allem nicht, wenn sie in Windrichtung ihres Häuschens standen. Die Anti-Atomkraft-Bewegung etablierte sich verstärkt in den 1970ern und 1980ern. Aus ihr ging unter anderem die heute noch existierende Partei Die Grünen hervor. Die Vorbehalte der deutschen Bevölkerung gegen die Kernenergie führten dann dazu, dass fast zwanzig geplante Kernkraftwerke gar nicht erst gebaut und zwei fertiggestellte in Kalkar und Mülheim nicht in Betrieb gingen. Bereits im Jahr 1989 gingen der Block Neckarwestheim 2 in der damaligen BRD und der Block Greifswald 5 in der DDR als bisher letzte Atommeiler in Deutschland ans Netz. Die Kernenergie geriet hierzulande in eine existenzgefährdende Krise. Und nicht nur das: in der diffusen Angst vor dem Atom wurden auch die ehemaligen Kernforschungszentren in Karlsruhe und Jülich geopfert. Inzwischen dürfte in Deutschland, in dem Land, in dem die Kernspaltung „erfunden“ wurde, sehr viel kerntechnisches Knowhow verlorengegangen sein.

Glücklicherweise wurde bereits in den 1980ern klar, dass die Vorräte an fossilen Brennstoffen doch sehr viel größer waren als zuvor vermutet. Sie reichten nach neuen Schätzungen noch für etliche Jahrzehnte. Zudem wurde zeitgleich deren Nutzung insgesamt sauberer. Dafür reichten banale Filteranlagen in Kraftwerken und Katalysatoren in den Autos1.

Alternativen wie die Kernenergie oder so etwas Utopisches wie Windmühlen wurden damit überflüssig. Interessanterweise strengte man sich in dieser Zeit offenbar auch an, nachzuweisen, dass die Windenergie keine Lösung sein könne: GROWIAN, die erste große Windkraftanlage mit 150 Metern Höhe und rund 3 MW Nennleistung nahm 1983 den Probebetrieb auf. Der damals große Betreiber von Kernkraftwerken, die Firma RWE, war zu 25 % am Projekt beteiligt. Und so erbrachte das Experiment das seinerzeit energiepolitisch opportune Ergebnis: Das funktioniert nicht! Photovoltaik gab es zwar auch schon, aber nur für sündhaft teure Spezialanwendungen, etwa zur Stromerzeugung in Satelliten und Armbanduhren. Und ja, es gab auch ein paar Wasserkraftwerke, sogar Pumpspeicher- und Gezeitenkraftwerke. Das alles spielte und spielt bei der Energieversorgung aber keine große Rolle.

Spätestens nach den besagten Nuklearunfällen in den 1980ern war das Thema Kernenergie in Deutschland fast erledigt. Es dauert nicht mehr lange, bis die erste Bundesregierung unter Beteiligung der Grünen im Jahre 2000 den mittelfristigen Ausstieg aus der Atomenergie verfügte, den sogenannten Atomkonsens. Der wurde von der nächsten Regierung ohne die Grünen im Juni 2011 dann prompt wieder mit einer Laufzeitverlängerung gekippt, um nur ein paar Wochen später, im August 2011, in einen sofortigen Totalausstieg umgewandelt zu werden. Inzwischen waren nach einem Erdbeben samt Tsunami in Japan vier der sechs Blöcke des Kraftwerks Fukushima Daiichi in einem lehrbuchgemäßen GAU in die Luft geflogen. Daraufhin hatte die Regierung Merkel geradezu panisch, wohl auch populistisch, auf jeden Fall aber ohne groß nachzudenken, den Ausstieg aus der Kernkraft verfügt. Damit war das Ende der Atomenergie bei uns besiegelt: Anfang 2021 waren noch sechs Atommeiler in Deutschland in Betrieb, Ende 2022 sollte der letzte abgeschaltet werden.

Parallel zu diesem Hin- und Her bei der Frage der Kernenergie hatte sich die Theorie vom menschengemachten Klimawandel etabliert. Deren vom IPCC verbreitete Kernthese (Achtung Wortspiel!) war und ist, dass man sich blitzschnell von jeglicher Nutzung der fossilen Energieträger verabschieden müsse, weil sonst der baldige Weltuntergang drohe. Folgsam entschieden unsere Regierungen, umgehend aus der fossilen Stromerzeugung auszusteigen – bis 2038 war das zunächst geplant; für den Kohleausstieg stehen aber je nach politischer Färbung der gerade amtierenden Regierung auch frühere oder spätere Termine im Raum. Aktuell soll es spätestens 2030 so weit sein.

Aus der Sicht der Nuklearindustrie konnte es zeitweise gar nicht besser laufen: nachdem der saure Regen der 1980er als Argument gegen Kohle und Erdöl kein Thema mehr war, nachdem die Verfügbarkeit von Erdöl, Kohle und Erdgas (gern auch in Form von Methanhydrat) für die nächsten Jahrzehnte gesichert schien, und bei ihrem im Wortsinn katastrophalen Image hatte die Kernenergie zunächst keine realistische Marktchance und auch keine Lobby mehr. Jetzt aber, dank des IPCC und seiner klimaaktivistischen Anhänger, wurde der Hauptkonkurrent der Atomenergie, die fossile Energie, erfreulicherweise zum absoluten No-Go. Demgegenüber verspricht die Kernenergie eine sichere und CO2-freie Zukunft der Energieversorgung. Viele Länder der Welt, darunter unsere westlichen Nachbarn Frankreich, Belgien und die Niederlande, glauben an dieses Versprechen.

Inzwischen hatten sich dann aber doch zwei brauchbare alternative Energiequellen aufgetan. Windkraft und Photovoltaik sind augenscheinlich nicht so untauglich, wie es anfangs kolportiert wurde. Die deutschen Klimaschützer glauben auch fest daran, oder zumindest behaupten sie es, dass diese beiden Alternativen ausreichen werden, den technologisch-wirtschaftlichen Status quo und damit den Lebensstandard hierzulande auch in Zukunft sichern zu können. Bisher funktioniert das auch. Ein großer Teil des Strombedarfs wird heute schon aus Windkraft- und Photovoltaikanlagen gedeckt. Dieser Strom hat aber einen entscheidenden Nachteil: Er fließt unregelmäßig. Er ist nicht unbedingt dann verfügbar, wenn man ihn braucht. Und schon werden immer vernehmlicher die Stimmen laut, es vielleicht doch mal wieder mit der – neuerdings sogar seitens der EU als nachhaltig erachteten – Kernenergie zu versuchen. Honit soit qui mal y pense.

Man kann es auch so zusammenfassen: Eine nachgewiesene oder auch nur hypothetische Klimaschädlichkeit des CO2 könnte sich als Rettungsanker der Nuklearindustrie erweisen. Ob das Zufall ist oder ob der menschengemachte Klimawandel nicht doch dereinst vom Marketing der Kernkraftwerksbetreiber erfunden wurde – ganz von der Hand zu weisen ist dieser Verdacht nicht.

Wie dem auch sei: In der Politik geht es bei der Energiewende hin zu den nachhaltigen Energiequellen auffällig oft um die Stromerzeugung. Die Politiker und ihre klimaschützende Lobby rühmen stets die Erfolge, wie viel Strom denn heute wieder aus erneuerbaren Energien erzeugt wurde. Weltweit fließt der überwiegende Anteil der fossilen Energieträger aber gar nicht in die Stromerzeugung, sondern wird im Verkehr, in der Industrie und in den Haushalten unmittelbar und ohne den Umweg über den Strom gebraucht. Dabei wird ein Vielfaches mehr an CO2 erzeugt als bei der Stromerzeugung.

Um die Herausforderungen dabei schon hier anzusprechen: Wenn beispielsweise alle hierzulande bisher fossil angetriebenen PKW und LKW elektrisch betrieben werden sollten, würde dafür die gesamte im Jahre 2023 vorhandene erneuerbare Kraftwerkskapazität nicht annähernd ausreichen! Spätestens die Versorgung von Millionen elektrischer Wärmepumpen für die Gebäudeheizung wird alle bisher angedachten, erneuerbaren Stromerzeugungskapazitäten sprengen. Das wird von unseren Energiewende-Politikern stets ausgeblendet, wenn sie mit stolzgeschwellter Brust verkünden, wie viele Elektroautos letzte Woche verkauft wurden.

Das stets allwissende Bundesverfassungsgericht kam im Frühjahr 2020 zu dem Schluss, dass der Ausstieg aus der fossilen Energie zu langsam erfolge, man möge sich mehr beeilen (6). Woher auch immer die Verfassungsrichter ihre Weisheit nahmen, wie schnell man hierzulande Windräder aufstellen muss: unter Berufung auf dieses Urteil setzt die deutsche Politik seitdem voll und ganz auf die erneuerbaren Energien. Man kann dabei den Eindruck gewinnen, als glaubten unsere Politiker und Klimaaktivisten, die Energiewende wäre lediglich eine Frage des politischen Willens. Gäbe es nicht so viele Ignoranten, wäre die Klimaneutralität Deutschlands und damit die Rettung des Erdklimas eine Sache von wenigen Jahren. Besonnene Kritiker mahnen zwar, nichts zu überstürzen. Sie werden geflissentlich ignoriert: so beispielsweise der renommierte Klimaforsche Hans von Storch, der schon am 2. Dez 2019 in der ARD-Sendung Hart aber fair anmerkte, dass die bis dahin in Deutschland umgesetzten und auch für die Zukunft angedachten Maßnahmen den globalen Klimawandel nicht einmal ansatzweise werden bremsen können.

Der deutsche Weg, für den Klimaschutz auf alle fossilen Technologien und gleichzeitig auch auf nukleare Energieträger zu verzichten, ist weltweit einzigartig. Das traut sich kein anderes Land auf der Welt zu. Der einzige mir bekannte Politiker, der Deutschland schon früher einmal einen ähnlichen Technologiesprung zubilligen wollte, war ein gewisser Henry Morgenthau. Der wollte gegen Ende des 2. Weltkriegs Deutschland in mehrere deindustrialisierte Agrarstaaten zerlegen. Diese Idee hatte seinerzeit glücklicherweise niemand ernst genommen.

Achtzig Jahre später steht die Frage erneut im Raum: Kann es sich eine Nation, deren Wohlstand auf ihrer Wirtschaft, ihrer Industrie und somit auf einer sicheren und preiswerten Versorgung mit fossiler oder auch nuklearer Energie basiert, leisten, auf eben diese zu verzichten? Das Schreckgespenst einer umfassenden Deindustrialisierung steht nach Ansicht vieler Wirtschaftsfachleute im Raum: wenn Industrieunternehmen sich eben doch nicht auf die in ihren Augen riskante, unsichere und teure Öko-Energieversorgung einlassen, sondern stattdessen ins Ausland abwandern.

Alternativen zur Energiewende werden von der deutschen Politik nicht mehr in Erwägung gezogen. Windmühlen, Solarpaneele und eventuell auch importierter „grüner“ Wasserstoff sollen schon bald der alleinige Ersatz für die fossilen und die nuklearen Energielieferanten sein. Die Welt sieht uns staunend und oft wohl auch innerlich kopfschüttelnd bei diesem Experiment zu. Man darf gespannt sein, ob diese sehr einseitig erscheinende Energiepolitik funktionieren kann. Und man darf auch gespannt sein, ob sie überhaupt irgendetwas zur Klimarettung beitragen wird.

Diesen Fragen gehen wir jetzt nach.

1 Der Feinstaub wurde erst später zum Thema, als es am Schwefel- und Stickoxid-Ausstoß nichts mehr zu mäkeln gab. Auch der ließe sich ohne weiteres aus den Abgasen ausfiltern, wenn man es denn wollte.

2 Die Atmosphäre und ihre Klimageschichte

Das Klima hat sich in den letzten Jahrzehnten in vielen Regionen dieser Welt fühlbar verändert. Vor allem scheint es wärmer zu werden auf unserem Planeten. Diese Erwärmung ist der Kern des Klimawandels. Wenn heute die globale Erwärmung, die Erderwärmung, dargestellt wird, dann geschieht das vor allem mit Weltkarten, die in bedrohlichen Rottönen gehalten sind. Derartige Karten stammen regelmäßig vom Goddard Institute for Space Studies der NASA, NASA-GISS (7) (8) (9) (10). Darin werden die Temperaturen im Vergleich zu einem Referenzzeitraum dargestellt, das sind die Temperaturanomalien, oder aber auch die Temperaturveränderungen innerhalb eines bestimmten Zeitraums.

Ein eindrucksvolles Beispiel für die globalen Temperaturtrends der letzten 140 Jahre gibt die folgende Karte wieder:

Abbildung 1: Rekonstruktion der globalen relativen Temperaturänderungen seit 1880 auf Basis von Modellen, Hochrechnungen und Messungen. Quelle: (7)

Grau sind dabei die Regionen eingezeichnet, für die keine vollständigen Daten vorliegen. Das sind erwartungsgemäß unter anderem die Polarregionen, sowie kleinere Flecken in Afrika, Asien und auch am Amazonas. Für diese Gebiete gibt es aus leicht nachvollziehbaren Gründen keine bis 1880 zurückreichenden Klimaaufzeichnungen. Weiß oder bläulich sind die Regionen, in denen es zumindest nicht wärmer geworden zu sein scheint. Gelb und rot sind die Regionen eingefärbt, in denen es in den letzten 140 Jahren ordentlich warm geworden ist. Auf der ganzen Welt zusammengenommen ist es in dieser Zeit im Durchschnitt um 1,11 K wärmer geworden (Zahl in der Karte oben rechts).

Diese globale Erwärmung ist die wichtigste Kennzahl in allen Diskussionen um den Klimawandel. Allerdings ist sie nicht so eindeutig, wie das hier aussieht.

2.1 Mut zur Lücke: der Mangel an Messdaten

Karten wie die in Abbildung 1 sind beeindruckend. Sie kennen sicher auch die ganz ähnlichen Animationen, in denen sich die Erde seit 1880 von lichtem Blau brodelnd ins Tiefrote verfärbt. Das sieht immer sehr überzeugend und vor allem sehr dramatisch aus. Allerdings fällt dem unvoreingenommenen Betrachter auf, dass es im ausgehenden 19. Jahrhundert doch wohl keine weltumspannenden systematischen Temperaturmessungen gegeben haben kann. Für einige begrenzte Regionen der Erde mag das der Fall gewesen sein, ob es sie aber für ganz Europa bis hinter den Ural, für ganz Amerika, Afrika oder Asien gegeben hat, ist schon fraglich. Vor allem aber über den Weltmeeren hat es im ausgehenden 19. Jahrhundert bestenfalls punktuelle, aber mit Sicherheit keine räumlich und zeitlich umfassenden, lückenlosen Aufzeichnungen gegeben. Um die globalen Temperaturtrends seit 1880 bunt aufmalen zu können, braucht man aber zwangsläufig weltweite Temperaturaufzeichnungen auch aus dieser Anfangszeit. Wie kommen diese Karten also zustande?

Die Antwort überrascht vielleicht: Derartige Temperaturkarten basieren gar nicht auf Messungen! Die fließen zwar auch darin ein; die weitaus meisten Daten stammen aber aus Hochrechnungen, aus Temperaturrekonstruktionen und – aus Klimamodellen! Wenn man die Extrapolationen und vor allem die ozeanischen Klimamodelle, beispielsweise die NOAA/ NCEI's Extended Reconstructed Sea Surface Temperature v. 5, weglässt, und sich auf die über die letzten 140 Jahre halbwegs lückenlos vorhandenen Temperaturaufzeichnungen aus echten, physischen Messungen beschränkt, bekommt man dann auch ein völlig anderes Bild.

In der folgenden, unter diesen Beschränkungen entstandenen Karte dominieren die Lücken, und zwar nicht nur über den Ozeanen, sondern auch, wie zu erwarten, in den im 19. Jahrhundert noch unberührten Regionen der Welt (8). Zudem scheint sich die globale Erwärmung auf 1,58 K verstärkt zu haben (Zahl oben rechts). Das kann aber ein Artefakt sein, weil hier eben nur kleine Teile der Erde berücksichtigt worden sind.

Abbildung 2: Rekonstruktion der globalen relativen Temperaturänderungen auf Basis von Temperaturmessungen ohne Modelle. Quelle (7).

Mit der Abbildung 2 wird ein grundsätzliches Manko aller Klimarechnungen unübersehbar: Wirklich umfassende globale Klima-Messdaten gibt es lediglich für die letzten wenigen Jahrzehnte. Was vor dem zweiten Drittel des letzten Jahrhunderts, was vor den 1960ern liegt, ist weitgehend unbekannt! Im Falle der Ozeane ist das wahrlich tragisch. Denn kein Klimaforscher wird bestreiten, dass die Ozeane den ausschlaggebenden Einfluss auf das irdische Klima haben. Und ausgerechnet dazu gibt es fast keine Messdaten, die sehr viel weiter als vielleicht fünfzig oder auch siebzig Jahre zurückgehen.

Wenn also in derartigen Karten global flächendeckende Klimadaten bis ins Jahr 1880 angegeben werden, sind das ausschließlich Ergebnisse von Hochrechnungen oder gar Modellierungen. Die Versuche, fehlende Daten zu rekonstruieren, sind gutgemeint und überwiegend wissenschaftlich seriös. Dennoch müssen wir den Klimarekonstruktionen selbst aus der jüngeren Vergangenheit mit einer gesunden wissenschaftlichen Skepsis begegnen.

Der Weg von der Rekonstruktion zur Spekulation ist kurz.

2.2 Die gemessene Erderwärmung

Aber auch und gerade unter Beschränkung auf die einigermaßen sicher bestimmten landgestützten Messdaten ist die Erderwärmung nicht zu widerlegen. Und letztendlich ist es auch nicht entscheidend, ob sie in dieser Zeit nun 1,11 K oder ein paar Zehntel mehr oder weniger betragen hat. Was aber viel bemerkenswerter ist: Die globale Erwärmung ist in dieser Zeit keineswegs kontinuierlich fortgeschritten. Das zeigt die folgende beispielhafte Zusammenstellung von Temperaturkarten aus der vorgenannten Quelle (7). Sie gibt die Temperaturtrends der letzten 140 Jahre aufgeteilt in Zeitabschnitte zu je 35 Jahren wieder:

Abbildung 3: Variabilität der Erderwärmung zwischen 1880 und 2020. Quelle: (7)

Zwischen 1880 und 1915 ist die globale Durchschnittstemperatur zunächst um etwa 0,2 K gefallen, wobei es im Norden stellenweise gegen diesen Trend etwas wärmer geworden ist (oben links). Dann ist die Temperatur bis 1950 weltweit relativ gleichmäßig um 0,35 K angestiegen (oben rechts). Im Zeitraum zwischen 1950 und 1985 ist sie moderat um 0,27 K angestiegen: das allerdings überwiegend in der Südhemisphäre, während es sich im Norden regional wieder etwas abgekühlt hat (unten links). Seither hat die Erwärmung ordentlich an Tempo zugelegt: Zwischen 1985 und 2021 soll sie diesen Karten zufolge bei stattlichen 0,7 K gelegen haben. Anders als in der Vorperiode wurde es diesmal aber vor allem im hohen Norden wärmer (unten rechts).

Es sei aber noch einmal daran erinnert: Auch in diese Karten sind größtenteils Ergebnisse von Klimamodellierungen eingeflossen, vor allem bei den ozeani-schen Temperaturen. Davon abgesehen, deuten diese Schwankungen aber auf ein interessantes Muster hin:

Seit den 1920er Jahren steigen die globalen Temperaturen an.

Die Erwärmung scheint sich in den letzten 35 Jahren, seit 1985 drastisch beschleunigt zu haben.

Die Temperaturentwicklung verläuft nicht gleichmäßig, sondern scheint zwischen der Nord- und der Südhemisphäre zu oszillieren.

Die Erwärmung betrifft vor allem die Nordhemisphäre und hier besonders die Polarregionen.

Generell ist die Erwärmung über Landflächen stärker als über den Ozeanen.

Diese ungleichmäßige Entwicklung gibt bereits einen Hinweis darauf, dass es neben dem CO2 andere Faktoren geben muss, die die globale Erwärmung beeinflussen. Wäre allein das CO2 dafür verantwortlich, hätte die Erwärmung kontinuierlich voranschreiten sollen. Aber trotz allem: man die Entwicklung der letzten 35 Jahre isoliert betrachtet, kann man Gretas Panik nachvollziehen. Wenn man den Trend aus ihrer kurzen Lebenszeit einfach in die Zukunft extrapoliert, sieht es für unseren Planeten nicht gut aus.

2.3 Das große Unbekannte: das Klima

Im vorangegangenen Abschnitt hatte ich angedeutet, dass bereits die Rekonstruktionen des Klimas der letzten anderthalb Jahrhunderte mit erheblichen Unsicherheiten verbunden sind. Versuche, die Klimageschichte, oder genauer: den Verlauf der globalen Temperaturen in der fernen Vergangenheit exakt zu rekonstruieren, sind eine junge Wissenschaft. Die Anstrengungen resultierten zunächst aus der wissenschaftlichen Neugier, herauszufinden, bei welcher Temperatur denn nun Tyrannosaurus Rex am liebsten um die Gunst des Weibchens gebuhlt haben mag; oder warum es in der Erdgeschichte wiederholt zu einem Artensterben gekommen ist. Hannibal wusste nicht, wie warm es war, als er seine Elefanten über die Alpen jagte, und die Historiker wussten es auch nie. Und es hat sie auch nicht besonders interessiert. Temperaturrekonstruktionen waren eine akademische Frage, nichts Wichtiges also.

Aber sie waren immer schwierig. Denn selbst die uns banal erscheinende Messung von Temperaturen ist eine überraschend junge Technologie. Das uns vertraute Flüssigkeitsthermometer gibt es erst seit dem frühen 18. Jahrhundert. Auch die gebräuchlichen Temperaturskalen Grad Celsius und Grad Fahrenheit stammen aus dieser Zeit. Thermometer waren bis vor gar nicht allzu langer Zeit komplizierte Hightech; die bloße Erfassung des Wetters war eine hochwissenschaftliche Angelegenheit.

Zu ersten systematischen Wetterbeobachtungen kam es in Deutschland, in Europa und Nordamerika im späten 18. Jahrhundert. Der „Beginn der Wetteraufzeichnungen“ wird hierzulande sogar erst auf das Jahr 1881 datiert. Aber auch dieser Beginn war schleichend. Die meisten Wetterstationen sind erst viel später hinzugekommen, und zwar auf der ganzen Welt. Besonders die Aufzeichnung des Wetters auf See war notgedrungen zunächst sehr rudimentär. Wirklich systematische globale Sammlungen von Wetterdaten gibt es erst, seit 1966 die ersten Wettersatelliten seitens der USA gestartet wurden. Das europäische Pendant Meteosat startete sogar erst 1977! Das war vor nicht einmal 50 Jahren. Seit 1991 liefert auch das Aircraft Meteorological Data Relay AMDAR (11) einen wesentlichen Beitrag bei der Sammlung von Wetterdaten. Dabei werden kommerzielle Linienflugzeuge zu deren Aufzeichnung genutzt. Sechzig oder gar nur dreißig Jahre sind eine sehr kurze Zeitspanne für Messungen; vor allem, wenn es ums Klima geht.

2.3.1 Klimaproxys

Wie kommt die Klimaforschung also an Klimadaten aus der gar nicht einmal weit zurückliegenden Vergangenheit, aus dem Jahre 1880 beispielsweise?

Auf den ersten Blick erscheint es als besonders unglücklicher Umstand für die Klimaforschung, dass früher niemand die Temperaturen gemessen und aufgeschrieben hat und dass man das jetzt auch nicht nachholen kann. So ungewöhnlich ist das aber gar nicht. Es ist keine Ausnahme, sondern die Regel, dass sich eine physikalische Größe nicht direkt messen lässt. Das gilt, vielleicht etwas überraschend, auch für die Messung der Temperatur.

Nehmen wir das allseits bekannte Flüssigkeitsthermometer. Damit misst man ja wohl die Temperatur? Irrtum! Das Flüssigkeitsthermometer zeigt in Wirklichkeit nur ein Volumen an. Die Flüssigkeit im Thermometer dehnt sich bei Erwärmung aus, sie steigt mit der Temperatur im Steigröhrchen auf. Um auf die Temperatur zu kommen, muss man einen Proportionalitätsfaktor zwischen dem Volumen der Flüssigkeit und der Temperatur ermitteln. Erst damit kann man dann statt der Kubikmillimeter die gewünschten °C berechnen und auf die Skala drucken. Die üblichen elektronischen Braten- und Fieberthermometer messen ebenfalls keine Temperaturen, sondern den temperaturabhängigen elektrischen Widerstand in der Messspitze. Im Display wird aber nicht der Widerstand oder eine Spannung angezeigt, sondern die daraus errechnete Temperatur.

Dieser Umweg, dass man nicht das gesuchte physikalische Attribut, sondern stattdessen leichter zugängliche Surrogat-Parameter wie Spannungen oder Volumenausdehnungen misst, ist in der Messtechnik etwas völlig Alltägliches. Der Proportionalitätsfaktor zwischen dem gemessenen Ersatzparameter und dem eigentlich gesuchten Wert hängt aber von etlichen Rahmenbedingungen ab. Er muss daher bei jeder wissenschaftlich exakten Messung jeweils neu bestimmt werden: Die Messung muss kalibriert werden. Oft nimmt man es damit allerdings nicht so genau. Die meisten Thermometer werden im Rahmen der Herstellung einmal kalibriert und dann nie wieder.

Schon im Alltag lassen sich Temperaturen also nur über Umwege bestimmen. Um die Temperaturen der Klimavergangenheit zu bestimmen, wird dieser Umweg nur etwas größer. Denn glücklicherweise hatten die jeweiligen Umgebungstemperaturen, aber auch andere Klimafaktoren, seinerzeit einen Einfluss auf viele physikalische, chemische und biochemische Prozesse. Falls entsprechend beeinflusste Objekte aus vergangenen Zeiten unverändert erhalten sind, lassen sich die einstigen Auswirkungen der Temperaturen noch nachträglich bestimmen. Das wiederum lässt unter günstigen Umständen Rückschlüsse auf die damaligen Temperaturen und andere Klimafaktoren zu.

Solche klimabedingten und heute noch messbaren Auswirkungen sind beispielsweise das Wachstum und die Abfolge von Jahresringen an Bäumen, Schichtungen und Zusammensetzungen von Sedimenten, das Wachstum von Korallen und anderen schalenbildenden Tieren, die Zusammensetzung von Fauna und Flora oder die Isotopenzusammensetzungen von erhaltener Biomasse, von Gletschereis oder von Sedimenten. Im Klimaforscherjargon heißen diese Surrogat-Parameter eingedeutscht Klimaproxys. Eine brauchbare Übersicht über die Vielfalt der Proxys und der Methoden findet sich auf der Homepage der National Oceanic and Atmospheric Administration NOAO (10).

Die Kalibrierung eines Fieberthermometers, die exakte Umrechnung des Proxys Spannung in °C, ist eine banale Angelegenheit. Die Kalibrierung von Klimaproxys ist hingegen aufwendig und mit sehr großen Unsicherheiten behaftet. Nehmen wir als Beispiel die Dendrochronologie, die Auswertung der Jahresringe von Bäumen. Die funktioniert natürlich nur, wenn überhaupt konservierte Bäume da sind, die man analysieren kann, und die auch Jahres-ringe gebildet haben. Palmen machen das beispielsweise nicht. Ein Jahresring ist für sich genommen aber gar kein Maß für die Umgebungstemperatur eines Baums. Er ist lediglich ein Maß dafür, wie günstig die Wachstumsbedingungen innerhalb dieser Zeit waren: Je länger und je günstiger die Vegetationsperiode war und je stärker sie von der Ruhephase abgesetzt war, desto ausgeprägter wird der Jahresring.

Was aber für einen Baum günstige Wachstumsbedingungen sind, ist nicht so leicht gesagt: „Ist der Mai kühl und nass, füllt er dem Bauern Scheuer und Fass!“ Die alte Bauernregel besagt, dass gute Wachstumsbedingungen keineswegs gleichbedeutend mit Wärme sind. Für die Wachstumsfaktoren Licht, Wärme und Feuchtigkeit hat jede Baumart ein eigenes Optimum: Kühles Wetter und kurze Sommer können genauso kontraproduktiv sein wie Hitzeperioden, Trockenheit oder auch ausgeprägte Nässeperioden. Im Extremfall führen Frosteinbrüche oder Trockenperioden zur Unzeit dann auch noch dazu, dass auswertbare Bäume abgestorben sind und ganz fehlen. Deswegen lässt sich aus den Jahresringen auch nur über siebzehn Ecken und sehr indirekt auf Temperaturen schließen. Das funktioniert – aber auch nur, wenn man die Auswertung der Jahresringe anhand von Referenzwerten kalibrieren kann. Die muss man aber erst einmal haben.

Für die Untersuchung sehr weit zurückliegende Klimaperioden werden auch Bohrkerne aus Gewässer- und Meeressedimenten verwendet. Dabei schaut man nach, welche Lebewesen zu einer gegebenen Zeit im Wasser unterwegs waren, und schließt daraus auf die Wassertemperatur. Oder man versucht, anhand des Wachstums von Korallenskeletten, Muschelschalen und Silikat-Gerüsten von Glasschwämmen auf die Meerestemperatur zu schließen. Das beinhaltet ganz ähnliche Fallen wie die Untersuchungen an Baum-Jahresringen: Man kann aus diesen Daten nur indirekt auf die Wassertemperaturen schließen. Das Wachstum dieser Tiere hängt nicht nur von der Temperatur, sondern vor allem vom Nährstoffangebot ab. Das korreliert aber nicht zwangsläufig mit der Temperatur: Kaltes Wasser ist zwar gewöhnlich, aber keineswegs grundsätzlich nähr- und sauerstoffreicher als warmes. Noch schwieriger wird es, wenn man aus dem Wachstum von Meerestieren auf die Stärke und Wirkung von kalten oder warmen Meeresströmungen schließen möchte.

Daneben versucht man sich auch in Isotopen-Analysen, um Temperaturen zu rekonstruieren. Isotope sind Varianten von chemischen Elementen, die unterschiedlich schwere Atomkerne haben. Obwohl Isotope eines Elements sich chemisch nicht unterscheiden, benötigt die jeweilige chemische oder physikalische Reaktion eine minimal unterschiedliche Energiezufuhr. Je nach Art der Reaktion werden dabei dann leichte Isotope bevorzugt und schwere diskriminiert; oder auch umgekehrt. Für die Rekonstruktion von Klimadaten zieht man unter anderem das Deuterium (D oder 2H), ein Isotop des Wasserstoffs, oder auch 18O, ein Isotop des „normalen“ Sauerstoffs 16O, heran. Hat man unversehrte Proben von Wasser, Luft oder organischem Material aus der fraglichen Zeit, dann kann man daraus die Temperatur etwa bei der Photosynthese oder bei der Verdampfung oder Kondensation von Wasser rekonstruieren. Die Analyse der Isotopenverteilung von Bohrkernen oder in organischem Material kann vor allem in Kombination mit anderen Klimaproxys eine vergleichsweise zuverlässige Methode sein, einen relativen Temperaturverlauf zu rekonstruieren.

Insgesamt kam man in den letzten Jahrzehnten mit Kombinationen der verschiedensten Methoden zu augenscheinlich plausiblen Rekonstruktionen insbesondere der jüngeren Klimavergangenheit. Klima- und vor allem Temperaturverlaufskurven über längere Zeiträume sind oft aber Montagen von Daten aus ganz unterschiedlichen Quellen, sogenannte Multiproxy-Analysen. Dabei wird es schnell sehr anspruchsvoll, die Ergebnisse der unterschiedlichen Methoden, etwa aus Jahresringen und Sedimentanalysen, zu kombinieren und hinreichend genau zu kalibrieren.

Außerdem darf man nicht unterschätzen, dass solche Klimaproxys meistens nur lokal begrenzte Aussagen zulassen. Die Sedimente eines Sees lassen unter günstigen Umständen das Kleinklima an genau diesem See nachvollziehen. Es ist immer fraglich, ob man aus diesem lokalen Geschehen auf ein globales Klimamuster hochrechnen darf.

Ich möchte Klimaproxys damit keineswegs generell in Zweifel ziehen oder gar ablehnen, sondern nur darauf aufmerksam machen, dass vor allem deren Kalibrierung sehr anspruchsvoll ist. Das macht die darauf basierenden Klimarekonstruktionen ausgesprochen mühsam und vor allem anfällig für systematische Fehler. Wissenschaftlich sind sie in aller Regel seriös und beachtenswert. Bei aller Hochachtung für die wissenschaftliche Leistung, wie etwa bei der Erstellung des Hohenheimer Jahrringkalender (12), sollte man deren Ergebnisse wohlwollend kritisch bewerten. Sie sind gewiss mehr als ein Blick in die Glaskugel; dennoch muss man sie mit Vorsicht interpretieren.

2.3.2 Die Schlüsselbegriffe des Klimawandels

In der Klimadebatte und vor allem im Zusammenhang mit den Klimamodellen wird eine ganze Reihe wissenschaftlich anmutender Begriffe und Zahlenwerte benutzt. Manchmal werden diese Begriffe aber auch missverständlich genutzt. Hier sind die gängigsten Wortschöpfungen und ihre Definitionen:

Als

Treibhausgase

(Greenhouse Gasses)

werden alle diejenigen gasförmigen Bestandteile der Atmosphäre bezeichnet, die in der Lage sind, Infrarot-Strahlung zu absorbieren und zu emittieren. Der sachliche, weniger belastete Begriff dafür ist

infrarot-aktives Gas.

Sauerstoff (O

2

) und Stickstoff (N

2

), die Hauptbestandteile der Luft, sind wie die Edelgase und wie alle zweitatomigen, homonuklearen

2

Gase nicht infrarot-aktiv; alle anderen Gase, darunter Wasserdampf, Kohlendioxid, Kohlenmonoxid, Stickoxide, Schwefeloxide, Kohlenwasserstoffe und Ozon, sind es.

Die von den infrarot-aktiven Gasen emittierte Strahlung ist ungerichtet. Die Strahlungsleistung, die in Richtung Erdoberfläche ausgestrahlt wird und dort auch ankommt, ist die sogenannte

Gegenstrahlung

(

Downward Longwave Radiation

). Der in die Gegenrichtung ins Weltall abgestrahlte Teil (

Upward Longwave Radiation

) hat im Deutschen keinen besonderen Namen bekommen (Einheit: W/m

2

).

Der

Strahlungsantrieb

(

Radiative Force

) beschreibt, in welchem Maße das Vorhandensein infrarot-aktiver Gase in der Atmosphäre deren Strahlungsemission und damit deren Abstrahlungsleistung ins Weltall rechnerisch verändert (Einheit: W/m

2

).

Die

Klimasensitivität

eines infrarot-aktiven Gases gibt an, welche Erwärmung zu erwarten ist, wenn sich dessen atmosphärische Konzentration erhöht bzw. verdoppelt (

Transient Climate Response, TCR).

Die soggenannte

Equilibrium Climate Sensitivity, ECS

, berücksichtigt dabei, dass es wegen der Energiespeicherkapazität der Ozeane eine ganze Zeit dauert, bis sich eine neue Gleichgewichtstemperatur einstellt. Die

Earth System Sensitivity, ESS

, berücksichtigt zusätzlich Rückkopplungen, wie die, dass wärmere Luft mehr Feuchtigkeit enthalten kann, was wiederum den Treibhauseffekt verstärken könnte.Die Klimasensitivität eines infrarot-aktiven Gases wird angegeben als Temperaturveränderung in Bezug entweder auf den Strahlungsantrieb (Einheit: K/Wm

-2

) oder auf dessen Menge (K/ppm). Als

Verdopplungssensitivitä

t wird sie gewöhnlich nur in K angegeben.

Das

Treibhauspotential

(

Global Warming Potential

) gibt das Verhältnis der errechneten Klimasensitivität eines beliebigen infrarot-aktiven Gases zu der des CO

2

an (Einheit: dimensionslose Zahl).

Die globale

durchschnittliche Oberflächentemperatur

und deren Veränderung,

die globale Erwärmung

(

Mean Global Surface Temperature, Global Warming

) sind die zwei Kennzahlen, mit denen der Klimawandel griffig zusammengefasst wird (Einheit Kelvin oder auch °C). Dazu mehr im nächsten Kapitel.

Der

Treibhauseffekt

(

Greenhouse Effect

) ist der schwammige und volkstümliche Oberbegriff, mit dem wahlweise die vorgenannten Teilaspekte subsumiert werden. Am ehesten spiegelt sich der Treibhauseffekt in der globalen Erwärmung wider.

Dazu eine wichtige Anmerkung: Weder die Klimasensitivität eines infrarot-aktiven Gases noch der Strahlungsantrieb sind messbare physikalische Zustandsgrößen! Es sind auch keine stofflichen Attribute. Es sind lediglich errechnete Kennzahlen, mit denen man die Auswirkungen der infrarot-aktiven Gase quantitativ zu beschreiben versucht. Die Verwendung von Kennzahlen an sich ist weder anstößig noch unwissenschaftlich. Man muss sich aber darüber im Klaren sein, dass es sich dabei um theoretische Konstrukte handelt: Es sind fiktive Parameter innerhalb von Klimarechnungen und nicht etwa objektiv messbare, physikalische Eigenschaften.

2.3.3 Die globale Oberflächentemperatur und die globale Erwärmung

In der Klimadebatte dreht sich alles um die globale Erwärmung, die Erderwärmung. Parallel dazu ist oft vom Anstieg der durchschnittlichen Oberflächentemperatur der Erde die Rede. Diese Begriffe begegnen uns täglich. So alltäglich diese Begriffe sind, so oft werden sie missverstanden.

Meteorologisch betrachtet ist die Oberflächentemperatur nicht etwa die Temperatur der Erdoberfläche, sondern die Lufttemperatur in zwei Metern Höhe darüber. Die kann man an jeder beliebigen Stelle der Erde messen. Allerdings ist es schwierig, daraus einen sinnvollen Durchschnittswert zu errechnen. Dazu müsste man die Erde mit einem sehr dichten Netz von Messpunkten überziehen, und im Abstand von höchstens ein paar Kilometern die Temperaturen in festgelegten Zeitabständen messen. Daraus ließe sich mit definierten statistischen Methoden auch eine durchschnittliche „globale Oberflächentemperatur“ errechnen.

Ein solches dichte Netz von Messpunkten hat es bis vor kurzem nicht gegeben. Machbar ist das erst seit ein paar Jahren, dank der Satellitenbeobachtungen. Seit rund 150 Jahren gibt es aber wenigstens an einigen wenigen Messstationen auf dieser Erde lokale Aufzeichnungen der Temperaturen. Aus diesen Werten lassen sich selbstverständlich definierte lokale Durchschnittswerte errechnen. Damit lassen sich die Jahresdurchschnittstemperaturen im näheren Umkreis der Station seit anno dazumal bis heute errechnen und vergleichen, und so auch ein Trend für diese Zeit ablesen – wenn es denn einen gibt.

Das kann man dann für alle existierenden und ehemaligen Messstationen und deren Messungen für mehr oder weniger lange Zeiträume machen. Diese Einzeltrends fügen sich dann zu dem Flickenteppich zusammen, der in Abbildung 2 wiedergegeben ist. Der ließe sich dann statistisch und mit viel gutem Willen zu einer durchschnittlichen globalen Erwärmung verwursten. Wenn man sich allerdings die Lücken in diesem Flickenteppich vergegenwärtigt, stellen sich wohl Zweifel an der Sinnhaftigkeit dieses letzten Schritts ein.

Genau dieses Verfahren kommt aber bei der Ermittlung der Erderwärmung zum Zuge: Man wählt weltweit willkürlich eine begrenzte Anzahl von lokalen Messpunkten aus. Für jeden einzelnen wird ein Trend in den Temperaturverläufen bestimmt. Aus der Veränderung der Messdaten dieser weltweit verteilten Stationen lässt sich dann eine wie auch immer gewichtete durchschnittliche Veränderung errechnen. Die darf sich dann zwar globale Erwärmung nennen; tatsächlich ist damit aber nur eine statistisch ermittelte Veränderung an den Messpunkten des Flickenteppichs gemeint.

Die so ermittelte globale Erwärmung ist wieder kein realer Messwert, sondern eine rein statistisch definierte Kennzahl. Kennzahlen verdichten komplexe Zustände und Prozesse zu einem einzigen Zahlenwert. Sie bergen daher stets die Gefahr der Fehlinterpretation. Manager kennen dieses Problem: Einzelne Unternehmenskennzahlen sagen nichts darüber aus, ob ein Unternehmen am Ende auch langfristig profitabel ist. So ist es auch beim Klima. Selbst wenn es keine globale Erwärmung gäbe, hieße das nicht, dass das Klima deswegen weltweit überall gleichbleiben müsste. Regionale signifikante und auch kurzfristige Klimaveränderungen sind in der Erdgeschichte keineswegs ungewöhnlich. Und umgekehrt bedeutet eine globale Erwärmung nicht zwangsläufig auch eine globale Klimakatastrophe.

Mit der Kennzahl „Globale Erwärmung“ möchte die Klimaforschung lediglich das gesamte, lokal völlig unterschiedliche langfristige Wettergeschehen einschließlich der klimarelevanten Prozesse in den Ozeanen in einer einzigen, griffigen Zahl zusammenfassen.

Das ist schön und gut, sagt aber erst einmal nicht viel über das Klima auf der Erde aus.

2.4 Die Atmosphäre im Wandel

Der aktuelle Klimawandel wird – pauschal vereinfacht – auf die sich derzeit ändernde Zusammensetzung der Atmosphäre zurückgeführt. Insbesondere die Anteile von Kohlendioxid und Methan steigen in der jüngsten Zeit rapide an. Das führt nach der gängigen Meinung der Klimaforschung zur Erderwärmung. Diese Vereinfachung suggeriert möglicherweise, die Zusammensetzung der Atmosphäre sei in der Vergangenheit, vor allem als der Mensch noch nicht mitgespielt hat, unveränderlich gewesen. Das aber wäre ein Irrglaube: Wie alles auf der Erde unterlag auch die Zusammensetzung der Atmosphäre einem beständigen Wandel. Was wir heute an der irdischen Atmosphäre als natürlich ansehen, ist vor allem eines: Es ist nicht normal!

2.4.1 Der atmosphärische Sauerstoff

Sauerstoff hat in der Atmosphäre eines Gesteins- bzw. Eisenplaneten wie der Erde nichts zu suchen. Wenn er darin vorkommen kann, dann höchstens in winzigen Mengen. Sauerstoff ist ein sehr reaktives, geradezu aggressives Element. Er oxidiert so ziemlich alles, was ihm begegnet. In der Erdkruste liegt Sauerstoff daher ausschließlich in Form von Oxiden anderer Elemente vor. Überwiegend sind das Mischoxide von Silizium mit Metallen, vor allem Eisen. Und dann gibt es noch eine kleine Menge Diwasserstoffmonoxid, vulgo: Wasser. Solange ein Planet nicht einem Bombardement aus Strahlung ausgesetzt ist, sollte freier Sauerstoff O2 oder auch Ozon O3 im Laufe der Zeit fast alle anderen Elemente und Verbindungen oxidieren, und dabei aus der Atmosphäre weitgehend verschwinden. Offensichtlich ist das auf der Erde anders. Es war aber nicht immer so.

Über die Frage, wie die Uratmosphäre zusammengesetzt war, und wie sie sich in den ersten ein bis drei Milliarden Jahren der Existenz der Erde entwickelt hat, gibt es zahlreiche Theorien und noch mehr Spekulationen. Sicher ist nur, dass molekularer Sauerstoff aus den genannten Gründen darin höchstens in Spuren vorgekommen sein kann. Die frühe Atmosphäre bestand sehr wahrscheinlich über weite Zeiträume vor allem aus Wasser, CO2, Stickstoff, Schwefelverbindungen, eventuelle Ammoniak und wohl auch Methan. Erste Lebensformen dürften sich in den damaligen Urozeanen gebildet haben. Vermutlich hat die Chemie dort irgendwann einmal zunächst selbst-replizierende Moleküle hervorgebracht, um die herum sich dann das Leben, wie wir es heute kennen, entwickelt haben könnte.

Diese allgemein anerkannte Theorie hat allerdings einen bemerkenswerten Schönheitsfehler: Sie passt nicht zur Treibhaushypothese! Denn falls die Ur-Atmosphäre große Mengen an CO2, Wasser, Methan und vielleicht weitere infrarot-aktive Gase enthalten hat, dann müsste der Treibhaushypothese zufolge die Oberflächentemperatur der Erde sehr hoch gewesen sein. Manche Klimaforscher sprechen von bis zu 250 °C. Das hieße aber, dass es gar keine Ozeane und Gewässer gegeben haben kann, in denen sich das Leben hätte entwickeln können! Selbst wenn der Druck der Atmosphäre hoch genug gewesen wäre, um flüssiges Wasser zu ermöglichen, wäre es für komplexere Lebensformen zu heiß3 gewesen. Das ist ein schwerwiegendes Indiz gegen die Treibhaushypothese.

Wie dem auch sei: Das Leben war eines Tages da. Das waren zunächst anaerobe Lebensformen, deren Stoffwechsel auf vorhandenen, energiereichen Verbindungen beruhte, wie etwa Schwefelwasserstoff oder Ammoniak. Vor etwa drei Milliarden Jahren hat die Evolution dann die Photosynthese erfunden. Das Verfahren beherrschten zunächst sehr einfach gebaute, bakterienähnliche marine Organismen; aus dem reichlich vorhandenen Kohlendioxid, dem Wasser und dem Sonnenlicht erzeugten sie energiereiche Speichersubstanzen, mit denen sich ihr weiterer Stoffwechsel betreiben ließ. Später vereinnahmten andere Einzeller diese Photosynthese-treibenden Organismen samt ihrer Erfindung. Die Chloroplasten, diejenigen Zellstrukturen der Pflanzen, in denen die Photosynthese abläuft, sind Relikte dieser ursprünglichen Organismen. Damit erst entstanden grüne Bakterien und Algen; und noch einmal viele Jahrmillionen später entwickelten sich dann die grünen Wasser-und Landpflanzen, wie wir sie intuitiv mit der Photosynthese verbinden.

Das Prinzip der Photosynthese erwies sich aus Sicht der Evolution als sehr erfolgreich. Immer mehr Organismen mit immer mehr biochemischen Stoffwechselreaktionen und -produkten entwickelten sich um die Photosynthese herum. Diese Organismen haben aus CO2 in großem Stil Biomasse synthetisiert, also Zucker, Kohlehydrate, Fette, Proteine, sekundäre Stoffwechselprodukte, Gerüst- und Skelettsubstanzen, Chitinpanzer, Muschelschalen, und, und, und. Im Laufe der Evolution sind so Zig-Tausende verschiedener kohlenstoffhaltiger Substanzen zusammengekommen.

Die marinen Organismen sanken und sinken nach ihrem Tod mehr oder weniger vollständig zum Meeresboden ab. Dort, vor allem in der Tiefsee, gab es in der frühen Phase der Erde und gibt es bis heute nur wenige Organismen, welche die energiereichen Substanzen (u. a. Kohlehydrate, Fette, Proteine) der abgestorbenen Lebewesen hätten nutzen können. So blieben diese Stoffe dort unten unangetastet, wurden mit Sedimenten überschichtet, und lagerten dort für viele Millionen Jahre. In Laufe der Zeit wurde daraus Erdöl und Erdgas. So gesehen sind Erdöl und Erdgas Bioprodukte!

Manche Organismen, vor allem mikroskopisch kleine Kalkalgen, bauten sich aus CO2 und dem im Wasser gelösten Kalzium Kalkhüllen und Kalkskelette. Soweit sie sich nicht ohnehin schon auf dem Meeresboden befanden, wie Korallen oder Muscheln, sanken ihre sterblichen Hüllen irgendwann in die Tiefe und wurden mit Sedimenten überschichtet. Es entstanden mächtige Schichten aus verschiedensten Kalksteinen. Die Plattentektonik hat diese Schichten gestaucht, verformt, in die Tiefen der Erdkruste gedrückt, oder zu gewaltigen Gebirgen angehoben. Die Alpen und die Kreideklippen von Dover und Rügen sind Paradebeispiele für Gebirge und Gestein aus Bestandteilen mariner Organismen. So lagert ein weiterer, gewaltiger Teil des ehemals atmosphärischen CO2 unangetastet als Kalkgebirge, Marmor, Kreidefelsen oder Travertin und unzähligen anderen Gesteinssorten über und unter der Erde.

Vergleichsweise spät erfand die Evolution das Holz als stabiles Gerüst für Landpflanzen. Der strukturgebende Bestandteil von Holz ist das Lignin, ein stark vernetztes biogenes Polymer, ein Bioplastik. Für etliche Millionen Jahre gab es aber noch keine Organismen, deren Stoffwechsel mit Lignin hätte etwas anfangen können. So konnte das Holz nicht einmal faulen. Das ist eine Parallele zu unseren modernen Plastikprodukten. Die gebildeten Holzmengen blieben nach dem Absterben der Pflanzen liegen, wurden Schicht um Schicht überwachsen, und mit Sedimenten zugedeckt. Alles zusammen wurde von der Tektonik in tiefere Erdschichten verfrachtet und später über lange Zeit hohem Druck ausgesetzt. In dieser Zeit wurde daraus Steinkohle; und ein wenig Grubengas, Methan.

Dieser „endgültige“ Verbrauch von Kohlendioxid durch diese und immer weitere Organismen führte dazu, dass immer mehr CO2 der Atmosphäre und dem Wasser entzogen wurde. Am Ende waren nur noch Spuren davon in der Atmosphäre verblieben, gerade einmal 200 ppm(v) und weniger.

Im Gegenzug wurden bei der Photosynthese Unmengen an Sauerstoff freigesetzt. Der entstehende Sauerstoff muss zunächst alles, womit er in Kontakt kam, oxidiert haben. Die Erdoberfläche dürfte dank der vielfältigen Mineraloxide einst recht bunt gewesen sein. Der freigesetzte Sauerstoff hat aber auch die oxidierbaren Bestandteile der Uratmosphäre, wie Methan oder Ammoniak, oxidiert und in Wasser und Kohlendioxid bzw. Stickstoff umgewandelt. Nach schon kurzer Zeit waren auch diese Urbestandteile verbraucht, und der Sauerstoffgehalt der Atmosphäre stieg auf zwischenzeitlich mehr als 30 % an. Heute beträgt er nur noch rund 21 %.

Bevor es zu einer merklichen Sauerstoffkonzentration in der Atmosphäre und auch im Wasser kam, waren alle Lebewesen anaerob: Sie konnten Sauerstoff nicht nur nicht nutzen; er muss für diese Organismen geradezu giftig gewesen sein. Folglich sind die meisten der anaeroben Organismen mit dem Anstieg der atmosphärischen Sauerstoffkonzentration ausgestorben: mit Ausnahme einiger Bakterienarten sind praktisch alle heutigen Lebewesen aerobe Organismen, die zwingend auf Sauerstoff angewiesen sind, auch alle Pflanzen und alle Tiere sowieso.

Es stimmt schon ein bisschen nachdenklich: Die sauerstoffhaltige und CO2- arme Atmosphäre, die wir als natürlich empfinden und schützen wollen, ist strenggenommen das Ergebnis einer frühen Umweltkatastrophe. Heute existieren deren Opfer, die ursprünglichen anaeroben Organismen, nur noch in ökologischen Nischen; sie kommen in den Faulschlammbecken der Kläranlagen, in Biogasanlagen, im Erdboden und in tierischen und menschlichen Därmen vor und produzieren dort unter anderem Methan.

2.4.2 Der natürliche, fragile Kohlenstoffkreislauf

Für viele Photosynthese-treibenden Organismen waren und sind die verbliebenen 200 bis 300 ppm(v) CO2 in der Atmosphäre eigentlich zu wenig. Die Evolution musste sich sogar einige Tricks einfallen lassen, damit vor allem Landpflanzen mit diesen geringen Spuren von Kohlendioxid zurechtkommen. So gibt es mittlerweile eine ganze Reihe verschiedener Varianten der Photosynthese bzw. der CO2-Assimilation, die dem mickrigen CO2