APUZ Dossier Bild
1|2|3|4|5|6|7 Auf einer Seite lesen

9.11.2007 | Von:
Stefan Rahmstorf

Klimawandel - einige Fakten

Die bislang schon sichtbare Klimaänderung ist nur ein Vorbote viel größerer Veränderungen, die bei einem ungebremsten weiteren Anstieg der Treibhausgaskonzentration eintreten werden.

Einleitung

Ändert der Mensch das Klima? Und wenn ja, wie rasch und wie stark? Diese Fragen beschäftigen die Wissenschaft bereits seit über einem Jahrhundert. Mit "globaler Erwärmung" ist hier die Erwärmung der globalen Mitteltemperatur, nicht unbedingt eine Erwärmung überall auf der Erde gemeint.






Schon 1824 beschrieb Jean-Baptiste Fourier, wie Spurengase in der Atmosphäre das Klima erwärmen.[1] In den 1860er Jahren beschäftigte sich der Physiker John Tyndall mit der Wirkung verschiedener Treibhausgase, insbesondere von Wasserdampf. Im Jahr 1896 rechnete der schwedische Nobelpreisträger Svante Arrhenius erstmals aus, dass eine Verdoppelung des Kohlendioxid-(CO2-)Gehalts der Atmosphäre zu einer Temperaturerhöhung um vier bis sechs Grad Celsius führen würde. In den 1930er Jahren wurde in der Fachliteratur ein Zusammenhang der damals beobachteten Klimaerwärmung mit dem Anstieg des CO2 durch die Industrialisierung diskutiert; er war seinerzeit jedoch nicht zu belegen. Erst seit den 1950er Jahren wird die Gefahr einer anthropogenen (vom Menschen verursachten) Erwärmung ernst genommen. Im Rahmen des Internationalen Geophysikalischen Jahres 1957/58 gelang der Nachweis, dass die CO2-Konzentration in der Atmosphäre tatsächlich ansteigt; Isotopenanalysen zeigten zudem, dass der Anstieg durch Kohlenstoff aus der Nutzung fossiler Brennstoffe verursacht wurde - also vom Menschen. Erste Simulationsrechnungen mit einem Atmosphärenmodell in den 1960er Jahren ergaben einen Temperaturanstieg von zwei Grad bei angenommener Verdoppelung der CO2-Konzentration; ein weiteres Modell ergab einen Wert von vier Grad Celsius.

In den 1970er Jahren warnte die National Academy of Sciences der USA vor einer globalen Erwärmung.[2] Sie schätzte die Auswirkung einer CO2-Verdoppelung auf eine Zunahme der Temperatur um 1,5 bis 4,5 Grad. Diese Unsicherheitsspanne konnte in den vergangenen Jahren auf zwei bis 4,5 Grad verkleinert werden. 1990 erschien der erste Sachstandsbericht des Intergovernmental Panel on Climate Change (IPCC), weitere folgten 1996, 2001 und 2007.[3] In diesem Zeitraum haben sich die wissenschaftlichen Erkenntnisse derart erhärtet, dass inzwischen fast alle Klimatologen eine spürbare anthropogene Klimaerwärmung für erwiesen oder zumindest hoch wahrscheinlich halten.

Der Treibhauseffekt

Der Grund für den befürchteten Temperaturanstieg als Folge des steigenden CO2-Gehalts der Atmosphäre liegt im so genannten Treibhauseffekt. Die mittlere Erdtemperatur ergibt sich aus einem einfachen Strahlungsgleichgewicht. Einige Gase in der Atmosphäre greifen in die Strahlungsbilanz ein, indem sie zwar die ankommende Sonnenstrahlung passieren lassen, jedoch nicht die von der Erdoberfläche abgestrahlte langwellige Wärmestrahlung. Dadurch kann Wärme von der Oberfläche nicht so leicht ins All abgestrahlt werden; es kommt zu einer Art "Wärmestau" in der Nähe der Erdoberfläche. Anders formuliert: Die Oberfläche strahlt, wie jeder physikalische Körper, Wärme ab - je höher die Temperatur, desto mehr. Diese Wärmestrahlung entweicht aber nicht einfach ins Weltall, sondern wird unterwegs in der Atmosphäre absorbiert, und zwar von den Treibhausgasen (oder "klimawirksamen Gasen" - nicht zu verwechseln mit den "Treibgasen", die in Spraydosen Verwendung fanden und die Ozonschicht schädigten).

Die wichtigsten dieser Gase sind Wasserdampf, Kohlendioxid und Methan. Diese Gase strahlen die absorbierte Wärme in alle Richtungen gleichmäßig ab - einen Teil also auch zurück zur Erdoberfläche, was die Oberfläche aufheizt. Von außen betrachtet: Je undurchlässiger die Atmosphäre für langwellige Strahlung wird, aus desto höheren Luftschichten stammt die Strahlung, die ins All entweichen kann, um die ankommende Sonnenstrahlung auszugleichen. Umso höhere Luftschichten müssen also die nötige Temperatur für diesen Ausgleich haben, was die Atmosphäre darunter erwärmt. Das ist der Treibhauseffekt - ein ganz natürlicher Vorgang. Wasserdampf, Kohlendioxid und Methan kommen von Natur aus seit jeher in der Atmosphäre vor. Der Treibhauseffekt ist sogar lebensnotwendig - ohne ihn wäre unser Planet völlig gefroren. Der Grund zur Sorge über die globale Erwärmung liegt darin, dass der Mensch diesen Treibhauseffekt verstärkt. Da der Treibhauseffekt insgesamt für eine Temperaturdifferenz von 33 Grad verantwortlich ist, kann bereits eine prozentual geringe Verstärkung desselben zu einer Erwärmung um mehrere Grad führen.

Ein Vergleich mit unserem Nachbarplaneten Venus zeigt, welche Macht der Treibhauseffekt entfalten kann. Die Venus ist viel näher an der Sonne als wir, daher ist die ankommende Sonnenstrahlung fast doppelt so stark. Allerdings ist die Venus in eine dichte Wolkendecke gehüllt, die 80 Prozent der Sonnenstrahlung reflektiert - auf der Erde beträgt dieser Anteil nur 30 Prozent. Die auf der Venus absorbierte Sonnenenergie - die Differenz zwischen ankommender und reflektierter Strahlung - ist deutlich geringer als auf der Erde. Man könnte daher erwarten, dass die Venusoberfläche kälter ist als die Erdoberfläche. Das Gegenteil ist der Fall: Auf der Venus herrschen siedend heiße 460 Grad. Grund dafür ist ein extremer Treibhauseffekt: Die Atmosphäre der Venus besteht zu 96 Prozent aus Kohlendioxid. Wie konnte es dazu kommen? Auf der Erde begrenzt über Jahrmillionen die Verwitterung von Gestein die CO2-Konzentration. Da auf der Venus das zur Verwitterung benötigte Wasser kaum vorhanden ist, kann der geschilderte Regelkreis, der auf der Erde zur langfristigen Stabilisierung von CO2 und Klima führt, auf der Venus nicht funktionieren.

Treibhausgase und Temperaturanstieg

Kontinuierliche Messungen der CO2-Konzentration gibt es erst seit den 1950er Jahren, als Charles Keeling eine Messreihe auf dem Mauna Loa in Hawaii begann. Die berühmte Keeling-Kurve zeigt zum einen die jahreszeitlichen Schwankungen der CO2-Konzentration: das Ein- und Ausatmen der Biosphäre im Jahresrhythmus. Zum anderen zeigt sie einen kontinuierlichen Aufwärtstrend. 2005 hatte die CO2-Konzentration den Rekordwert von 380ppm (parts per million) erreicht. Dies ist der höchste Wert seit mindestens 700 000 Jahren - so weit reichen die zuverlässigen Daten aus Eiskernen zurück. Für den Zeitraum davor haben wir ungenauere Daten aus Sedimenten. Alles spricht dafür, dass man etliche Millionen Jahre in der Klimageschichte zurückgehen muss - in die Zeiten eines wesentlich wärmeren, eisfreien Erdklimas -, um ähnlich hohe Konzentrationen zu finden.

Wir verursachen derzeit Bedingungen, mit denen der Mensch es noch nie zu tun hatte, seit er den aufrechten Gang gelernt hat. Es gibt keinen Zweifel daran, dass es der Mensch ist, der den CO2-Anstieg verursacht. Wir wissen, wie viele fossile Brennstoffe (Kohle, Erdöl und Erdgas) wir verbrennen - CO2 ist das hauptsächliche Verbrennungsprodukt. Die jedes Jahr verbrannte Menge entspricht etwa dem, was sich zur Zeit der Entstehung der Lagerstätten von Öl und Kohle in rund einer Million Jahren gebildet hat. Nur etwa die Hälfte des von uns in die Luft gegebenen CO2 befindet sich noch dort, die andere Hälfte wurde von den Ozeanen und von der Biosphäre aufgenommen. Fossiler Kohlenstoff hat eine besondere Isotopenzusammensetzung, dadurch konnte bereits in den 1950er Jahren nachgewiesen werden, dass das zunehmende CO2 in der Atmosphäre fossilen Ursprungs ist.[4] Inzwischen ist auch die Zunahme des CO2 im Ozean durch Messungen belegt.[5] Dies führt zur Versauerung des Meerwassers und damit wahrscheinlich zu erheblichen Schäden an Korallenriffen und anderen Meeresorganismen.[6]

Neben diesem generellen Trend verstehen Wissenschaftler auch die beobachteten kleineren Schwankungen der CO2-Konzentration inzwischen immer besser. So machen sich Vulkanausbrüche oder Änderungen der Meeresströmungen im Pazifik (El-Niño-Ereignisse) auch in der CO2-Konzentration bemerkbar, weil die Biosphäre jeweils mit verstärktem oder geringerem Wachstum reagiert.[7] Vereinfacht gesagt: Steigt die CO2-Konzentration in einem Jahr weniger als normal, dann war es ein gutes Jahr für die Biosphäre. Umgekehrt steigt die CO2-Konzentration in Jahren mit verbreiteter Dürre oder Waldbränden (2002, 2003) besonders rasch an.

CO2 ist nicht das einzige Treibhausgas. Auch die Konzentration anderer Gase wie Methan (CH4), FCKW und Distickstoffoxid (N2O) ist durch menschliche Aktivitäten angestiegen. (Die von FCKW sinkt wieder, seitdem ihre Herstellung wegen ihrer zerstörerischen Wirkung auf die Ozonschicht weitgehend eingestellt wurde.) Auch diese Gase tragen zum Treibhauseffekt bei. Das wichtigste Treibhausgas ist der Wasserdampf. Es taucht in der Diskussion nur deshalb nicht auf, weil der Mensch seine Konzentration nicht beeinflussen kann. Selbst wenn wir künftig vorwiegend Wasserstoff als Energieträger einsetzen würden, wären die Einflüsse der Wasserdampfemissionen auf das Klima minimal. Unvorstellbar große Mengen an Wasserdampf verdunsten von den Ozeanen, bewegen sich in der Atmosphäre, kondensieren und fallen als Niederschläge wieder zu Boden. Innerhalb von zehn Tagen wird die gesamte Menge an Wasserdampf in der Atmosphäre ausgetauscht. Die Konzentration schwankt deshalb sehr stark von Ort zu Ort und von Stunde zu Stunde - ganz im Gegensatz zu den oben diskutierten langlebigen Treibhausgasen, die sich während ihrer Lebensdauer um den ganzen Erdball verteilen und daher überall fast die gleiche Konzentration haben (außer in Bodennähe, nahe der Quellen und Senken).

Seit jeher treiben Klimaforscher großen Aufwand, um den Wasserkreislauf genauer in ihren Modellen zu erfassen - das ist nicht nur wegen der Treibhauswirkung des Wasserdampfes wichtig, sondern vor allem auch zur Berechnung der Niederschlagsverteilung. Die Wasserdampfkonzentration hängt stark von der Temperatur ab. Warme Luft kann mehr Wasserdampf halten. Daher erhöht der Mensch indirekt auch die Wasserdampfkonzentration der Atmosphäre, wenn er das Klima aufheizt - eine klassische verstärkende Rückkopplung, da eine höhere Wasserdampfkonzentration wiederum die Erwärmung verstärkt.

Messdaten aus aller Welt belegen, dass in den abgelaufenen hundert Jahren neben der CO2-Konzentration auch die mittlere Temperatur deutlich gestiegen ist - und zwar etwa in dem Maße, wie es nach unserem physikalischen Verständnis des Treibhauseffekts auch zu erwarten ist. Die wichtigste Datenbasis sind die Messwerte der weltweiten Wetterstationen, die seit dem Jahr 1900 einen globalen Anstieg um 0,7 Grad zeigen. Dabei sind lokale Effekte, vor allem das Wachsen von Städten um Wetterstationen herum (der urban heat island effect), bereits herauskorrigiert. Ein anderer wichtiger Datensatz sind die Messungen der Meerestemperaturen. Die globale Erwärmung wird auch durch Satellitenmessungen bestätigt, ferner durch den weltweiten Gletscherschwund, das Schrumpfen des arktischen Meereises, den Anstieg des Meeresspiegels, das im Jahreslauf zunehmend frühere Tauen und spätere Gefrieren von Flüssen und Seen und das frühere Austreiben von Bäumen.

Ursachen der Erwärmung

Betrachten wir die Erwärmung im abgelaufenen Jahrhundert genauer, so können wir drei Phasen unterscheiden. Bis 1940 gab es eine frühe Erwärmungsphase, danach stagnierten die Temperaturen bis in die 1970er Jahre, und seither gibt es einen neuen, bislang ungebrochenen Erwärmungstrend. Dass dieser Verlauf nicht dem Verlauf des CO2 gleicht, wurde gelegentlich als Argument dafür vorgebracht, dass die Erwärmung nicht durch CO2 verursacht wird. Diese Argumentation ist jedoch zu simpel. Es versteht sich von selbst, dass CO2 nicht der einzige Einflussfaktor auf das Klima ist, sondern dass sich der tatsächliche Klimaverlauf aus der Überlagerung mehrerer Faktoren ergibt. In der Klimaforschung ist diese Frage als attribution problem bekannt, als Problem der (anteiligen) Zuweisung von Ursachen. Es gibt eine ganze Reihe von Ansätzen zu dessen Lösung. Auch wenn dabei komplexe statistische Verfahren zur Anwendung kommen, lassen sich die drei Grundprinzipien der verschiedenen Methoden sehr einfach verstehen.

Das erste Prinzip beruht auf der Analyse des zeitlichen Verlaufs der Erwärmung sowie der in Frage kommenden Ursachen. Die Idee ist die gleiche wie beim oben genannten zu simplen Argument - nur dass dabei die Kombination mehrerer möglicher Ursachen betrachtet wird, nicht nur eine einzige. Zu diesen Ursachen gehören neben der Treibhausgaskonzentration Veränderungen der Sonnenaktivität, der Aerosolkonzentration (Luftverschmutzung mit Partikeln, die aus Vulkanausbrüchen oder Abgasen stammen) und interne Schwankungen im System Ozean - Atmosphäre. Dabei braucht man die Stärke der gesuchten Einflüsse nicht zu kennen - ein wichtiger Vorteil mit Blick auf die Aerosole und die Sonnenaktivität, deren qualitativen Zeitverlauf man zwar relativ gut kennt, über deren Amplituden es aber noch erhebliche Unsicherheit gibt. Im Ergebnis zeigt sich, dass zumindest der zweite Erwärmungsschub seit den 1970er Jahren nicht mit natürlichen Ursachen zu erklären ist. Wie groß der Einfluss natürlicher Störungen auf die Mitteltemperatur auch sein mag, sie können die Erwärmung der vergangenen 30 Jahre nicht herbeigeführt haben. Der Grund hierfür liegt darin, dass mögliche natürliche Ursachen einer Erwärmung (etwa die Sonnenaktivität) seit den 1940er Jahren keinen Trend aufweisen, so dass unabhängig von der Amplitude lediglich die Treibhausgase in Frage kommen.[8]

Das zweite Prinzip beruht auf der Analyse der räumlichen Muster der Erwärmung (Fingerabdruck-Methode).[9] Treibhausgase fangen die Wärme vor allem in Bodennähe ein und kühlen die obere Atmosphäre; bei Änderungen der Sonnenaktivität ist dies anders. Durch Modellsimulationen lassen sich die Muster berechnen und mit den beobachteten Erwärmungsmustern vergleichen. Solche Studien ergeben einhellig, dass der Einfluss der gestiegenen Treibhausgaskonzentration inzwischen dominant und mit seinem charakteristischen "Fingerabdruck" in den Messdaten nachweisbar ist. Besonders aussagekräftig ist eine Kombination der beiden oben genannten Methoden. Eine solche Studie ergab Ende der 1990er Jahre ebenfalls, dass der Temperaturverlauf im 20. Jahrhundert nicht durch natürliche Ursachen erklärbar ist.[10]

Das dritte Prinzip beruht auf der Kenntnis der Amplitude der unterschiedlichen Antriebe. Für die Treibhausgase ist diese gut bekannt, für die anderen Einflussgrößen sind die Abschätzungen noch mit erheblicher Unsicherheit behaftet. Dennoch ergibt sich auch aus diesen Studien, dass der menschliche Einfluss auf die Klimaentwicklung des 20. Jahrhunderts dominant ist. Eine häufig in Klimamodellen verwendete Abschätzung der Sonnenaktivität[11] ergibt einen Anstieg im 20. Jahrhundert um 0,35 Watt/m2. Selbst wenn dies um ein Mehrfaches unterschätzt würde, wäre der menschliche Antrieb immer noch stärker. Neuere Erkenntnisse deuten sogar darauf hin, dass diese Abschätzung die Veränderung der Sonneneinstrahlung noch erheblich überschätzt.[12]

Keine dieser Studien ist für sich genommen ein endgültiger Beweis dafür, dass der Mensch die Hauptursache der Klimaerwärmung des 20. Jahrhunderts ist. Da aber alle Verfahren unabhängig voneinander konsistent zum gleichen Ergebnis kommen, müssen wir mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass der menschliche Einfluss inzwischen tatsächlich überwiegt.

In der öffentlichen Wahrnehmung spielt die Frage eine wichtige Rolle, wie "ungewöhnlich" die derzeitige Erwärmung ist - etwa, ob es im Mittelalter in der Nordhemisphäre schon einmal wärmer war (die Daten sprechen dagegen), oder ob es in der Arktis in den 1930er Jahren bereits ähnlich warm war wie heute (was der Fall ist). Daraus wird dann versucht, auf die Ursache zu schließen ("Wenn es früher schon mal so warm war, muss es ein natürlicher Zyklus sein"). Dies wäre jedoch ein Fehlschluss: Ob es im Mittelalter bereits wärmer war (etwa wegen einer besonders hohen Sonnenaktivität) oder nicht - wir könnten daraus nicht schließen, inwieweit die aktuelle Erwärmung durch natürliche Faktoren oder den Menschen bedingt ist.

Klimasensitivität

Wie stark ist die Wirkung von CO2 und den anderen anthropogenen Treibhausgasen auf das Klima? Wenn sich der Strahlungshaushalt um drei Watt/m2 (das ist die Wirkung des bisherigen Anstiegs der Treibhausgase) ändert, wie stark erhöht sich dann die Temperatur? Diese Frage ist entscheidend für unser gegenwärtiges Klimaproblem. Klimaforscher beschreiben die Antwort mit einer Maßzahl, der so genannten Klimasensitivität. Man kann sie in Grad Celsius pro Strahlungseinheit (°C/(Watt/m2)) angeben. Einfacher und bekannter ist die Angabe der Erwärmung im Gleichgewicht infolge der Verdoppelung der CO2-Konzentration (von 280 auf 560 ppm), was einem Strahlungsantrieb von knapp vier Watt/m2 entspricht. Zur Bestimmung der Klimasensitivität gibt es drei grundsätzlich verschiedene Methoden.

  1. Man kann von der im Labor gemessenen Strahlungswirkung von CO2 ausgehen, die ohne jede Rückkopplung eine Erwärmung um ein Grad bei einer Verdoppelung der Konzentration bewirken würde. Dann muss man die Rückkopplungen im Klimasystem berücksichtigen, im Wesentlichen Wasserdampf, Eis-Albedo und Wolken. Dazu benutzt man Modelle, die am gegenwärtigen Klima mit seinem Jahresgang und zunehmend auch an anderen Klimazuständen (etwa Eiszeitklima) getestet sind. Es ergibt sich eine Klimasensitivität von zwei bis 4,5 Grad.

  2. Man kann von Messdaten ausgehen und aus vergangenen Klimaschwankungen durch eine so genannte Regressionsanalyse den Einfluss einzelner Faktoren zu isolieren versuchen. Dazu benötigt man sehr gute Daten und muss alle Faktoren berücksichtigen; man muss dafür einen Zeitraum nehmen, in dem sich die CO2-Konzentration möglichst stark verändert hat, während sich andere die Klimasensitivität beeinflussende Faktoren von der heutigen Situation nicht zu sehr unterscheiden sollten (etwa die Lage der Kontinente). Daher eignen sich für solche Studien vor allem die Eiszeitzyklen, bei denen die CO2-Konzentration stark schwankte. Das für die Bohrung des Wostok-Eiskerns in der Antarktis verantwortliche französische Team hat 1990 anhand dieser Daten eine solche Analyse durchgeführt;[13] sie ergab eine Klimasensitivität von drei bis vier Grad.

  3. Eine dritte Methode ist jüngst durch Fortschritte in der Modellentwicklung und Computerleistung möglich geworden. Dabei nimmt man ein Klimamodell und variiert darin systematisch die noch unsicheren Parameterwerte (etwa solche, die bei der Berechnung der Wolkenbedeckung verwendet werden) innerhalb ihrer Unsicherheitsspanne. Man erhält dadurch eine große Zahl verschiedener Modellversionen - in einer kürzlich am PIK abgeschlossenen Untersuchung waren es eintausend Versionen.[14] In unserer Studie ergaben sich in den extremsten Modellversionen Klimasensitivitäten von 1,3 und 5,5 Grad.
Die drei ganz unterschiedlichen Methoden kommen also jeweils zu Abschätzungen der Klimasensitivität, die mit der noch aus den 1970er Jahren stammenden "traditionellen" Abschätzung von 1,5 bis 4,5 Grad konsistent sind. Man kann einen Wert nahe an drei Grad als den wahrscheinlichsten Schätzwert ansehen.

Sind die Abschätzungen der Klimasensitivität mit dem beobachteten Erwärmungstrend vereinbar? Der derzeitige Strahlungsantrieb der Treibhausgase abzüglich der abkühlenden Wirkung von Partikelverschmutzung ("Smog") beträgt netto 1,7 Watt/m2. Mit dem wahrscheinlichsten Wert der Klimasensitivität (drei Grad für Verdoppelung des CO2) ergibt dies eine Erwärmung von ca. 1,4 Grad - allerdings erst nach langer Zeit. Durch die Trägheit der Ozeane hinkt die Reaktion des Klimasystems hinterher - nach Modellrechnungen sollten bislang etwa die Hälfte bis zwei Drittel der Gleichgewichtserwärmung realisiert sein, also 0,7 bis 0,9 Grad. Man sieht an dieser einfachen Überschlagsrechnung, dass die Treibhausgase (im Gegensatz zu allen anderen Ursachen) problemlos die Erwärmung des 20. Jahrhunderts erklären können. Solche Modellberechnungen zeigen auch eine gute Übereinstimmung zwischen dem beobachteten zeitlichen Verlauf der Temperatur und demjenigen, der bei Berücksichtigung der verschiedenen Antriebsfaktoren vom Modell berechnet wird. Die im 20. Jahrhundert beobachtete Klimaerwärmung ist daher vollkommen konsistent mit dem, was in der obigen Diskussion über die Klimasensitivität gesagt wurde.

Projektionen

Zur Berechnung von Klimaszenarien benötigt man Emissionsszenarien, also Annahmen über den Verlauf der menschlichen Emissionen von CO2, anderen Treibhausgasen und Aerosolen. Zwischen 1996 und 2000 hat eine Gruppe von Wirtschaftswissenschaftlern für den IPCC 40 solcher Szenarien entwickelt und im Special Report on Emission Scenarios beschrieben (SRES-Szenarien).[15] Sie decken die Bandbreite von ökonomisch plausiblen Entwicklungen ab. Am pessimistischen Ende findet man eine Vervierfachung der CO2-Emissionen bis zum Jahre 2100; die optimistische Variante ist ein moderater weiterer Anstieg, gefolgt von einer allmählichen Abnahme auf einen Bruchteil der heutigen Werte. (Explizite Klimaschutzmaßnahmen wurden nicht berücksichtigt.)

Die CO2-Konzentration steigt in diesen Szenarien bis 2100 auf 540 bis 970ppm (ein Anstieg von bis zu 250 Prozent über den vorindustriellen Normalwert von 280ppm), wenn man annimmt, dass Ozeane und Biosphäre einen unveränderten Anteil unserer Emissionen aufnehmen. Berücksichtigt man noch, dass der Klimawandel auch diese Kohlenstoffaufnahme verändern kann (Rückkopplung des Kohlenstoffkreislaufes), dann vergrößert sich diese Spanne auf 490 bis 1260ppm. Der gesamte anthropogene Strahlungsantrieb im Jahr 2100 (alle Treibhausgase und Aerosole) variiert in diesen Szenarien zwischen vier und neun Watt/m2.

Um die denkbaren Auswirkungen dieser Szenarien auf die globale Mitteltemperatur zu berechnen, wurden für den vorletzten IPCC-Bericht Klimamodelle damit angetrieben, die weitgehend die Spanne der Unsicherheit in der Klimasensitivität erfassen. Im Ergebnis ergab sich eine Erwärmung um 1,14 bis 6,4 Grad für den Zeitraum 1990 bis 2095. Selbst bei sehr optimistischen Annahmen sowohl über die künftigen Emissionen als auch über die Klimasensitivität wird die Erwärmung insgesamt mindestens das Zweieinhalbfache dessen betragen, was wir bislang erlebt haben. Unser Klima wird Temperaturen erreichen, wie es sie wahrscheinlich seit mindestens 100 000 Jahren nicht mehr auf der Erde gegeben hat. Im pessimistischen Fall werden wir die mittlere Temperatur der Erde von ca. 15 Grad Celsius auf über 20 Grad erhöhen - eine Erwärmung, die wohl selbst über viele Jahrmillionen einzigartig wäre. Neuere Studien deuten auf die Gefahr einer größeren Freisetzung von CO2 aus der Biosphäre infolge der Erwärmung hin. Dadurch würde die Konzentration auf noch höhere Werte steigen, und sogar eine globale Erwärmung um sieben oder acht Grad wäre möglich.[16] Könnte es auch glimpflicher ausgehen? Nichts spricht dafür, dass die Natur uns einen noch größeren Anteil unserer Emissionen abnehmen wird als bislang. Alles spricht gegen eine Klimasensitivität, die noch geringer ist als zwei Grad. Auch auf eine rasche und ungewöhnlich starke Abnahme der Sonnenaktivität oder auf kühlende Vulkaneruptionen können wir kaum hoffen.

Wie sicher sind die Aussagen?

Welche neuen Ergebnisse wären denkbar, die diese Erkenntnisse erschüttern? Nehmen wir an, man würde schwere Fehler in einer Reihe von Datenanalysen finden und käme zur Erkenntnis, das Klima sei im Mittelalter bereits wärmer gewesen als heute. Daraus müsste man folgern, dass die Erwärmung im 20. Jahrhundert um 0,7 Grad nicht ganz so ungewöhnlich ist wie bislang gedacht und dass auch natürliche Ursachen noch im vergangenen Jahrtausend ähnlich große Schwankungen verursacht hätten. Demnach wären die natürlichen Schwankungen, die sich jedem menschlichen Einfluss auf das Klima überlagern, größer als gedacht. Es würde jedoch nicht daraus folgen, dass auch die Erwärmung im 20. Jahrhundert natürliche Ursachen hat, ebenso wenig, dass die Klimasensitivität geringer ist als bislang angenommen. Wenn überhaupt, könnte man aus größeren Schwankungen in der Vergangenheit auf eine größere Klimasensitivität schließen. Solange die Abschätzung der Klimasensitivität nicht revidiert wird, bleibt auch die Warnung vor der Wirkung unserer CO2-Emissionen unverändert.

Nehmen wir an, neue Erkenntnisse würden eine starke Wirkung der Sonnenaktivität auf die Wolkenbedeckung ergeben, etwa durch Veränderung des Erdmagnetfeldes und der auf die Erde treffenden kosmischen Strahlung. Man hätte einen Mechanismus gefunden, wodurch sich Sonnenschwankungen wesentlich stärker auf das Klima auswirken als bislang gedacht. Daraus würde jedoch nicht folgen, dass die Erwärmung der vergangenen Jahrzehnte durch Sonnenaktivität verursacht wurde, denn weder Sonnenaktivität noch kosmische Strahlung weisen seit 1940 einen Trend auf. Einen Erwärmungstrend kann man so nicht erklären.

Der einzige wissenschaftliche Grund für eine Entwarnung wäre, wenn man die Abschätzung der Klimasensitivität stark nach unten korrigieren müsste. Dafür gibt es nur eine Möglichkeit: Es müsste starke negative Rückkopplungen geben, welche die Reaktion des Klimasystems auf die Störung des Strahlungshaushaltes durch CO2 abschwächen. Richard Lindzen, der vielen als der einzige fachlich ernst zu nehmende Skeptiker einer anthropogenen Erwärmung gilt, verwendet dieses Argument. Er postuliert einen starken negativen Rückkopplungseffekt in den Tropen, den von ihm so genannten Iris-Effekt, der dort eine Klimaänderung verhindert. Er hält deshalb die Klimasensitivität für praktisch gleich null. Auf das Argument, es habe in der Vergangenheit Eiszeiten und andere starke Klimaänderungen gegeben, erwidert er, dabei habe sich nur die Temperatur der hohen Breitengrade verändert, die globale Mitteltemperatur jedoch kaum.[17] Zu der Zeit, als Lindzen seine Iris-Theorie aufstellte, konnte man in der Tat aufgrund der unsicheren Daten noch so argumentieren; inzwischen gilt es unter Paläoklimatologen aber als gesichert, dass sich auch die Temperaturen der Tropen bei früheren Klimaänderungen um mehrere Grad verändert haben. Auf dem Höhepunkt der letzten Eiszeit lag die globale Mitteltemperatur nach heutiger Kenntnis um vier bis sieben Grad unterhalb der derzeitigen.

Die erheblichen Klimaschwankungen der Klimageschichte sind das stärkste Argument dafür, dass das Klimasystem sensibel reagiert und die heutige Abschätzung der Klimasensitivität so falsch nicht sein kann. Gäbe es starke negative Rückkopplungen, die eine größere Klimaänderung verhindern würden, wären die meisten Daten der Klimageschichte unverständlich. Hunderte von Studien wären falsch, und wir müssten beim Schreiben der Klimageschichte ganz von vorne anfangen. Eine solche noch unbekannte negative Rückkopplung wäre der einzige Ausweg aus der ansonsten unausweichlichen Folgerung, dass eine Erhöhung der Treibhausgaskonzentration die von den Klimatologen vorhergesagte Erwärmung verursachen wird.

Die bislang schon sichtbare Klimaänderung ist nur ein kleiner Vorbote viel größerer Veränderungen, die bei einem ungebremsten weiteren Anstieg der Treibhausgaskonzentration eintreten werden. Bei Annahme einer Reihe plausibler Szenarien für die künftigen Emissionen und unter Berücksichtigung der verbleibenden Unsicherheiten in der Berechenbarkeit des Klimasystems rechnet das IPCC mit einem globalen Temperaturanstieg von zwei bis sieben Grad bis zum Ende des Jahrhunderts, über das vorindustrielle Temperaturniveau hinaus. Die letzte vergleichbar große globale Erwärmung gab es, als vor rund 15 000 Jahren die letzte Eiszeit zu Ende ging: Damals erwärmte sich das Klima global um etwa fünf Grad. Doch diese Erwärmung erfolgte über einen Zeitraum von 5000 Jahren - der Mensch droht nun einen ähnlich einschneidenden Klimawandel innerhalb eines Jahrhunderts herbeizuführen.
1|2|3|4|5|6|7 Auf einer Seite lesen

Fußnoten

1.
Dieser Beitrag beruht auf: Stefan Rahmstorf/Hans Joachim Schellnhuber, Der Klimawandel. Diagnose, Prognose, Therapien, München 20074.

Vgl. Spencer R. Weart, The Discovery of Global Warming, Cambridge, MA 2003.
2.
Vgl. Climate Research Board, Carbon Dioxide and Climate: A Scientific Assessment, Washington, DC 1979.
3.
Vgl. IPCC (ed.), Climate Change, Cambridge 1990, 1996, 2001 und 2007.
4.
Vgl. Hans E. Suess, Radiocarbon concentration in modern wood, in: Science, 122 (1955), S. 415 - 417.
5.
Vgl. C. L. Sabine u.a., The oceanic sink for anthropogenic CO2, in: Science, 305 (2004), S. 367 - 371.
6.
Vgl. R. A. Feely u.a., Impact of anthropogenic on the CaCO3 system in the oceans, in: Science, 305 (2004), S. 362 - 366.
7.
Vgl. W. Lucht u.a., Climatic control of the high-latitude vegetation greening trend and Pinatubo effect, in: Science, 296 (2002), S. 1687 - 1689.
8.
Vgl. S. K. Solanki/N. A. Krivova, Can solar variability explain global warming since 1970?, in: Journal of Geophysical Research, 108 (2003), S. 1200.
9.
Vgl. G. Hegerl u.a., Multi fingerprint-detection and attribution analysis of greenhouse gas, greenhouse-gas-plus-aerosol and solar forced climate change, in: Climate Dynamics, 13 (1997), S. 631 - 634.
10.
Vgl. S.F.B. Tett u.a., Causes of twentieth-century temperature change near the Earth's surface, in: Nature, 399 (1999), S. 569 - 572.
11.
Vgl. J. Lean u.a., Reconstruction of solar irradiance since 1610 - implications for climate-change, in: Geophysical Research Letters, 22 (1995), S. 3195 - 3198.
12.
Vgl. P. Foukal u.a., A stellar view on solar variations and climate, In. Science, 306 (2004), S. 68f.
13.
Vgl. C. Lorius u.a., The ice-core record: climate sensitivity and future greenhouse warming, in: Nature, 347 (1990), S. 139 - 145.
14.
Vgl. T. Schneider von Deimling u.a., Climate sensitivity estimated from ensemble simulations of glacial climate, in: Climate Dynamics, 27 (2006), S. 149 - 163.
15.
Vgl. IPCC (ed.), Special Report on Emissions Scenarios, Cambridge 2000.
16.
Vgl. P.M. Cox u.a., Acceleration of global warming due to carbon-cycle feedbacks in a coupled climate model, in: Nature, 408 (2000), S. 184 - 187.
17.
Lindzen, persönliche Mitteilung an den Autor.