APUZ Dossier Bild
1|2|3|4|5 Auf einer Seite lesen

31.8.2004 | Von:
Hans-Jochen Luhmann
Manfred Fischedick

Renewables, adaptationspolitisch betrachtet

Die Ursachen des Klimawandels sind gesetzt, und wir warten auf die Folgen: die Temperaturerhöhung und deren Konsequenzen. Daneben betreiben wir "Klimapolitik", gemeint ist Mitigationspolitik, um Schlimmeres zu verhindern als das, was nicht mehr zu verhindern ist.

Einleitung

Das klimapolitische Hauptereignis des Jahres 2003 war nicht das Ergebnis bzw. die Entscheidung eines Gremiums, sondern der Effekt eines "Natur"-Ereignisses: die Hitze. Aufgesattelt auf die Fluten des Jahres 2002 hat sie einen Durchbruch im öffentlichen Bewusstsein geschafft, wie es politischen Vorgängen im engeren Sinne selten vergönnt ist. Bislang wurde das Erfordernis der Adaptation (Anpassung), der Zwillingsschwester der Mitigation (Vermeidung) von Treibhausgasen, ausgeblendet. Erst mit Flut und Hitzewelle in Deutschland sowie vergleichbaren Ereignissen weltweit wurde sie zum Thema.





Das Paradoxe an der Ausblendung, die Selbststabilisierung der Wahrnehmungsverweigerung gegen die eigenen Interessen, ist am einprägsamsten wohl aus dem Galilei-Konflikt bekannt - Bert Brecht hat es gleichsam zum literarischen Topos gemacht. Laut Brecht klagte Galilei: "Ich bin es gewohnt, die Herren aller Fakultäten sämtlichen Fakten gegenüber die Augen schließen zu sehen. Ich stelle mein Fernrohr zur Verfügung ... und man zitiert Aristoteles. Der Mann hatte kein Fernrohr." Das Fernrohr war Anfang des 17. Jahrhunderts ein gerade entwickeltes Wahrnehmungsinstrument, das Ergebnis einer damals neu beginnenden wissenschaftlich-technischen Dynamik. Es diente dazu, die im Rahmen der "Messgenauigkeit" zu Recht als statisch anzunehmende Wirklichkeit besser wahrzunehmen und damit das Bild der Welt zu verändern.





350 Jahre später hat der Erfolg der Wissenschaft, für die Galilei steht, die wahrzunehmende Wirklichkeit, hier das Klima, in eine Dynamik versetzt, die nur noch langfristig zu begrenzen ist - zu stoppen oder gar ungeschehen zu machen ist sie nicht mehr. Die neuzeitliche Wissenschaft hat es zugleich vermocht, für eine Weiterentwicklung der Wahrnehmungsmittel zu sorgen, für neue "Ferngläser". Heute kann es bei vernünftiger Verteilung knapper Forschungsmittel kaum mehr darum gehen, Ferngläser für die Wahrnehmung grundsätzlich neuer, räumlich entfernter Fakten zu entwickeln, es muss vielmehr um die Entwicklung und Erhöhung der Leistungsfähigkeit der "Ferngläser" gehen, die in der Lage sind, uns besser aufzukünftige Gefahren vorzubereiten, damit wir ihnen begegnen können und sie nicht zu Katastrophen werden.

Das solchen Gefahren angemessene moderne Wahrnehmungsmittel sind die Computermodelle der (regionalen) Klimafolgenforschung. Durch diese haben die modernen "Herren aller Fakultäten" zu blicken: Wirtschaftsunternehmen mit langfristigen Investitionsvorhaben genauso wie diejenigen politischen Instanzen, die für die Infrastruktur- und Regionalplanung zuständig sind, aber auch die Energieunternehmen und die Wissenschaften, die für die Konzipierung von zukünftigen klimagerechten Energiesystemen sorgensollen.

Was bei Galilei die Erlaubnis der Kardinäle war, ist heute die Finanzierung der Anfertigung und vor allem der Anwendung der modernen "Fernrohre". Wie es nicht gehen darf, wenn man die Brecht'sche Galilei-Szene nicht imitieren will, zeigt die folgende Episode. Bekanntlich ist der mitteleuropäische Gebirgsraum mit seinem Vorland besonders "fernrohrträchtig", denn er ist anfällig für Effekte des Klimawandels. Die bayerische Staatsregierung hatte im Vorfeld der Klimakonferenz von Rio zunächst wie die Römische Kurie reagiert: Sie hatte beschlossen, ihren Clavius, die bayerische Wissenschaft, das Fernrohr bauen zu lassen. Von 1990 bis 1999 ließ sie ein beeindruckend konzipiertes und dotiertes Programm der Klimafolgenforschung für den Voralpenraum durchführen (BayFORKLIM). Und sie gestattete auch, dass durch das Rohr geblickt wurde. Die Ergebnisse hätten öffentliches Aufsehen verdient gehabt. Von einer zu erwartenden "Häufung winterlicher Hochwassersituationen" war die Rede, ebenso von einer Bedrohung der "Vitalität der drei Hauptbaumarten des Bergmischwaldes". Ferner wurde berichtet, dass der Stickstoffhaushalt der Waldböden in eine Dynamik versetzt wird und dass die Sommertemperaturen im Bodenseegebiet um sechs Grad ansteigen werden - also um dreimal mehr als die globale Durchschnittstemperatur. Und das alles bei einer zentralen, aber in ihrer Bedeutung kaum kommunizierten Unterstellung, dass nämlich das Ziel der multilateralen Klimapolitik, die Begrenzung des Klimawandels auf plus zwei Grad Celsius, gesetzt und auch erreicht wird. Ein Bedarf nach solchen Ergebnissen existiert: Zum Bodenseegebiet zählt u.a. die Insel Reichenau, ein Gemüseanbaugebiet. Die Forstwirtschaft schließlich - und beispielhaft - hat sich in ihren Aufzuchtentscheidungen auf ein Temperaturszenario festzulegen, will sie nicht das Risiko eingehen, in sechzig Jahren mit grandios unangepassten Baumarten dazustehen.

Statt vor diesem Hintergrund aber in die Validierung der Ergebnisse einzusteigen, ist die bayerische Staatsregierung aus der Klärung der aufgeworfenen Fragen ausgestiegen - Galileis Kardinäle lassen grüßen. Das war im Jahre 1999 klaglos möglich. Am Ende des Jahres 2003 war alles anders, da wies der bayerische Umweltminister persönlich darauf hin, dass "für die Bodensee- und Karwendelregion (...) sogar eine Erwärmung um bis zu sechs Grad" prognostiziert werde.[1] Das Bundesministerium für Wissenschaft und Bildung entschied sich, Klimaforschungsmittel umzuschichten, weg von der reinen Klimaforschung hin zur Klimafolgenforschung. Eine Wahrnehmungsverweigerung wie die des Jahres 1999 wäre heute kaum mehr möglich.

Erneuerbare Energien und der Klimawandel

Der Klimawandel kommt, und er betrifft potenziell alles. Der Brecht'schen Mahnung gemäß hat sich auch die Energiesystemwissenschaft mit ihrem Thema "klimagerechte Energiesysteme" selbstkritisch zu betrachten, ob sie nicht auch einer Ausblendung unterliegt, die sie aufzuheben hat. Diese Ausblendung ist bei ihr sogar besonders nahe liegend und verführerisch, weil sie das Gute und Hilfreiche gegen den anthropogenen (vom Menschen verursachten) Klimawandel auf ihre Fahnen geschrieben hat. Das verführt erfahrungsgemäß dazu, das Ambivalente am Guten nicht ins Blickfeld zu rücken. Und in der Tat offenbart ein näherer Blick eine spezifische "Verletzlichkeit" auch der Erneuerbaren Energien (Renewables) bzw. des kommenden klimaverträglichen Energiesystems, welches die Erneuerbaren Energien sowie die Energieeffizienz als tragende Säulen aufweist.[2] Unter "Verletzlichkeit" soll dabei das verstanden sein, was systemtheoretisch als resilience bezeichnet wird, also eine in sich dynamische Stabilität, die nur bei einem Ausscheren über eine gewisse Grenze hinaus zum Funktionsverlust ("Katastrophe") führt.

Ausgangspunkt unserer Überlegungen ist zunächst die generelle Feststellung, dass jedes Energiesystem verletzlich ist.[3] Diese "Verletzlichkeit" ist ein Zwei-Faktor-Begriff, d.h., sie liegt nur vor, wenn ein äußerer Anlass und ein innerer (Vorsorge-) Mangel zusammentreffen. Zur Verletzlichkeit eines Energiesystems trägt deshalb nur zweierlei zugleich bei: erstens die innere Verfasstheit des Systems, seine "Konfiguration". Diese wird beeinflusst bzw. entscheidend gewandelt durch die Klimapolitik, die Politik der Mitigation, d.h. die Bemühungen, dem anthropogenen Klimawandel jenseits des Ausmaßes, wie es bereits nicht mehr zu verhindern ist, eine Grenze zu setzen. Zentrale Mittel der Mitigationspolitik sind technologische Maßnahmen, insbesondere der verstärkte Einsatz von Erneuerbaren Energien und der stärkere Zugang auf Energieeinsparpotenziale. Zur Verletzlichkeit tragen zweitens vielfältige Arten von (äußeren) Einflüssen bzw. "Angriffen" bei, etwa die Begrenztheit fossiler Ressourcen, das Risiko erheblicher Preisveränderungen oder auch nur -schwankungen sowie wie die Anfälligkeit gegenüber Sabotageakten oder terroristischen Übergriffen. Die Behandlung solcher Risiken des Energiesystems hat eine lange Tradition.

Eines ist neu hinzugekommen in das Feld äußerer Einflussfaktoren: das Thema "Klimawandel". Hier ist nicht nur Klimapolitik im Sinne einer Politik der Mitigation gemeint, die mehr oder weniger stark in der Lage ist, Investitionsentscheidungen zu beeinflussen, sondern auch und besonders der anthropogene Klimawandel - insbesondere der bereits veranlasste und nicht mehr aufzuhaltende Teil. Die genauen Ausprägungen des zu erwartenden Klimawandels kann man, regional differenziert, mit Hilfe der genannten modernen "Fernrohre" bestimmen. Generell gesprochen kommt es aufgrund der angewachsenen Treibhausgaskonzentrationen bzw. durch die ihnen entsprechende Erhöhung des Strahlungsantriebs nicht nur zu einer Temperaturerhöhung, sondern auch zu Wetterereignissen größerer Extremheit und höherer Häufigkeit. Diese beiden Wetterfolgen interferieren mit dem Energiesystem und seinen Komponenten in vielfältiger Weise, bis zu dem Punkt, dass auch die Erneuerbaren Energien und die Energieeffizienz, die maßgeblich zur Mitigation beitragen sollen, sowohl in ihrer Wirksamkeit als auch in ihrem Beitrag zur Verletzlichkeit des Systems gegenüber dem heutigen Zustand verändert werden können. Die Erwärmung der Erdatmosphäre beeinflusst die Nachfrage nach Temperierung bzw. Klimatisierung von Gebäuden. Sie beeinflusst auch die Angebotsseite, z.B. die Produktivität bzw. die Verfügbarkeit von thermischen Kraftwerksanlagen zur Zeit potenzieller Nachfragespitzen (z.B. Kühlwasserverfügbarkeit in Perioden anhaltender Trockenheit) und die Netzstabilität (Stürme). Es werden aber auch die Nutzungs- und Einsatzpotenziale Erneuerbarer Energien (Veränderung des erneuerbaren Energieangebotes bei Solareinstrahlung, Biomasse, Wasserkraft und Windenergie) von Extremereignissen tangiert, die durch den Klimawandel ausgelöst werden, was zu veränderten Ausfallmustern von Komponenten zukünftiger Energiesysteme oder gar dieser selbst führen könnte.

Dieser Gedanke, das sei beiläufig erwähnt, trifft in vergleichbarer Weise zu, wenn man unter einem "klimaverträglichen Energiesystem" ein stark auf Kernenergiestrom abgestütztes System versteht, wie es beispielhaft in Frankreich realisiert ist. Die Leichtwasserreaktoren zeichnen sich gegenüber fossilbefeuerten Kraftwerken durch einen deutlich geringeren Nutzungsgrad aus - entsprechend voluminös sind ihre "Einlaufbauwerke" und entsprechend hoch ist ihr Kühlwasserbedarf. Das Kühlwasserangebot aber wird in südlichen Lagen mit dem Klimawandel gerade im Sommer deutlich knapper; parallel wächst aufgrund der Klimatisierung der Spitzenlastbedarf in dieser Jahreszeit.

Will die Energiesystemwissenschaft der damit skizzierten adaptationspolitischen Herausforderung entsprechen, dann hat sie sich an die Arbeit zu machen. Zwei Aufgaben bzw. Arbeitsschritte zur Beantwortung der gestellten Frage sollen herausgegriffen und im Folgenden vertieft behandelt werden. Das ist erstens die Frage, auf welches Ausmaß von Klimawandel, der bereits gesetzt ist, wir uns einzurichten haben. Zweitens geht es darum, wie die Erhöhung der Häufigkeit und Extremheit von wetterbedingten Ereignissen so zu kalkulieren wäre, dass man sich darauf einrichten kann. Auf die Wechselwirkung mit den wesentlichen Mitigationsstrategien kann hier aus Platzgründen nicht detaillierter eingegangen werden. Jedoch soll wenigstens der folgende Hinweis gegeben werden, der beispielhaft zeigt, was die Auswirkungen sind bzw. wie immens sie sein können: Der Klimawandel bedeutet auch eine Veränderung der Windverhältnisse. Die Windgeschwindigkeit geht aber mit der dritten Potenz in den Stromertrag einer Windenergieanlage ein, womit die denkbaren Folgen evident sind.

Vorhersehbarer Mindestklimawandel

Zum Zwecke der Gefahrenabwehr hat man sich auf den Typ und das Ausmaß von Extremereignissen einzurichten, die für die Zukunft, wenn auch selten, so doch "realistisch" zu erwarten sind. Eine übliche und in der Regel probate Operationalisierung von "realistisch" ist das Faktische - man bestimmt die Häufigkeit des Auftretens eines Typs von Extremereignissen in der Vergangenheit und interpretiert diese Häufigkeit als die Wahrscheinlichkeit ihres Auftretens in der Zukunft. Exakt diese Interpretation aber ist nicht länger statthaft, weil bei aller Unsicherheit über das Ausmaß des Klimawandels eines gewiss ist: Er sorgt dafür, dass die Zukunft systematisch anders sein wird, als wir es aus der Vergangenheit kennen.

Was also haben wir unter diesen neuen Bedingungen realistisch zu erwarten? Woher eine Orientierung nehmen, wenn die probate Orientierung an der Erfahrung in der Vergangenheit ausfällt? Den entscheidenden Hinweis gibt der Wortsinn von "Realität" - sie ist eben nicht mit dem Faktischen gleichzusetzen. Die Realität der Natur ist das, was gleichbedeutend ist mit den Gesetzen der Physik. Und die Zukunft ist, bei aller Offenheit, ein Raum, d.h. etwas, das Grenzen hat. Jenseits der Grenzen liegt das, was nicht möglich ist, was zu erwarten unrealistisch ist. Mittels dieser Überlegung wird man an die Obergrenze des realistisch zu Erwartenden geführt. Dazu existiert ein Pendant, eine Untergrenze. Diese erhält man, wenn man die Frage stellt (und sie zu beantworten vermag): Was ist vom heutigen Standort aus mindestens und in diesem Sinne sicher zu erwarten, was sind wir also verpflichtet zu erwarten? Dies ist die neue Frage, die sich seit dem Sommer 2003 aufdrängt.

Die Antwort auf diese Frage lautet allgemein: Mindestens auf die Konsequenzen unserer bereits getroffenen Entscheidungen haben wir uns einzurichten. Es geht um die Konsequenzen desjenigen Teils des anthropogenen Klimawandels, den wir bereits akzeptiert haben. Der anthropogene Klimawandel weist die Besonderheit auf, dass zwischen der Veranlassung, dem Setzen der Ursache, und der später eintretenden Wirkung in Form einer Veränderung der atmosphärischen Mitteltemperatur eine große Zeitspanne liegt. Bis die induzierte Temperaturänderung auch nur annähernd den Gleichgewichtswert erreicht, braucht es bereits mehr als fünfzig Jahre. Unter "Ursache" wird die Menge der vom Menschen bereits emittierten Treibhausgase bzw. deren in der Atmosphäre verbliebener Rest, das erreichte Niveau der Konzentration von Treibhausgasen, verstanden. Das aber ist Ausdruck einer verkürzten Sicht. Eine vollere Sicht auf die zum heutigen Zeitpunkt bereits gesetzten Ursachen ist bezeichnet, wenn man in deren Formulierung die Menge an Treibhausgasen einschließt, die zwar noch nicht emittiert ist, deren Emission in Zukunft wir aber bereits akzeptiert haben bzw. nicht mehr zu verhindern vermögen.

Ein solch umfassender Begriff ist schwierig zu operationalisieren. Eine Annäherung aber ist einfach greifbar. Man könnte formulieren: "Unsere Entscheidungen" sind unsere Ziele, über die wir im Rahmen der Klimapolitik Beschlüsse gefasst haben - sie ist ja bislang wesentlich bis ausschließlich eine Politik der Mitigation, d.h. der Begrenzung bzw. Minderung der Treibhausgasemissionen. Die Beschlusslage der Staatengemeinschaft ist in Artikel 2 der Klimarahmenkonvention (FCCC) von Rio aus dem Jahre 1992 festgehalten: Wir lassen für die Zukunft einen gewissen Klimawandel zu. Wir lassen ihn aber nur soweit zu, bis er "gefährlich" zu werden droht. Das Mandat der Klimapolitik zielt nicht auf eine Vermeidung des anthropogenen Klimawandels; sie ist realistischerweise lediglich als eine Politik zur Begrenzung dieses selbst verursachten Wandels konzipiert. Ihr Erfolg, so unwahrscheinlich er auch sein mag, ist bei der Bestimmung dessen, was sicher und also mindestens zu erwarten ist, vorauszusetzen. Diese methodische Maxime ist zwingend.[4]

Die exakte Lage der mit Artikel 2 FCCC beschlossenen Grenze als Ziel der Mitigationspolitik ist umstritten. Die Strittigkeit gilt jedoch nicht für ihren unteren Rand - dessen Lage ist unstrittig. Er liegt bei einer Erhöhung der erdnahen Temperatur im globalen Mittel um rund zwei Grad Celsius. Diesen Temperaturanstieg haben wir uns "erlaubt" - er entspricht einer (knappen) Verdoppelung des Treibhausgasgehalts der Atmosphäre gegenüber vorindustrieller Zeit, also einem Anstieg um (knapp) 100 Prozent. Diese "Entsprechung" ist mit "gutmütigen" Klimamodellen berechnet, denn es soll ja nur um das unstrittige Minimum gehen. Und es gilt: Der mit dieser "Entsprechung" angegebene Temperaturanstieg gilt nur "im Gleichgewicht", also in einer Modellwelt, in der von allen Verzögerungen abgesehen wurde. In Abbildung 1 (s. PDF-Version) sind diese "Entsprechungen" gezeigt: als Entsprechungen der Säule "gesetzte Ursachen" und der Säule "Wirkungen".

Die Fakten: Als Ursache im engeren Sinne gesetzt hat der Mensch seit Beginn der Industrialisierung einen Anstieg der Konzentration von Treibhausgasen (THG) um 140 ppmv, also um 50 Prozent - das entspricht einem errechneten Anstieg der Lufttemperatur um 1,5 Grad Celsius.[5] Erreicht haben wir gegenwärtig einen Anstieg der gemessenen Temperatur um 0,7 Grad Celsius. Dieses Messergebnis ist weltweit gemittelt. In Europa, auf der Nordhalbkugel, haben wir einen deutlich höheren Temperaturanstieg zu verzeichnen, nämlich um 1,2 Grad Celsius. Der global gemittelte Temperatureffekt spreizt sich zwischen See und Land, er ist über Landmassen höher. Das wird auch so sein, wenn der initiierte Temperatureffekt sich seinem Gleichgewichtswert annähert. Er ist deshalb in Abbildung 1 (s. PDF-Version) für Europa auf plus 2,7 Grad Celsius gesetzt.

In erreichter Konzentration von Treibhausgasen gerechnet, haben wir also bereits fast zwei Drittel (58 Prozent) des nicht mehr Vermeidbaren gesetzt. In "Wirkungen" dagegen, also in eingetretener Temperaturerhöhung, ist erst rund ein Drittel präsent geworden. Letzteres - isoliert betrachtet - klingt entspannend, aber es handelt sich bei diesem Effekt um eine optische Täuschung. Diese hat zwei Gründe, die durchschauen muss, wer sich nicht desorientieren lassen will über den Stand der Klimabeeinflussung, die nicht mehr vermeidbar ist.

Der eine Grund ist die bereits erwähnte zeitliche Verzögerung des Zusammenhangs von gesetzter Ursache und schließlich im Gleichgewicht präsentem Temperaturanstieg - in Abbildung 1 (s. PDF-Version) ist diese Verzögerung mittels der beiden Thermometeranzeigen unter "Wirkungen" gezeigt. Stellt man diese Verzögerungseigenschaft in den Kontext der gesetzten Ursachen und in den Horizont der "Zwei-Grad-Celsius-Minimum-These", so lautet ihre Botschaft: Wir dürfen uns nicht täuschen lassen, denn wir haben bereits das Doppelte dessen veranlasst, was wir als historisch-tatsächlichen Temperaturanstieg seit 1870 erfahren haben. Die Verdoppelung dieser Erfahrung ist bereits unausweichlich. Was diese Aussicht sowohl in den Kategorien der Häufigkeit von Temperaturextremen als auch der Zunahme der Heftigkeit von Regen und Stürmen bedeutet, wird abschließend erörtert.

Um den zweiten Grund einzuführen, bietet sich ein Vergleich an: der von Sport und Wetter. Beim Wetter vermeldet z.B. das jährliche Bulletin der UN-Weltorganisation für Meteorologie (WMO) für die Region "Europa und Mittlerer Osten" regelmäßig neue "Rekorde". Dem von der Sportberichtlektüre gewitzten und zugleich desillusionierten Zeitgenossen kommt das bekannt vor. Statt "schneller, höher, weiter" heißt es beim Wetter: Mehr Hitze und Kälte, mehr Dürre, mehr Starkniederschläge ("Fluten") und mehr Stürme ("Orkane"). Der Vergleich trägt auch noch die Vermutung, bei den immer neuen Wetterrekorden könnte es nicht mit natürlichen Dingen zugehen, auch die seien nur mit einer Art "Doping" noch erklärlich. Im Verdachtsfall lauten die Antworten bei Wetter und Sport entsprechend: Im konkreten Fall wissen wir es (noch) nicht. Aber die Eigenschaften, die der Läufer oder der Werfer zeigt, passen recht genau in das Bild, welches wir bei Einnahme von Dopingmitteln erwarten. Und im Nachhinein bestätigen sich die Vermutungen in aller Regel.

Was für die Athleten Anabolika und Epo sind, sind für das Wetter die Treibhausgase. Selbst der vom Doping bekannte Trick der Maskierung ist beim Klima geläufig: Substanzen wie Rußpartikel und Aerosole haben einen abschattenden Effekt auf die langlebigen Treibhausgase, sind aber nur von kurzer Verweilzeit in der Atmosphäre. Stetige Neuproduktion lässt es dadurch "gelingen", einen Teil des durch langlebige Treibhausgase bereits "gesetzten" Temperatureffekts maskiert zu halten. Es funktioniert wie ein Geschäft nach dem (verbotenen) Schneeballsystem. Eines Tages aber muss zumindest ein Teil zum Vorschein kommen - das zu antizipieren, ist methodisch zwingend. Der Zeitpunkt, zu dem das der Fall sein wird, ist eingetreten, wenn das Ziel der Klima(mitigations)politik, der Ausstieg aus den fossilen Brennstoffen, erreicht sein wird. Deswegen ist die Aufhebung dieses Teils der Maskierung denknotwendig. Eine beinahe tragisch zu nennende Konstellation zeichnet sich ab: Ruß und anthropogene Aerosole anderer Quellen (in der Hauptsache aus der Mitverbrennung von Schwefel in biogenen bzw. fossilen Brennstoffen) in der Atmosphäre sind weit überwiegend Begleiterscheinungen der Verbrennung fossiler Brennstoffe. Lösen wir die Mitigationsaufgabe, so werden die Verbrennungsprozesse[6] und damit deren "schmutzige" Begleiterscheinungen deutlich zurückgehen, und als Lohn wird der maskierte Effekt aufgedeckt. Erwartet wird dies nach den Szenarien des Intergovernmental Panel on Climate Change (IPCC) "während der zweiten Hälfte des 21. Jahrhunderts"[7]. Der Strahlungseffekt, der da aufgedeckt wird, liegt nach Einschätzung des IPCC bei 0,6 W/qm.[8] In Abbildung 1 (s. PDF-Version) ist dieser Effekt über sein ppmv-Äquivalent in Höhe von 35 eingetragen.

Es gibt noch einen zweiten Verstärkungseffekt mit gleichem Zeitverzug zwischen Ursache und Wirkung in Form der Temperaturerhöhung: Die Verzögerung der Erwärmung, verstärkt durch die anthropogenen Aerosole, schafft eine kurzfristig hohe Fähigkeit borealer Wälder, Kohlenstoff einzubinden, über das hinaus, was ihnen nachhaltig möglich ist. Tritt die "programmierte" Temperaturerhöhung schließlich ein, wird sich ein Teil der eingebundenen Kohlenstoffe als nur "zwischengelagert" erweisen: Sie werden in die Atmosphäre ausgeschieden. Nur ein Drittel des in Wäldern eingebundenen Kohlenstoffs befindet sich nämlich stabil gelagert im Holz der Bäume, zwei Drittel dagegen befinden sich im labilen Humus, der leicht mikrobiell abbaubar ist. Es handelt sich bei diesem maskierten Teil somit um eine erhebliche Altlast, die wir vor uns herschieben.[9]

Zusammengenommen haben die beiden Momente einen Strahlungseffekt von 1,45 W/qm bzw. ein ppmv-Äquivalent von 85. Abbildung 1 (s. PDF-Version) zeigt die Bedeutung dieses Aufschlags auf die bereits erreichte Konzentration von Treibhausgasen und ihr Temperaturäquivalent im Gleichgewicht. Praktisch sind wir bereits in der Nähe jenes Wertes von plus zwei Grad Celsius angekommen, den viele als Wert der Auslegung von Art. 2 FCCC präferieren, aber noch verstanden als Wert der Begrenzung des anthropogenen Klimawandels, als Ziel der Mitigationspolitik. In dem hier gezeichneten Bild von der Situation schiebt sich das Unvermeidliche so nahe an dasjenige Begrenzungsziel heran, das dem Vorsorgeprinzip am ehesten entspricht, dass es dieses tendenziell als unerreichbar erscheinen lässt. Für das soziale Moment in der Bestimmung des nicht mehr Vermeidbaren, die "Trägheit" unserer gesellschaftlichen Entscheidungsprozesse, bleibt in diesem Bild nur noch ein Spielraum in Höhe von 0,1 Grad Celsius oder fünf Prozent jenes Spielraums, über den wir einst, etwa im Jahre 1860, dem Startjahr des Konzepts "industrielle Wirtschaftsweise", verfügten.

Mindestzunahme von Extremereignissen

Mit dem vorstehend Erläuterten ist geklärt, mit welchem Anstieg der Treibhausgaskonzentration und mit welcher Temperaturerhöhung wir im Durchschnitt mindestens zu rechnen haben. Für adaptationspolitische Zwecke aber, für eine Dimension des Handelns also, benötigen wir noch eine Art "Übersetzung": Was bedeutet dies für Temperatur-, Niederschlags- und Windereignisse, die wir in Zukunft deutlich häufiger und extremer zu erwarten haben? An welchem Maße haben wir uns zu orientieren?

Abbildung 2 (s. PDF-Version) zeigt in ihrer Stilisierung dieses Maß der Veränderung zwar nicht präzise, sie vermag das Entscheidende aber anzudeuten: die Nichtlinearität der Zunahme der zu erwartenden Extremereignisse. Sie zeigt ein Verschiebungsmuster wetterbedingter Extremereignisse am Beispiel Temperatur, welches aber, so der Anspruch, in gleicher Weise auch für Wind und Niederschlag gelten solle. Nahe liegend ist diese Gleichheit, weil es sich bei allen drei Parametern um solche mit Energiebezug handelt. Der Treibhauseffekt bedeutet, dass mehr Energie in der unteren Atmosphäre ist, und deren Umsetzung in eine erhöhte Lufttemperatur steigert deren Wasserhaltefähigkeit.

Der bekannte Satz, dass das Wettergeschehen im Einzelnen zufällig sei, wird in Abbildung 2 (s. PDF-Version) dadurch veranschaulicht, dass eine Wahrscheinlichkeitsverteilung für das Auftreten der zu charakterisierenden Ereignisse herangezogen wird, hier die Gauß'sche Normalverteilung. Der Klimawandel wird durch eine Verschiebung dieser Wahrscheinlichkeitsverteilung stilisiert. Dabei wird davon ausgegangen, dass deren Gestalt unverändert bleibt - begründet ist diese Unterstellung wiederum in der Maxime, dass nur das Minimum dessen, worauf wir uns einzurichten haben, herausgearbeitet werden soll. Unterstellte man, was eher zu erwarten ist, eine Vergrößerung der Varianz im Prozess des Klimawandels, dann käme man auf eine noch stärkere Nichtlinearität der Zunahme der Extremereignisse als hier im Ergebnis ausgewiesen.

Mit dem gewandelten Klima kommt es zu einer Verschiebung der Kurve nach rechts, relativ zu den konstant gehaltenen Grenzen der so genannten Extremereignisse. Ganz rechts kommt eine neue Grenze hinzu, die der "x-Jahrhundertereignisse" bzw. der katastrophalen Ereignisse. Ein "x-Jahrhundertereignis" ist das übliche Kriterium bei der Konzipierung der Auslegung des Schutzes gegen zufallsabhängig auftretende Wetterextreme. Zweierlei ist zu erkennen. Erstens: Bei einer Verschiebung der Normalverteilung des stochastisch auftretenden Ereignisses in Richtung "häufiger wärmer" wird die Verteilungskurve gleichsam über die Abgrenzungslinie verschoben, ab der definitorisch ein Extremereignis eingetreten ist; folglich nehmen diese an Häufigkeit zu, und zwar überproportional. Die Abbildung (s. PDF-Version) zeigt bei der bisherigen Kurve im linken Ast eine unterlegte Fläche - dieser Teil von Extremereignissen entfällt. Dafür wächst auf der rechten Seite dieselbe Fläche spiegelbildlich zu, nun aber in der Kategorie "katastrophale Ereignisse". Solche Ereignisse, deren Häufigkeit bislang nahe null war, steigen mit dem Klimawandel in ein Häufigkeitsband in Höhe der Hälfte der Extremereignisse im vorherigen Zustand. Zweitens: Die Extremereignisse selbst, also nach Abzug katastrophale Ereignisse, legen an Häufigkeit überproportional zu, ihr Zuwachs im neuen Zustand gegenüber dem bisherigen entspricht der markierten Fläche.

Ausblick

In diesem Beitrag wurde auf das Ausstehen eines ernsthaften Konzepts der Klima-Adaptationspolitik hingewiesen. Das geschah dadurch, dass eine zentrale Frage, die Bestimmung des Minimums, worauf wir uns einzurichten haben, traktiert wurde und die Konsequenzen an einem Detail unserer Infrastruktur, dem Energiesystem, immerhin angedeutet wurden. Voraussetzung der Durchführung dieser Fragestellung in Form einer "Fingerübung" war eine unrealistische Voraussetzung: nämlich, dass die Klimamitigationspolitik umgehend von Erfolg gekrönt ist.

Die Weichen in dieser Politik aber sind in Wirklichkeit ganz anders gestellt. Auch wurde mit, wie es hieß, "gutmütigen" Klimamodellen, gerechnet. Welchen Klimawandel wir in einer zu entwerfenden Adaptationspolitik realistisch ins Auge fassen müssen, ist damit zumindest abschließend angedeutet.

1|2|3|4|5 Auf einer Seite lesen

Fußnoten

1.
dpa vom 5.12.2003.
2.
Vgl. Joachim Nitsch/Manfred Fischedick, Die sanften Sieger: die Zukunft der regenerativen Energiewirtschaft, in: Politische Ökologie, 22 (2004) 87/88, S. 60 - 62.
3.
Vgl. Hans-Jochen Luhmann/Manfred Fischedick/Karl Otto Schallaböck, Vulnerability of the energy system in the age of man made global change, in: Geophysical research abstracts, 6 (2004); abrufbar unter www.cosis.net/abstracts/EGU04/07755/EGU04-J-07755 - 1.pdf.
4.
Vgl. Hans-Jochen Luhmann, Dürre, Sturm und Fluten: Das Ausmaß der ausstehenden Anpassung allein an die "Beschlusslage" wird kalkulierbar. Fernwirkungen des Anstiegs anthropogener Klimagaskonzentrationen, in: BTB-Magazin. Zeitschrift für Technik und Naturwissenschaften im öffentlichen Dienst, 42 (2004) 1, S. 8 - 9.
5.
ppmv = parts per million by volume.
6.
Netto, also auch, wenn man einen gewissen Aufwuchs an Verbrennung rezenten Kohlenstoffs gegenrechnet. Zu Recht nicht berücksichtigt ist dagegen die Verbrennung "reiner" (Sekundär-)Brennstoffe solaren Ursprungs wie Wasserstoff.
7.
Nebosja Nakicenovic/Keywan Riahi, Model Runs with MESSAGE in the Context of the Further Development of the Kyoto Protocol. Externe Expertise für das WBGU-Sondergutachten 2003, Berlin 2003, S. 16.
8.
Einstrahlungsleistung: Energie pro Quadratmeter (W/qm).
9.
Mit den Worten des Wissenschaftlichen Beirates der Bundesregierung Globale Umweltveränderungen (WBGU) in seinem Post-Kioto-Gutachten: Der Effekt der Aerosole ist, dass "negative Auswirkungen des Klimawandels auf den Kohlenstoffkreislauf in die Zukunft verlagert" werden. Der WBGU spricht vom "Übergangscharakter der derzeitigen terrestrischen Kohlenstoffsenken". WBGU, Welt im Wandel. Über Kioto hinaus denken: Klimaschutzstrategien für das 21.Jahrhundert. Sondergutachten zur 9. Vertragsstaatenkonferenz der Klimarahmenkonvention vom 1. bis 12.12. 2003 in Mailand, Berlin 2003, S. 24 f.