30 Jahre Mauerfall Mehr erfahren
APUZ Dossier Bild
1|2|3|4|5 Auf einer Seite lesen

10.11.2011 | Von:
Ortwin Renn

Wissen und Moral - Stadien der Risikowahrnehmung - Essay

Die Ereignisse von Tschernobyl und Fukushima haben die Risikowahrnehmung der Kernenergie in Deutschland stark beeinflusst. Der Beitrag verfolgt die Wahrnehmung des Risikos von Großtechnologien von 1986 bis heute.

Einleitung

Die Ereignisse in Fukushima haben in Deutschland zu einer deutlichen Zäsur in der Bewertung von großtechnischen Risiken geführt: Alle politischen Parteien, die im Bundestag vertreten sind, nahezu alle relevanten gesellschaftlichen Gruppen sowie die Mehrheit der Bevölkerung haben sich auf einen Ausstieg aus der Kernenergienutzung in Deutschland geeinigt. Dabei sind die Risiken der Kernenergie in Deutschland nach Fukushima nicht anders zu bewerten als vorher. Die Ethikkommission schreibt dazu: "Die Risiken der Kernenergie haben sich mit Fukushima nicht verändert, wohl aber die Risikowahrnehmung. Mehr Menschen als früher ist bewusst geworden, dass die Risiken eines großen Unfalls nicht nur hypothetisch vorhanden sind, sondern dass sich solche Unfälle auch konkret ereignen können. Somit hat sich die Wahrnehmung eines relevanten Teils der Gesellschaft an die Realität der Risiken angepasst."[1]

Angesichts der unveränderten Risikolage ist es verwunderlich, dass die Politik so rasch und so gleichförmig auf die Ereignisse in Fukushima reagiert hat. Allerdings ist die Kernkraft in Deutschland schon seit Jahrzehnten umstritten. Dass allerdings die schwarz-gelbe Koalition umgehend ihre Politik auf den Kopf stellte und sich an die Spitze der Befürworter eines schnellen Ausstiegs setzte, hat viele überrascht.

Die massive Reaktion in Deutschland ist nur verständlich, wenn man sich die Entwicklung des politischen Diskurses um Kernenergie und andere Großtechniken in Deutschland und anderen westlichen Ländern vergegenwärtigt. Im Folgenden soll daher die Kernenergiedebatte rekonstruiert und in den größeren Zusammenhang der Auseinandersetzungen um großtechnische Risiken eingebettet werden. Dabei geht es weniger um einen historischen Abriss als vielmehr um den Versuch, die Genese und den Verlauf eines Diskurses zu beschreiben und soziologisch zu deuten.

Zäsur von 1986

Moderne Großtechnologien wie die Nutzung der Kernkraft genossen bis in die 1970er Jahre starken öffentlichen Rückhalt, und die Vertreter der technischen Elite hatten maßgeblichen Einfluss auf die Politik.[2] Die Risikoabschätzungen der Experten lieferten ausreichenden Rückhalt dafür, dass die intuitive Wahrnehmung andauernder Bedrohungen, die in vielen Risikowahrnehmungsstudien zum Ausdruck kamen,[3] als ungerechtfertigt erschien. Trotz einer großen Anzahl von Bewegungen gegen die höchst unpopuläre Kernenergie, trotz andauerndem Protest gegen den Bau neuer chemischer Fabriken oder die Erweiterungen von Flughäfen, trotz Alternativbewegungen, die überall in Europa und den USA aufkamen, waren die Vertreter der Technikeliten in der Lage, konservative, liberale und sozialdemokratische Parteien in allen westlichen Ländern von ihren Ideen und Plänen zu überzeugen. In Deutschland wurden Kernkraftwerke gebaut und in Betrieb genommen, in der Schweiz liefen alle Volksentscheide bis 1986 darauf hinaus, Kernkraftwerke in Betrieb zu behalten. In Schweden bestimmte 1980 ein Volksentscheid, die bestehenden Kernkraftwerke in begrenztem Rahmen bis zu einer vorbestimmten Laufzeit im Betrieb zu halten.

Dieses Bild änderte sich dramatisch nach den drei Katastrophen von 1986: der Explosion der US-Raumfähre "Challenger" (Januar), dem Reaktorunglück im Kernkraftwerk Tschernobyl (April) und dem Großbrand in einem Chemiewerk in Schweizerhalle bei Basel (November).[4] Unterstützer von Großtechnologien gerieten nunmehr in die Defensive, während die Skeptiker damit begannen, ein neues Denken über Risiken in Politik und Gesellschaft zu verankern. Jetzt wurden die Experten nicht nur für mangelnde Moralität, sondern darüber hinaus auch für mangelnde Rationalität ihres Fachwissens zur Verantwortung gezogen. Nahezu alle europäischen Länder bis auf Frankreich setzten die Entwicklung der Kernenergie aus. In Deutschland wurde nach langen und erbitterten Auseinandersetzungen das Projekt zur Wiederaufbereitung von Nuklearabfällen aufgegeben. Später entschied die neue Regierung unter Gerhard Schröder, aus der Kernenergie ganz auszusteigen.

Die Kernkraft war aber nicht die einzige Technologie, die nach gründlicher Infragestellung durch Gegenexperten und Bürgerinitiativen in Misskredit geriet. Es gab eine überbordende Stimmung der Ablehnung gegen die chemische Industrie, Wiederaufbereitungsanlagen von Abfällen, Straßenbauplänen, Flughafenerweiterungen und schließlich auch der Inbetriebnahme erster Labors und Produktionsanlagen zur Anwendung von Gentechnik.[5] Die magischen Begriffe der späten 1980er Jahre waren "Dezentralisation", "verbrauchernahe Versorgung", "erneuerbare Energien", "ökologische Landwirtschaft", "Ausbau öffentlicher Verkehrsmittel" und "technische Entwicklung auf Grundlage sanfter Technologien". Diese neue Sichtweise von Risiko fand ihren Niederschlag auch in der Durchsetzung härterer Sicherheitskriterien und der strengen Anwendung des Vorsorgeprinzips.[6]

Das Imperium schlägt zurück: Die Rache der technischen Elite

Im ersten Jahrzehnt nach den Ereignissen von 1986 wurde die technische Risikoelite in eine Verteidigungshaltung gedrängt. Doch nach 1996 drehte sich der Wind von neuem. Die in der Nach-Tschernobyl-Zeit verschmähte Logik der Experten wurde rehabilitiert, als bekannt wurde, dass die Katastrophen von 1986 so katastrophal, wie zu Anfang befürchtet, gar nicht waren. Der Rhein hatte sich von dem Unfall in Schweizerhalle sehr viel schneller erholt, als selbst die Optimisten es zu prognostizieren gewagt hätten. Die "Challenger"-Katastrophe blieb bis auf ein weiteres Ereignis die Ausnahme bei der Erkundung des Weltraums. Gemäß dem Urteil der meisten Toxikologen und Strahlenforscher hatte sogar der große Reaktorunfall von Tschernobyl wesentlich weniger Opfer hervorgerufen, als es in der Öffentlichkeit dargestellt worden war.

Von daher entpuppten sich nach Ansicht der Experten die scheinbar apokalyptischen Ereignisse des Jahres 1986 lediglich als eine Episode in der Folge von tragischen, aber letztlich unvermeidbaren Vorfällen - wie Dammbrüche, Hurrikane, Fluten, Erdbeben und anderem. War damit das Ende der "Risikogesellschaft" eingeläutet? In der Tat kehrten viele Experten zum alten Stil zurück. Risikoabschätzung und -bewertung sollten sich wieder an der Produktformel von Wahrscheinlichkeit und Ausmaß orientieren und als Grundlage der staatlichen Risikobewertung dienen. Vor allem kritisierten Risikoanalytiker die Regulierungsbehörden und mit ihnen die Politik, sie würde ihre Entscheidungen statt auf Basis der harten, wissenschaftlichen Daten auf Basis der in der Regel verzerrten Risikowahrnehmungen der betroffenen Menschen treffen. Denn dadurch würden mehr Menschen in Gefahr gebracht als bei nüchterner Abwägung der Risiken.[7]

Am Ende des Jahres 1990 schien das Pendel zurück zu schwingen zu einer neuen Ära, in der Experten wieder das Zepter in der Risikoabschätzung und -bewertung in der Hand trugen. Zur gleichen Zeit warnten jedoch viele Analytiker aus den Sozialwissenschaften davor, dass die Missachtung öffentlicher Wahrnehmung ihren Preis fordern würde.[8] Man würde diejenigen von der Politik entfremden, die sich als aktive Staatsbürger um politische Steuerungsfragen kümmern wollten. Zudem würde mit einer einseitigen Abstützung auf Expertenurteile auch der potenzielle Beitrag unterschätzt, den die Öffentlichkeit bei der Entscheidungsfindung im Risikomanagement liefern könne. Die vielen Bürgerproteste, die sich in den Folgejahren entwickelten, legen Zeugnis davon ab, dass die Entscheidungsträger zwar stärker auf Expertenurteile zurückgriffen, die breite Öffentlichkeit aber weiterhin dem eher postmodernen Gedanken an eine Pluralität von Wahrheiten und dem Egalitätsprinzip von Rechtfertigungen anhing.

Nach der Jahrtausendwende

Im ersten Jahrzehnt des neuen Jahrtausends veränderte sich die Debatte über Risiken ein weiteres Mal: das Augenmerk richtete sich zunehmend in Richtung auf soziale Risiken, insbesondere Terrorismus, Sabotage, Mobbing, Depression, Selbstmord und andere schwer zu fassende Gründe für menschliches Leid.[9] Zu einem dramatischen Wandel im Denken über Risiken kam es aber erst mit dem Aufkommen eines neuen Risikotyps, der mit dem Begriff "systemisches Risiko" verbunden wurde.[10]

Seinen Ursprung hat dieser Begriff in den Finanzwissenschaften. Zunächst werden damit recht allgemein Risiken bezeichnet, die ein Finanzsystem oder die Ökonomie insgesamt und nicht nur spezifische Marktteilnehmer betreffen. Gleichzeitig steht bei systemischen Risiken die nicht intendierte Verknüpfung von Ereignissen mit anscheinend damit nicht funktional verbundenen anderen Ereignissen oder Folgen im Vordergrund. So hat die Hypothekenkrise ab Frühjahr 2007 auch die Finanzprodukte betroffen, deren Buchwerte sich auf andere, durchaus in sich solide finanzierte Schuldverschreibungen bezogen. In der finanzwissenschaftlichen Betrachtung wurde schon früh erkannt, dass solche systemischen Ereignisse nicht alleine in der Ökonomie auftreten können, sondern auch in anderen gesellschaftlichen Systemen. Allgemein wurde auf die besondere Verletzlichkeit hoch vernetzter Systeme hingewiesen, in denen der Zusammenbruch einzelner Systemkomponenten in der Art des Dominoeffekts auch andere Teile des Systems und schließlich gar das ganze System erfassen kann.[11]

Systemische Risiken beschreiben Zustände, bei denen sich die eine Bedrohung durch die Verknüpfung von Risikopotenzialen aus unterschiedlichen Einflusssphären (Technik, Wirtschaft, Lebensstil) und ihren funktionalen Abhängigkeiten ergibt. Die Entwicklungen der Globalisierung vergrößern das Potenzial systemischer Risiken. Insbesondere lassen sich folgende Einflussfaktoren aufführen, welche die Verwundbarkeit vergrößern:

  • die Geschwindigkeit der Verstädterung (voraussichtlich werden nach 2020 zwei Drittel der Weltbevölkerung in Städten leben);[12]

  • die unzureichende Infrastruktur, um der Verstädterung gerecht zu werden;[13]

  • die Kopplung voneinander unabhängiger Risikoquellen (Wechselwirkung von Naturkatastrophen mit chemischen, technologischen, durch Lebensstil bedingten und sozialen Risiken);[14]

  • die Zunahme der Mobilität und kulturelle Entwurzelung (und dadurch auch Verlust traditioneller Managementfähigkeiten);[15]

  • die Verstärkung und Intensivierung sozialer Konflikte;
  • die mangelnde Pufferkapazität bei Krisen und zu geringe Anpassungsmöglichkeiten an veränderte Bedingungen.[16]

Angesichts dieser neuen Herausforderungen befassten sich Wissenschaft und Politik zunehmend mit systemischen Risiken. Denn diese bedingen Nebenwirkungen über die betrachteten Systemgrenzen hinaus, wodurch eine ganze Folge sekundärer und tertiärer Auswirkungen ins Blickfeld geraten.[17] Der Soziologe Ulrich Beck spricht in diesem Zusammenhang von "entgrenzten" Risiken.[18] Dabei tritt erneut eine Wechselwirkung zwischen physischen Gefahren und deren sozialer Verarbeitung zu Tage. Die oft gewalttätigen Demonstrationen gegen das globale Auftreten von Organisationen oder Institutionen öffnen die Kluft zwischen denen, die daran glauben, von einer Risikoübernahme zu profitieren, und jenen, die sich diesen Risiken hilflos ausgesetzt fühlen und durch die fortschreitende Globalisierung von Risiken den Boden unter den Füßen zu verlieren glauben. Auf dem Spiel stehen dabei nicht nur Gesundheit und Leben, sondern auch soziale Werte wie Identität, Gerechtigkeit und kulturelle Kohäsion.

Vor dieser Folie der systemischen Risiken müssen auch die Ereignisse von Fukushima interpretiert werden. Dass in einem Hochtechnologieland wie Japan naheliegende Sicherheitsvorkehrungen nicht eingehalten und im Verlauf der Katastrophenbewältigung zahlreiche Fehler gemacht wurden, unterstreicht den Eindruck, dass die modernen Institutionen des Risikomanagements die Gefahren nicht mehr beherrschen, von deren Beherrschbarkeit sie ausgegangen sind. Bei hoher Komplexität und enger Kopplung der technologischen Entwicklungen bleibt, so die Analyse des Soziologen Charles Perrow, ein geplantes und geordnetes Management Makulatur.[19]

Dazu kommt noch, dass komplexe und eng gekoppelte technische Systeme besondere hohe Anforderungen an Bedienung und Steuerung stellen. Bei jeder Fehlermeldung können mehrere Probleme vorliegen: Die Signalanlage kann einen Defekt haben, die Sensoren können etwas Falsches melden, die Störung kann von einer Komponente ausgehen, die nur indirekt mit dem angeblich ausgefallenen Teilsystem in Verbindung steht, oder das Signal sagt genau das aus, was es anzeigt. Diese Mehrdeutigkeit ist gepaart mit der Dringlichkeit, schnell und effektiv zu handeln. Zwar werden technische Systeme heute so ausgelegt, dass unabhängige und redundant angelegte Überprüfungen sensibler Anlageteile vorgenommen werden und der Zeitdruck durch automatisch einsetzende Überbrückungsroutinen abgemildert wird. Dennoch überfordert die Komplexität häufig die Reaktionsmöglichkeiten der Operateure, auch wenn diese konzentriert und gewissenhaft arbeiten. Nicht der Mensch versagt also in einem solchen Falle, sondern die Schnittstelle Mensch-Maschine ist nicht für die Fähigkeiten und Grenzen menschlicher Steuerung ausgelegt.

Hochtechnologie ist nur noch durch Improvisation steuerbar. Dieser Eindruck der mangelnden Beherrschbarkeit hat viel dazu beigetragen, dass die Menschen das Vertrauen in die Problemlösungskapazität der Risikomanager verloren haben. Mit dem Entzug des Vertrauens in die technische Elite erscheint Kernenergie nicht mehr akzeptabel zu sein. Vergleichende Analysen zur Kernenergie, etwa zwischen Frankreich und den USA, weisen deutlich darauf hin, dass ein Entzug von Vertrauen in die technische Elite einer der wichtigsten Erklärungsfaktoren für den Akzeptanzverlust gegenüber dieser Technologie darstellt.[20]

Schlussbetrachtung

Das bewusste Eingehen von Risiken im Bereich der Technologie ist für moderne industrielle Gesellschaften unvermeidlich. Risiken fallen aber nicht vom Himmel. Risiken einzugehen, sie zu begrenzen oder auch aktiv zu suchen, ist Ergebnis menschlicher Entscheidungen. In riskanten Situationen müssen die zur Verfügung stehenden Auswahlmöglichkeiten gegeneinander abgewogen werden. Die ausgewählte Option muss dabei moralisch begründet werden, wobei Sachwissen integraler Bestandteil dieser Abwägung sein muss. Expertenwissen und moralische Urteilskraft sind beide notwendige Bedingungen für ein akzeptables Risikomanagement. Gerade daran hat es bei der Einführung der Kernenergie gefehlt.

Ein solcher Prozess der Abwägung benötigt einen strukturellen Rahmen, in dem sich Gestaltungsdiskurse institutionell entfalten können. Die wichtigen Entscheidungen über Risiken können weder in einer Expertokratie gefunden werden, noch durch eine Politik, die sich im Bemühen um Akzeptanz vorauseilend der Bevölkerung anbiedert. Was benötigt wird, sind gesellschaftliche Netzwerke, in denen Experten, Entscheidungsträger in Wirtschaft und Gesellschaft sowie von Risiken betroffene Bürgerinnen und Bürger gemeinsam die Aufgabe der Risikoabwägung vornehmen. Wie dies im Einzelnen organisiert werden kann, soll hier nicht ausgeführt werden. Es gibt bereits heute Ansätze, diese Art von Diskursen zu führen. Aber wir brauchen weitaus mehr derartige Versuche und Bemühungen, um die Lücke zwischen Wissen und Moral in der Bewältigung von Risiken in der modernen, globalisierten Welt zu schließen und ihre verlorene Einheit wiederzugewinnen.
1|2|3|4|5 Auf einer Seite lesen

Fußnoten

1.
Ethikkommission der Bundesregierung, Zukünftige Energieversorgung, Berlin 2011.
2.
Die folgenden Ausführungen sind zum Teil meinem Aufsatz entnommen: Ortwin Renn, Abschied von der "Risiko-Gesellschaft"?, in: Jens Aderhold/Olaf Kranz (Hrsg.), Intention und Funktion. Problem der Vermittlung psychischer und sozialer Systeme, Wiesbaden 2007, S. 230-251.
3.
Vgl. Ortwin Renn, Risikowahrnehmung der Kernenergie, Frankfurt/M. 1984.
4.
Vgl. ders., Risk Governance. Coping with Uncertainty in a Complex World, London 2008, S. 53ff.
5.
Vgl. Lennart Sjöberg et al., Risk Perception in Commemoration of Chernobyl: A Cross-National Study, Rhizikon: Risk Research Report No. 33, Stockholm 2000.
6.
Vgl. Peter Sand, The Precautionary Principle: A European Perspective, in: Human and Ecological Risk Assessment, 6 (2000) 3, S. 445-458; Ortwin Renn et al. (eds.), Precautionary Risk Appraisal and Management. An Orientation for Meeting the Precautionary Principle in the European Union, Bremen 2009.
7.
Vgl. Frank B. Cross, Facts and Values in Risk Assessment, in: Reliability Engineering and Systems Safety, (1998) 59, S. 27-45; David Okrent, Risk Perception and Risk Management: On Knowledge, Resource Allocation and Equity, in: Reliability Engineering and Systems Safety, (1998) 59, S. 17-25.
8.
Vgl. Sheila Jasanoff, The Songlines of Risk, in: Environmental Values, 8 (1999) 2, S. 135-152.
9.
Vgl. OECD, Emerging Systemic Risks. Final Report to the OECD Futures Project, Paris 2003.
10.
Vgl. Ortwin Renn/Florian Keil, Was ist das Systemische an systemischen Risiken?, in:GAIA Ecological Perspectives for Science and Society, 18 (2009) 2, S. 97ff.
11.
Vgl. George G. Kaufman/Kenneth E. Scott, What is Systemic Risk, and Do Bank Regulators Retard or Contribute to it?, in: The Independent Review, 7 (2003) 3, S. 371-391.
12.
Vgl. Brigit G. Jones/Walter A. Kandel, Population Growth, Urbanization, Disaster Risk and Vulnerability in Metropolitan Areas: A Conceptual Framework, in: Aaron Kreimer/Michael Munasinghe (eds.), Environmental Management and Urban Vulnerability. Discussion Paper No. 168, The World Bank, Washington, D.C. 1992.
13.
Vgl. OECD (Anm. 9), S. 44ff.
14.
Vgl. Ortwin Renn, Three Decades of Risk Research: Accomplishments and New Challenges, in: Journal of Risk Research, 1 (1997) 1, S. 49-71.
15.
Vgl. Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen (WBGU), World in Transition: Strategies for Managing Global Environmental Risks, Berlin 2000.
16.
Vgl. International Federation of the Red Cross and Red Crescent Societies, World Disasters Report 2000, Geneva 2000.
17.
Zu den sekundären und tertiären Auswirkungen durch "social amplification" vgl. Jeanne X. Kasperson et al., The Social Amplification of Risk: Assessing Fifteen Years of Research and Theory, in: Nick Pidgeon/Roger E. Kasperson/Paul Slovic (eds.), The Social Amplification of Risk, Cambridge 2003, S. 13-46.
18.
Vgl. Ulrich Beck, Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt/M. 1986; Joanne Linnerooth-Bayer/Ragnar E. Löfstedt/Gunnar Sjöstedt (eds.), Transboundary Risk Management, London 2001.
19.
Vgl. Charles Perrow, Normal Accidents. Living with High Risk Technologies, New York 1984.
20.
Vgl. Paul Slovic et al., Nuclear Power and the Public. A Comparative Study of Risk Perception in the United States and France, in: Ortwin Renn/Bernd Rohrmann (eds.), Cross-Cultural Risk Perception: A Survey of Research Results, Dordrecht-Boston 2000, S. 55-102.

Dossier

Energiepolitik

Die Energiewende stellt Deutschland vor große Herausforderungen. Schrittweise sollen Atomenergie und fossile Kraftstoffe durch erneuerbare Energie ersetzt werden. Dazu sind riesige Investitionen erforderlich. Gleichzeitig befindet sich der globale Energiemarkt im Umbruch: Während in Europa schrittweise mehr Wettbewerb eingeführt wird, konzentriert sich die Kontrolle über die weltweiten Öl- und Gasreserven zunehmend in der Hand von wenigen Staatsfirmen. Das Dossier ist Bestandsaufnahme der aktuellen Energiemärkte und bietet einen Ausblick auf Chancen und Risiken zukünftiger Energiepolitik.

Mehr lesen