Die Großskulptur "Der Zauberlehrling" der Künstlergruppe Inges Idee aus Berlin steht am 21.06.2013 in Oberhausen (Nordrhein-Westfalen) auf einer Wiese. Bevor die «Emscherkunst.2013» am 22.06.2013 eröffnet wird, wurden einige Objekte auf dem Areal, das sich von Dinslaken bis Gelsenkirchen erstreckt, vorab der Presse präsentiert.
1|2|3 Auf einer Seite lesen

27.1.2014 | Von:
Ortwin Renn

Mit Sicherheit ins Ungewisse. Möglichkeiten und Grenzen der Technikfolgenabschätzung - Essay

Die Zukunft vorherzusagen ist ein alter Traum der Menschheit. Wie viele andere Träume ist auch das Wissen um künftige Ereignisse Fluch und Segen zugleich. Kann man am eigenen Schicksal nichts mehr ändern, so ist das Wissen um die Zukunft bestenfalls Einsicht in die Notwendigkeit, schlimmstenfalls Verzweiflung vor dem unabdingbar Bevorstehenden. Lässt sich die Zukunft durch das eigene Verhalten steuern, gewinnt der Mensch neue Freiheiten, muss sich dann aber auch der Verantwortung stellen, die mit der Möglichkeit der Vermeidung von negativen Ereignissen einhergeht. Ob er sich mit dieser Verantwortung für die Vermeidung von künftigem Übel nicht prinzipiell übernimmt, wie der Philosoph Robert Spaemann mutmaßt, soll hier dahingestellt bleiben.[1] Der Blick in die Zukunft ist von der erlebten Ambivalenz menschlicher Eingriffe in den Lauf der Geschichte geprägt: Mit ihr gehen Faszination und Schauder, Zuversicht und Angst, Machbarkeit und Duldung einher.

Die moderne Soziologie begegnet dem Phänomen der Mehrdeutigkeit und Mehrgleisigkeit der Zukunft mit dem Begriff der "Kontingenz".[2] Kontingenz bedeutet, dass der Mensch in seinen Entscheidungen immer vor mehr als einer (gedanklich greifbaren) Möglichkeit steht, wie Zukunft sich ereignen könnte. Kontingente Ereignisse oder Handlungen sind weder notwendig noch unmöglich: Sie können eintreffen, müssen es aber nicht. Welche Gestalt die Zukunft schließlich annehmen wird, bleibt dem Handelnden im Voraus verborgen; er muss sich aber, wenn er zielgerecht handeln möchte, auf unterschiedliche Zukunftsmöglichkeiten einstellen. Zu jedem Zeitpunkt sind mehrere Zukünfte möglich; jede Entscheidung und jede Handlung schneidet mindestens eine mögliche Zukunft ab.[3] Der Philosoph Alfred K. Treml hat das Erlebnis der Kontingenz in das schöne Wortspiel gefasst: "Am Anfang der Moderne konnte Luther noch ausrufen: ‚Hier stehe ich und kann nicht anders‘ … Am Anfang der Postmoderne steht der Mensch, der sagt: ‚Hier stehe ich und kann auch anders‘."[4]

Die Situation wird dadurch noch komplexer, dass wir einer doppelten Kontingenz ausgesetzt sind.[5] Nicht nur, dass unsere Handlungen Zukunftsmöglichkeiten zerstören und neue eröffnen – die Wahrnehmung von Kontingenz beruht auch auf Interaktionen mit anderen Menschen, deren Verhalten wiederum von Erwartungen in Bezug auf das Verhalten anderer geprägt ist. Je nachdem, wie andere sich verhalten, ändert sich auch meine Wahrnehmung künftiger Chancen und Risiken. In dem Maße, wie wir das Verhalten anderer mit unseren Vorstellungen und Erwartungen verknüpfen und dadurch die Vergangenheit mehrdeutig interpretieren können, nehmen wir auch die einzelnen Stränge möglicher Zukunftsentwürfe in vielfach schillernder Form wahr und bewerten sie – abhängig von welchen Reaktionsweisen der anderen wir ausgehen – unterschiedlich.

Man braucht sich nur die Palette der Szenarien zur künftigen Informationsgesellschaft vor Augen zu führen, um sich der Vielfalt der möglichen Zukunftsinterpretationen zu vergewissern.[6] Mögen die Szenarienbauer auch von identisch erkannten Entwicklungstrends ausgehen, sie kommen zu völlig unterschiedlichen Interpretationen, wenn es um die Frage geht, wie gut oder schlecht es sich in einer virtuell geprägten Gesellschaft leben lässt. Für die einen kommen paradiesische Zustände auf uns zu, für die anderen sind wir auf dem Weg in eine von Verlust der Privatsphäre, Oberflächlichkeit, Realitätsverlust und Kreativitätszerstörung geprägten Welt.

In diesem Beitrag geht es mir um die grundsätzliche Frage, welche Aussagekraft wissenschaftlich ausgerichtete Analysen zu Technikfolgen angesichts der Ungewissheit und Kontingenz der zu erwartenden Folgen haben können. Welche Rolle kann die Abschätzung von Chancen und Risiken technischer Neuerungen übernehmen, um Einsichten über unsere gegenwärtige und bessere Vorhersagen über unsere zukünftige Lebensqualität zu gewinnen? Wo liegen die Grenzen unserer Prognosefähigkeit, und wie sollten wir klugerweise mit diesen Grenzen umgehen? Auf alle diese Fragen gibt es keine abschließenden Antworten. Doch hoffe ich, dass meine Ausführungen dazu beitragen können, den Stellenwert der Technikfolgenabschätzung, ihre Leistungsfähigkeit und ihre Grenzen zu verdeutlichen.

Angewiesenheit auf Prognosen

Der Mensch ist seit jeher in der doppelten Kontingenz gefangen. Dadurch entstehen so viele Zukunftsentwürfe, wie es Menschen gibt, die über Zukunft nachdenken. Gleichzeitig benötigen Menschen als soziale Wesen Orientierung und Verhaltenssicherheit, wenn sie für ihre eigene Zukunft Vorsorge treffen wollen.[7] Aus diesem Grunde führt die doppelte Kontingenz zur Notwendigkeit von individuell verlässlichen und kollektiv verbindlichen Prognosen. Soziales Handeln ist ohne ein Minimum an prognostischer Sicherheit über das zu erwartende Verhalten des anderen nicht möglich.

Neben der Gewährleistung von ausreichender Verhaltenssicherheit haben Prognosen eine weitere wichtige Funktion: Sie ermöglichen moralisches Handeln. Moralisches und verantwortungsvolles Handeln kann erst entstehen, wenn wir bei der Abwägung von Handlungsmöglichkeiten die von uns mit jeder Option zu erwartenden Folgen berücksichtigen.[8] Rationale Entscheidungen beruhen, wenigstens zum Teil, auf dem Wissen über mögliche Handlungskonsequenzen. Selbst wertrationales oder gesinnungsethisches Handeln ist letztlich daran gebunden, dass Akteure eine Kompatibilität zwischen Handlungsfolgen und dem als Maßstab anerkannten Wert beziehungsweise der eigenen Absicht erkennen. Die Angewiesenheit auf Prognosen gilt für Individuen wie für Gesellschaften. Prognosen mögen objektiv falsch, unvollständig, interessengebunden oder voller Illusionen sein, sie bleiben ein konstitutives Merkmal rationalen Handelns. Ohne subjektives Wissen um die Folgen des eigenen Handelns wäre jede Entscheidung ein Willkürakt oder eine bloße Gewohnheit.

Die Notwendigkeit der Prognostik hat die meisten, wenn nicht sogar alle Gesellschaften dazu veranlasst, bestehende Institutionen zu beauftragen oder neue zu entwickeln, um das für soziales Handeln notwendige prognostische Wissen zu erzeugen und das vorhandene Wissen nach bestimmten Kriterien zu selektieren. Prognosen auf der Basis methodisch gesicherten Wissens sind also notwendige Bestandteile der Zukunftsvorsorge in einer modernen Gesellschaft. Daneben beruht prognostisches Wissen auch auf anderen Quellen der Einsicht wie Plausibilität, Intuition und Inspiration. Diese erfüllen eine wichtige Funktion bei der Entstehung neuen Wissens, bieten jedoch keine verallgemeinerbaren Regeln für die notwendige Auswahl und Bewertung des gesellschaftlich wirksamen Wissens. Wenn es um kollektiv verbindliche Zukunftsorientierungen geht, ist das methodisch gesicherte und auf der Basis nachvollziehbarer Regeln erzeugte Wissen entscheidend. Dass darüber auch innerhalb der Wissenschaften gestritten wird, bedeutet nicht, dass die Inhalte des kollektiven Wissensschatzes beliebig geworden sind; vielmehr haben sich die Möglichkeiten der Kontingenzerfassung und -begrenzung so vervielfältigt, dass verschiedene Entwürfe miteinander konkurrieren können, ohne dass eindeutige Kriterien zur Überprüfung ihrer Geltungskraft existieren. An der Notwendigkeit einer systematischen Wissensselektion für die Schaffung von Verhaltenssicherheit und zur Vorsorge gegen unerwünschte Zukunftsfolgen kommt auch die moderne oder postmoderne Gesellschaft nicht vorbei.[9]

Technisches Handeln: Paradigma antizipativen Denkens

An kaum einem anderen Gegenstand entzündet sich der Streit um die Folgen menschlichen Handelns intensiver als an der Frage des Technikeinsatzes. Dies ist auch wenig verwunderlich, ist doch der Einsatz von Technik ein voluntaristischer Akt, der selbst auf einer Prognose über die gezielte Anwendung der Erkenntnis von naturgegebenen Regelmäßigkeiten beruht.[10] Der Technikphilosoph Hans Sachsse bezeichnet die Technik als eine auf Denken und Experiment beruhende Strategie des Menschen, eine bestimmte Absicht nicht direkt, sondern durch einen Umweg, der zunächst vom Ziel wegführt, dann aber das Ziel mit höherer Effizienz erreichen kann, in Handlungen umsetzt.[11] Wesentliches Kennzeichen der Technik ist dabei, dass Regelmäßigkeiten über Ursache und Wirkungen aus der Beobachtung der Natur abgeleitet werden und dieses Wissen in Handlungen so umgesetzt wird, dass über den Umweg einer (künstlichen) Ursachenerzeugung die Wirkung in geballter Kraft genutzt werden kann. Der Einsatz von Technik beruht also immer auf der Prognose (in der Regel) erwünschter, aber durch direktes Handeln nicht zugänglicher Wirkungen.[12]

Gleichzeitig ist Technikeinsatz immer ein Willensakt. Anders als Naturgewalten oder auch menschliche Schwächen lässt sich Technikeinsatz nicht als unglücklicher Zufall, nicht als unvermeidbares Schicksal oder als Manifestation externer Kräfte deuten. Mag auch jedes einzelne Individuum geringe Einflussmöglichkeiten auf die konkrete Entscheidung über den Einsatz einer Technik besitzen, irgendjemand in einer Gesellschaft muss den Einsatz wollen, ansonsten wird es nicht dazu kommen. Dieses Interesse an einem Technikeinsatz kann auch von einer Organisation ausgehen oder sich als Resultat des Zusammenwirkens vieler Kräfte ergeben – maßgeblich bleibt, dass Technikeinsatz immer eine (interessengebundene) Entscheidung für den Einsatz dieser Technik voraussetzt. Von alleine wird keine Technik in die Welt entlassen, wenn wir einmal von der Science-Fiction eines sich selbst reproduzierenden Roboters absehen.

Die Folgen der Technik sind also eng mit der Entscheidung für den Technikeinsatz verbunden. Wer Entscheidungen trifft, deren Folgen auch auf andere rückwirken, ist rechenschaftspflichtig. Diese Überlegung mündet in der Forderung, dass diejenigen, durch deren Entscheidung der Technikeinsatz ermöglicht oder genehmigt wurde, auch die Verantwortung für die Folgen übernehmen müssten, die als kollektiv unerwünscht gelten.[13] Je mehr sich Technik als Gestaltungselement in der Lebenswelt durchsetzt, umso mehr erweitert sich der Verantwortungsspielraum des Menschen. Selbst klassische Naturgefahren wie Überschwemmungen oder Wirbelstürme werden zunehmend als vom Menschen ausgelöst oder zumindest verstärkt betrachtet.[14] Im Zeitalter der Moderne, so der Soziologe Niklas Luhmann, sind die von Menschen als extern gesehenen Gefahren, denen man sich früher passiv ausgesetzt fühlte, in intern regelbare Risiken gewandelt worden.[15] "Risikomanagement", die moderne Formel für den aktiven Umgang mit unerwünschten Nebenfolgen der Technik, ist ein beredtes Zeugnis für die Internalisierung von ursprünglich extern wahrgenommenen Gefahren in bearbeitbare, sozial beeinflussbare und geregelte Aktivitäten zur Begrenzung von unerwünschter Kontingenz.

Transformation von Gefahren in Risiken

Im Griechenland Homers fragten die Menschen einen Fremden, ob er ein Gast oder ein Räuber sei. Gäste wurden willkommen geheißen und gut bewirtet, Räuber als Schicksalsschläge hingenommen. Die Räuber waren selten zimperlich und gingen mit dem Leben der Beraubten in der Regel rabiat um. Die Tatsache, dass die Menschen Räubern und Gästen gleichermaßen Einlass gaben, war nicht Ausdruck einer psychologischen Strategie der Kooperation, um das eigene Leben zu retten. Es war vielmehr Ausdruck der Ergebenheit in das Schicksal. "Fatalismus liegt nahe", so der Philosoph Alfred K. Treml, "wo alles seine teleologische Ordnung hat, auch das Gefährliche, das Bedrohliche, das Tödliche."[16] Ein solches passives Verhalten erscheint uns heute absurd. Wir bringen Spione an der Haustür an, lassen uns Ausweise zeigen, kontrollieren über Telefone und Datenbanken die Herkunft und die voraussichtliche Absicht von Fremden und vertrauen uns Institutionen wie der Polizei oder dem Ordnungsamt an. Die natürliche Reaktion auf Gefahren ist Flucht, Kampf oder Totstellen. Wenn all dies nichts nützt, verbleiben nur Resignation oder die Hoffnung auf eine nicht einsehbare Fügung Gottes.[17]

Sobald Gefahren aber in Risiken transformiert werden, vergrößert sich die Palette der aktiven Einflussmöglichkeiten, selbst wenn man sie weiterhin den ursprünglichen Reaktionsweisen von Flucht, Kampf und Totstellen zuordnen kann. Man kann sich vor Naturgefahren durch Technik in vielfältiger Weise schützen oder die Folgen krimineller Handlungen durch technische und organisatorische Vorsorgemaßnahmen begrenzen. Die Technik hilft bei der Internalisierung von Gefahren, sie ermöglicht das "Management" von Naturgefahren wie von sozialen Bedrohungen. Gleichzeitig gehen von ihr aber neue Bedrohungen aus, die wiederum als Risiken wahrgenommen und bewertet werden. Die Eigenschaft von Technik, Gefahren in Risiken zu wandeln, ist der eigentliche Grund dafür, dass die modernen Menschen objektiv weniger in ihrem Leben gefährdet sind als jede Generation vor ihnen, sie aber wesentlich mehr Risiken bewusst wahrnehmen als ihre Vorfahren.[18] Technik hat die naturgegebenen Gefahren in Risiken gewandelt und damit gleichzeitig neue Risiken geschaffen.[19]

Technikeinsatz ist ein bewusster Akt der Reflexion über Folgen und ein Mittel zur Gestaltung der Kontingenz. Die möglichen Folgen des Technikeinsatzes im Voraus abzuschätzen, ist demnach eine dem technischen Handeln immanente Form der Verbindung von Prognose über Technikfolgen und der moralischen Verpflichtung zu deren Steuerung. Da Technik selbst auf Prognosen über ihre Wirkungen beruht und ihr Einsatz bewusst getroffene Entscheidungen voraussetzt, bietet sie geradezu das Paradebeispiel für antizipative Folgenforschung und Folgenbeeinflussung. Dieser Zusammenhang zwischen Technikeinsatz und Folgenreflexion ist im technischen Handeln selbst angelegt, also keine Besonderheit der modernen Welt.

Mit der Modernisierung erweitert sich aber die Tragweite der technischen Eingriffe des Menschen in Natur und Sozialleben. Immer mehr Lebensbereiche werden durch Technik gestaltet, Gefahren zunehmend in Risiken transformiert, Schicksal in gestaltbare Kontingenzen überführt.[20] Vor allem aber hat sich unser Wissen über mögliche Konsequenzen des Technikeinsatzes für die Gestaltbarkeit der Zukunft so vermehrt, dass wir uns die Naivität nicht mehr leisten können, oder besser gesagt: nicht mehr leisten wollen, auf Folgenforschung zu verzichten, weil wir darauf vertrauen könnten, die Menschen würden die Nebenwirkungen der Technik schon durch Lernen am Objekt in den Griff bekommen, sobald sie sich in der Realität abzeichnen. Das bekannte Beispiel des gesellschaftlichen Umgangs mit Dampfkesselexplosionen in der Frühzeit der Industrialisierung ist für den heutigen Menschen ein Muster einer verfehlten Technikpolitik. Sicherheitsvorkehrungen wurden erst dann auf breiter Basis durchgesetzt, als die Zahl der Explosionen die wirtschaftliche Funktionsfähigkeit der jeweiligen Betriebe infrage stellte.[21] Diese nachträgliche Risikoreduktion (dazu noch motiviert aus wirtschaftlichen Interessen und weniger aus humanitären Erwägungen) ist nach heutigen Maßstäben zynisch. Wir erwarten von Technikentwicklern und -nutzern, dass sie sich vor der möglichen Realisierung von Unfällen mit den Möglichkeiten der Unfallverursachung auseinandergesetzt und diese Erkenntnisse in eine präventive Unfallvorsorge integriert haben. Wenn man schon Risiken "managen" kann, dann haben "Versuch und Irrtum" als Lerninstrument der Gesellschaft ausgedient. Antizipation heißt die neue Devise.

Mit der zunehmenden Transformation von Gefahren in Risiken wächst der gesellschaftliche Anspruch an ein effektives und antizipatives Risikomanagement. Dazu gehören eine bestmögliche Voraussage der möglichen Folgen einer Techniknutzung und entsprechende Handlungen der Risikobegrenzung, um die Wahrscheinlichkeit negativer Auswirkungen zu verringern. Natürlich ist auch die Möglichkeit antizipativen Wissens begrenzt und ein ungerechtfertigtes Gefühl von Sicherheit ein besonderes Risiko (man denke nur an die Leichtfertigkeit, mit der die Sicherheitsvorkehrungen im Kernkraftwerk Tschernobyl überschritten wurden, oder wie in Fukushima gegen jeden gesunden Menschenverstand Notstromaggregate in der unmittelbaren Nähe der Staumauer platziert wurden). Aber die Tatsache bleibt bestehen, dass in modernen Gesellschaften Technikeinsatz nicht mehr legitimiert werden kann (selbst wenn man es wollte), ohne dass die Technikbetreiber die möglichen positiven und negativen Folgen abgeschätzt und ausreichend und öffentlich wirksam dargelegt haben, wie man die Risiken im Vorfeld denkbarer Störfälle oder die Summe routinemäßiger Emissionen auf ein erträgliches Maß reduzieren kann. Die Charakterisierung der heutigen Gesellschaft als Risikogesellschaft, wie es der Soziologe Ulrich Beck getan hat, weist auf die zunehmende Bedeutung der Selbstverpflichtung der Gesellschaft zur bewussten Gestaltung von Kontingenz mit Hilfe der Folgenforschung hin.[22]

Mit dem wachsenden Einfluss der Technik auf das Alltagsleben und der zunehmenden Selbstverpflichtung der Gesellschaft zum Risikomanagement wuchs auch die Forderung nach einer Institutionalisierung der Technikfolgenabschätzung und antizipativer Technikgestaltung durch unabhängige Forschungsinstitutionen. Die Gründung des Office of Technology Assessment (OTA) 1972 in den USA läutete die Ära der systematischen, von unabhängigen Fachleuten erstellten Folgestudien mit dem Ziel der Politikberatung ein. Seitdem wurden weltweit zahlreiche weitere Institute ins Leben gerufen, deren Aufgabe und Auftrag es ist, Technikfolgen vorherzusagen und zu bewerten.[23] Dahinter steht der Anspruch einer systematischen Identifizierung und Bewertung von technischen, umweltbezogenen, ökonomischen, sozialen, kulturellen und psychischen Wirkungen, die mit der Entwicklung, Produktion, Nutzung und Verwertung von Techniken zu erwarten sind. Erklärtes Ziel der Wissenschaftler und Techniker, die Technikfolgenabschätzung betreiben, ist es, für die Gesellschaft verlässliche und unparteiische Informationen bereitzustellen, die Auskunft über die zu erwartenden Konsequenzen von technischem Handeln geben. Besonderes Schwergewicht liegt dabei auf der Erfassung von unbeabsichtigten Folgen, seien sie nun positiver oder negativer Art. Je besser wir im Voraus die Folgen unserer Handlungen antizipieren können, desto weniger brauchen wir im Nachhinein durch trial and error schmerzlich zu lernen. Ausschalten können wir den dornenreichen Weg des Lernens über Irrtum jedoch nicht.

Ambivalenz und Ungewissheit

Diese Überlegungen führen uns zurück zum Ausgangspunkt: der Befangenheit des Menschen in der doppelten Kontingenz, die sich einerseits in der Ambivalenz menschlichen Wahrnehmens und Handelns, andererseits in der Ungewissheit über die Erwartungen der anderen und deren wahrgenommenen Handlungsoptionen niederschlägt.

Die Hoffnung auf Vermeidung von negativen Technikfolgen ist schon deshalb trügerisch, weil es keine Technik gibt, nicht einmal geben kann, bei der nur positive Auswirkungen zu erwarten wären. Dies klingt trivial. Ist es nicht offensichtlich, dass jede Technik ihre guten und schlechten Seiten hat? Die Anerkennung der Ambivalenz besagt aber mehr, als dass wir uns mit Technik weder das Paradies noch die Hölle erkaufen. Es ist eine Absage an alle kategorischen Imperative und Handlungsvorschriften, die darauf abzielen, Techniken in moralisch gerechtfertigte und moralisch ungerechtfertigte aufzuteilen.[24] Es gibt keine Technik mit nur positiven oder nur negativen Folgen, gleichgültig welche wir im Einzelnen betrachten. Bei jeder neuen technischen Entscheidung sind wir angehalten, immer wieder von Neuem die positiven und negativen Folgepotenziale miteinander abzuwägen. Auch die Solarenergie hat Umweltrisiken, wie auch die Kernenergie unbestreitbare Vorteile aufweist. Ambivalenz ist das Wesensmerkmal jeder Technik. Folgt man dieser Gedankenkette weiter, dann bedeutet institutioneller Umgang mit Ambivalenz, dass Techniken weder ungefragt entwickelt und eingesetzt werden dürfen, noch dass wir jede Technik verbannen müssen, bei der negative Auswirkungen möglich sind.[25]

Aus diesem Grunde ist auch der wohlgemeinte Imperativ des Philosophen Hans Jonas wenig hilfreich. Jonas forderte die Gesellschaft auf, auf jede Technik zu verzichten, deren Folgen zu katastrophalen negativen Folgen führen könnten.[26] Mit ausreichend Fantasie und bei entsprechender Ausbreitung der infrage stehenden Technik lassen sich aber immer katastrophale Folgen ausdenken, die mit einer Wahrscheinlichkeit größer Null zu erwarten sind. Die Möglichkeit von Katastrophen ist immer gegeben, sobald eine technische Linie in großem Umfang genutzt wird – unabhängig davon, ob die Technik zentral oder dezentral eingesetzt wird. Die kleine Kettensäge ist in millionenhafter Ausführung mindestens so gefährlich für den tropischen Regenwald wie große Holzerntemaschinen. Die Möglichkeit von Katastrophen fallen bei Großtechnologien nur schneller ins Auge. Prinzipiell ist aber die Möglichkeit von irreversiblen und schwerwiegenden Katastrophen bei allen menschlichen Handlungen gegeben. Ohne Betrachtung von Wahrscheinlichkeiten und von möglichen Nutzeffekten lässt sich eine sinnvolle Abwägung über Technikfolgen nicht treffen.

Diskurs als Voraussetzung einer rationalen Abwägung

Gefragt ist also eine Kultur der Abwägung. Zur Abwägung gehören immer zwei Elemente: die systematische Erfassung der zu erwartenden Folgen eines Technikeinsatzes (Technikfolgenforschung) und die relative Beurteilung von Handlungsoptionen aufgrund der Wünschbarkeit der mit jeder Option verbundenen Folgen, einschließlich der Folgen des Nichtstuns, der sogenannten Nulloption (Technikfolgenbewertung). Eine Entscheidung über Technikeinsatz kann nicht allein aus den Ergebnissen der Folgenforschung abgeleitet werden, sondern ist auf eine verantwortliche Abwägung der zu erwartenden Vor- und Nachteile auf der Basis nachvollziehbarer und politisch legitimierter Kriterien angewiesen.[27] Für das erste Element, die Technikfolgenforschung, brauchen wir ein wissenschaftliches Instrumentarium, das uns erlaubt, so vollständig, exakt und objektiv wie möglich Prognosen über die zu erwartenden Auswirkungen zu erstellen. Für das zweite Element, die Bewertung, benötigen wir Kriterien, nach denen wir diese Folgen intersubjektiv verbindlich beurteilen können. Solche Kriterien sind nicht aus der Wissenschaft abzuleiten: Sie müssen in einem politischen Prozess durch die Gesellschaft identifiziert und entwickelt werden. Dazu ist es notwendig, Technikfolgenabschätzung in einen diskursiven Prozess einzubinden.[28]

Genau genommen sind drei Arten von Diskurs notwendig:[29] Zunächst müssen die kognitiven Grundlagen für die Technikfolgenforschung gelegt werden. Welche Folgenpotenziale sind zu erwarten, und wie ordnen sich diese in die unterschiedlichen Zukunftsentwürfe der beteiligten Diskursteilnehmer ein? Welche Unsicherheiten verbleiben, und welche unabdingbaren Kopplungen von Vor- und Nachteilen ergeben sich aus diesen Abschätzungen? Gibt es methodische Kriterien oder anerkannte Verfahren, Dissens unter den Fachleuten aufzulösen oder zumindest einen Konsens über den Dissens zu erzielen? Ein solcher kognitiver Diskurs richtet sich in erster Linie an die Experten, wobei bei lebensweltlichen Auswirkungen auch die Erfahrungen der betroffenen Laien eine wichtige Rolle spielen können.

Der zweite Diskurs berührt die Frage der Wertigkeit der erforschten Technikfolgen (samt Unsicherheiten) für die Technikanwendung. Hierzu sind vor allem die Technikgestalter und -anwender gefragt. Welche Interessen und welche Werte werden von den jeweiligen Folgemöglichkeiten betroffen? Gibt es Strategien, um negative Auswirkungen durch Modifikationen des Anwendungsprozesses abzumildern? Gibt es zusätzlichen Regulierungsbedarf? Ziel dieses zweiten Diskurses ist es also, die möglichen Handlungsstrategien aufzuzeigen und in ihren Folgen abzuwägen, gleichzeitig aber auch die mit den Entscheidungen zwangsweise verbundenen Zielkonflikte zu verdeutlichen und die dadurch erforderlichen Prioritäten festzulegen.

Schließlich benötigt Technikfolgenabschätzung den Diskurs mit den von den Folgen betroffenen Bürgern sowie der allgemeinen Öffentlichkeit. Öffentliche Information allein reicht nicht aus. Es bedarf einer diskursiven Auseinandersetzung zwischen denen, die von den Technikfolgen profitieren, und jenen, die darunter leiden könnten. Werden die Interessen dieser Menschen gewahrt? Können sie den von ihnen präferierten Lebensstil weiter pflegen? Fühlen sie sich bei der Lösung der Zielkonflikte ausreichend repräsentiert? Alle drei Diskursformen müssen im Ergebnis offen geführt werden, auch der Dialog mit der Öffentlichkeit muss noch Spielraum für Veränderungen haben, sonst verkommt er zum bloßen Ritual.

Eine diskursiv verstandene Technikfolgenabschätzung setzt eine enge Anbindung der Folgenforschung an die Folgenbewertung voraus, ohne jedoch die funktionale und methodische Differenzierung zwischen diesen beiden Aufgaben (Erkenntnis und Beurteilung) aufzugeben. Eine solche Verkopplung ist notwendig, um bei der Bewertung die Probleme der Ambivalenz und der Ungewissheit bei der Folgenforschung und Folgenbewertung angemessen berücksichtigen zu können.[30] Umgekehrt müssen auch schon bei der Identifikation und Messung der Folgepotenziale die letztendlichen Bewertungskriterien als Leitlinien der Selektion zugrunde gelegt werden. Der Diskurs sorgt für verlässliche Informationen, die dazu dienen, die Dimensionen und die Tragweite technischen Handelns und Unterlassens zu verdeutlichen, ohne die genauen Folgen vorhersagen zu können. Der Diskurs trägt damit dazu bei, Modifikationen des technischen Handelns vorzuschlagen, die bessere Entscheidungen nach Maßgabe des verfügbaren Wissens und unter Reflexion des erwünschten Zweckes wahrscheinlicher machen.

Ausblick

Technikfolgenabschätzung umfasst die wissenschaftliche Abschätzung möglicher Folgepotenziale sowie die nach den Präferenzen der Betroffenen ausgerichtete Bewertung dieser Folgen, wobei beide Aufgaben, die Folgenforschung und -bewertung, aufgrund der unvermeidbaren Ambivalenz und Ungewissheit unscharf in den Ergebnissen bleiben werden. Prognosen sind unverzichtbare Bestandteile für gegenwärtige Entscheidungen. Sie dürfen uns aber nicht zur Hybris verführen, wir seien in der Lage, Ungewissheit soweit reduzieren zu können, dass wir eindeutige Antworten über Gestalt und Verlauf möglicher künftiger Chancen und Risiken geben könnten.[31] Selbst wenn wir alle Daten hätten, so der Physiker Wolfgang Hemminger, schaffen Komplexität und endliche Rechenkapazität prinzipielle Grenzen der Erkenntnis.[32] Prognosen sind bestenfalls in der Lage, unsere Chancen einer bewussten Zukunftsgestaltung aufzuwerten. Technikfolgenabschätzung kann dazu beitragen, auf mögliche Folgepotenziale hinzuweisen und damit prinzipiell vorhersehbare Fehler zu vermeiden. Vor allem kann sie eine Hilfestellung bieten, um auch in Zukunft Handlungsfreiheit zu erhalten, um bei einer möglichen Fehlentwicklung, also der Erfahrung überwiegend negativer Auswirkungen, flexibel genug zu sein, um auf andere Optionen ausweichen zu können. Diese Überlegung führt zu der Forderung, nicht alles auf eine Karte zu setzten.[33]

Diversifizierung und Flexibilisierung sind zwei zentrale Mittel, um Systeme auch gegenüber immer wieder auftretenden Überraschungen anpassungsfähig zu gestalten. Daraus folgt, dass das Ziel der Technikentwicklung die Umkehrbarkeit von Entscheidungen sein muss, allerdings nicht – wie oft missverstanden – die Umkehrbarkeit einzelner Folgen. Über diese allgemeinen Aussagen zur Verringerung von Verwundbarkeiten hinaus können wir aber weder eindeutige Antworten über die zu erwartenden Technikfolgen, noch allgemeingültige Kriterien zu ihrer Bewertung angeben. Jeder Einsatz der Technik erfordert von uns eine Abwägung der bei aller Möglichkeit der Modifikation zwangsweise gegebenen und miteinander verwobenen Vor- und Nachteile – und dies bei unaufhebbarer Ungewissheit über die tatsächlich eintretenden Folgen.

Was ergibt sich aus dieser Problemsicht? Erstens, Technikfolgenabschätzung muss sich immer an der Ambivalenz und Folgenunsicherheit der Technik orientieren. Dabei muss sie zweitens zwischen der wissenschaftlichen Identifizierung der möglichen Folgen und ihrer Bewertung funktional trennen, dabei jedoch beide Schritte diskursiv miteinander verzahnen. Drittens sollte sie ein schrittweises, rückkopplungsreiches und reflexives Vorgehen bei der Abwägung von positiven und negativen Folgen durch Experten, Anwender und betroffene Bürger vorsehen. Ob dies gelingen wird, hat nicht nur Einfluss auf die Zukunft der Technikfolgenabschätzung als Mittel der Zukunftsvorsorge, sondern wird auch maßgeblich unsere Möglichkeiten bestimmen, ob und inwieweit wir in Zeiten raschen technischen Wandels in eigener Verantwortung und mit Blick auf die für uns als wesentlich erkannten Werte des Menschseins handlungsfähig bleiben können.
1|2|3 Auf einer Seite lesen

Fußnoten

1.
Vgl. Robert Spaemann, Technische Eingriffe in die Natur als Problem der politischen Ethik, in: Dieter Birnbacher (Hrsg.), Ökologie und Ethik, Stuttgart 1980, S. 180–206, hier: S. 192.
2.
Vgl. Niklas Luhmann, Soziale Systeme: Grundriss einer allgemeinen Theorie, Frankfurt/M. 1984, S. 46ff.; ursprünglich bei Talcot Parsons/Edward Shils (Hrsg.), Toward a General Theory of Action, Cambridge 1951, S. 13–29, hier: S. 16.
3.
Vgl. Armin Grunwald, Prognostik statt Prophezeiung – wissenschaftliche Zukünfte für die Politikberatung, in: Daniel Weidner/Stefan Willer (Hrsg.), Prophetie und Prognostik, München 2013, S. 81–95.
4.
Alfred K. Treml, Über den Zufall. Ein Kapitel Philosophiegeschichte, in: Evangelische Akademie Baden (Hrsg.), Gott würfelt (nicht)! Chaos, Zufall, Wissenschaft und Glaube, Karlsruhe 1993, S. 9–44, hier: S. 41, Fußnote 55.
5.
Vgl. Niklas Luhmann, Allgemeine Theorie sozialer Systeme, in: ders., Soziologische Aufklärung, Bd. 3, Opladen 1981, S. 11–177, hier: S. 13ff.
6.
Vgl. Herbert Kubicek/Barbara Mettler-Meibom, Alternative Entwicklungspfade der Telekommunikationspolitik, in: APuZ, (1988) 46–47, S. 30–47.
7.
Vgl. Ortwin Renn, Kann man die technische Zukunft voraussagen?, in: Werner Köhler (Hrsg.), Was kann Naturforschung leisten?, Heidelberg–Leipzig 1997, S. 115–138.
8.
Vgl. Carl Böhret, Technikfolgen und Verantwortung der Politik, in: APuZ, (1987) 19–20, S. 3–14; Hans Jonas, Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation, Frankfurt/M. 1984.
9.
Zum Komplex des Auftrages der Wissenschaft und ihrer kulturellen Eingebundenheit vgl. Dorothy Nelkin (Hrsg.), Controversy, Beverly Hills 19842; Karin Knorr-Cetina, Die Fabrikation von Erkenntnis, Frankfurt/M. 2002, S. 31ff.
10.
Vgl. Paul W. DeVore, Technology, Worcester 1980, S. 16ff.
11.
Vgl. Hans Sachsse, Anthropologie der Technik, Braunschweig 1978, S. 9–17.
12.
Vgl. Torsten Fleischer/Armin Grunwald, Technikgestaltung für mehr Nachhaltigkeit – Anforderungen an die Technikfolgenabschätzung, in: Armin Grunwald (Hrsg.), Technikgestaltung für eine nachhaltige Entwicklung, Berlin 2002, S. 101f.
13.
Der Philosoph Vittorio Hösle bringt die Notwendigkeit verstärkter Verantwortungsübernahme durch technisches Handeln auf den einfachen Nenner: "Wer mehr Macht hat, hat auch mehr Pflichten." Vittorio Hösle, Philosophie der ökologischen Krise, München 1991, S. 126.
14.
Vgl. Gisela Wachinger et al., The Risk Perception Paradox, in: Risk Analysis, 33 (2013) 6, S. 1049–1065.
15.
Vgl. Niklas Luhmann, Soziologie des Risikos, Berlin 1991, S. 31ff.; ders., Risiko und Gefahr, in: Wolfgang Krohn/Georg Krücken (Hrsg.), Riskante Technologien: Reflexion und Regulation, Frankfurt/M. 1993, S. 138–185.
16.
A.K. Treml (Anm. 4), S. 16.
17.
Vgl. Ortwin Renn, Das Risikoparadox. Warum wir uns vor dem Falschen fürchten, Frankfurt/M. 2014, S. 248; Gert Gigerenzer, Risiko. Wie man die richtigen Entscheidungen trifft, München 2013, S. 94ff.
18.
Vgl. Robert C. Harriss/Christoph Hohenemser/Robert W. Kates, Human and Nonhuman Mortality, in: Robert W. Kates/Christoph Hohenemser/Jeanne X. Kasperson (Hrsg.), Perilous Progress. Managing the Hazards of Technology, Boulder 1985, S. 129–155, hier: S. 148ff.
19.
Vgl. Eugene A. Rosa/Ortwin Renn/Aaron M. McCright, The Risk Society Revisited, Philadelphia 2014, S. 103.
20.
Vgl. Wolfgang van der Daele, Kontingenzerhöhung, in: Walter Zapf (Hrsg.), Die Modernisierung moderner Gesellschaften, Frankfurt/M. 1991, S. 584–603.
21.
Vgl. Joachim Radkau, Technik in Deutschland, Frankfurt/M. 1989, S. 200ff.
22.
Vgl. Ulrich Beck, Die Risikogesellschaft, Frankfurt/M. 1986, S. 46ff.
23.
Vgl. Georg Simonis, Einführung, in: ders. (Hrsg.), Konzepte und Verfahren der Technikfolgenabschätzung, Wiesbaden 2013, S. 12f.; Armin Grunwald, Parlamentarische Technikfolgenabschätzung, in: ebd., S. 91–107; Hans-Jörg Bullinger, Was ist Technikfolgenabschätzung?, in: ders. (Hrsg.), Technikfolgenabschätzung, Stuttgart 1994, S. 3–31. Siehe auch die Beiträge von Thomas Saretzki sowie von Armin Grunwald/Leonhard Hennen/Arnold Sauter in dieser Ausgabe (Anm. d. Red.).
24.
Vgl. Ortwin Renn, Technik und gesellschaftliche Akzeptanz, in: GAIA, (1993) 2, S. 69–83.
25.
Vgl. Axel Zweck, Technikbewertung auf Basis der VDR Richtlinie 3780, in: G. Simonis (Anm. 23.), S. 145–159, hier: 156f.
26.
Vgl. H. Jonas (Anm. 8), S. 28ff.; zur Geltungskraft und Kritik an Jonas: Hans Lenk, Über Verantwortungsbegriffe in der Technik, in: ders./Günter Ropohl (Hrsg.), Technik und Ethik, Stuttgart 19932, S. 112–148, hier: S. 138ff.
27.
Vgl. Christoph Hubig, Ethik der Technik als provisorische Moral, in: Jahrbuch für Wissenschaft und Ethik, Bd. 6, Berlin–New York 2001, S. 179–201, hier: 182f.; Meinolf Dierkes, Was ist und wozu betreibt man Technikfolgen-Abschätzung?, in: Hans-Jörg Bullinger (Hrsg.), Handbuch des Informationsmanagements im Unternehmen, Bd. 2, München 1991, S. 1495–1522.
28.
Vgl. Gabriele Abels/Alfons Bora, Partizipative Technikfolgenabschätzung und -bewertung, in: G. Simonis (Anm. 23), S. 109–128, hier: 112ff.; Pia-Johanna Schweizer/Ortwin Renn, Partizipation in Technikkontroversen, in: Technikfolgenabschätzung. Theorie und Praxis, 22 (2013) 2, S. 42–47.
29.
Vgl. Ortwin Renn, Diskursive Verfahren der Technikfolgenabschätzung, in: Thomas Petermann/Reinhard Coenen (Hrsg.), Technikfolgenabschätzung in Deutschland, Frankfurt/M. 1999, S. 115–130.
30.
Vgl. Francis M. Lynn, The Interplay of Science and Values in Assessing and Regulating Environmental Risks, in: Science, Technology, and Human Values, 11 (1986) 2, S. 40–50.
31.
Vgl. Karl-Werner Brand, Umweltsoziologie, Weinheim–Basel 2014, S. 110.
32.
Vgl. Wolfgang Hemminger, Wissenschaft als Antwort auf Sinnfragen? Über die Reichweite naturwissenschaftlicher Erkenntnis, in: Evangelische Akademie Baden (Anm. 4), S. 163–179, hier: S. 169.
33.
Vgl. Stefan Lingner, Rationale Technikfolgenbeurteilung, in: G. Simonis (Anm. 23), S. 75–90, hier: S. 83.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Ortwin Renn für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.