Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Computer und Nachhaltigkeit | Digitalisierung und Datenschutz | bpb.de

Digitalisierung und Datenschutz Editorial Digitalisierung und kulturelles Gedächtnis - Essay Datenschutz im 21. Jahrhundert Anwendungspotenziale "intelligenter" Funketiketten Der globale Lauschangriff Computer und Nachhaltigkeit

Computer und Nachhaltigkeit

Dennis Mocigemba

/ 16 Minuten zu lesen

Verschiedene Diskurse aus der IT-Welt werden als Nachhaltigkeitsdebatten vorgestellt, indem sie auf ihren normativen Grundgedanken, die Vermittlung zwischen ökonomischen, sozialen und ökologischen Interessen, reduziert werden.

Einleitung

Am 22. April, dem weltweiten Aktionstag für die Erde (Earth Day) des Jahres 2005, versammelten sich Aktivisten verschiedener Nichtregierungsorganisationen (NGOs) zu einer unApple-Kampagne vor dem Hauptquartier der Firma Apple Computers in Cupertino, Kalifornien. Mit ihrem Protest wollten sie das Unternehmen ermahnen, soziale und ökologische Standards einzuhalten. Zwar feierte die Computerfirma inden vergangenen Quartalen einen Rekordgewinn nach dem nächsten. Im Vergleich zu den Konkurrenten Hewlett Packard und Dell, so der Kernvorwurf der Aktivisten, sei Apple allerdings ein Nachzügler im Umgang mit Elektroschrott und produziere weiterhin Produkte mit hohen Anteilen umwelt- und gesundheitsschädigender Schwermetalle.

In Europa, insbesondere in Deutschland, wurde für die Giftstoff- und Elektroschrottdebatte vergleichsweise schnell ein institutioneller Rahmen geschaffen: Im Januar 2003 erließ die Europäische Union Richtlinien zur Reduzierung gefährlicher Stoffe in Neugeräten und zum Umgang mit Altgeräten. Alseiner der ersten Mitgliedstaaten setzte Deutschland beide Richtlinien mit dem am 23. März 2005 in Kraft getretenen "Gesetz über das Inverkehrbringen, dieRücknahme und die umweltverträglicheEntsorgung von Elektro- und Elektronikgeräten" (ElektroG) in nationales Recht um.

Die Giftstoff- und Elektroschrottdebatte dient als anschauliches und aktuelles Beispiel für einen Ausgleich zwischen ökonomischen Interessen und ökologischen sowie sozialen Forderungen unterschiedlicher Akteure innerhalb der Welt der Informationstechnologie (IT). Ähnlich geartete Debatten haben die IT-Branche in der Vergangenheit stark geprägt, ja gespalten: Schlagworte wie Freie Software, Digitale Spaltung, Softwarepatente und Open Source bergen seit Jahren, teilweise seit Jahrzehnten ein starkes Konfliktpotenzial. Die mit diesen Schlagworten belegten Debatten wurden bisher selten mit dem Begriff Nachhaltigkeit assoziiert. Das dürfte vornehmlich daran liegen, dass ihr Schwerpunkt meist auf dem Ausgleich ökonomischer und sozialer Interessen lag. Ökologische Aspekte spielten höchstens im Hinblick auf Gesundheitsaspekte und den Verbraucherschutz eine Rolle.

Der Begriff der Nachhaltigkeit stammt ursprünglich aus der Forstwirtschaft. Mittlerweile hat er eine bemerkenswerte Karriere alspolitisches Konzept hinter sich und sickert seit einigen Jahren verstärkt in den alltäglichen Sprachgebrauch. Die Folge sind konkurrierende Begriffsdefinitionen und einewachsende Ambiguität. Gemäß dem 1987 veröffentlichten Zukunftsbericht der Weltkommission für Umwelt und Entwicklung (Brundtland-Report) wird Nachhaltigkeit hier als ein auf die Ausgewogenheit ökonomischer, ökologischer und sozialer Interessen gerichteter Aushandlungsprozess verschiedener Akteure und Interessengruppen verstanden.

Einige dieser Aushandlungsprozesse werden im Folgenden skizziert und auf ihren normativen Grundgedanken reduziert: dieVermittlung zwischen ökonomischen, sozialen und ökologischen Interessen. Eine solche Reduktion öffnet die Diskurse der IT-Welt für Außenstehende und erlaubt einebreitere Vermittlung dessen, worum es in den teilweise sehr technischen Debattenjeweils geht. Dadurch wird eine breite Partizipation an der Diskussion der Frage ermöglicht, in welcher Welt wir mit welcherTechnik leben wollen. Diese Partizipation ist die notwendige Voraussetzung fürjegliche Form nachhaltiger Entwicklung.

Digitale Spaltung

Die Geschichte des Computers als technisches Artefakt und Produkt ist geprägt von polarisierenden Debatten über seine Sozialverträglichkeit. Noch Ende der sechziger Jahre waren Computer in der öffentlichen Meinung stark umstritten. Man betrachtete sie als entmenschlichenden Faktor in Arbeitsprozessen und in der Gesellschaft generell. In den USA sah sie die Bewegung gegen den Vietnamkrieg zudem als Mittel der Kriegführung an und stellte sie in einen politischen und sozialen Kontext.

Mit zunehmender Verbreitung stieg der Computer allmählich zum politischen Symbol auf. Viel einflussreicher als die diffusen Befürchtungen einer skeptischen Öffentlichkeit waren hierbei allerdings soziale Bewegungen und ihre Forderungen aus Kreisen, die an der Entwicklung und Verbreitung von Hard- und Software maßgeblich beteiligt waren. Pioniere wie Joseph Carl Robnett Licklider und Douglas Engelbart priesen mit griffigen Visionen und Schlagworten ("Mensch-Computer-Symbiose" bzw. "Intelligenzverstärkung") die Nützlichkeit der Computertechnologie auch im Privaten, einem Bereich, in dem sich diese für breite Teile der Bevölkerung zu jener Zeit noch nicht erkennen ließ.

Diese zunächst unpolitischen Visionen wurden bald mit politischen und sozialen Forderungen aufgeladen: "Computer Power to the People!", lautete in den siebziger Jahren das Motto der als "Computer Liberation" firmierenden Bewegung. "By Computer Lib. I mean simply: making people freer through computers", beschrieb Ted Nelson, der vielleicht profilierteste Aktivist jener Tage, das Ziel. Nelson warnte vor einer gesellschaftlichen Spaltung durch die ungleiche Verteilung von Computern und den damit einhergehenden ungleichen Chancen, von ihnen zu profitieren. Plakativ und provokativ sprach er von zwei sich voneinander entfernenden Kulturen, den Nerds und den Fluffies; die einen hatten Zugriff auf und Kenntnisse über die neue Technologie, den anderen blieb sie verwehrt.

Die starke Verbreitung von Personalcomputern (PCs) und des Zugangs zum Internet in der industrialisierten Welt lässt derartige Forderungen als Relikte vergangener Zeiten erscheinen. Doch ist die Debatte um die Verfügungsmacht und den Zugang zu IT-Technologie auch heute noch aktuell. Die gesellschaftliche Spaltung vollzieht sich allerdings nicht mehr vornehmlich zwischen technikbegeisterten Nerds und skeptischen Fluffies. Zwar sprechen deutsche Initiativen wie "Schulen ans Netz" oder verschiedene Seniorennetze gezielt vermeintlich benachteiligte soziale Gruppen an. Eine viel tiefere digitale Spaltung jedoch vollzieht sich im globalen Maßstab zwischen industrialisierter Welt und Entwicklungsländern.

Die digitale Spaltung (digital divide) war Anlass für den ersten UN-Weltgipfel zur Informationsgesellschaft (WSIS) 2003 in Genf. Dort wurden Grundsätze und ein Aktionsplan zur Gestaltung einer weltweiten Informationsgesellschaft formuliert. Der zweite Gipfel dieser Art fand im November 2005 in Tunis statt. Er wurde dominiert von Diskussionen über die freie Meinungsäußerung im Internet, die Öffnung der Märkte in ärmeren Ländern für die Informationstechnologien und die Verwaltung des Internets (internet governance).

Usability und Barrierefreiheit

Eine andere Diskussion hat ebenfalls mit der Frage zu tun, wie die Chancen und Vorteile des Computers als Werkzeug und Arbeitsmittel sozialverträglich verteilt werden können, und konzentriert sich somit ebenfalls auf den Ausgleich zwischen ökonomischen und sozialen Interessen. Es handelt sich um den im Bereich der Qualitätssicherung angesiedelten Diskurs über die Anpassung von Computersystemen an die Bedürfnisse verschiedener Nutzergruppen. Unter Nutzern versteht man hier Personen, die den Computer für ihre Zwecke benutzen (müssen), ohne über ein detailliertes Verständnis seiner technischen Funktionsweise zu verfügen.

Usability (Nutzungsqualität bzw. Gebrauchstauglichkeit) und Barrierefreiheit sind zwei zentrale Termini dieser Diskussion. Hinter ihnen steckt die soziale Forderung an Softwareentwickler, Computersysteme an die Bedürfnisse ihrer Nutzer anzupassen, um niemandem systematisch die Möglichkeit zu rauben, von Computersystemen zu profitieren. Auch soll niemand gezwungen werden, seine Lebens- und Arbeitsweisen technischen Notwendigkeiten zu unterwerfen. Allein der technische Fortschritt und der Einzug des Computers in fast alle Lebensbereiche dürfe nicht dazu führen, dass Personen, beispielsweise aufgrund mangelnder technischer Kompetenz oder Begeisterung, sozial benachteiligt würden. Computerprogramme sollten deshalb in hohem Maße gebrauchstauglich sein. Usability ist ein mittlerweile international genormtes Konzept (ISO 9241:11), nach dem Software aufgabenangemessen, selbstbeschreibungsfähig, erwartungskonform, steuerbar, fehlertolerant, lernförderlich und individualisierbar sein muss (ISO 9241:10).

Das Konzept der Barrierefreiheit legt das Hauptaugenmerk auf Personen mit Behinderungen (z.B. Sehbehinderte) und ist vor allem im Zusammenhang mit dem Internet bekannt geworden. Als barrierefrei bezeichnet man Internetangebote, die sowohl von Menschen mit Behinderung oder mit altersbedingten Einschränkungen als auch von automatischen Suchprogrammen uneingeschränkt genutzt werden können. Da dies nur selten vollständig erreicht wird, spricht man auch von barrierearmen Produkten und Angeboten. Auch der Terminus Barrierefreiheit, der meist mit accessibility übersetzt wird, zielt auf sozialen Ausgleich: Potenziell benachteiligte Personen sollen von der Computernutzung gleichermaßen profitieren können.

Usability wird oft als Qualitätsmerkmal eines Produkts verstanden, dessen Umsetzung sich auch ökonomisch rentiert. Barrierefreiheit hingegen wird von Softwareentwicklern eher aufgrund gesetzlicher Verpflichtungen angestrebt oder aufgrund ihrer solidarischen Wertorientierung, selten aus ökonomischem Nutzenkalkül.

Elektroschrott und Ressourcenverbrauch

Wie eingangs angedeutet, sehen sich Hardwareproduzenten seit einiger Zeit zunehmend nicht nur mit sozialen, sondern auch mit ökologischen Forderungen konfrontiert. So gründete sich im Jahr 2001 in den USA die Computer Take Back Campaign (CTBC) mit dem Ziel, Hersteller von Hardware zu einem verantwortlichen Umgang mit Altgeräten, zur Mitgestaltung von Gesetzesinitiativen, Formulierung von Recyclingzielen und Etablierung von Rücknahmesystemen zu bewegen. Mit der jährlich veröffentlichten Computer Report Card versucht die CTBC, eine Währung zu etablieren, die Auskunft über die Rücknahmeaktivitäten eines Produzenten im Vergleich zu seinen Verkaufsmengen erlaubt. Die Inaktivität der großen Hersteller führt laut CTBC derzeit häufig dazu, dass Elektroschrott über unseriöse Recyclingfirmen in Entwicklungsländer verschifft und dort nicht fachgerecht entsorgt wird, nicht selten durch (schlecht bezahlte und ungenügend geschützte) Häftlinge in Gefängnissen. Schätzungen zufolge exportieren allein die USA bis zu 80 Prozent ihres Elektroschrotts nach Indien, China und Pakistan, wo Computer ohne Schutzvorrichtungen zerlegt oder offen verbrannt werden. Elektroschrott verursacht heute das weltweit am schnellsten wachsende Abfallproblem.

Problematisch ist das Recycling von Computer-Hardware, weil sich nur etwa fünf bis zehn Prozent eines Geräts wiederverwerten lassen. Der Rest lässt sich durch Verbrennung allenfalls in Form von Energie wieder nutzen. Bis zu zehn Prozent des Gesamtvolumens eines PCs müssen endgelagert werden. Während Rücknahmesysteme bei anderen Elektrogeräten bereits gut funktionieren, ist die Quote fachgerecht recycelter Computer noch sehr gering. Das eingangs erwähnte ElektroG ist der Versuch des deutschen Gesetzgebers, die Produktverantwortung durch die Hersteller zu erhöhen, indem diese die Entsorgungskosten der Altgeräte tragen müssen. Damit soll ein ökonomischer Anreiz für eine umweltschonende Produktionsweise geschaffen werden.

Neben der Frage nach der Wiederverwertung von Elektroschrott ist aus ökologischer, aber auch aus wirtschaftlicher Perspektive vor allem die Frage nach dem Ressourcenverbrauch von Informationstechnologie interessant: Während der Energieverbrauch in der Produktionsphase von Hardware, insbesondere von Prozessoren, weiterhin steigt, sinkt der Energieverbrauch in der Nutzungsphase seit Jahren stetig. Entsprechende Siegel wie etwa das EPA-Siegel der US-Umweltbehörde oder das schwedische TCO 95 sollen den Verbraucher auf besonders energiesparende und somit langfristig günstigere Hardwarekomponenten hinweisen und nachhaltige Konsumprozesse anregen.

Die Optimierung der Hardware führt zu erhöhter Effizienz. Einzelne Geräte oder Komponenten verrichten bei gleichbleibendem Energieverbrauch höhere Leistungen. Dennoch werden mit solchen Effizienzsteigerungen absolut betrachtet nicht zwingend Ressourcen eingespart. Das Phänomen, dass Effizienzsteigerungen einzelner Geräte oder Komponenten durch eine wachsende Verbreitung und Nutzung dieser Geräte ausgeglichen oder sogar überkompensiert werden, nennt sich rebound effect. Hoffnungen darauf, Informationstechnologie würde bestimmte energieintensive Praktiken des Alltags wie beispielsweise den Papierverbrauch reduzieren, werden immer wieder enttäuscht. Langfristig werden Effizienzsteigerungen nur dort zu einer im Sinne von Nachhaltigkeit erwünschten Wirkung führen, wo sie mit Suffizienzstrategien einhergehen, die z. B. die absolute Gütermenge begrenzen oder auf eine energiesparende Gerätenutzung abzielen, eingebettet in Lebensstile und alltägliche Praktiken.

Freie Software und Open Source

Im Jahr 1976 verkauften Bill Gates und Paul Allen einen BASIC-Interpreter, einen "Übersetzer" der Computersprache BASIC, für den damals sehr populären Altair-Heimcomputer. Dieser Verkauf rief Aufsehen und Empörung hervor, weil er gegen die damals unter Programmierern dominierende Hacker-Ethik verstieß. Diese garantierte Softwareentwicklern freien Zugriff auf und uneingeschränktes Teilen von Information. In einem offenen Brief verteidigte Gates sein Vorgehen und stellte seine Arbeit als Programmierer mit jener der Hardwareentwickler auf eine Stufe. Er bezichtigte Entwickler, die Software frei teilten, des Diebstahls und warf ihnen vor, die Entwicklung guter Software zu erschweren. Der Brief löste heftige Debatten aus, und der Vorfall ging als Software Flap in die Geschichte ein.

Mit dem Aufstieg der Softwareproduktion zur Industrie verloren ethisch-moralische und soziale Forderungen gegenüber ökonomischen Interessen zunehmend an Bedeutung, bis der Informatiker Richard Stallman 1985 die Free Software Foundation (FSF), eine gemeinnützige Organisation zur Förderung und Produktion Freier Software, gründete. Sein Konzept umfasst vorrangig Fragen zur Lizenzierung von Software und die Forderung nach einem für jedermann zugänglichen Quelltext. Bekanntheit erlangte Stallman durch das GNU-Projekt. Dieses verfolgt das Ziel, ein freies Betriebssystem zu etablieren und die Hacker-Ethik wiederzubeleben. Motivation schöpfte Stallman dabei vornehmlich aus seiner Arbeit an einem Texteditor namens Emacs, der von vielen Entwicklern gemeinsam erarbeitet und ständig verbessert wurde. Die Nutzungsbedingungen von Emacs sahen vor, dass jeder das Programm frei anwenden und seinen Bedürfnissen (z.B. durch das Schreiben von Zusatzfunktionen) anpassen darf, solange er diese Änderungen der Gemeinschaft von Nutzern (Emacs Commune) mitteilt: "Emacs was more than a single software programm. It was a social contract." Stallman sprach häufig von einer Church of Emacs und den moralischen Verpflichtungen der Entwicklergemeinde.

Neben einigen heute weit verbreiteten Entwicklerwerkzeugen (z.B. Debugger, Compiler) ist die GNU General Public License (GNU GPL) aus dem Jahr 1989 das wahrscheinlich wertvollste Resultat des GNU-Projekts. Diese versucht ganz im Geiste alter Hackerzeiten am Massachusetts Institute of Technology (MIT) oder in der Emacs Commune das Teilen von Information und das gemeinschaftliche Entwickeln zu forcieren. Sie garantiert die Partizipation am Entwicklungsprozess von Software nach den Fähigkeiten des Einzelnen und nicht nach Firmenzugehörigkeit. Die GNU GPL hatte einschneidende Wirkung auf den Entwicklungsprozess von Software: 1991 veröffentlichte Linus Torvalds das dem GNU-Projekt lange fehlende Herz eines freien Betriebssystems, den Kernel namens Linux. Er stellte diesen unter die GNU GPL. Der Siegeszug von Linux ist seither auch ein Siegeszug der GNU GPL und somit eines alternativen, egalitären, offenen und freieren Entwicklungsmodells von Software.

Trotz seines Votums für die GNU GPL distanzierte sich Torvalds stets vehement von den ethisch-moralischen Ansprüchen der FSF. Er bezeichnete Stallman als "religiösen Fanatiker" und grenzte sich wiederholt von dessen sozialen und politischen Forderungen ab: "Ich muss zugeben, dass mir die gesellschaftspolitischen Fragen, die Stallman so am Herzen lagen (...), kaum bewusst waren (...). Mich interessierte die Technik, nicht die Politik." 1998 spaltete sich ein Teil der Free-Software-Bewegung von Stallman ab und führte den Begriff Open Source ein. Dieser unterscheidet sich nur geringfügig von Stallmans Free Software-Konzept. Open-Source-Anhänger kritisieren an der Free-Software-Bewegung vornehmlich deren starke ideologische Ausrichtung und die Überbewertung ethisch-moralischer gegenüber technischen Diskussionen. Derartige Spannungen innerhalb dieses alternativen Modells der Softwareentwicklung führten zu zwei unterschiedlichen Schulen. Eric Raymond brachte dies mit einer Metapher auf den Punkt: Den Ansatz Stallmans und der FSF verglich er mit dem Bau einer Kathedrale, den Ansatz der Open-Source-Bewegung mit einem Basar: Während der Kathedralenbau einen großen Entwurf benötigt und hehre moralische Werte die treibende Kraft hinter dem Bau darstellen, existiert der Basar aufgrund einer Vielzahl unterschiedlicher Einzelinteressen, die keines ideologischen Überbaus bedürfen. Das Ziel, den Entwicklungsprozess zu öffnen und zu demokratisieren, ist beiden Ansätzen gemein, bezüglich Motivation und Mittel hingegen unterscheiden sie sich.

Mit seinem Engagement für Freie Software und der daraus hervorgegangenen Open-Source-Bewegung hat Stallman die wahrscheinlich bedeutendste Nachhaltigkeitsdebatte innerhalb der IT-Welt angestoßen und soziale Aspekte, zum Beispiel bezüglich egalitärer Zugangs- und Nutzungschancen, sowohl im Produktions- als auch im Nutzungsprozess von Software fest verankert.

Softwarepatente

Ein weiteres Spannungsfeld, das als Nachhaltigkeitsdiskurs betrachtet werden kann, ist die Debatte um das Recycling von Software. Mit der Ablehnung der EU-Richtlinie zur Patentierbarkeit "computerimplementierter Erfindungen" im Juli 2005 durch das Europäische Parlament ist diese Diskussion auch in Deutschland wieder entflammt. Eine allgemein akzeptierte Definition für Softwarepatente hat sich hier bisher nicht durchsetzen können. Vor allem die Frage nach der Technizität und Trivialität einer Software (-Erfindung) steht hier im Mittelpunkt. Anders als traditionelle Patente, die sich auf technische Erfindungen beschränken, beziehen sich Softwarepatente oft auf Ideen. Von Lizenzvereinbarungen, die das Urheberrecht schützen und immer für bestimmte Implementierungen gelten, unterscheiden sich Softwarepatente dadurch, dass sie nicht einzelne Programme, sondern ganze Verfahrensklassen schützen. In den USA ist die Patentierung von Software sehr verbreitet, was zu dem Phänomen der Trivialpatente geführt hat: So besitzt z.B. amazon.com ein Patent auf den Einkauf per Mausklick (One-Click-Shopping), die Firma Adobe auf die Darstellung eines Karteikartenreiters am Bildschirm und Apple auf eine Methode zur Stapelung mehrerer virtueller Dokumente auf dem Desktop.

Neben der Legalität ist auch die Legitimität der Softwarepatentierung sehr umstritten. Kritiker der Softwarepatentierung wie Stallman oder der gemeinnützige Förderverein für eine Freie Informationelle Infrastruktur sehen in Softwarepatenten eine Einschränkung der Programmierfreiheit. Sie befürchten vor allem eine Benachteiligung kleiner und mittelständischer Unternehmen. Große Unternehmen könnten, so die Sorge, die Patente kleiner Unternehmen schlicht ignorieren, bis diese die Gerichtskosten zur Durchsetzung ihrer Patente nicht mehr aufbringen. Auch wird eine Zementierung bestehender Marktverhältnisse befürchtet. Entwickler könnten mit einem Softwarepatent nicht nur die Verbreitung und Benutzung einzelner Softwareprodukte, sondern für sehr lange Zeitspannen (bis zu 20 Jahre), die im Computerzeitalter vielleicht nicht mehr angemessen sind, ganze Ideen und Verfahrensklassen reglementieren. Die Frage hinter der Debatte lautet: Wem wollen wir wofür und wie lange Monopolschutz gewähren?

Hypertext und Wiki

Soziologen wie Pierre Bourdieu haben wiederholt auf den Zusammenhang zwischen Kapitalakkumulation (Anhäufung von materiellen Gütern, aber auch von Wissen und Sozialkapital) und Benennungsmacht, der Autorität, auch in anderen gesellschaftlichen Feldern Einfluss auszuüben, hingewiesen. Die Auflösung der klassischen Rollenverteilung zwischen Kommunikator und Rezipient durch neue Technologien ist vor diesem Hintergrund ein besonders interessantes Phänomen.

Bereits Vannavar Bush deutete in seiner Vision vom Memory Extender, einem Gerät zur assoziativen Verknüpfung und Bewahrung von Informationen unterschiedlicher Natur, das Konzept des Hypertextes an. Ted Nelson griff dieses in den siebziger Jahren auf und verband es explizit mit sozialen Forderungen nach mehr Freiheit und Gleichheit. Personen, denen viele Informationen bisher nur in der passiven Position des Rezipienten verfügbar waren, sollten durch vernetzte Computersysteme in die Lage versetzt werden, auch als Kommunikatoren an Informationsaustauschprozessen teilnehmen zu können. Was ursprünglich mit individueller Website-Gestaltung von Privatleuten begann, findet mit Weblogs (Internettagebüchern), Podcasts (privaten Audio-Dateien) und Video-Podcasts einen vorläufigen Höhepunkt. Ehemals passive Rezipienten können sich zu aktiven Sendern aufschwingen und ihre eigenen Radio- oder Fernsehshows anbieten. Podcasting entwickelte sich seit August 2004 zu einem sozialen Phänomen mit vielen Millionen Zuhörern und mehreren zehntausend aktiven Podcastern.

Eine "vielseitige, aktive und gestaltende Beteiligung am politischen Geschehen und damit eine größere Einflussnahme auf die politische Willensbildung" durch die Bürgerinnen und Bürger verspricht sich auch die Enquete-Kommission des Bundestages "Zukunft der Medien in Wirtschaft und Gesellschaft" von den Neuen Medien. Die FDP versuchte im Bundestagswahlkampf 2005 mit der Initiative Externer Link: www.deutschlandprogramm.de die Partizipation mit Hilfe des Internets zu erweitern: In moderierten Foren hatten Interessierte die Möglichkeit, an der Erstellung des Wahlprogramms mitzuwirken.

Der Erfolg des World Wide Web (WWW) seit Anfang der neunziger Jahre ist nicht zuletzt auf die Umsetzung des Hypertextkonzepts zurückzuführen, wie die Begriffe Hypertext Transfer Protocol (HTTP) oder Hypertext Markup Language (HTML) zeigen. Streng genommen wurde im WWW über viele Jahre hinweg nur ein Aspekt des von Nelson anvisierten Hypertext-Konzepts realisiert: die nicht-lineare Informationsdarbietung. Hypertexte in Form von Websites waren weiterhin von Kommunikatoren verfasst. Zwar erleichterte es die einfach erlernbare HTML-Sprache, sich aus der passiven Rolle des Rezipienten in die profilierte Position des Kommunikators zu versetzen. Man blieb aber weiterhin entweder Kommunikator oder Rezipient.

Das Phänomen, dass diese Rollen gezielt aufgelöst werden, findet sich erst in neueren Angeboten, etwa bei den so genannten Wikis: "Bei Wikis handelt es sich um im Internet verfügbare Seitensammlungen, die nicht nur von jedem Nutzer gelesen, sondern auch geändert und gelöscht werden können. Sie sind somit offene Content-Management-Systeme, die ohne vorherige Anmeldung und Authentifizierung auf jede Art der Kontrolle verzichten. Trotz dieses zunächst chaotisch und unkontrolliert anmutenden Konzepts verbirgt sich dahinter ein äußerst erfolgreicher Ansatz eines kollaborativen Wissensmanagements, das Schreiben wird als offener, kollektiver Prozess verstanden. Die gleichberechtigte Gestaltungsfreiheit jedes einzelnen Nutzers macht es zu einem demokratischen und partizipativen Ansatz der Wissensgenerierung."

Ein besonders erfolgreiches Projekt dieser auf freies Teilen von Information ausgerichteten sozialen Bewegung ist Wikipedia, eine freie Enzyklopädie, zu der jeder sein Wissen beisteuern kann. 2001 startete die von der Non-Profit-Organisation Wikimedia betriebene Enzyklopädie in englischer Sprache. Mittlerweile enthält Wikipedia hunderttausende Artikel in über hundert Sprachen. Für die Nachhaltigkeitsdebatte sind Projekte wie Wikipedia trotz aller Negativschlagzeilen der jüngsten Vergangenheit hinsichtlich der Zuverlässigkeit "sozialer Software" deshalb bedeutsam, weil sie die soziale Forderung nach mehr Gleichheit im Informationsaustausch und die Unabhängigkeit von Benennungsmacht und ökonomischem Kapital umsetzen.

Die Leichtigkeit, mit der man im WWW als Kommunikator aktiv werden kann, ist gelegentlich auch kritisiert worden. Joseph Weizenbaum etwa verglich das Internet mit einem Schrottplatz, in dem durchaus die eine oder andere Perle zu finden sei, die jedoch müsse man lange suchen. Er kritisiert vor allem, dass die zentrale Stellung im Internet und somit die wahrgenommene Wichtigkeit einer Information nicht länger vom Wissen oder der Fachkompetenz ihres Verfassers, sondern vornehmlich von ihrem Google-Ranking abhängig sei. Auf diese Weise, so seine Sorge, würden sich langfristig nicht die besten Informationen, sondern die am schnellsten erreichbaren durchsetzen.

Ausblick

Nachhaltigkeitsdebatten im Sinne von Aushandlungsprozessen zwischen ökonomischen, sozialen und ökologischen Interessen finden sich innerhalb der IT-Welt zuhauf, auch wenn sie selten explizit mit dem Begriff Nachhaltigkeit assoziiert werden. Manche dieser Debatten existieren bereits seit Jahrzehnten, andere sind noch jung. Einige vermögen weltweit die Gemüter zu erhitzen, andere sind von lokal begrenztem Interesse. Die Liste ließe sich mit Schlagworten wie Datenschutz, Bildschirmarbeitsverordnung, Social Software, E-Government oder Software-Piraterie beliebig erweitern.

Sicherlich wird man den Debatten nicht immer vollständig gerecht, wenn man sie auf ihren normativen Grundgedanken, nämlich den Ausgleich zwischen ökonomischen, sozialen und ökologischen Interessen reduziert. Der Vorteil einer solchen Reduktion besteht allerdings darin, diese Debatten für Außenstehende zu öffnen und ihnen zu vermitteln, worum es geht und ob sie selbst betroffen sind. Dies ist die Grundlage für die Partizipation möglichst breiter Bevölkerungsschichten an der Beantwortung der Frage: "In welcher Welt wollen wir mit welcher Technik leben?" Eine solche Partizipation wiederum ist eine notwendige Voraussetzung für das, was die Bundesregierung als Nachhaltigkeit definiert: ein gesellschaftlicher Zustand, der in einem diskursiven Verfahren als wünschenswert und gerecht ermittelt wurde.

Internet-Empfehlungen des Autors

Externer Link: www.itu.int/wsis/
Externer Link: www.computertakeback.com/
Externer Link: www.fsf.org/
Externer Link: http://de.wikipedia.org/wiki/Wikipedia
Externer Link: www.empa.ch/sis

Fussnoten

Fußnoten

  1. Vgl. World Commission for Environment and Development (WCED), Our Common Future, New York 1987.

  2. Theodor Holm Nelson, Computer Lib/Dream Machines, (Eigenverlag) 1974, S. 70.

  3. Vgl. Jakob Nielsen, Usability Engineering, San Francisco 1994, S. 2ff.

  4. Vgl. Thomas Beschorner et al., Institutionalisierung von Nachhaltigkeit. Eine vergleichende Untersuchung der organisationalen Bedürfnisfelder Bauen & Wohnen, Mobilität und Information & Kommunikation, Berlin 2005, S. 198.

  5. Vgl. Lorenz M. Hilty/Thomas F. Ruddy, Towards a Sustainable Information Society, in: Informatik/Informatique, 4 (2000), S. 8.

  6. Vgl. Steven Levy, Hackers. Heroes of the Computer Revolution, London 1994, S. 39ff.

  7. GNU ist ein rekursives Akronym und steht für "GNU is not Unix".

  8. Sam Williams, Free as in Freedom. Richard Stallman's Crusade for Free Software, Sebastopol 2002, S. 85.

  9. Linus Torvalds/David Diamond, Just for Fun. Wie ein Freak die Computerwelt revolutionierte, München 2002, S. 66.

  10. Vgl. Eric Raymond, The Cathedral and The Bazaar. Musings on Linux and Open Source by an Accidental Revolutionary. Revised and expanded edition, Sebastopol 2001.

  11. Vgl. Pierre Bourdieu, Sozialer Raum und Klassen. Leçon sur la leçon. Zwei Vorlesungen, Frankfurt/M. 1985.

  12. Vgl. Vannevar Bush, As we may think, in: Atlantic Monthly, 176 (1945), S 101 - 108.

  13. Vgl. Theodor-Holm Nelson, Literary Machines, (Eigenverlag) 1981, S. 0/2 ff. und 2/61.

  14. Deutscher Bundestag, Schlussbericht der Enquete-Kommission "Zukunft der Medien in Wirtschaft und Gesellschaft". Deutschlands Weg in die Informationsgesellschaft, Drucksache 13/1104, Bonn 1998, S. 79.

  15. Matthias Barth, Internetbasierte Nachhaltigkeitskommunikation, in: Gerd Michelsen/Jasmin Godemann (Hrsg.), Handbuch Nachhaltigkeitskommunikation, München 2005, S. 270.

  16. Vgl. z.B. Bernd Graff, Unleserlicher Mist. Die Online-Enzyklopädie Wikipedia ist entzaubert, in: Süddeutsche Zeitung vom 7.12. 2005.

  17. Vgl. Joseph Weizenbaum, Computermacht und Gesellschaft, Frankfurt/M. 2001, S. 15ff.

  18. Vgl. Jörg Tremmel, Nachhaltigkeit als politische und analytische Kategorie, München 2003, S. 38.

Dr. phil., geb. 1975; Postdoctoral Fellow an der International University Bremen, Jacobs Center for Lifelong Learning, Communication Science. Postfach 750 561, 28725 Bremen.
E-Mail: E-Mail Link: d.mocigemba@iu-bremen.de