Wissen und Eigentum

18.10.2006 | Von:
Felix Stalder

Zwischen Copyleft, Creative Commons und Public Domain

Neue Formen der Öffentlichkeit und kulturellen Innovation

3. Probleme und Potentiale der neuen Modelle

Diese neuen Formen der Wissens- und Kulturproduktion sind in der Frühphase ihrer Entwicklung. Auch wenn sich noch keine abschließenden Urteile fällen lassen, sind sowohl Probleme wie auch große Potentiale für die weitere Entwicklung bereits sichtbar geworden. Die Probleme lassen sich in zwei Kategorien einteilen. Ein Typ von Problemen wird von außen verursacht, als Folge der Inkompatibilität der proprietären und der offenen Paradigmen. Es gibt aber auch Probleme, die in den neuen Produktionsformen selbst begründet liegen und wohl auf ihre noch ungenügende Ausdifferenzierung hinweisen. Zum ersten Punkt: wie bereits ausgeführt, beruhen die neuen Modelle auf einer innovativen Anwendung des Urheberrechts und der freien Verfügbarkeit einer offenen Kommunikationsplattform (Standard PCs und Internet). Beide Grundpfeiler sind momentan starkem Druck durch die klassischen, auf Ausschluss und Kontrolle basierenden Industrien ausgesetzt. Zum einen wird versucht, die Offenheit der Kommunikationsplattform durch Digital Rights Management Systeme (DRM)[5] stark einzuschränken. Dies gilt als Voraussetzung, um bestehende Rechtsansprüche in gewohnter Form durchsetzen zu können. Dies könnte zur Folge haben, dass freie, nicht zertifizierte Inhalte auf der neuen DRM Infrastruktur nur noch schwer abgespielt oder bearbeitet werden können. Zum anderen werden immer weitere Teile der kulturellen Produktion durch Instrumente des Immaterialgüterrechts aus der allgemeinen Verfügbarkeit entfernt und der Kontrolle einzelner Besitzer, in der Regel großer Firmen, unterstellt. Ganz besonders problematisch ist die Ausweitung der Patentierbarkeit. Im Unterschied zum Urheberrecht, der den konkreten Ausdruck schützt, lassen sich durch Patente Ideen, unabhängig von ihrer Implementierung kontrollieren. Während es kaum möglich ist, ein Urheberrecht zu verletzen, ohne das ursprüngliche, geschützte Werk zu kennen, kann das bei Patenten sehr wohl der Fall sein. Im Softwarebereich, dessen Produkte sich in aller Regel aus vielen einzelnen Modulen (jedes potentiell patentiert) zusammensetzen, könnte eine Patentierung dazu führen, dass kleine und mittlere Entwickler, wie sie gerade im Open Source-Bereich anzutreffen sind, kaum überleben würden. Ihnen fehlen die Mittel, komplexe und teure Patentabklärungen durchzuführen, die eventuell notwendigen Rechte zu erwerben und sich so vor späteren Klagen zu schützen. Diese externen Bedrohungen offener Modelle haben in den letzten Jahren zu einer starken Politisierung der diversen Szenen geführt. Im Bereich der Softwarepatente ist es der Open Source Community gelungen, wesentlichen Einfluss auf das europäische Gesetzgebungsverfahren zu nehmen und Softwarepatente bis auf weiteres zu verhindern. Dies wird aber wohl kaum die letzte Auseinandersetzung in dieser Frage gewesen sein.

Die "internen" Probleme liegen ganz anders. Im Fall der Wikipedia zeigt sich mit zunehmendem Erfolg, dass die beiden Grundannahmen (die Vielfältigkeit der Kontributoren sichert die Breite des Wissens und die Artikel verbessern sich im Laufe der Zeit) zwar sehr produktiv, aber nur bedingt verlässlich sind. Die Wikipedias spiegeln vielmehr wider, dass einerseits die Internetnutzer nach wie vor nicht repräsentativ für die (Welt)Bevölkerung sind und andererseits, dass das, was momentan die Online-Bevölkerung bewegt, nicht immer im Verhältnis zur langfristigen Relevanz des Themas steht. So sind etwa ganze Weltsprachen kaum vertreten (etwa das Arabische) oder ist der Eintrag zum TV-Moderator Thomas Raab in der deutschen Ausgabe der Wikipedia knapp viermal länger als derjenige zu Giorgio Agamben, einem der führenden zeitgenössischen politischen Philosophen. Die Frage, ob die Eigenmotivation von Internetnutzern je ausreicht, um dem Anspruch einer Enzyklopädie gerecht zu werden, alle Wissensgebiete gleichermaßen zu erfassen, ist offen. Dahinter verbirgt sich eine komplexe Frage. Wer kann überhaupt bestimmen, was die relevanten Wissensgebiete sind? Bisher wurde dies einfach an Spezialisten delegiert und die Öffentlichkeit musste mit der Auswahl vorlieb nehmen, die diese Herren (und wenigen Damen) trafen. Ist die aggregierte Auswahl vieler besser oder schlechter als die selektive Auswahl weniger? Der Vergleich der verschiedenen Enzyklopädien lässt momentan noch keine eindeutige Antwort zu, wobei schon dieses "Unentschieden" ein beachtlicher Erfolg für die noch sehr junge Wikipedia darstellt.

Seitdem es keine weit entfernte Vision mehr ist, die Wikipedia als eines der Standardreferenzwerke des Internets zu etablieren, wird die Frage der Verlässlichkeit der angebotenen Information, die ja jeder frei verändern kann, mit großem Nachdruck diskutiert. Das Problem ist folgendes: Wie kann der Benutzer überprüfen, dass die eine Seite, die er sich gerade anschaut, korrekte Informationen enthält? Vielleicht ist der Artikel ja noch am Anfang der Entwicklung und Fehler oder Fehlendes sind noch nicht behoben, oder vielleicht wurde der Artikel ja gerade vor einer Minute bösartig verfälscht. Der einzelnen Benutzerin nützt die allgemeine Tendenz, dass Artikel sich mit der Zeit verbessern, oder dass Vandalismus schnell behoben wird, wenig. Denn für sie geht es um einen einzigen Artikel in einem einzigen Moment.

Die Lösung, an der momentan gearbeitet wird, lehnt sich an eine Praxis an, die in der freien Softwareentwicklung weit verbreitet ist. Dort wird routinemäßig zwischen stabilen und aktuellen Versionen unterschieden. Die stabile Version zeichnet sich dadurch aus, dass sie intensiv getestet wurde und keine schwerwiegenden Fehler mehr enthält. Die aktuelle Version dagegen enthält die neuesten Features und Softwarecodes, an denen gerade gearbeitet wird. Sie ist daher weniger getestet. Der Benutzer kann nun entscheiden, ob er die aktuelle oder die stabile Version benutzen will. Ähnlich in der Wikipedia: Artikel sollen geprüft, editiert und dann als stabile Versionen "eingefroren" werden. Der Nutzer kann dann entscheiden, ob er sich die stabile oder die aktuelle Version eines Artikels ansehen will. Dies würde erlauben, die Verlässlichkeit der Information zu erhöhen und gleichzeitig die freie Edierbarkeit, das Herzstück des Projektes, zu bewahren. Während dieser Ansatz sehr sinnvoll erscheint, ist er in der Praxis nicht einfach umzusetzen, nicht zuletzt deshalb, weil das Validieren von Information in einer Enzyklopädie nicht zu vergleichen ist mit dem Testen von Software. Je mehr Nutzer sich am Testen eines Computer-Programms beteiligen, desto besser, weil mehr Konfigurationen und Anwendungen zum Einsatz kommen. Darüber hinaus kann jeder Einzelne das Vorhandensein eines Bugs eindeutig feststellen: das Programm stürzt ab! Bei einem faktenorientierten Artikel gibt es keinen solch eindeutigen Test. Da hilft es auch nicht unbedingt, wenn sich viele Personen am Prozess beteiligen. Die Gefahr besteht, dass sich die mehrheitsfähige Meinung, die nicht unbedingt die korrekte sein muss, durchsetzt. Wie relevant dieses Problem ist, lässt sich zu diesem Zeitpunkt noch nicht vorhersagen. Dass auch die "stabile" Version von Wikipedia Fehler enthalten wird, ist zu erwarten, die entscheidende Frage ist nur, ob sie mehr Fehler enthält als konventionelle Werke. Sollten sie entdeckt werden, so lassen sie sich jedenfalls sehr viel leichter als in einer traditionellen Enzyklopädie korrigieren.

Im Bereich der freien Kulturproduktion liegen die Herausforderungen nochmals anders. Netlabels und ähnliche Initiativen in anderen Sparten sind heute noch auf Nischen beschränkt. Ob und wie diese Modelle auch den Mainstream erreichen können, ist noch völlig offen. Vielleicht nie. Möglich wäre, dass sich zwei Sphären herausbilden, die eine wird durch DRM und die Marktmacht der großen Firmen bestimmt, die andere durch offene Modelle, Nischen und Spezialisierung. Inwieweit diese beiden Modelle auf derselben rechtlichen und infrastrukturellen Grundlage existieren können, ist aber noch völlig offen.

Das ist aber nicht alles. Für Kulturschaffende, deren Werke sich nicht zur Live Performance eigenen, bergen die offenen Modelle auch einige Risiken. Bisher hat ihnen der Verkauf der Werke eine gewisse Autonomie gegenüber Auftraggebern und Förderungskommissionen gesichert. Diese könnte nun wegfallen. Die Autonomie aufzugeben und neue Finanzierungsmodelle zu suchen, stellt aber die Position des Künstlers, paradoxerweise besonders auch im Hinblick auf künstlerische Freiheiten, grundsätzlich in Frage.

Ein Versuch, das Problem der Vergütung kultureller Produzenten bei freiem Austausch kultureller Güter grundsätzlich anzugehen, ist die so genannte Kulturflatrate. Die wesentliche Idee ist, Urheber, deren Werke über das Internet verteilt werden, indirekt zu entschädigen. Anstatt auf DRM-gestütze pay-per-use Modelle zu setzen, sollte eine pauschale Abgabe etwa auf den Breitband-Internetzugang erhoben werden. Aus dem so entstehenden Topf könnten dann die Urheber gemäß der Benutzung ihrer Werke durch die Öffentlichkeit entschädigt werden. Ähnliche Systeme bestehen heute bereits. So wird auf so genannte Leermedien (Blank CD, Tapes etc.) eine Abgabe erhoben, die dann durch die Verwertungsgesellschaften (Gema, VG Wort etc.) an die Urheber weitergereicht wird. Dieses indirekte System ist in der heutigen Praxis allerdings mit einigen Problemen behaftet (mangelnde Transparenz, Fragen der Verteilungsgerechtigkeit) und die Ausweitung eines verbesserten Systems auf das Internet könnte nur mit sehr starkem politischen Wille geschehen. Dieser besteht im Moment weder auf nationaler noch auf internationaler Ebene. Die Diskussion zeigt aber die Vielfalt der neuen Modelle der freien Kultur, über die aktuell nachgedacht wird.

All diese Schwierigkeiten bergen aber auch kreatives Potential, solange sich die rechtlichen und technologischen Rahmenbedingungen nicht deutlich verschlechtern. Und wie die Versuche, eine stabile Version der Wikipedia zu entwickeln, zeigen, wird mit Nachdruck an innovativen Lösungen gearbeitet. Das Potential dieser neuen Formen der Öffentlichkeit und kulturellen Innovation ist noch lange nicht ausgereizt. Jetzt, da es trivial ist, perfekte Kopien herzustellen und diese weltweit zu vertreiben, gibt es keine normative Rechtfertigung mehr, Menschen den Zugang zu Wissen, Information und Kultur zu verwehren. Die Nachfrage besteht. Der Vertrieb stellt keine Hürde mehr dar. Was neu organisiert werden muss, ist die Produktion der "ersten Kopie". Die freien Lizenzen haben dafür eine solide, rechtliche Grundlage geschaffen. Die freie Kooperation Tausender, die ihrer eigenen Motivation und ihren eigenen Talenten folgen, hat sich als höchst produktiv erwiesen und wird mit zunehmender Organisationserfahrung wahrscheinlich noch produktiver werden. Für individuelle Kulturschaffende stellt die Möglichkeit, ein weltweites Publikum zu erreichen, ohne sich ins Anforderungskorsett globaler Verwerter zwängen zu müssen, eine Bereicherung dar, die weit größer ist, als die Risiken und offenen Fragen, die sich aus den neuen Modellen ergeben.

Es zeichnet sich ein Paradigmenwechsel in der Produktion und dem Vertrieb von Wissen und Kultur ab, der keineswegs nur auf den nicht-kommerziellen Bereich beschränkt ist. Die ersten Modelle, die das neue Paradigma realisieren, sind bereits in Betrieb. Ihr langfristiges Überleben ist allerdings noch nicht gesichert.


[5] Siehe dazu den Beitrag von Volker Grassmuck in diesem Band.


Dossier

Urheberrecht

Früher interessierte es nur Autoren, Künstler und Verlage. Heute betrifft das Urheberrecht uns alle: meist als Treibstoff der Informationsgesellschaft - manchmal aber auch als Sand in ihrem Getriebe.

Mehr lesen

Dossier

Open Source

Open Source-Software ist das Paradox der Wissensgesellschaft: Programmierer verschenken ihr wertvollstes Gut – und begründen eine soziale Bewegung, die weltweit das Wissen befreien will.

Mehr lesen