Eine leuchtende grüne Ampel neben einer roten, die mit dem Wort 'GO' beschriftet ist.

5.1.2007 | Von:
Robert A. Gehring

FOSS, die Firma und der Markt

2. Was ist FOSS?

Die Andersheit von FOSS gegenüber proprietärer Software ruht auf drei Pfeilern:
  • einer rechtlichen Konstruktion, dem sog. "Copyleft",
  • dem Vertrieb von FOSS im Quellcode und
  • dem Community-basierten Entwicklungsmodell, das sich vom Firmen-zentrierten Entwicklungsmodell für proprietäre Software unterscheidet.

FOSS im Recht

Historischer Ausgangspunkt für die gesetzliche Behandlung von Software war ihre Eigenschaft, die darin verkörperten Ideen als Text darzustellen.[12] Abstrakt lässt sich formulieren:

Software ist an eine Maschine gerichtete Information, die textuell repräsentiert ist. Die Tatsache, dass es sich um Ideen verkörpernde Texte handelt, ist von entscheidender juristischer Bedeutung, denn Texte unterliegen dem Schutz des Urheberrechts: "Zu den geschützten Werken der Literatur, Wissenschaft und Kunst gehören insbesondere: 1. Sprachwerke, wie Schriftwerke, Reden und Computerprogramme".[13]

Den gemeinsamen Rahmen für alle Softwaremodelle bildet also das Urheberrecht,[14] das dem Urheber grundsätzlich die Verfügungsgewalt über die geschaffene Software zuspricht. Der Urheber eines Computerprogramms darf somit allein darüber entscheiden, ob und wie das Programm veröffentlicht, verwertet, vervielfältigt, bearbeitet und verbreitet werden darf. In der Ausübung dieser Rechte zeigt sich dann, welches Modell der Urheber unterstützt, FOSS oder proprietäre Software.

Die Übertragung von urheberrechtlichen Befugnissen erfolgt bei Software entweder auf individueller Vertragsbasis oder durch Standardlizenzen. Individuelle Verträge kommen üblicherweise bei Individualsoftware, Standardlizenzen bei Software für den Massenmarkt zum Einsatz. Proprietäre Software und FOSS unterscheiden sich lizenzrechtlich in der Hauptsache dahingehend, dass bei FOSS weitergehende Rechte eingeräumt werden. Das Konzept dahinter nennt sich Copyleft, in Anlehnung an das angloamerikanische Gegenstück zum Urheberrecht, das "Copyright".

Eine dem Copyleft-Gedanken folgende Lizenz für eine Software gestattet jeder und jedem, die Software zu vervielfältigen, Kopien lizenzkostenfrei weiter zu verbreiten, die Software für beliebige eigene Zwecke zu nutzen und zu bearbeiten. Software unter einer FOSS-Lizenz entbindet die Anwender von aufwendigen Verhandlungen über die Nutzungsrechte an der erworbenen Software. Sinn und Zweck des Copyleft ist es, auf der Basis gemeinsamer Interessen von Entwicklern und Anwendern die Kooperation zwischen ihnen zu fördern sowie die Integration fremder und eigener Leistungen möglichst unaufwändig zu gestalten.

Demgegenüber reservieren Lizenzen für proprietäre Software praktisch alle weitergehenden Rechte – über das der einfachen Nutzung hinaus – für den Eigentümer der Software. Die Integration fremder und eigener Leistungen soll so erschwert werden, um dem Eigentümer ein Alleinstellungsmerkmal im Softwaremarkt zu garantieren, aus dem dieser Kapital schlagen kann.[15]

An dieser Stelle ist auf einen wichtigen Unterschied zwischen Freier und Open-Source-Software hinzuweisen: Bei Freier Software wird das Copyleft "vererbt", das heißt, jede Version, die in Umlauf gebracht wird, muss ihrerseits mit denselben Befugnissen ausgestattet werden, auch wenn sie bearbeitet wurde. Paradigmatisch ist die GNU General Public License (GPL). Die GPL wird als "viral" bezeichnet, weil jeder aus GPL-Code abgeleitete Code ebenfalls unter der GPL zu lizenzieren ist. GPL-Software "vererbt" in diesem Sinne die an sie gekoppelten Rechte und Pflichten. Bei Open-Source-Software kommen liberalere Lizenzen zum Einsatz, die zum Teil die Privatisierung bearbeiteter Versionen nicht ausschließen.

Quellcode versus Binärcode

Software entsteht als Text. In speziellen Programmiersprachen von Menschen verfasst, werden die Programmtexte – die Quellcodes – von anderen Programmen übersetzt, in die Maschinensprache des jeweiligen Mikroprozessors. Erst in dieser Form, praktisch nicht mehr für den Menschen verständlich, werden die Informationen aus den Programmtexten für die Computer interpretierbar. Hierin gleichen sich proprietäre und Freie bzw. Open-Source-Software. Die Besonderheit von solchen Programm-Texten liegt darin, dass sie in Verbindung mit entsprechender Hardware Wirkungen[16] auslösen, ohne dass zur Steuerung der Abläufe ein weiteres menschliches Eingreifen notwendig wäre. Computerprogramme ähneln mit diesem Verhalten zwar eher Maschinen als Büchern,[17] entstehen aber eher wie Bücher als wie Maschinen.

Das Recht des geistigen Eigentums kennt eine Dichotomie zwischen ungeschützten, abstrakten Ideen und ihren schutzfähigen Ausdrucksformen (Urheberrecht) bzw. angewandten Wirkmechanismen (Patentrecht[18]). Damit soll einerseits den Interessen der Öffentlichkeit an möglichst weiter Verbreitung der Ideen und andererseits den Interessen der Urheber bzw. Erfinder an der exklusiven Vermarktung der auf den Ideen basierenden Werke bzw. Erfindungen Rechung getragen werden.

Der beschriebene Ablauf bei der Softwareentwicklung, wo die im Quelltext konkret ausgedrückten Ideen maschinell in einen nur noch maschinenlesbaren Text übersetzt werden, führt diesen Grundgedanken der freien Verbreitung von ungschützten Ideen ad absurdum. Praktisch niemand ist in der Lage, aus dem Binärcode eines Programmes die ihm zu Grunde liegenden Ideen zu extrahieren.[19] Der Zugang zu den ungeschützten Ideen erfordert daher den Zugang zum Quelltext.

FOSS entspricht diesem Bedürfnis nach Zugang und kommt entweder unmittelbar als Quelltext zum Anwender, der den Prozess der Übersetzung dann selbst initieren muss, um ein ablauffähiges Programm zu erhalten. Oder der Quelltext wird, falls FOSS zur Entlastung der Anwender im Binärcode verbreitet wird, zusätzlich auf Abruf zur Verfügung gestellt. Damit bilden Quelltext und FOSS-Lizenz zwei Seiten einer Medaille, deren Besitz Freiheiten schenkt, die im proprietären Softwaremodell unbekannt sind. Die Nutzung dieser Freiheiten hat zur Herausbildung einer aktiven Gemeinschaft von Softwareentwicklern, -vermarktern und -anwendern geführt, die schlicht als "Community" bezeichnet wird.

Die FOSS-Community und der FOSS-Prozess

Industrielle Produktion von Gütern findet in einem arbeitsteiligen Prozess statt, dessen wesentliche Träger in der Marktwirtschaft Unternehmen – Firmen – sind, die über den Markt miteinander und mit den Konsumenten der Güter im Austausch stehen. Proprietäre Software bildet da keine Ausnahme.

Eine Firma ist ein Zusammenschluss von Menschen, die miteinander überwiegend in vertraglich fixierten, auf längere Dauer angelegten, hierarchischen Beziehungen verbunden sind. Der Zweck des Zusammenschlusses ist die Produktion und Vermarktung von Waren im weitesten Sinne mit dem Ziel der Erwirtschaftung von Profiten. Um die Profite zu maximieren, versucht die Firma, unnötige Ausgaben zu vermeiden. Die Grenzen der Firma werden maßgeblich dadurch bestimmt, dass die zur Wertschöpfung notwendigen Schritte im Rahmen der Firma kostengünstiger ausgeführt werden können als über den Markt.[20]

Die Entwicklung von FOSS findet, wie erwähnt, in einer Community statt,[21] zu der Mitglieder aus den unterschiedlichsten Umfeldern (Mitarbeiter aus Firmen, Forschungseinrichtungen, Universitäten sowie Privatleute) gehören.[22] Die Arbeitsteilung erfolgt dabei im Wesentlichen nicht über Markttransaktionen und Firmenhierarchien, auch wenn Firmen oder Mitarbeiter aus Firmen in der Community aktiv sind und die meisten Projekte in der Community partiell hierarchische Strukturen aufweisen. Nur ausnahmsweise sind die Beziehungen zwischen den Mitarbeitern an einem Projekt vertraglich fixiert, beispielweise innerhalb von in der Community engagierten Firmen. So kann es vorkommen, daß Unternehmen Mitarbeiter extra für die FOSS-Entwicklung einstellen.

Vorherrschend sind in der FOSS-Community Ad-hoc-Beziehungen aus der Beteiligung von Anwender-Entwicklern, wobei die individuelle Position von der Bedeutung der eigenen Beiträge für das jeweilige Projekt abhängt (Meritokratie). Die Bewertung erfolgt dabei durch die anderen Projektteilnehmer. Dieser Bewertungsprozess wird häufig mit dem aus der Wissenschaft bekannten Peer-Review-Verfahren verglichen, bei dem die Beurteilung der individuellen Leistungen von Wissenschaftlern durch deren Kollegen erfolgt. Der offene Peer-Review-Prozess der FOSS-Community findet im Internet statt[23] und ist für Beteiligte und Unbeteiligte weitgehend transparent.

Die Projektführung liegt in den Händen charismatischer Persönlichkeiten mit hoher Reputation innerhalb der Community. Deren Autorität beruht auf der Duldung durch die Projektmitglieder, besonders durch die Mitglieder eines engeren Zirkels ("peers"). Solange der oder die Projektführer konform mit den Auffassungen einer Mehrheit von Mitgliedern im Hinblick auf das Projekt sind, behalten sie ihre Rolle. Verstoßen sie jedoch dagegen, laufen sie Gefahr, ihre Position zu verlieren.

Ein FOSS-Prozess (Projekt) kann auf unterschiedliche Weise begründet werden. Um die Endpunkte des Spektrums zu skizzieren: Es kann sein, dass ein individueller Entwickler zur Lösung eines individuellen Problems Software schreibt, deren Quellcode unter einer FOSS-Lizenz im Internet veröffentlicht und zur Mitarbeit einlädt.[24] Oder es kann sein, dass ein Unternehmen ein komplettes Produkt unter einer FOSS-Lizenz auf seinen Webservern zur Verfügung stellt, so dass potentielle Anwender und Entwickler weltweit Zugang zum Quellcode erhalten. Diese nutzen, inspizieren und testen den Code. Ein Teil von ihnen erweitert und verbessert die Software. Die Verbesserungen fließen dann in zurück in das Projekt.[25]

Mit der Initiierung ist der Erfolg eines FOSS-Projekts noch nicht garantiert, aber eine unabdingbare Voraussetzung geschaffen. Über den Erfolg entscheiden letztlich, wie im Markt, die Abnehmer, d.h. die Anwender. Bedient die Software weit verbreitete Bedürfnisse, steigt die Wahrscheinlichkeit, dass sich um die Software eine Anwender-Entwickler-Community bildet und deren Entwicklung aktiv vorantreibt. Die Entstehung einer Community ist jedoch eher unwahrscheinlich, wenn es sich um eine Spezialsoftware mit sehr engem Anwendungsbereich handelt.

Anwender spielen im FOSS-Modell eine besondere Rolle. Dort, wo es im proprietären Modell Konsumenten gibt, deren Einfluss auf die Produktgestaltung von Massenmarktsoftware eher marginal ist, steht im FOSS-Modell der Anwender-Entwickler, dem die FOSS-Lizenz das Recht und der Quellcode die praktische Möglichkeit geben, eigene Vorstellungen in ein Produkt hineinzuprogrammieren. Über das Internet stehen verschiedene Wege zur Kommunikation mit dem Projekt, d.h. anderen Anwender-Entwicklern offen. Der Anwender-Entwickler ist der Schlüssel des FOSS-Prozesses. Statt bloß als Abnehmer aufzutreten, wird er Akteur des Entwicklungsprozesses.

Strukturell handelt es sich bei der FOSS-Community als Ganzem um ein Netzwerk aus Netzwerken (kleineren Communities), wie sie für die Informationsgesellschaft als typisch angesehen werden.[26] Diese Netzwerke verfolgen je eigene Projektziele und produzieren Code, der auf Grund der beschriebenen offenen Lizenzierung von anderen Netzwerken (ganz oder in Teilen) wiederverwendet werden kann. Der Code bildet, so gesehen, den kleinsten gemeinsamen Nenner der Kommunikation zwischen den Netzwerken.

Große FOSS-Projekte, wie der Betriebssystemkern Linux oder der Webserver Apache, differenzieren im Laufe ihrer Evolution Subnetzwerke zur Lösung von Detailproblemen aus. Das können Hardwaretreiber im Fall von Linux oder Module zur Anbindung von Datenbanken im Fall von Apache sein. Das Internet liefert die logistische Grundlage und hat mit seinen niedrigen Kommunikationskosten entscheidend zum Erfolg des FOSS-Modells beigetragen. Die Kommunikation selbst findet zwischen den Mitgliedern der Community unmittelbar[27] statt. Das ist ein großer Unterschied zur vermittelten Kommunikation marktwirtschaftlicher Transaktionen, in denen der Preismechanismus als Vehikel dient.[28]

Die Ursprünge der FOSS

An dieser Stelle soll kurz auf die historischen Hintergründe der FOSS-Bewegung eingegangen werden.

Will man FOSS nicht bloß als konsequente Übertragung des von der Wissenschaft entwickelten Entdeckungsmodells auf die Software verstehen, lässt sich die erste Hacker-Community im Umfeld des Labors für künstliche Intelligenz am MIT ausmachen. Dort nutzten zu Beginn der 1960er Jahre Studenten, Mitarbeiter und ihre Kinder den liberalen Umgang der Laborleiter um erste Erfahrungen mit der interaktiven Programmierung von Computern zu sammeln.

Zu diesem Zeitpunkt war interaktive Programmierung praktisch unbekannt, es herrschte der sogenannte Batch-Betrieb mit Großrechnern vor. Der Zugang zu den Großrechnern war streng hierarchisch organisiert. Software wurde mit Papier und Bleistift entwickelt, dann in Lochkarten gestanzt und den Systemverwaltern übergeben, die den Computer damit fütterten. Der Programmierer selbst kam mit dem Computer kaum in Berührung, durfte sich nur irgendwann die Rechenergebnisse abholen.

Gegen dieses Klima der Technikkontrolle rebellierten einige bastelfreudige Individualisten, überwiegend Studenten, und eroberten sich ungenutzte "Kleincomputer", die sie für ihre Zwecke in Beschlag nahmen. Sie programmierten Betriebssysteme, Assembler und erste Computerspiele, deren Code sie untereinander austauschten und freigiebig an Interessenten außerhalb des Labors weitergaben.

In den 1970er Jahren war Richard Stallman einer der aktiven Hacker dieser Community. Er musste miterleben, wie Kontroll- und Eigentumsdenken immer mehr auch im AI-Labor des MIT um sich griffen. Passwörter wurden eingeführt und Software wurde privatisiert (viele Hacker gingen in die Industrie, gründeten eigene Softwareunternehmen).

Die historische Erfahrung des Zusammenbruchs der Hacker-Bewegung lehrte Stallman, dass Softwareentwicklung unter puren Laissez-faire-Bedingungen allzu leicht ein Opfer der "Tragödie der Allmende" werden kann: Alle mit Zugang zum Code können sich diesen aneignen und profitabel verwerten, und überwiegend werden sie genau das tun, wenn sie nicht durch entsprechende institutionelle Rahmenbedingungen daran gehindert werden. Den entnommenen Code werden sie dann als ihr Eigentum betrachten, weiterentwickeln und exklusiv vermarkten. Software sollte frei sein, war das Motto der Hacker und Stallman glaubte daran. Ende der 1970er Jahr war er praktisch "der letzte der wahren Hacker" (Steven Levy) und beschloss 1983, das MIT zu verlassen:

"Aber er verließ das MIT mit einem Plan: eine Version des populären Betriebssystems UNIX zu schreiben und an alle zu verteilen, die daran Interesse hätten."[29]

Er nannte sein geplantes System GNU, ein Akronym für "Gnu is Not Unix". Schritt für Schritt entwickelte Stallman, unzweifelhaft einer der besten Softwareentwickler der Welt, die zu einem UNIX-System[30] gehörenden Werkzeuge, und fand im Rahmen der von ihm mitbegründeten Free Software Foundation (FSF) Unterstützung durch andere Hacker.

Der Erfolg eines Softwaremodells, das den freien Umgang mit dem Quellcode gestattete, erforderte jedoch die Schaffung von spezifischen institutionellen Rahmenbedingungen, die den Raubbau an der "Code-Allmende" verhindern. Um zu garantieren, dass die von ihm und seinen Mitstreitern geschriebene Software auch wirklich frei blieb, entwickelte er die erste Lizenz für freie Software, die GNU General Public License (GPL).

Anfang der 1990er Jahre waren die Entwicklungsarbeiten weit forgeschritten, es fehlte praktisch nur noch der Betriebssystemkern. Dessen Platz sollte innerhalb kurzer Zeit Linux ausfüllen, das seit 1991 unter Leitung des finnischen Studenten Linus Torvalds im Internet entwickelt und von diesem unter der GPL lizenziert wurde. Mitte der 1990er Jahre war die Kombination aus GNU und Linux reif genug für erste geschäftskritische Anwendungen und der Apache Webserver machte sie in aller Welt bekannt.

Der Erfolg Freier Software weckte das Interesse von Unternehmern und man begann, vorrangig in den USA, darüber nachzudenken, wie man damit Geld verdienen könnte. Das philosophische Grundkonzept der GPL mit seinem radikalen Freiheitsbekenntnis wurde als zu strikt angesehen und von einer Gruppe von Leuten um Eric S. Raymond modifiziert. Statt von Freier Software wollte man zukünftig von Open-Source-Software sprechen und eigene Lizenzen entwickeln, die weniger Freiheit auch zulassen würden.

Praktisch alle großen Softwareanbieter bieten inzwischen (2005) Teile ihres Produktportfolios für FOSS-Betriebssysteme oder als FOSS an und selbst Microsoft wagt erste Schritte auf die Community zu.[31] FOSS ist für die Wirtschaft attraktiv geworden.

Fußnoten

12.
Die USA nahmen als erstes Land 1980 Software als Schutzgegenstand in ihr Copyright-Gesetz auf. Vgl. Robert P. Merges, Peter S. Menell, Mar A. Lemley, Intellectual Property in the New Technology Age, 2nd ed., New York: Aspen Law & Business 2000, S. 911.
13.
Vgl. Gesetz über Urheberrechte und Verwandte Schutzrechte (Urheberrechtsgesetz), §2, Abs. 1, Ziff. 1.
14.
Weitere Rechtsvorschriften u. a. aus Vertrags-, Marken-, Wettbewerbs- und Patentrecht sind zum Teil gleichzeitig anwendbar.
15.
Es ist der Grundgedanke des "geistigen Eigentums" (Urheberrecht und Patentrecht), dem Urheber bzw. Erfinder eine Exklusivposition zu garantieren, aus der heraus die Kosten für Entwicklung und Produktion durch Handel der "Ideenprodukte" im Markt amortisiert werden können. Eine umfangreiche ökonomischen Diskussion bietet William M. Landes/ Richard A. Posner, The Economic Structure of Intellectual Property Law, Cambridge/London 2003.
16.
An dieser Stelle verlaufen die Grenzen zu den Gebieten der Technik, die dem Patentschutz zugänglich sind, und in den letzten Jahren hat sich eine heftige Debatte darum entzündet, ob Software Patentschutz erhalten dürfe, oder nicht. Vgl. Bernd Lutterbeck/ Robert Gehring/ Axel H. Horns, Sicherheit in der Informationstechnologie und Patentschutz für Software-Produkte – ein Widerspruch? Kurzgutachten im Auftrag des Bundesministeriums für Wirtschaft und Technologie, Berlin, Dezember 2000, http://ig.cs.tu-berlin.de/forschung/IPR/LutterbeckHornsGehring-KurzgutachtenSoftwarePatente-122000.pdf
17.
Vgl. Pamela Samuelson/ Randall Davis/ Mitchell D. Kapor/ J.H. Reichman, A Manifesto Concerning the Legal Protection of Computer Programs, in: Columbia Law Review 94,8 (1994), S. 2308-2431, .
18.
Das Patentrecht schützt Erfindungen, wobei der Begriff nicht scharf definiert ist.
19.
Das Urheberrecht verschärft dieses Problem noch. So heißt es zwar in §69a UrhG "Ideen und Grundsätze, die einem Element eines Computerprogramms zugrunde liegen ... sind nicht geschützt", aber der Zugang zu diesen Ideen und Grundsätzen, der ggf. durch Dekompilierung des Binärcodes erfolgen müsste, wird vom Gesetz bis auf Ausnahme für illegal erklärt; vgl. Wilhelm Nordemann und Kai Vinck, Kommentar zu §69d, S. 493, in: Fromm/Nordemann, Urheberrecht: Kommentar, 9. Aufl., Stuttgart, Kohlhammer, 1998.
20.
Diese Erklärung liefert Ronald Coase in "The Nature of the Firm", seinem berühmten Aufsatz von 1937. Wiederabdruck in Ronald H. Coase, The Firm, the Market and the Law, Chicago/London 1988, S. 33-55.
21.
Das Community-Modell ist neben Märkten und Staaten ein weiteres erfolgreiches Modell zur Koordination kooperativer Aktivitäten. Vgl. Samuel Bowles/ Herbert Gintis, How communities govern: the structural basis of prosocial norms, in: Avner Ben-Ner/ Louis Putterman (Hrsg.), Economics, Values, and Organization, Cambridge u. a. 1998, S. 206-230.
22.
Vgl. Gregorio Robles, Hendrik Scheider, Ingo Tretkowski und Niels Weber, WIDI: Who Is Doing It? A research on Libre Software developers, Forschungsbericht, Fachgebiet Informatik und Gesellschaft der TU Berlin, Berlin 2000, http://ig.cs.tu-berlin.de/lehre/s2001/ir2/ergebnisse/OSE-study.pdf.
23.
In der Hauptsache über Mailinglisten und Quellcode-Archive.
24.
So begann die Linux-Entwicklung. Vgl. Linus Torvalds und David Diamond, Just for Fun: Wie ein Freak die Computerwelt revolutionierte, München/Wien 2001.
25.
Vgl. für das Beispiel des Apache Webservers Karim R. Lakhani/ Eric von Hippel, How open source software works: Free user-to-user assistance, in: Research Policy 32,6 (2003), S. 923-948.
26.
Vgl. u. a. M. Castells (Anm. 1); Ilkka Tuomi, Networks of Innovation: Change and Meaning in the Age of the Internet, Oxford/New York 2002.
27.
Durch elektronische Kommunikation, aber auch auf Community-Treffen. Vgl. u. a. Eva Brucherseifer, Die KDE-Entwicklergemeinde – wer ist das?, in: Robert A. Gehring/Bernd Lutterbeck (Hrsg.), Open Source Jahrbuch 2004, Berlin 2004, S. 65-81, Matthias Ettrich, Koordination und Kommunikation in Open-Source-Projekten, a.a.O., S. 179-192.
28.
Die (partielle) Umgehung dieses Ware-Preis-Mechanismus' wird von einigen Autoren als grundlegender Mangel von FOSS gesehen. Vgl. Stefan Kooths, Markus Langenfurt und Nadine Kalwey, Open-Source-Software: Eine volkswirtschaftliche Bewertung, MICE Economic Research Studies, Vol. 4, Westfälische Wilhelms-Universität Münster, 2004, http://mice.uni-muenster.de/mers/mers4-OpenSource_de.pdf. Kritisch dagegen: Markus Pasche und Sebastian von Engelhardt, Volkswirtschaftliche Aspekte der Open-Source-Softwareentwicklung, Arbeits- und Diskussionspapiere der Wirtschaftswissenschaftlichen Fakultät der Friedrich-Schiller-Universität Jena, Nr. 18, 2004.
29.
Vgl. Levy, Steven, Hackers. Heroes of the Computer Revolution, Garden City 1984, S. 427.
30.
Zur Geschichte von UNIX vgl. Peter H. Salus, A Quarter Century of Unix, Reading u.a. 1995.
31.
Vgl. Heise Newsticker, Microsoft will Brücken zur Open-Source-Gemeinde bauen, Meldung vom 2. Mai 2005, http://www.heise.de/newsticker/meldung/print/59201.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/2.0
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.


Publikationen zum Thema

Gemeingüter

Gemeingüter

Wie lassen sich knappe natürliche Ressourcen so verwalten und bewirtschaften, dass ihre Nutzung dur...

Wissen und Eigentum

Wissen und Eigentum

Besitzen Autoren ihre Werke? Ist Wissen ohne rechtlichen Schutz vermarktbar, verwertbar oder wertlos...

Zum Shop

Dossier

Open Data

Open Data steht für die Idee, Daten öffentlich frei verfügbar und nutzbar zu machen. Welches Potential verbirgt sich hinter den Daten, die Behörden und Ministerien, Parlamente, Gerichte und andere Teile der öffentlichen Verwaltung produzieren? Das Dossier klärt über die Möglichkeiten offener Daten für eine nachhaltige demokratische Entwicklung auf und zeigt, wie Datenjournalisten mit diesen Datensätzen umgehen.

Mehr lesen

Dialog

Die Netzdebatte

Netzdebatte ist das Debattenportal der Bundeszentrale für politische Bildung. Das Weblog greift Themen auf, die die Gesellschaft bewegen. Netzdebatte erklärt Hintergründe, bildet Positionen ab und bietet einen Ort zum Diskutieren.

Mehr lesen

spielbar.de

spielbar.de informiert über Computerspiele und erstellt pädagogische Beurteilungen. Pädagogen, Eltern und Gamer sind eingeladen, ihre eigenen Beurteilungen, Meinungen und Kommentare zu veröffentlichen.

Mehr lesen auf spielbar.de