APUZ Dossier Bild
Pfeil links 1 | 2 | 3 | 4 | 5 Pfeil rechts

Datenschutz im 21. Jahrhundert

25.1.2006

Ansätze zur Wahrung der informationellen Selbstbestimmung



Um informationelle Selbstbestimmung weiterhin zu gewährleisten, muss das normative Schutzprogramm modifiziert und ergänzt werden. In welche Richtung diese Modernisierung des Datenschutzrechts gehen muss, soll kurz angedeutet werden.[19]

Erstens sind die bisherigen Zulassungskontrollen verstärkt durch Gestaltungs- und Verarbeitungsregeln zu ergänzen. Statt das Schwergewicht auf eine einmalige, lange vor der Datenverarbeitung liegende Zulassungsentscheidung durch Zwecksetzung des Gesetzgebers oder des Betroffenen zu legen, sollte Datenschutz künftig vorrangig durch Gestaltungs- und Verarbeitungsregeln bewirkt werden, die permanent zu beachten sind.[20] So könnte zum Beispiel Transparenz statt auf einzelne Daten stärker auf Strukturinformationen bezogen sein und statt durch eine einmalige Unterrichtung durch eine ständig einsehbare Datenschutzerklärung im Internet gewährleistet werden. Eine andere Transparenzforderung könnte darin liegen, von allen datenverarbeitenden Alltagsgegenständen eine technisch auswertbare Signalisierung zu fordern, wenn sie Daten erheben. Die Einwilligung könnte eine Aufwertung erfahren, wenn sie auf ein technisches Gerät der betroffenen Person "delegiert" werden könnte, das bei jedem signalisierten Verarbeitungsvorgang im Hintergrund die Datenschutz-Policies prüft, akzeptiert oder verwirft.[21] Als ein Einverständnis könnte auch anzusehen sein, wenn der Betroffene bewusst und freiwillig seine individuellen Fähigkeiten unterstützende und verstärkende Techniksysteme und Dienste nutzt. Im Gegenzug müssen diese so gestaltet sein, dass sie über Datenschutzfunktionen verfügen, die er auswählen und für sich konfigurieren kann.[22]

Die Beispiele haben gezeigt, dass diese Gestaltungs- und Verarbeitungsregeln auf technische Umsetzung angewiesen sind. Daher sollte Datenschutz zweitens stärker durch Technikgestaltung statt durch Verhaltensregeln gewährleistet werden.[23] Informationelle Selbstbestimmung muss durch Infrastrukturen unterstützt werden, die es ermöglichen, auf Gefährdungen automatisch zu reagieren, ohne dass dies aufdringlich oder belästigend wirkt. Ein Beispiel: Die Einhaltung von Verarbeitungsregeln zu kontrollieren darf nicht die permanente persönliche Aufmerksamkeit erfordern, sondern muss automatisiert erfolgen. Wenn die datenverarbeitenden Alltagsgegenstände ein Signal aussenden, kann dies von einem Endgerät des Betroffenen erkannt werden und zu einer automatisierten Auswertung der zugehörigen Datenschutzerklärung führen. Entsprechend den voreingestelltenDatenschutzpräferenzen kann dann ein P3P[24]-ähnlicher Client die Einwilligung erteilen oder ablehnen. In Zweifelsfällen kann das Gerät je nach Voreinstellung den Betroffenen warnen und ihm die Erklärung in der von ihm gewählten Sprache anzeigen oder akustisch ausgeben. Die Hinweis- und Warndichte muss einstellbar sein.[25] Die Durchsetzung von Verarbeitungsregeln muss im Regelfall durch Technik und nicht durch persönliches Handeln des Betroffenen erreicht werden.[26] Technischer Datenschutz hat gegenüber rein rechtlichem Datenschutz Effektivitätsvorteile: Was technisch verhindert wird, muss nicht mehr verboten werden. Gegen Verhaltensregeln kann verstoßen werden, gegen technische Begrenzungen nicht. Datenschutztechnik kann so Kontrollen und Strafen überflüssig machen.

Drittens muss Vorsorge die Gefahrenabwehr ergänzen, zum einen durch die Reduzierung von Risiken und zum anderen durch präventive Folgenbegrenzungen potenzieller Schäden. Die Risiken für die informationelle Selbstbestimmung sind in einer Welt allgegenwärtiger Datenverarbeitung nicht mehr ausreichend zu bewältigen, wenn nur auf die Verarbeitung personenbezogener Daten abgestellt wird. Vielmehr sind im Sinn vorgreifender Folgenbegrenzung auch Situationen zu regeln, in denen noch gar keine personenbezogenen Daten entstanden sind. So bedürfen zum Beispiel die Sammlungen von Sensorinformationen, Umgebungsdaten oder von pseudonymen Präferenzen einer vorsorgenden Regelung, wenn die Möglichkeit oder gar die Absicht besteht, sie irgendwann einmal mit einem Personenbezug zu versehen.[27] Auch sind zur Risikobegrenzung Anforderungen an eine transparente, datensparsame, kontrollierbare und missbrauchsvermeidende Technikgestaltung zu formulieren. Ebenso entspricht es dem Vorsorgegedanken, die einzusetzenden Techniksysteme präventiven (freiwilligen) Prüfungen ihrer Datenschutzkonformität zu unterziehen und diese Prüfung zu dokumentieren.

Regelungen, die sich nur an Datenverarbeiter richten, dürften viele Gestaltungsziele nicht erreichen. In viel stärkerem Maß sind daher viertens die Technikgestalter als Regelungsadressaten anzusprechen. Diese sollten vor allem Prüfpflichten für eine datenschutzkonforme Gestaltung ihrer Produkte, eine Pflicht zur Dokumentation dieser Prüfungen für bestimmte Systeme und Hinweispflichten für verbleibende Risiken treffen.[28] Auch sollten sie verpflichtet werden, ihre Produkte mitdatenschutzkonformen Default-Einstellungen auszuliefern.[29]

Die datenschutzgerechte Gestaltung der künftigen Welt allgegenwärtiger Datenverarbeitung fordert die aktive Mitwirkung der Entwickler, Gestalter und Anwender. Sie werden nur für eine Unterstützung zu gewinnen sein, wenn sie davon einen Vorteil haben. Daher sollte fünftens die Verfolgung legitimen Eigennutzes in einer Form ermöglicht werden, die zugleich auch dem Gemeinwohl dient. Datenschutz muss daher zu einem Werbeargument und Wettbewerbsvorteil werden. Dies ist möglich durch die freiwillige Auditierung von Anwendungen, die Zertifizierung von Produkten und die Präsentation von Datenschutzerklärungen. Werden diese von Datenschutzempfehlungen à la "Stiftung Warentest", von Rankings oder durch die Berücksichtigung bei öffentlichen Auftragsvergaben begleitet, kann ein Wettbewerb um den besseren Datenschutz entstehen. Dann werden die Gestaltungsziele beinahe von selbst erreicht.[30]

Der Schutz der informationellen Selbstbestimmung bedarf schließlich sechstens einer objektiven Ordnung, die in der Praxis mehr und mehr an die Stelle individueller Rechtewahrnehmung tritt. Die Einhaltung von Datenschutzvorgaben kann künftig immer weniger von der individuellen Kontrolle des Betroffenen abhängig gemacht werden. Sie muss in noch viel stärkerem Maß stellvertretend Kontrollverfahren und Kontrollstellen übertragen werden, die das Vertrauen der Betroffenen genießen. Gegenstand der Kontrolle müssen Systeme mit ihren Funktionen und Strukturen sein, nicht so sehr die individuellen Daten. Ziel der Kontrolle muss es sein, die individuellen und gesellschaftlichen Wirkungen der technischen Systeme zu überprüfen und diese datenschutzgerecht zu gestalten.



Fußnoten

19.
Vgl. ausführlicher A. Roßnagel (Anm. 3), S. 70ff.
20.
Vgl. A. Roßnagel/A. Pfitzmann/H. Garstka (Anm. 13), S. 70ff.
21.
Vgl. hierzu auch M. Langheinrich (Anm. 9), S. 10f.
22.
Vgl. auch Alexander Roßnagel, Datenschutz im Jahr 2015 - in einer Welt des Ubiquitous Computing, in: Johann Bizer/Albert von Mutius/Thomas B. Petri/Thilo Weichert (Hrsg.), Innovativer Datenschutz - Wünsche, Wege, Wirklichkeit, Festschrift für Helmut Bäumler, Kiel 2004, S. 335 - 351.
23.
Vgl. Marit Köhntopp und Burckhardt Nedden, Datenschutz und "Privacy Enhancing Technologies", in: Alexander Roßnagel (Hrsg.), Allianz von Medienrecht und Informationstechnik?, Baden-Baden 2001, S. 55ff. und 67ff.
24.
P3P = Platform for Privacy Preferences, eine internationale, standardisierte Plattform zum Austausch von Datenschutzinformationen im Internet. Der User soll beim Besuch einer Website schnell und automatisiert einen Überblick erhalten, welche Daten der Webanbieter oder Dritte zu welchen Zwecken verarbeiten. Vgl. www.w3c.org/P3P.
25.
Vgl. hierzu auch, allerdings mit skeptischen Hinweisen, M. Langheinrich (Anm. 9), S. 10.
26.
Vgl. z.B. Jürgen Müller/Matthias Handy, RFID und Datenschutzrecht, in: Datenschutz und Datensicherheit, (2004) 11, S. 629.
27.
Vgl. Alexander Roßnagel/Philip Scholz, Datenschutz durch Anonymität und Pseudonymität, in: MultiMedia & Recht, (2000), S. 728ff.
28.
Vgl. A. Roßnagel/A. Pfitzmann/H. Garstka (Anm. 13), S. 143ff.
29.
Zur Verantwortung der Informatiker vgl. Alexander Roßnagel, in: Informatik-Spektrum, (2005) 6, S. 462ff.
30.
Vgl. Alexander Roßnagel, Datenschutzaudit, in: ders. (Anm. 4), S. 439ff.