30 Jahre Mauerfall Mehr erfahren
Big Data und die politische Bildung

16.2.2016 | Von:
Peter Schaar

Big Data und Datenschutz – Ein unlösbarer Konflikt?

Big Data-Ansätze, die auf der Sammlung, Zusammenführung und Auswertung großer Datenmengen beruhen, beinhalten erhebliche Risiken für das Recht auf informationelle Selbstbestimmung. Sie sind mit den bisherigen, auf die einzelnen Daten fokussierten datenschutzrechtlichen Konzepten nicht hinreichend zu beherrschen. Immer bedeutsamer werden technologische Sicherheitsvorkehrungen wie die Anonymisierung und Pseudonymisierung und die Offenlegung der Funktionsweise der bei der Verarbeitung eingesetzten Algorithmen.

Peter Schaar, 2016Peter Schaar (© Peter Schaar)
Daran, dass die schon heute ungeheuren Datenmengen weiter wachsen werden, besteht kein ernsthafter Zweifel, egal mit welchen Begrifflichkeiten dies beschrieben wird. Dafür sorgt schon das Moore’sche Gesetz, nach dem sich die Leistungsfähigkeit elektronischer Komponenten alle 18-24 Monate verdoppelt. Sensoren liefern eine immer größere Informationsbasis, das Internet verknüpft die Datenmassen und immer leistungsfähigere Speicherchips ermöglichen es, Transaktionen mit immer größeren Datenmengen in Echtzeit durchzuführen. Daten aus unterschiedlichsten Quellen werden zusammengeführt und auf Auffälligkeiten untersucht.

Herrschaft der Algorithmen

Bei der automatisierten Informationsverarbeitung werden Daten nach in der Hard- und Software implementierten Regeln verarbeitet, sogenannten Algorithmen. Die klassischen Small Data-Algorithmen orientieren sich an der jeweiligen Aufgabe. Letztlich geht es um möglichst effiziente Verfahren, mit denen sich aus einer definierten Datenmenge ein Ergebnis erzielen lässt. Auch das in seinen Grundzügen aus den 1970er Jahren stammende Datenschutzrecht orientiert sich an derartigen Lösungsmechanismen. Erforderlichkeit und Zweckbindung sind entscheidende Maßstäbe für die Zulässigkeit der Verarbeitung personenbezogener Daten.

Bei Big-Data-Algorithmen stehen dagegen Korrelationen, also statistische Zusammenhänge im Mittelpunkt, aus denen allerdings vielfach individualisierte Schlussfolgerungen gezogen werden. Ein zentrales Merkmal der algorithmischen Steuerung ist die Klassifizierung, d.h. die Zuordnung von Datenelemente zu bestimmten Gruppen. Die Zuordnung erfolgt im Regelfall mittels statistischer Verfahren. Sie kommen nicht nur bei der Internet-Werbung zum Einsatz, sondern zunehmend auch bei existentiellen Entscheidungen: Ob wir einen Kredit erhalten und wenn ja zu welchen Konditionen, ob wir in eine Versicherung aufgenommen werden und wie viel Prämie wir dafür ggf. zu zahlen haben. Algorithmen schlagen vor, ob wir bei der Bewerbung auf einen Arbeitsplatz zum Vorstellungsgespräch eingeladen werden sollen, wer für eine Beförderung in Frage kommt und wer ein Entlassungskandidat ist. Zunehmend treffen nicht Menschen sondern Computer die Entscheidungen. Je weiter die Automatisierungstechnik voranschreitet, desto mehr vollautomatisierte Anwendungen gibt es, die über unser Wohl und Wehe bestimmen, etwa bei „autonom fahrenden“ Kraftfahrzeugen, die dauernd untereinander, mit dem Hersteller oder mit Navigationssystemen kommunizieren. Für die Betroffenen und die Gesellschaft ist weitgehend intransparent, wie diese Algorithmen funktionieren und ob die in ihnen implementierten Verfahren und Wertentscheidungen rechtlich und ethisch vertretbar sind.

Big Data und Datenschutz

Damit werden die zentralen datenschutzrechtlichen Anforderungen infrage gestellt, die das Bundesverfassungsgericht in seinem berühmten Volkszählungsurteil 1983 formuliert hat: Jeder Mensch hat ein Grundrecht auf informationelle Selbstbestimmung. Der Betroffene soll im Grundsatz selbst darüber entscheiden, wem er welche Informationen offenbart und für welche Zwecke die ihn betreffenden Daten genutzt werden. Bei Big Data läuft es umgekehrt: Algorithmen generieren aus einer immer umfangreicheren Datenmenge Bewertungen, Entscheidungen oder zumindest Entscheidungsvorschläge, die mit den ursprünglichen Verarbeitungszwecken kaum etwas oder nichts zu tun haben.

Datenschutzrechtliche Regelungsansätze, die sich auf das einzelne Datum konzentrieren, können den mit Big Data einhergehenden Herausforderungen nicht wirklich gerecht werden. Bedeutsamer werden deshalb verfahrensmäßige und technische Sicherungen, etwa die Anonymisierung und Pseudonymisierung. Zudem ist die Vorab-Analyse möglicher Folgen neuer Verfahren auf den Datenschutz und die Selbstbestimmung geboten (Datenschutz-Folgeabschätzung). Auch die Transparenz muss auf eine neue Ebene gehoben werden: Das Auskunftsrecht des Einzelnen über die zu seiner Person gespeicherten Daten reicht nicht mehr aus. Nur wenn transparent ist, welche Daten in die jeweiligen Auswertungen und Bewertungsprozesse einfließen, nach welchen Kriterien die Klassifikation erfolgt und wie sie Entscheidungen beeinflussen, lassen sich Aussagen zu deren Rechtmäßigkeit und ethischen Vertretbarkeit gewinnen. Notwendig ist also auch Algorithmentransparenz.


Mediathek

Der Datenschützer Peter Schaar über Regeln im Netz

Zu seiner Zeit als Datenschutzbeauftragter der Bundesregierung galt Peter Schaar bei Kritikern als der Spiel­ver­der­ber der digi­ta­len Gesell­schaft: 2011 äußerte sich Peter Schaar im Interview zu Regeln im Netz.

Jetzt ansehen

Peter Schaar

Hat der Staat eine eigene Privatsphäre? - Essay

Mehr Transparenz ist auch für den Staat eine Chance: Wenn er aktive Informationspolitik betreibt, kann aus der düsteren, "transparenzfesten Informationsburg" durchaus ein transparenter, heller Glasbau werden.

Mehr lesen

"Wir brauchen einen neuen, besseren Datenschutz für unsere moderne Informationsgesellschaft." Ein Video-Interview mit Peter Schaar aus dem Jahr 2014.

Mehr lesen