Was kann Datenanalyse leisten?
(2) Big Data Analytics
Möglich wird Datenanalyse durch immer leistungsfähigere, vernetzte Speicher und Rechner. Hier laufen Algorithmen, die riesige Datenmengen durchwühlen. Algorithmen können Daten sortieren und vergleichen und so Muster finden. Die Muster, die Algorithmen finden, können nach bestimmten Kriterien zusammengestellt werden: es entstehen Profile, Dossiers oder Prognosen über Gruppen, Personen und andere Zusammenhänge (z.B. das Wetter, Ähnlichkeiten von Bildern, Kaufverhalten). Auf Basis dieser Auswertungen fallen Entscheidungen, teilweise automatisch, z.B. bei Werbeanzeigen, teilweise stützen sich Menschen auf diese Informationen, z.B. ArbeitgeberInnen, RichterInnen, ÄrztInnen.Entscheiden nach Datenlage
Möglich wird Datenanalyse durch immer leistungsfähigere, vernetzte Speicher und Rechner. Hier laufen Algorithmen, die riesige Datenmengen durchwühlen. Algorithmen können Daten sortieren und vergleichen und so Muster finden. Die Muster, die Algorithmen finden, können nach bestimmten Kriterien zusammengestellt werden: es entstehen Profile, Dossiers oder Prognosen über Gruppen, Personen und andere Zusammenhänge (z.B. das Wetter, Ähnlichkeiten von Bildern, Kaufverhalten). Auf Basis dieser Auswertungen fallen Entscheidungen, teilweise automatisch, z.B. bei Werbeanzeigen, teilweise stützen sich Menschen auf diese Informationen, z.B. ArbeitgeberInnen, RichterInnen, ÄrztInnen.Auswertungsverfahren optimieren sich selbst
Auswertungsverfahren werden immer differenzierter: Verschiedene Datenquellen werden „quer“ zueinander in Beziehung gesetzt. Lernende Algorithmen beziehen systematisch diejenigen Faktoren ein, die die besten Korrelationen für das gewünschte Ziel erzeugen. Sie finden so auch statistische Hinweise auf Zusammenhänge, die Menschen durch Beobachtung nicht gefunden hätten, z.B. Indikatoren für eine Grippeepidemie.i
Definition Algorithmus
https://praxistipps.chip.de/was-ist-ein-algorithmuseinfach-erklaert_41355
„Algorithmen sind im Grunde Kochrezepte, die dem Computer sagen, was für Operationen er durchführen soll, um auf eine Eingabe die richtige Antwort zu geben. “
https://www.algo.informatik.tu-darmstadt.de/algorithmik/was-ist-algorithmik/
Korrelationen liefern Wahrscheinlichkeiten - sagen aber nichts über Ursachen
Korrelationen sind statistische Werte, die miteinander in Beziehung stehen. So kann z.B. das Suchverhalten einer Person auf Google mit bestimmten Käufen auf Amazon korrelieren, auch Bilddateien können nach Korrelationen untersucht werden. Was statistisch erhärtet ist, erscheint uns als objektive Wahrheit. Korrelationen weisen zwar auf mögliche Zusammenhänge hin, können diese aber nicht im Mindesten erklären.Ursachen werden nicht erkannt.
Menschen werden aufgrund ihrer statistisch wahrscheinlichen Neigungen einsortiert und beurteilt – und nicht aufgrund ihrer tatsächlichen Motive und Einstellungen.
Die Chronik lebt: mit Daten der Vergangenheit wird Zukunft beeinflusst
Da die Vorhersage auf unseren vergangenen Handlungen beruht, ist es für die Datensammler wichtig, sie nicht zu vergessen: „Wir können unserer eigenen Vergangenheit immer weniger entkommen. Die Verhaltensvorhersagen durch Big Data beeinflussen z.B. die Auswahl der Informationen und Produkte, die uns angeboten werden, die Jobs, die wir bekommen können, die Partnerwahl, wenn wir Datingportale zu Hilfe nehmen. Sie gefährden also insbesondere unsere Handlungs- und Entscheidungsfreiheit als eigenständige Subjekte.“www.klicksafe.de/themen/medienethik/privatsphaere-und-big-data/kontrolle-ueber-die-eigene-identitaet
Prognosen bauen mit an der Realität, die sie vorhersagen
Algorithmen können auch deshalb erfolgreich erscheinen, weil sie eine Self-fulfilling Prophecy in Gang setzen. Wenn z.B. Richter Straftäter zu Gefängnis verurteilen, weil eine Datenanalyse sie für rückfallgefährdet hält – und Verurteilte rückfällig werden, weil sie inhaftiert werden...Statistische Wahrscheinlichkeit ersetzt so das Verstehen und Gestalten einer offenen Realität. Die Chance, sich anders zu verhalten als vorhergesagt, verringert sich.
Große Datenmengen gleichen Ungenauigkeiten aus und vernebeln den Einzelfall
Statistik-Lehrbücher sind voll mit Beispielen von Fehlschlüssen auf der Basis von Korrelationen. Im Big-Data-Zeitalter scheint Korrelation aber immer häufiger „gut genug“: Wenn man nicht mehr mit Stichproben arbeiten muss, sondern SEHR viele Daten hat, („n=all“ ) dann wird Ungenauigkeit von Einzeldaten unproblematischer.Aussagen nur über Korrelationen reichen dann häufiger aus, um statistisch gegründete Entscheidungen zu treffen, auch wenn die tatsächlichen Zusammenhänge nicht nachvollzogen werden. (Vgl. Mayer-Schönberger/Cukier, S. 19-72)
Exakte Profile und Prognosen auch ohne personenbezogene Daten
Die geschützten personenbezogenen Daten (Name, Adresse, Geburtsdatum) werden seltener gebraucht, um genaue Profile zu erstellen. Metadaten, z.B. Verbindungsdaten, Freundesnetze, Likes, GPS Daten, Browserverläufe, Kaufdaten etc. reichen völlig aus. Allein auf Basis von „anonymen“ Daten werden wir in Profile und Prognosen einbezogen und sind mit deren Anwendungen konfrontiert: z.B. politische Beeinflussung oder Predictive Policing.Kindertracking
Im großen Stil werden Daten von Kindern und Jugendlichen gesammelt, z.B. über ihr Lern,- Sozial-, und Spielverhalten, ihre Interessen und Probleme. Eltern „tracken“ ihre Kinder mit der elektronischen Nanny und der Anbieter trackt mit.Das digitale Kinderzimmer, der „Schutzranzen“ und „Learning Analytics“ (Messung von Lernverhalten) nimmt zu. Unsere Freiheit als Subjekt wird eingeschränkt. Soll eine Rechenschwäche im 2. Schuljahr, Übergewicht mit Zwölf, intensives Gamen mit dreizehn Jahren darüber entscheiden, ob jemand später einen Job bekommt?
i
Der "Browser Fingerprint"
„Unter Begriffen wie „Browser Fingerprint“ oder Device Fingerprint wird seit einigen Jahren die eindeutige Wiedererkennung von NutzerInnen anhand der Eigenschaften des benutzten Web-Browsers und Gerätes diskutiert – ohne dass dabei Cookies auf den Rechnern der NutzerInnen gespeichert werden müssen.“
(Vgl. Wolfie Christl: Kommerzielle digitale Überwachung im Alltag, Studie im Auftrag der Bundesarbeitskammer Wien, November 2014)
Eine Studie, im Magazin Nature veröffentlicht (2013) zeigt, dass vier aus Aufenthaltsort und Zeitpunkt bestehende Datenpunkte genügen, um 95% der NutzerInnen eindeutig zu identifizieren. In einem Forschungsprojekt der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) konnten 99,1% der untersuchten Browser-NutzerInnen auf Basis ihres Browser Fingerprints korrekt wiedererkannt werden.
Tipps zur Vertiefung
Methoden- Themenpaket "Was sind Algorithmen?"
Anleitung, Info- und Factsheets mit den Spielen Roboter-Parcours und Bubblesort. Für 10-30 Personen, ab 12 Jahre.
- Filterblase
Die Teilnehmenden erfahren, dass Filterblasen im digitalen als auch im analogen Leben allgegenwärtig sind, sie aber gerade im Hinblick auf das Internet die Möglichkeit haben, unterschiedliche Sichtweisen kennenzulernen und auszuprobieren. Für Jugendliche ab 12 Jahre.
- Roboter-Parcours (03:50 Min.)
Die "BIG DATA Zentrale" organisiert Dir Dein Leben und weiß alles... Produktion jfc Medienzentrum.