Leiterplatte

Sonja Peteranderl am 07.04.2017

Predictive Policing: Dem Verbrechen der Zukunft auf der Spur

Verbrechen verhindern, bevor sie geschehen, Täter fassen, bevor sie eine Tat begangen haben: Das ist das Prinzip des Predictive Policing. Algorithmen berechnen Gefahrenzonen und die Wahrscheinlichkeit von Verbrechen — doch ihre Zuverlässigkeit ist umstritten.

Robocop, Polizei, RoboterDass in Zukunft Robocops unsere Straßen patrouillieren, bleibt uns hoffentlich erspart. Im gleichnamigen Film aus dem Jahr 1987 ist die Polizei komplett privatisiert und korrupt. Lizenz: cc by/2.0/de ("Robocop" von Marcelo Braga via flickr.com)

Auf einer digitalen Karte sind die Hochrisikogebiete, die so genannten Hot Spots, rot markiert: So weiß die Polizei, wo Täter/-innen bald zuschlagen werden – und kann ihre Patrouillen gezielt zu möglichen Tatorten schicken. So spart man Zeit und Ressourcen und verhindert im Idealfall Verbrechen, bevor sie passieren.

Klingt futuristisch? Predictive Policing, vorausschauende Polizeiarbeit, nennt sich diese Art der Kriminalitätsbekämpfung und unterstützt Polizisten inzwischen weltweit bei der Verbrecherjagd. Algorithmen durchforsten Datenberge, suchen nach Mustern und berechnen, welche Verbrechen wo auftreten könnten. Je nach verwendeter Software und Einstellungen fließen in die Bewertungen unterschiedliche Informationsquellen ein: etwa Kriminalfälle aus der Vergangenheit, aber auch soziodemografische Daten, Bonität, Wetterprognosen, Verkehrsdaten, zum Teil auch aktuelle Informationen aus sozialen Netzwerken.

In den USA ist Predictive Policing Software bereits weit verbreitet, auch andere Länder wie England, Südafrika, Brasilien, die Schweiz oder die Niederlande setzen auf datengestützte Ermittlungen. In Deutschland experimentieren die Landeskriminalämter bisher vor allem mit sachbezogener Software wie "Predpol", die Wohnungseinbrüche verhindern soll und versucht, die nächsten Ziele von Einbrecherbanden zu prognostizieren.

Ein Verstärker von Vorurteilen



In den USA, aber auch in England setzen Polizeieinheiten Software bereits personenbezogen ein. Bei Notrufen in Städten wie Fresno in Kalifornien berechnet die Software "Beware" etwa, ob die Sicherheitskräfte am Einsatzort mit einem Gegenüber mit Vorstrafenregister oder einer Schusswaffe rechnen müssen. Die Polizei von Chicago führt seit 2013 eine sogenannte „Strategic Subjects List“ (SSL) mit aktuell etwa 1000 Personen, die besonders gefährdet sind, an einer Schießerei beteiligt zu sein — als Opfer oder Täter. Die als Risikopersonen eingestuften Bürger werden von der Polizei besucht und vorgewarnt, das soll verhindern, dass die Prognose eintritt. Auch soziale Programme sollen die gefährdeten Personen auffangen.

Doch in einer neuen Studie kritisiert die RAND Corporation, eine Denkfabrik die unter anderem die US-Streitkräfte berät, die Methodik: “Personen, die auf der SSL als besonders gefährdet gelistet sind, werden nicht seltener oder häufiger zum Opfer als unsere Kontrollgruppe“, so die Analysten. Die potentiellen Täter auf der Liste dagegen hätten ein höheres Risiko, festgenommen zu werden, weil sie sich bereits im Visier der Polizei befinden. Anstatt Zielpersonen wie angekündigt mit Sozialmaßnahmen zu unterstützen, um mögliche Verbrechen mit Prävention zu verhindern, würde die Liste eher nach Schießereien oder anderen Verbrechen zur Suche nach Tätern herangezogen. Dazu fehle eine Einbettung der Software in eine Gesamtstrategie: Die Polizisten würden kein ausreichendes Training erhalten, das ihnen vermittelt, was die Liste genau bedeutet und wie sie sie für die Polizeiarbeit nutzen sollen.

Die Polizei von Chicago argumentiert, dass die RAND Corporation nur die Anfangsversion der "Strategic Subject List" von 2013 ausgewertet habe und diese weiterentwickelt worden sei. Dennoch offenbart die Studie Einblick in grundsätzliche Probleme datengestützter Polizeiarbeit.

Predictive Policing kann wie ein Verstärker für bestehende Vorurteile und Diskriminierung wirken: Wenn die Polizei etwa verstärkt in bestimmten Vierteln wie sozialen Brennpunkten patrouilliert, erfasst sie dort mehr Kriminalitätsmeldungen, die dann wieder stärker gewichtet in Zukunftsprognosen einfließen. Razzien oder Kontrollen in ärmeren Viertel bestätigen Annahmen, während Waffen- und Drogendealer in wohlhabenden Vierteln seltener auffliegen, weil dort etwa weniger Razzien und Straßenkontrollen stattfinden.

Auch Racial Profiling, die Tendenz, dass etwa schwarze Menschen oder Bürger mit Migrationshintergrund öfter kontrolliert werden, spiegelt sich in den Daten wieder: Nach dem Tod des 25-jährigen Afro-Amerikaners Freddie Gray etwa, der nach seiner Festnahme in Polizeigewahrsam starb, ermittelte das US-Justizministerium gegen die Polizei von Baltimore. Dem Ermittlungsbericht zufolge ist Diskriminierung durch die Polizei in Baltimore massiv: Schwarze Bewohner wurden überdurchschnittlich oft angehalten, häufiger verhaftet und verurteilt. Auf der anderen Seite war das Verhältnis zwischen Polizei und schwarzen Bürgern so schlecht, dass sie viele Verbrechen gar nicht meldeten.

Polizeiroutinen und Einstellungen beeinflussen so die Berechnungen des Algorithmus – denn zukünftige Verbrechen werden aus Daten abgeleitet, die unvollständig sind und deshalb diskriminierend wirken können. Menschenrechtsorganisationen wie die American Civil Liberties Union (ACLU) kritisieren, dass Kriminalitätsbezogene Daten grundsätzlich verzerrt seien.

Noch kein nachgewiesener Erfolg



Polizeieinheiten sehen eine solche Software oft als Tool, das ihre Arbeit und die Einsatzplanung unterstützt. Unabhängige, fundierte wissenschaftliche Studien zum Einsatz und zum Erfolg von Predictive Policing stehen aber noch aus. Predictive Policing Software wird oft von Unternehmen, die auch zum Teil mit Universitäten zusammenarbeiten, entwickelt. Die bisherigen Studien stammen meistens von diesen Unternehmen, die ein Interesse daran haben, ihre Produkte zu vermarkten.

Eine Idee für mehr Transparenz beim Predictive Policing ist die Einrichtung unabhängiger Schiedsgerichte, an denen Technologie-Experten/-innen sowie Vertreter/-innen der Zivilgeschafft beteiligt sind, und die die Funktionsweise und den Einsatz der Polizeisoftware besser kontrollieren sollen, um etwa Diskriminierung zu vermeiden. Dazu müsste allerdings auch transparent sein, welche Variablen zu den Berechnungen von Gefahrenzonen und Verdächtigen herangezogen werden und wie genau der Algorithmus funktioniert.

Auch bei der "Strategic Subject List" aus Chicago sind die detaillierten Variablen nicht öffentlich, nach denen die Risiko-Liste zusammengestellt wird. Eine weitere Herausforderung ist der Datenschutz: Welche Daten fließen in die Berechnungen ein? Wem stehen die Daten zur Verfügung, wo und wie lange werden sie gespeichert? Doch die Polizeibehörden geben bisher nur dosierte Einblicke in die verwendeten Daten und Abläufe – und die Hersteller von Predictive Policing Software betrachten ihre Algorithmen als Geschäftsgeheimnis.


Creative Commons License Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Ihr Kommentar:

(*) Diese Felder sind Pflichtfelder

Ihr Kommentar wird von der Redaktion geprüft und dann freigeschaltet


Kommentare anderer Nutzer

Jan Schaller | 20.04.2017 um 10:43 [Antworten]

Weiterführende wissenschaftliche Analyse

Ein spannender und wichtiger Artikel! Wer noch weiter einsteigen will und die wissenschaftlichen Konzepte dahinter verstehen und kritisieren will, kann sich auf www.undogmatisch.net belesen. Dort sind bisher vier Teile zu Predicitve Policing erschienen, weitere folgen. Zum ersten Teil geht es hier entlang: [Link]http://wp.me/p4DFpX-eo[/Link]

Viel Spaß beim Lesen!


 
Redaktion am 08.02.2017

Mit der Handykamera gegen die Ungerechtigkeit: Überwachung, Rassismus & Black Lives Matter

Für die Black Lives Matter Bewegung in den USA spielt das Festhalten polizeilicher Übergriffe per Handykamera eine große Rolle im Kampf gegen den institutionalisierten Rassismus. Auch in Großbritannien erkennen zivilgesellschaftliche Bewegungen, dass sie die Werkzeuge der Überwachung für ihre eigenen Zwecke nutzen können. Adam Elliott-Cooper erforscht am Londoner King's College das Verhältnis von Polizei und Gesellschaft. Er warnt davor, dass rassistische Klischees auch in technischen Lösungen fortgeschrieben werden können. Weiter... 

[0 Kommentare]

netzdebatte.bpb.de in Social Media

Debatte

Bedingungsloses Grundeinkommen

Was wäre, wenn jede_r von uns jeden Monat vom Staat einen festen Betrag aufs Konto überwiesen bekäme - ohne etwas dafür tun zu müssen? Das ist, vereinfacht gesagt, die Idee eines Bedingungslosen Grundeinkommens (BGE). Die Idee ist kontrovers, denn sie kratz an einigen elementaren Fragen: Ist der Mensch von Natur aus faul oder fleißig? Wie sehr vertrauen wir unseren Mitmenschen wirklich? Was ist der eigentliche Sinn von Arbeit? Woran misst sich eigentlich der Wert von Arbeit? Weiter... 

Debatte

NPD-Verbot

Soll die NPD verboten werden? Oder muss die Demokratie auch ihre Feinde aushalten? Wer positioniert sich wie in der Debatte über ein Verbot der NPD? Unser Dossier-Schwerpunkt zum NPD-Verbot bietet Infos zu einer gesellschaftlichen Diskussion, die nun schon mehr als ein Jahrzehnt andauert. Weiter... 

Über Netzdebatte

Nach eineinhalb Jahren öffnet sich Netzdebatte - thematisch wie in den Formaten. Den netzpolitischen Fokus lässt das Weblog hinter sich und widmet sich künftig vielen gesellschaftspolitischen Themen mit Diskussionspotenzial. Weiter...