VOR DEM TÄTER AM TATORT

«Predictive Policing» soll Verbrechen vorhersagen und potentielle Täter identifizieren. Wollen wir das? Die allwissende Software wirft rechtliche und ethische Fragen auf.

Steffan Heuer
Drucken

So sieht Polizeiarbeit im 21. Jahrhundert aus: Ein Kennzeichen-Scanner auf dem Streifenwagen erfasst jedes vorbeifahrende Auto und schlägt automatisch Alarm, wenn das Fahrzeug als gestohlen gemeldet ist, der Halter gesucht wird oder eine Busse nicht bezahlt hat. Das Smartphone des Beamten an der Ecke vibriert, wenn eine von ihm gesuchte Person anderswo in der Stadt angehalten wird. Sein Kollege scrollt derweil auf einem im Streifenwagen montierten Laptop durch die Verbrechensvorhersage für den Abend, die mit achtzigprozentiger Wahrscheinlichkeit weiss, dass es zwei Strassen weiter gegen 20 Uhr vor einem Schnapsladen zu einem Raubüberfall und nach 23 Uhr in einem verwahrlosten Park zu einer Schiesserei kommen wird. Ein weiterer Klick, und die Polizeifotos von zwei Hauptverdächtigen des Viertels erscheinen auf dem Schirm. Beide sind mehrfach vorbestraft und haben Verbindungen zu einer bekannten Gang, die in Bandenkriege verwickelt ist.

Dieses Szenario klingt, als ob es aus «Minority Report» stammte. In dem Science-Fiction-Thriller von Steven Spielberg aus dem Jahr 2002 arbeitet eine Sondereinheit der Polizei namens «Precrime» mit drei Medien, die dank ihren seherischen Fähigkeiten vorhersagen können, wer wann wo welche Straftat begehen wird – und deshalb vorsorglich inhaftiert werden muss. Die Wirklichkeit hat die Fiktion eingeholt. Eine wachsende Zahl von Städten in den Vereinigten Staaten ist seit Jahren dabei, alltagstaugliche Varianten von «Precrime» einzurichten. Unter dem Begriff «Predictive Policing» schmieden sie feinmaschige Gitter aus Hardware und Software, mit deren Hilfe Beamte nicht nur prognostizieren können, welche Verbrechen zu einer bestimmten Zeit an einer bestimmten Strassenecke begangen werden, sondern die obendrein einen computergestützten Steckbrief der potentiellen Täter ausstellen.

Vorangetrieben wird die automatische, vorbeugende Rasterfahndung von einer Reihe von Faktoren: der immer schnelleren und billigeren Erfassung und Verarbeitung von Datensätzen; den neusten Erkenntnissen aus der Soziologie, wie sich die Beziehungsgeflechte von Tatorten und Tätern darstellen lassen; der fortschreitenden Militarisierung der Polizei. Moderne Überwachungstechnik hat aus dem Irak und Afghanistan ihren Weg in den amerikanischen Alltag gefunden. Nun soll sie helfen, die Kriminalität in den vorwiegend armen und von Minderheiten bewohnten Stadtteilen der Metropolen zu bekämpfen. Experten warnen allerdings, dass diese vorgeblich objektive Form der Verbrechensbekämpfung über Algorithmen neue Formen der Diskriminierung bestimmter Bevölkerungsgruppen schafft und dass zu viel Datengläubigkeit das juristische Prinzip des «begründeten Verdachts» aushebelt.

Minority Report sei ein griffiges Kürzel, um alle diese Trends zu beschreiben, sagt Andrew Ferguson, Juraprofessor an der University of Columbia in der US-Hauptstadt, der das Thema seit Jahren verfolgt. Selbst wenn es noch Zweifel an der Wirksamkeit der Technik gibt, wird sich Predictive Policing weiter ausbreiten und schon bald zur Standardausrüstung der Polizei gehören. In der Schweiz hat die Zürcher Stadtpolizei 2014 das «Pre Crime Observation System», kurz «Precobs», eingeführt. Mit Hilfe dieser Software soll die Zahl der Einbrüche in Wohnungen gesenkt werden, indem potentielle Einbrüche in bestimmten Quartieren vorhergesagt werden. Die Polizei ist im Idealfall vor dem Täter am Tatort.

In den USA geht man über diesen Ansatz weit hinaus. Wer besichtigen will, was ein solches System im Alltag möglich macht, sollte in Chicago Station machen. In der 2,7-Millionen-Stadt erntete der 22 Jahre alte Robert McDaniel im Sommer 2014 Schlagzeilen, als er unerwartet Besuch von einer Polizistin erhielt. Sie ermahnte ihn, nicht mit dem Gesetz in Konflikt zu geraten, da man ein wachsames Auge auf ihn werfe. McDaniel war verblüfft, denn er war lediglich wegen Marihuanabesitzes und unerlaubten Glücksspiels aktenkundig. Doch einer seiner besten Freunde war bei einer Schiesserei getötet worden. Grund genug für ein Computerprogramm, mit dem die Polizei die 400 verdächtigsten Einwohner der Stadt berechnet, McDaniel vorsorglich auf diese rote Liste zu setzen.

Das Chicago Police Department hat die vergangenen 15 Jahre damit verbracht, sein gesamtes Strafverfolgungsarsenal zu computerisieren und in einer Datenbank zu bündeln, aus der sich inzwischen nicht nur 12 500 Beamte, sondern auch weitere 20 000 Mitarbeiter in umliegenden Gemeinden, Nachbarstaaten sowie Bundesbehörden bedienen. «Das Geheimnis unseres Erfolgs liegt darin, dass wir alle Informationsquellen automatisch erfassen und die Ergebnisse so schnell wie möglich an die Beamten draussen im Einsatz weiterreichen», beschreibt Jonathan Lewin die Vision hinter CLEAR, kurz für «Citizen and Law Enforcement Analysis and Reporting». «Ohne automatische Feeds funktioniert es nicht. Das sage ich allen Polizeibehörden, die sich für unser Modell interessieren.»

Lewin ist als stellvertretender Polizeichef und IT-Experte im Haus für die Umsetzung des umfassendsten und ehrgeizigsten Modells von Predictive Policing im Land verantwortlich. Auf seinem Schreibtisch stehen zwei grosse Monitoren wie bei einem Wertpapierhändler, dazwischen türmen sich Korrespondenz, ausgedruckte Tabellen und wissenschaftliche Forschungsarbeiten. In der Mitte des Papierwusts schimmert golden seine Polizeimarke hervor. Während Lewin redet, jongliert er mit einem iPhone 6 und einem Blackberry, die beide unablässig und lautstark vom Eingang neuer Nachrichten künden. Er ist ein gefragter Redner an Sicherheitstagungen und Polizeischulen in den USA.

Um die Bandbreite der Informationen zu nutzen, die Lewins System verdaut und aufbereitet, benötigt man mindestens zwei Bildschirme. In CLEAR fliessen nämlich nicht nur die Berichte aller offenen Fälle ein, Festnahmen samt Verbrecherfotos, alle Notrufe und Interaktionen von Beamten mit verdächtigen Personen, sogenannte Contact Cards. Die Datenbank hat zudem Zugriff auf Waffenscheine, Haftbefehle und Vorladungen, Bewährungsberichte und das Vorstrafenregister. Bei rund 150 000 Festnahmen im Jahr kommt da einiges zusammen. Kombiniert werden diese Daten mit anonymen und namentlichen Hinweisen, die per Telefon, SMS oder Onlineformulare eingehen, sowie den Notizen von Streifenbeamten, die ihre Viertel oft seit Jahren im Blick haben. Selbst Beschwerden über verwahrloste Gebäude, Verstösse gegen bestimmte Gesetze, etwa beim Alkoholverkauf, oder Klagen wegen nächtlicher Ruhestörung landen in dem Megaarchiv.

Lewin klickt sich schnell durch ein paar einschlägige Grafiken, die eine Art makabres Facebook des Mords und Totschlags für Chicago sind. In der von Verbrechen geplagten South Side markieren rote Strichmännchen einen Mord, schwarze Masken einen Raubüberfall, Pistolen einen Schusswechsel, Gang-Territorien sind mit lila Linien markiert. Ein paar weitere Klicks fördern die Fotos und Vorstrafenregister von Bandenmitgliedern und ihren Bekannten zutage. Dieses Beziehungsgeflecht erstellt die Software durch die Analyse der sozialen Netzwerke, ergänzt von einer Zeitleiste unten am Bildschirm. An ihr lässt sich ablesen, wer in den vergangenen Jahren wann wo festgenommen, verhört oder inhaftiert wurde, wann er wieder auf freiem Fuss sein wird und welche möglichen Racheakte zu erwarten sind.

Das Internet hat Lewins Datenbank um eine Reihe wichtiger Komponenten erweitert, die die Polizei mit Hilfe kommerziell erhältlicher Software auswertet. Darunter ein Service von Palantir, eine der CIA nahestehende Firma, die unter anderem al-Kaida-Mitglieder jagt. Tweets und Facebook-Einträge sind eine frei zugängliche Fundgrube bei der Suche nach Verdächtigen oder Augenzeugen, da sie nicht nur mit Zeitangaben und oft auch dem Standort versehen sind; manche Zeitgenossen laden sogar Selfies mit Schusswaffen oder expliziten Drohungen hoch.

Dazu kommen die Streams von 25 000 vernetzten Kameras, von denen die Chicagoer Polizei nur 2300 selber unterhält und sich sonst bei den Feeds privater Betreiber wie Tankstellen, Banken, Supermärkten oder Apartmentgebäuden bedient. Videos können seit diesem Jahr von Gesichtserkennungs-Software ausgewertet werden, um zumindest nach einer Straftat Aufnahmen mit den «Mug Shots» aus dem Archiv abzugleichen. «Echtzeiterkennung geht nicht, egal was die Hersteller behaupten», sagt Lewin. «Wir haben sie alle getestet.» Unablässig strömen ausserdem Daten von 35 mobilen Kennzeichen-Scannern an Streifenwagen ein, die in der Stadt unterwegs sind, sowie von zwei Hubschraubern und zwei Richtmikrophonen der Firma Shotspotter, die in besonders riskanten Vierteln im Süden und Westen der Stadt auf Schusswaffen lauschen.

Wirklich wertvoll sind alle diese Details allerdings nur, wenn die Software aus ihnen schnell etwas Sinnvolles generieren kann, anstatt nur die Vergangenheit abzubilden. Mit der statistischen Auswertung historischer Verbrechen haben die Sicherheitsorgane in Grossstädten wie New York mit dem «CompStat»-System schon zwanzig Jahre Erfahrungen gesammelt. Bisher war es jedoch der Erfahrung und der Intuition der Beamten überlassen, hinter den Stecknadeln einer Problemzone das zusammenhängende Bild zu sehen.

Chicagos System hingegen will Handlungsanweisungen für die Zukunft geben. Das Herzstück der Verbrechensvorhersage ist ein besonders gut gehütetes Geheimnis. Dank drei Millionen Dollar Fördermitteln des Justizministeriums hat Lewin seit 2011 gemeinsam mit dem Computerwissenschafter Miles Wernick an der örtlichen Hochschule IIT drei Softwaremodule entwickelt, die eine 24-Stunden-Vorhersage, eine Karte künftiger Tatorte und vor allem eine neuartige Hot List der 400 hochgradig gefährlichen und gefährdeten Individuen der Stadt berechnen. «Wer auf dieser Liste steht, wird mit 500 Mal grösserer Wahrscheinlichkeit als ein normaler Bürger in den nächsten 18 Monaten zum Täter oder zum Opfer einer Gewalttat», erklärt Lewin ominös. Wer auf ihr landet, befindet sich permanent im Visier der Polizei. Die Liste ist unter Verschluss, ebenso der Algorithmus, die Softwareregeln, nach denen sie erstellt wird. Nicht einmal wie viele der 400 Betroffenen bereits für ein warnendes Gespräch Besuch von Uniformierten erhalten haben, will Lewin verraten. In die Prognose der Hot List, betont er, fliessen nur Festnahmen und Vorstrafen ein, also keine Angaben aus Social-Media-Seiten, Video-Feeds oder Daten zu Alter, Geschlecht oder ethnischer Zugehörigkeit. «Das hat nichts, absolut nichts mit Profiling zu tun.»

Gleichwohl muss er zugeben, dass seine uniformierten Kollegen auf der Grundlage dieser Hitparade potentieller Krimineller sehr wohl Entscheidungen treffen, in die all die anderen Daten einfliessen, die sein System sammelt und auf Tausenden von Laptops und Smartphones zugänglich macht. Sosehr Datenströme und Vorhersage rein technisch voneinander getrennt sein mögen, im Gehirn des Polizisten fliessen sie letztlich doch zusammen und mischen sich mit allzu menschlichen Vorurteilen.

Ironischerweise haben die Informatiker, mit deren Hilfe Chicagos Polizei das Projekt umsetzt, ihre Erfahrungen fernab von Mord und Totschlag gesammelt. Der Netzwerkanalytiker Andrew Papachristos von der Universität Yale forschte anfänglich über die Ausbreitung ansteckender Krankheiten, während sich Wernick, der Vater der Hot List, mit der Bildgebung beschäftigte, die Ärzten bei der diagnostischen Auswertung von Mammographien und Gehirn-Scans zur Erkennung von Alzheimer hilft. Inwiefern sich die Analysemethoden auf die Prognose von Gewaltverbrechen übertragen lassen, ist umstritten.

Nicht zuletzt deswegen warnt der Jurist Hanni Fakhoury von der Datenschutzorganisation Electronic Frontier Foundation davor, dem Argument der «objektiven» Software Glauben zu schenken. «Ein Algorithmus ist nur so gut wie die Daten, mit denen er arbeitet. Wenn bestimmte Minderheiten, Stadtviertel oder Arten von Straftaten über- oder unterrepräsentiert sind, haben wir dieselben Probleme wie bisher», warnt der Anwalt. «Solange wir nicht untersuchen können, wie diese Programme entscheiden, lässt sich schwer sagen, ob sie nicht nur die menschlichen Vorurteile verfestigen, aufgrund deren diese Daten zustande kamen.»

Noch steht eine gründliche wissenschaftliche Auswertung aus, ob die Verbrechensvorhersage eines Computers wirklich Leben rette und wirtschaftlicher sei als andere Methoden der Polizeiarbeit. Die Denkfabrik Rand Corporation arbeitet an einer derartigen Auswertung; sie wird aber frühestens in ein paar Jahren vorliegen. Andere Städte mit weniger umfassenden Systemen haben eine eher magere Erfolgsbilanz vorzuweisen. Für die Stadt Shreveport in Louisiana etwa kamen Rands Experten 2013 zum Fazit, es gebe «keine statistischen Beweise, dass die Kriminalität in den Testvierteln stärker zurückging als in den Kontrollvierteln». Ebenso hart gehen Kritiker mit dem Hersteller der Software PredPol ins Gericht, der unter anderem Erfolge bei der Verbrechensbekämpfung in der Region Los Angeles vermeldete. Die Datenreihe sei zu kurz und vor allem zu selektiv angelegt, um derartige Behauptungen zu beweisen.

Für Joel Caplan, der an der Rutgers-Universität in New Jersey Strafrecht lehrt, ist Predictive Policing schon jetzt ein Segen. Caplan hat ein Programm namens Risk Terrain Modeling entwickelt und verteilt es kostenlos an Polizeibehörden in aller Welt – von Chicago über Mailand bis Paris. Die Software gewichtet Verbrechensstatistiken und 14 andere Kriterien, um für fast jede Adresse in einer Stadt ein Risikoprofil zu erstellen; mit seiner Hilfe können die Polizisten ihre Präsenz nach Wochentag und Uhrzeit einteilen.

«Wenn man erklären kann, warum ein bestimmter Ort Straftaten und Straftäter anzieht, beseitigt man viele Vorurteile. Dann ist nicht mehr jeder verdächtig, der irgendwo herumsteht», sagt Caplan. In Glendale in Arizona zum Beispiel seien die Überfälle vor Quartierläden um die Hälfte zurückgegangen, nachdem man die Ursache identifiziert hatte: Es waren Kioske, in denen alte Handys gegen Bargeld eingetauscht werden konnten, die die Kriminellen anlockten. Die Behörden überzeugten die Händler, ihre Läden mit Blick zur Strasse einzurichten, so dass Polizeistreifen ein Auge auf sie werfen konnten. «Predictive Policing wird die Art und Weise ändern, wie wir den Erfolg polizeilicher Arbeit messen. Nicht länger nur anhand der Kriminalitätsstatistik, sondern daran, wie gut und umfassend Beamte vorbereitet sind und wissen, was zu tun ist.»

Der Jurist Ferguson sieht das anders. «Predictive Policing 1.0 konzentrierte sich darauf, anhand historischer Daten die Tatorte für ein paar eng umgrenzte Straftaten wie Autodiebstähle oder -einbrüche vorherzusagen. Was Chicago entwickelt hat, nenne ich Predictive Policing 2.0, denn es geht um schwere Gewaltverbrechen und Einzelpersonen. Wenn die Polizei plötzlich an meiner Tür klingelt und sagt: Wir beobachten dich!, dann wirft das weitaus ernstere Fragen auf, was die Bürgerrechte angeht», sagt der Professor. «Niemand will Opfer eines Verbrechens werden, doch wer dummerweise in einem schlechten Stadtteil lebt, wird wegen der neuen Technik unter die Lupe genommen und büsst Schritt für Schritt demokratische Rechte wie die Versammlungsfreiheit oder Redefreiheit ein.»

Ferguson verweist insbesondere auf das Prinzip des «begründeten Verdachts», der erfüllt sein muss, bevor Beamte einen Verdächtigen anhalten und durchsuchen dürfen. Gerade diese Praxis des «Stop & Frisk» hat in New York und jüngst in Chicago zu Klagen geführt. Amerikas Polizei ist berüchtigt dafür, überproportional viele junge Afroamerikaner anzuhalten und zu filzen – auch wenn sich in den wenigsten Fällen eine Straftat nachweisen lässt. New Yorks Polizei kontrollierte in der Blütezeit dieser aggressiven Taktik bis zu 700 000 Personen im Jahr, musste sie jedoch 2012 nach Protesten von Juristen und Bürgern einschränken.

Anders die Polizei von Chicago, die seit 2011 von einem Veteran der New Yorker Polizei geleitet wird. Er brachte die Methode des willkürlichen Anhaltens ohne Verdachtsmomente nach Michigan mit. Nach einem Bericht der Bürgerrechtsorganisation ACLU hielten Chicagos Cops zwischen Mai und August 2014 rund 250 000 Bürger an. Rund drei Viertel von ihnen waren Schwarze, obwohl sie nur 32 Prozent der Bevölkerung ausmachen. In keinem einzigen Fall kam es zu einer Festnahme. Doch jede einzelne Personenkontrolle resultiert in einer «Contact Card», die Streifenbeamte elektronisch ausfüllen und die umgehend in der allwissenden CLEAR-Datenbank landet. Contact Cards sind eine der wichtigsten Waffen im Arsenal der Stadt, argumentiert die Behörde, um insbesondere die 59 Banden mit ihren 625 sich untereinander bekriegenden Splittergruppen im Auge zu behalten. «Der begründete Verdacht diente bisher dem Schutz des Individuums vor der Polizei», gibt der Jurist Ferguson zu bedenken. «Wenn ein Beamter künftig mit vielen kleinen Daten argumentiert oder der Software vertraut, um sich auf begründeten Verdacht zu berufen, würde dieser Gedanke komplett ausgehebelt.» Der Schutz des Bürgers würde zum Feigenblatt für datengetriebene Übergriffe der Staatsorgane.

Spätestens hier wird klar, auf welch dünnem Eis sich Predictive Policing bewegt, wenn es um Transparenz und Rechenschaft geht. Was Beamte bisher aus Intuition oder langjähriger Erfahrung auf der Strasse tun oder lassen, wird immer wieder kritisch hinterfragt und oft vor Gericht verworfen. Im schlimmsten Fall endet es mit dem Tod eines Verdächtigen, wie jüngst in Charleston und Baltimore. Aber was, wenn plötzlich vermeintlich unbestechliche, objektive Algorithmen bestimmen, wer angehalten, überwacht, gar festgenommen wird? So kann ein Algorithmus schnell mit dem in der amerikanischen Verfassung verbrieften Schutz vor «beschlussloser Durchsuchung und Beschlagnahme» in Konflikt geraten. Und welcher Richter traut sich zu, die Prozesse zu kontrollieren oder anzuzweifeln, nach denen Hersteller oder IT-Experten bei der Polizei ihre Tatort- und Täterlisten berechnen?

Derweil rüsten die Polizeibehörden weiter auf. Immer mehr Städte erwägen, Drohnen anzuschaffen, und bedienen sich Instrumenten, die bisher dem Nachrichtendienst vorbehalten waren. Etwa handtellergrosser Radarscanner, die ein Haus durchleuchten und selbst kleinste Bewegungen wie menschliches Atmen auf 15 Meter Entfernung erfassen. Oder sie schaffen die vom FBI als «geheim» eingestuften Abhörkästen namens Stingray an. Mit ihnen lässt sich ein falscher Mobilfunkturm einrichten und lassen sich die Telefonate von Hunderten unbescholtener Bürger abgreifen, um einen einzigen Verdächtigen zu verfolgen, den ein Algorithmus identifiziert hat.

«Wir stehen erst am Anfang», sagt Ferguson und warnt vor den ungeahnten Folgen der automatischen vorbeugenden Rasterfahndung. «Die Versuchung ist zu gross, auf immer mehr Informationen zuzugreifen, wenn es angeblich der öffentlichen Sicherheit dient.»

STEFFAN HEUER ist freier Journalist; er lebt in San Francisco.

Dieser Artikel stammt aus dem Magazin NZZ Folio vom Juni 2015 zum Thema "Verurteilt". Sie können diese Ausgabe bestellen oder NZZ Folio abonnieren.