# taz.de -- Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
       
       > Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen.
       > Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
       
 (IMG) Bild: „Die meisten Straftäter sind eigentlich ziemlich ungefährlich.“
       
       Mister Krisberg, Algorithmen berechnen in den USA, wie gefährlich einzelne
       Häftlinge sind. Wenn man diese Entwicklung zurückverfolgt, landet man
       irgendwann auch bei Ihrer Forschung als Kriminologe aus den Achtzigern und
       Neunzigern. Dabei gelten Sie doch als Gegner solcher Algorithmen. 
       
       Barry Krisberg: Kennen Sie den Blues-Sänger Ray Charles?
       
       Klar. 
       
       Mein Lieblingssong von Ray Charles heißt: „Look, what they‘ve done to my
       song, Ma” Mama, schau dir mal an, was die mit meinem Lied gemacht haben!
       Genauso geht es mir und so dürfte es auch Kollegen wie James F. Austin
       gehen. Was haben die nur mit unserem Song angestellt?
       
       Ja, was? 
       
       Wir haben uns dieses kleine Programm ausgedacht, das ganz okay
       funktionierte. Seitdem hat es sich entwickelt – in unterschiedlichste
       Richtungen. Es wurde immer schlimmer.
       
       Vielleicht beginnen Sie mal ganz am Anfang. Mit Austin schrieben sie das
       Buch „Die Neuerfindung des Jugendstrafrechts”.
       
       Wir wollten Risikoschätzungen ins Justizsystem bringen, damit es fairer
       wird. Wir konnten damit nämlich zeigen, dass die meisten Straftäter
       eigentlich ziemlich ungefährlich waren. Wir wollten herausfinden: Bleibt
       jemand sauber, wenn man ihn auf Kaution rauslässt? Wer würde zur Anhörung
       erscheinen? Wer ein Verbrechen begehen? Uns war klar, dass die große
       Mehrheit straffrei bleiben würde. Deshalb haben wir uns überlegt: Wenn wir
       diese Einsicht möglichst groß machen, werden viele der Gefangenen
       freigelassen. Wir zogen also von Bewährungsbehörde zu Bewährungsbehörde,
       von Richter zu Richter, um zu zeigen, dass viele Häftlinge ungefährlich
       sind.
       
       Wie haben Sie das berechnet? 
       
       Das war ganz simpel. Die einzigen Faktoren, die wir einbezogen haben, waren
       die Schwere des Verbrechens, die Anzahl früherer Verurteilungen und das
       Alter, in dem jemand den ersten Kontakt mit dem System hatte. Das waren die
       aussagekräftigsten. Zu den anderen zählten: Drogenabhängigkeit, familiärer
       Hintergrund. Unsere Philosophie war: Die Leute sollten allein nach der
       Schwere ihrer Tat verurteilt werden. Wir wollten nicht ihren Charakter und
       auch nicht ihre Herkunft beurteilen. Das war die Idee. Dann ging alles den
       Bach runter.
       
       Erzählen Sie! 
       
       Ob jemand ein Drogenproblem hatte, war nicht besonders aussagekräftig. In
       der Hälfte der Akten fehlten diese Daten sogar. Die Behörden waren da nicht
       so hinterher. Wir wollten, dass die Leute im Gefängnis und die auf
       Bewährung bestimmte Dienste angeboten bekommen, nach möglichst objektiven
       Kriterien. Wir entwickelten also, und das war unser fataler Fehler,
       Instrumente, die die Bedürfnisse der Gefangenen ermitteln sollten.
       
       Aha. 
       
       Wir wiesen dabei aber explizit darauf hin, dass diese Instrumente niemals
       für Gerichtsurteile oder Bewährungsentscheidungen verwendet werden sollten.
       Es ging lediglich darum, dass ein Bewährungshelfer alle wichtigen Faktoren
       einbezog, wenn er einen Fall ansah. Wir wollten, dass Fälle ganzheitlich
       betrachtet werden. Plötzlich gingen aber viele davon aus, dass unsere
       Instrumente, die die Bedürfnisse der Häftlinge ermitteln sollten,
       irgendwelche Vorhersagekraft hätten. Dafür gibt es nur überhaupt keinen
       Hinweis.
       
       Aber haben Sie nicht selbst gesagt, dass sich manches mit klassischen
       Faktoren gut vorhersagen lässt? 
       
       Wenn Sie sich die ausgefeiltesten Langzeitstudien ansehen – und die gibt es
       nur für Jugendliche – dann erklärt die beste von ihnen 20 Prozent eines
       Ausgangs. 80 Prozent sind absolut zufällig. Bei 80 Prozent der Fälle hat
       keiner eine Ahnung, was da los war. Und das ist die beste Studie, über
       mehrere Jahre, eine riesige Stichprobe. Irgendwann fing jedenfalls jemand
       an, diese Instrumente für Vorhersagen über künftige Kriminalität zu
       missbrauchen. Einfach so. Von da an wurde es immer schlimmer.
       
       Inwiefern? 
       
       Kriminologen betrachteten nicht mehr nur die Bedürfnisse. Sie kamen
       plötzlich mit irgendwelchen Persönlichkeitsfaktoren daher. In vielen dieser
       Instrumente, die ja mittlerweile oft von privaten Firmen vertrieben werden,
       liegt der Fokus jetzt sehr stark auf Persönlichkeitstypen. Das basiert auf
       Studien des RAND Institutes, einer amerikanischen Denkfabrik. Das RAND
       Institute setzte die Idee einer kriminellen Persönlichkeit in die Welt. Die
       Idee also, dass es verschiedene kriminelle Persönlichkeitstypen gibt und
       dass Verbrechen gewissermaßen aus Denkfehlern entstehen. Kriminelle haben
       demnach eine verkorkste Logik. Man muss also nur prüfen, wie schlimm die
       Denkfehler sind und dann entsprechend reagieren. Dann kamen andere
       Wissenschaftler auch noch mit kriminogenen Faktoren an. Ich habe keine
       Ahnung, was das sein soll. Verbrechen und Verbrecher sind so
       unterschiedlich, dass es lächerlich wäre, sich irgendwelche kriminogenen
       Faktoren auszudenken. Glauben die wirklich, ein Wall Street-Händler und ein
       drogenabhängiger Autodieb hätten denselben Denkfehler? Das ist Quatsch.
       
       Grundsätzlich geht es aber erst einmal um die Einschätzung von Risiken. 
       
       Das ist Versicherungslogik, angewandt auf das Justizsystem. Es gibt aber
       keine wissenschaftliche Evidenz, die das irgendwie stützt. Kennen Sie die
       Idee der großen Lüge?
       
       Die wäre? 
       
       Wenn Sie eine Sache nur oft genug wiederholen, werden die Leute es schon
       glauben. Wenn Sie also genug Marketing betreiben, brav zu all den
       wissenschaftlichen Konferenzen gehen und in Zeitschriften publizieren,
       nimmt das nach einer Weile ein Eigenleben an. Wenn Sie mich fragen: Die
       meisten dieser Instrumente sind absolut wertlos. Hätte ich was zu sagen,
       ich würde sie alle restlos streichen. Aus soziologischer, aus statistischer
       Perspektive lässt sich vor allem eins sagen: Am besten lässt sich künftiges
       Verhalten vorhersagen, wenn man das aktuelle Verhalten betrachtet. Hält
       sich jemand an die Regeln?
       
       Im Gefängnis gelten allerdings andere Regeln als draußen. Wie
       aussagekräftig kann das Verhalten drin dann sein? 
       
       Es hat sich mittlerweile ja eine ganze Industrie entwickelt. Die Leute
       haben kapiert, dass sie aus diesen Instrumenten ein Produkt machen können,
       mit Copyright drauf. Manchmal ist das wirklich die reinste Abzocke. Wenn
       Sie eines dieser Produkte nutzen, Yasi etwa, für Jugendstraftäter, zahlen
       Sie für jeden einzelnen Fall. Wie bei Apple Music kauft man also kein
       Produkt, man erwirbt lediglich das Recht, es zu nutzen.
       
       Ihren Kollegen zufolge sind die Ergebnisse statistisch betrachtet
       verlässlich. 
       
       Die Statistik an sich zweifle ich auch gar nicht an. Wenn Sie Regressionen
       rechnen, heißt das doch einfach nur: Je mehr Variable ich hinzufüge,
       Verhalten im Knast, Teilnahme an Programmen, Verhältnis zur Familie, desto
       näher komme ich der Vorhersage eines individuellen Falles. Der Kern des
       Problems ist doch aber: Die Variablen selbst sind völlig unzulänglich und
       inakkurat. Wenn Sie sich die Akten ansehen, grauenhaft! Keine psychischen
       Faktoren, man weiß nichts über die Süchte der Häftlinge, fast nichts über
       ihre Ausbildung. Es fehlen also die Daten, um dem Einzelfall gerecht zu
       werden.
       
       Warum kaufen dann alle solche Programme? 
       
       Das wurde wirklich aggressiv vermarktet, bei Richtern und
       Bewährungsbehörden. Eine Spur Naivität ist vermutlich auch dabei. Alle
       wollen das neueste Produkt auf dem Markt kaufen. Es verschafft einem
       außerdem politische Deckung. Wenn ich Sie als Vorsitzender einer
       Bewährungsbehörde freilasse und Sie stellen etwas an, dann ist das mein
       Fehler. Aber wenn Sie einem Computer die Entscheidung überlassen, ist der
       Computer schuld. Es gibt also auch einen politischen Antrieb, das zu
       fördern. Man kann sich dahinter verstecken.
       
       Viele kritisieren außerdem, dass diese Algorithmen die Diskriminierung
       Schwarzer fortsetzen, selbst wenn der Faktor Race gar nicht offiziell
       verwendet wird. 
       
       Lassen Sie mich mal was zu Race sagen: Jeder Wissenschaftler wird Ihnen
       versichern, dass das ein völlig unbedeutender Faktor ist. Race ist eine
       Funktion von sozialer Klasse, Ökonomie, von kulturellen Mustern, diverseste
       Dinge fließen da ein. Race in Berechnungen zu verwenden, wäre also ein
       wirklich grobes Konstrukt. Wir haben für eine Studie mal Akten untersucht,
       um herauszufinden, wie akkurat die ethnischen Zuweisungen waren. Können Sie
       alles wegschmeißen! Gerade wenn in einem Viertel Asiaten und Latinos
       nebeneinander leben. Da ordnete dann ein Polizist die Leute irgendeiner
       Rasse zu. Was er ja gar nicht kann. Völliger Irrsinn. Als wir dann die
       Zuordnungen mit den Selbstbeschreibungen der Leute verglichen, gab es so
       gut wie keine Treffer. Kambodschaner erschienen als Latinos, Philippinos
       noch stärker, weil die manchmal spanische Nachnamen haben. Schwarze
       ploppten in allen Kategorien hoch. Eine absolut willkürliche Veranstaltung.
       Das ist aber nicht alles.
       
       Nein? 
       
       Die Algorithmen bestrafen Leute besonders hart, die bei ihrer Tat sehr jung
       waren und ein schweres Verbrechen begangen haben. Das Alter bei der ersten
       Tat ist ein enorm mächtiger Faktor in den Gleichungen. Die Rückfallquote
       sinkt nämlich, je älter man wird. Ein 16-Jähriger kann so wie ein
       Erwachsener verurteilt werden. Dem hilft ein Algorithmus überhaupt nicht.
       
       23 Oct 2015
       
       ## AUTOREN
       
 (DIR) Johannes Gernert
       
       ## TAGS
       
 (DIR) Justiz
 (DIR) Algorithmen
 (DIR) Polizei
 (DIR) Statistik
 (DIR) Gefängnis
 (DIR) Kriminalität
 (DIR) Algorithmus
 (DIR) Schwerpunkt Rassismus
 (DIR) Schwerpunkt Überwachung
 (DIR) Polizei
 (DIR) Schwerpunkt Polizeikontrollen in Hamburg
 (DIR) Schwerpunkt Meta
 (DIR) Polizei
 (DIR) Algorithmen
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …
       
       Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines
       Menschen herausfinden, ob der straffällig wird. Aber will man das?
       
 (DIR) Mensch und Maschine: Haben Sie Angst vor Algorithmen?
       
       Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf
       ihre Neutralität. Dabei entscheiden sie nicht immer fair.
       
 (DIR) Berechnung des Alltags: Wir sind Algorithmen-Zombies
       
       Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
       wir es merken, und machen uns so manipulierbar.
       
 (DIR) Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
       
       In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit
       könne man Leben retten, sagt ein Statistiker.
       
 (DIR) Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
       
       Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
       Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.
       
 (DIR) Algorithmen im Internet: „Die Maschinen entscheiden für uns“
       
       Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
       verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
       Zeynep Tufekci.
       
 (DIR) „Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
       
       Seit Oktober testet die Polizei München eine Software, mit der sich
       angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
       aus.
       
 (DIR) Rechnergestützte Prognosen: Wie Ihre Zukunft berechnet wird
       
       Jede Menge Daten: Was der Supermarkt, das Smartphone, der Geheimdienst und
       die Polizei heute schon über morgen wissen – vier Beispiele.