# taz.de -- Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
       
       > In den USA berechnen Computerprogramme, wie gefährlich Menschen sind.
       > Damit könne man Leben retten, sagt ein Statistiker.
       
 (IMG) Bild: Wie weit ist unser Verhalten vorhersagbar?
       
       Maschinen sollten mehr entscheiden dürfen, sagt der Statistiker und
       Soziologe Richard Berk. Die könnten das einfach besser als Menschen. Die
       Maschinen, die Richard Berk in seinem Büro der Universität von Philadelphia
       bedient, sollen beispielsweise herausfinden, ob Gefangene wieder rückfällig
       werden, wenn man sie auf Bewährung freilässt. Berk hat auch schon versucht,
       zu prognostizieren, ob ein Mörder wieder einen Mord begehen wird. Oder ob
       ein ungeborenes Baby einmal straffällig wird oder nicht.
       
       Polizisten aus Rochester im amerikanischen Minnesota sind solchen Ideen
       bisher am nächsten gekommen. Sie wollten mit Hilfe eines Statistikprogramms
       von IBM prognostizieren, ob jugendliche Straftäter zu erwachsenen
       Straftätern werden. Dafür hätten sie nicht nur Informationen aus der
       Polizeidatenbank verwendet, sondern auch aus allen anderen verfügbaren
       Quellen, etwa vom Sozialamt.
       
       Die Öffentlichkeit in Rochester, das vor allem für seine Mayo Klinik
       bekannt ist, reagierte entsetzt. Maschinen, die aus Daten die Zukunft von
       Jugendlichen lesen?
       
       Richard Berk, der in seinem Feld als einer der führenden Forscher der USA
       gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich
       bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der
       Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen
       Hilfen erhöhen.
       
       ## Wenn Algorithmen unsere Zukunft berechnen
       
       Der Ansatz klinge erst einmal gutmütig, sagt der Jurist Andrew Ferguson.
       Und natürlich wäre es großartig, wenn die Vorhersage, man könnte zum
       Verbrecher werden, eine Art Glückslos wäre, weil dann Sozialprogramme
       hochgefahren würden, weil man eine Collegeausbildung finanziert bekäme.
       
       Die Alternative, gibt Ferguson zu bedenken, wäre allerdings: Wir sperren
       dieses eine Prozent der Bevölkerung vorsichtshalber weg und verhindern so
       Verbrechen. Was käme wohl raus, wenn man das in den USA zur Abstimmung
       stellen würde? Ferguson hätte Angst vor dem Ergebnis „Besonders, wenn das
       eine Prozent wirtschaftlich benachteiligte Schwarze sind.“
       
       In der Titelgeschichte der [1][taz.am wochenende] gehen wir der Frage nach,
       wie sich ein Rechtsstaat verändert, wenn zusehends mehr Entscheidungen von
       Maschinen getroffen werden, wenn Algorithmen die Zukunft von Menschen
       berechnen. Besonders häufig werden die Programme in den USA eingesetzt, um
       zu entscheiden, ob ein Gefangener auf Bewährung freigelassen werden darf
       oder nicht. In Bundesstaaten wie Pennsylvania allerdings soll das Urteil
       der Algorithmen auch in Gerichtsverhandlungen einfließen. Die private
       Arnold Foundation, eine Familienstiftung, bietet Richtern ein
       Prognoseinstrument an, das berechnet, wie wahrscheinlich es ist, dass
       jemand flieht, wenn man ihn nicht in Untersuchungshaft nimmt, sondern erst
       einmal laufen lässt.
       
       Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen
       mehr zu trauen sei. Und das seit etlichen Jahren. Algorithmen, Programme
       also, die Entscheidungen berechnen, werden in den USA seit den 1920ern
       eingesetzt. Damals wurde nur auf dem Papier gerechnet.
       
       Psychologen, die Gefangene begutachten, beklagen, dass das Urteil der
       Algorithmen unverrückbar wirke. Dabei habe der Mensch immer die
       Entscheidung, ob er ein Verbrechen begehe oder nicht.
       
       Statistiker monieren, dass Psychologen die Rechnungen der Algorithem zu oft
       überschreiben würden, weil sie ihr Bauchgefühl für verlässlicher hielten.
       
       Der Psychologe Paul Meehl sprach sich schon in den 1950ern für statistische
       Vorhersagen aus. Weil der Mensch sich immer für unbestechlich halte, es
       aber selten sei, müsse man den Maschinen vertrauen.
       
       ## Auch Computer können rassistisch sein
       
       „Psychologen finden immer einen Grund, warum sie das Maschinenurteil
       korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die
       Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm
       KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen
       interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als
       hochgradig gefährlich eingestuft werde, werde er auch viel stärker
       überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich
       durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim,
       „müsste man die Auswirkung solcher Eingriffe beziffern und die
       statistischen Modelle entsprechend anpassen.“
       
       Bürgerrechtler beklagen vor allem, dass die Entscheidungen der Algorithmen
       schwer nachzuvollziehen seien. Sie wirkten objektiv und unbestechlich.
       Tatsächlich könnten über die Zahlen aber dieselben Vorurteile einfließen,
       die auch die Entscheidung eines Richters trüben. Vor allem, weil die Daten,
       etwa die der Polizei, nicht so objektiv seien, wie man sie darstelle.
       
       Es sei ganz einfach, sagt der Statistiker Patrick Ball: „Wenn wir unsere
       üblichen Verdächtigen dadurch gewinnen, dass wir Schwarze richtig intensiv
       von der Polizei beobachten lassen, Weiße dagegen immer davonkommen dürfen.
       Jetzt raten Sie mal, was so ein Algorithmus tut: Er wird dieses Verhalten
       natürlich exakt reproduzieren.“ Aber er kann ja nicht rassistisch sein,
       oder? Es ist ja nur ein Computer? Ball regt das auf. „Natürlich ist er
       vollkommen rassistisch.“
       
       Sollte man Algorithmen in der Justiz nutzen? Könnten die Programme
       vielleicht sogar Menschen helfen, die potentielle Verbrecher sind? Darf man
       Menschen dafür zu potentiellen Verbrechern stempeln? 
       
       Diskutieren Sie mit! 
       
       Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der
       [2][taz.am wochenende] vom 24./25. Oktober 2015.
       
       23 Oct 2015
       
       ## LINKS
       
 (DIR) [1] /!p4662/
 (DIR) [2] /!p4662/
       
       ## AUTOREN
       
 (DIR) Johannes Gernert
       
       ## TAGS
       
 (DIR) Polizei
 (DIR) Justiz
 (DIR) Algorithmen
 (DIR) Statistik
 (DIR) Verbrechen
 (DIR) Gefängnis
 (DIR) Schwerpunkt Überwachung
 (DIR) Justiz
 (DIR) Schwerpunkt Polizeikontrollen in Hamburg
 (DIR) Schwerpunkt Meta
 (DIR) Polizei
       
       ## ARTIKEL ZUM THEMA
       
 (DIR) Berechnung des Alltags: Wir sind Algorithmen-Zombies
       
       Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
       wir es merken, und machen uns so manipulierbar.
       
 (DIR) Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
       
       Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
       Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
       
 (DIR) Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
       
       Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
       Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.
       
 (DIR) Algorithmen im Internet: „Die Maschinen entscheiden für uns“
       
       Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
       verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
       Zeynep Tufekci.
       
 (DIR) „Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
       
       Seit Oktober testet die Polizei München eine Software, mit der sich
       angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
       aus.