Feb 15, 2020
16 Views
0

Studie: Algorithmen prognostizieren Rückfallkriminalität besser als Laien

Written by

  Seit Jahren schon entzweit die Menschheit die Frage, ob Maschinen die besseren Richter sein könnten. Eine am Freitag im Fachjournal "Science Advances" erschienene Studie liefert einen weiteren Beitrag zu dieser Debatte. Sie zeigt laut ihren Autoren, dass Algorithmen unter realistischen Bedingungen Rückfallwahrscheinlichkeiten bei Kriminellen zumindest besser einschätzen können als menschliche Laien. Ob sie auch ausgebildete Juristen, erfahrene Richter und Bewährungshelfer schlagen, haben die Forscher nicht getestet. 

Algorithmen nach wie vor kaum “intelligent”

      Keine News verpassen! Mit unserem täglichen Newsletter erhalten Sie jeden Morgen alle Nachrichten von heise online der vergangenen 24 Stunden. 








              Newsletter jetzt abonnieren

Die neue Analyse knüpft an eine Anfang 2018 publizierte Vorläuferuntersuchung zu dem in den USA eingesetzten Algorithmus Correctional Offender Management Profiling for Alternative Sanctions (Compas) an. Damals hatte das Ergebnis noch gelautet, dass die Vorhersagen von Laien zur Rückfallgefahr von Straftätern ähnlich genau waren wie die des Systems für maschinelles Lernen. Auch die Macher der Folgestudie lassen Compas wieder gegen zufällig über den Crowdworking-Dienst Mechanical Turk von Amazon ausgewählte Clickworker antreten. Die Resultate decken sich zunächst zudem mit denen von vor zwei Jahren, wenn Menschen und Maschine je nur auf Basis von fünf Risikofaktoren ein Urteil fällen sollten.
Unter lebensnäheren Bedingungen mit mehr Faktoren, keiner unverzüglichen Rückmeldung zur Richtigkeit der Entscheidungen und bei einem anderen Algorithmus schnitten die Laien aber schlechter ab als das technische System. Die verwendeten Verfahren Compas und LSI-R (Level of Service Inventory-Revised), das ein breiteres Datenset mit mehr Risikofaktoren verarbeiten kann als die Konkurrenz, urteilten in speziellen Fällen mit geringer Rückfallrate jedoch letztlich nur so gut wie ein einfacher Klassifikator, der immer vorhersagt, die Person würde nicht wieder eine Straftat begehen. Ferner konnten die Autoren sogar mit einem einfachen Regressionsmodell eine ähnliche Genauigkeit erreichen wie die Algorithmen, was diese nach wie vor nicht sonderlich “intelligent” wirken lässt.

Leicht verbesserte Genauigkeit erzielt
Der zuvor gerade bei Compas kritisierte Aspekt der Voreingenommenheit war nicht Teil der Studie. Die Verfasser erwähnen ihn auch nur am Rande. Laut einem Bericht des Rechercheportals ProPublica von 2016 beurteilte der Algorithmus Afroamerikaner oft ungerecht. Compas liefert als Ergebnis einen Risikowert von eins bis zehn und teilt auf dieser Basis Beurteilte in die Risikogruppen niedrig (1 bis 4), mittel (5 bis 7) und hoch (8 bis 10) ein. Schwarze stufte das System häufiger zu Unrecht in die letzte Kategorie ein. Vor allem in den Fällen, in denen der Algorithmus falsch lag, attestierte er Afroamerikanern ein höheres Risiko als Weißen, erneut straffällig zu werden.
Den Berechnungen der ProPublica-Autoren zufolge wurden insgesamt 61 Prozent der von Compas in die hohe Risikogruppen eingestuften Personen innerhalb von zwei Jahren tatsächlich rückfällig. Die aktuelle Studie attestiert dem Algorithmus bei der korrekten Beurteilung der Rückfallgefahr jetzt eine etwas höhere Genauigkeit von 65 Prozent. Beide Werte liegen aber unter den 70 Prozent, die der Hersteller Equivant selbst als Grenze zur zufriedenstellenden Verlässlichkeit der Analyse angibt.

In Deutschland keine Rechtsgrundlage
In Deutschland gebe es keine Rechtsgrundlage für den Einsatz eines solchen Systems, macht Christian Djeffal klar, Professor für Recht, Wissenschaft und Technologie an der TU München. Ähnliche Verfahren seien in der Verwaltung aber bereits in Betrieb, bei der Kasse Hamburg etwa zum Erkennen prüfwürdiger Fälle im Hinblick auf Betrug, beim Zoll zur Ressourceneinteilung und bei der Polizei zur Planung von Streifen in Regionen mit einer hohen Gefahr für Einbruchsdiebstähle. Die Finanzverwaltung versuche mit vergleichbaren Ansätzen, prüfwürdigen Steuererklärungen auf die Spur zu kommen.
Mithilfe der Ergebnisse der Studie könnte die Aus- und Weiterbildung von Richtern etwa durch Übungen anhand historischer Datensätze mit sofortigem Feedback verbessert werden, was die Fehlerrate menschlicher Entscheidungen erkennbar senke, hofft Djeffal. Manchmal kämen diskriminierende Praktiken erst durch digitale Anwendungen ans Licht oder können abgemildert werden.
“Menschen können sehr viel mehr”
Trotz der Indizien für bessere Prognosefähigkeiten der Algorithmen sei immer zu beachten, “dass Menschen so sehr viel mehr können als aktuelle Verfahren des maschinellen Lernens”, gibt Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen an der TU Darmstadt, zu bedenken. Sie seien etwa imstande, sich zu erklären, Stimmungen wahrzunehmen oder Analogien zu schließen. Mit “unseren ethischen und moralischen Ansprüchen” könne man kaum vereinbaren, “dass Maschinen über das Schicksal von Menschen bestimmen”. Zugleich gebe es ein generelles Diskriminierungsproblem. Kersting plädiert daher für eine “Partnerschaft aus Mensch und Maschine”, wobei letztere ersteren auch auf seine eigenen Vorurteile hinweisen könnte.
Prinzipiell als profund schätzen die Medienrechtler Stephan Dreyer und Johannes Schmees vom Hamburger Hans-Bredow-Institut die neue Analyse ein. Die Autoren machten deutlich, dass die zusammengestellten Informationsgrundlagen zu den zu beurteilenden Personen eine hohe Relevanz für die menschlichen wie für die errechneten Entscheidungen hätten. An mancher Stelle könnten statistische Voraussagen rechnerisch differenziertere Ergebnisse aufweisen als Menschen. Es dürfe aber nicht vergessen werden, dass es sich um “Experimentalstudien in einem sehr engen Setting” handle. Verallgemeinerungen für algorithmische und menschliche Entscheidungen könnten daraus nur äußerst begrenzt gezogen werden.

(tiw)

      Zur Startseite

Source link

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

11829 Besucher online
11829 Gäste, 0 Mitglied(er)
Jederzeit: 13113 um/am 01-29-2020 02:17 am
Meiste Besucher heute: 12299 um/am 03:39 am
Diesen Monat: 12938 um/am 02-01-2020 12:00 am
Dieses Jahr: 13113 um/am 01-29-2020 02:17 am
%d Bloggern gefällt das: