Precobs, Dyrias und ROS – drei automatisierte Systeme, die in der Schweiz eingesetzt werden, um Einbrüche, Gewalt gegen Frauen und Rückfälligkeit von Straftäter:innen vorherzusagen. Beim 10. Stopp unseres AlgoRail durch Europa berichtet Nicolas Kayser-Bril über die fehlende Transparenz und geringe Wirksamkeit der Systeme.

Die schweizerischen Polizei- und Justizbehörden setzen nach einer Zählung über 20 verschiedene automatisierte Systeme ein, um unangemessenes Verhalten zu berechnen oder vorherzusagen. Schweizer Polizei und Justiz sind weitgehend in regionalen Kompetenzen; möglicherweise verfügt also jeder Kanton über eigene Systeme.

Auf der Grundlage einer Reihe von Berichten des öffentlich-rechtlichen Rundfunks der Schweiz im Jahr 2018 haben wir drei davon überprüft.

Vorhersage von Einbrüchen

Precobs wird in der Schweiz seit 2013 eingesetzt. Das Tool einer deutschen Firma versucht, zukünftige Einbrüche aus vergangenen Daten vorherzusagen. Dies basiert auf der Annahme, dass Einbrecher:innen oft in kleinen Gebieten operieren. Wenn in einer Nachbarschaft eine Häufung von Einbrüchen entdeckt wird, sollte die Polizei in dieser Nachbarschaft öfter patrouillieren, um dem ein Ende zu setzen, so die Theorie.

Drei Kantone setzen Precobs ein: Zürich, Aargau und Basel-Land, die zusammen fast ein Drittel der Schweizer Bevölkerung ausmachen. Zwischen den Jahren 2012 und 2014 (als die Einbrüche ihren Höhepunkt erreichten) und den Jahren 2017 und 2019 (als Precobs in den drei Kantonen im Einsatz war) ging die Zahl der Einbrüche in allen Kantonen zurück, nicht nur in den drei Kantonen, die die Software verwendeten. Der Rückgang in Zürich und im Aargau war sogar geringer als der nationale Durchschnitt von -44%, was es unwahrscheinlich macht, dass der Einsatz von Precobs einen starken Einfluss auf den Rückgang von Einbrüchen hatte.

Ein Bericht der Universität Hamburg aus dem Jahr 2019 konnte keine Beweise für die Wirksamkeit von prädiktiven Polizeilösungen, einschließlich Precobs, finden. Es konnte kein öffentliches Dokument gefunden werden, in dem die Kosten des Systems für die Schweizer Behörden erwähnt wurden, aber die Stadt München zahlte €100.000 für die Installation von Precobs – Betriebskosten nicht eingeschlossen.

Gewalt gegen Frauen

Sechs Kantone (Glarus, Luzern, Schaffhausen, Solothurn, Thurgau und Zürich) verwenden das Dyrias-Intimpartner-System zur Wahrscheinlichkeits-Vorhersage, dass eine Person ihren Intimpartner oder ihre Intimpartnerin angreift. Dyrias steht für „dynamisches System zur Risikoanalyse“ und wird ebenfalls von einer deutschen Firma entwickelt und verkauft.

Laut einem Bericht des Schweizer öffentlich-rechtlichen Rundfunks SRF aus dem Jahr 2018 verlangt Dyrias, dass das Polizeipersonal 39 Fragen zu einem Verdächtigen mit „Ja“ oder „Nein“ beantwortet. Das Tool gibt dann eine Punktzahl auf einer Skala von 1 bis 5 aus, von harmlos bis gefährlich. Während die Gesamtzahl der Personen, die mit dem Tool getestet wurden, unbekannt ist, ergab eine Zählung des SRF, dass im Jahr 2018 3.000 Personen als „gefährlich“ eingestuft wurden (möglicherweise ist die Einstufung aber nicht auf die Verwendung von Dyrias zurückzuführen).

Der Hersteller von Dyrias behauptet, dass die Software 8 von 10 potenziell gefährlichen Personen korrekt identifiziert. Eine andere Studie untersuchte jedoch die fälschlicherweise als gefährlich gekennzeichneten Personen, die in Wirklichkeit harmlos waren, und fand heraus, dass 6 von 10 Personen, die von der Software gekennzeichnet wurden, als harmlos hätten gekennzeichnet werden müssen. Mit anderen Worten: Dyrias kann sich nur deshalb guter Ergebnisse rühmen, weil sie keine Risiken eingeht und das Etikett „gefährlich“ großzügig vergibt. (Die Firma hinter Dyrias bestreitet die Ergebnisse).

Rückfälligkeit bestimmen

Seit 2018 verwenden alle Justizbehörden in den deutschsprachigen Kantonen ROS (Abkürzung für „Risikoorientierter Sanktionsvollzug“). Das Instrument kennzeichnet Gefangene als A, wenn sie kein Rückfallrisiko haben, als B, wenn sie eine neue Straftat begehen könnten, oder als C, wenn sie ein Gewaltverbrechen begehen könnten. Häftlinge können mehrmals getestet werden, können aber bei nachfolgenden Tests nur von Kategorie A zu B oder C wechseln, nicht umgekehrt.

Ein Bericht des SRF über eine 2013 veröffentlichte Studie der Universität Zürich gibt an, dass nur ein Viertel der Gefangenen der Kategorie C bei ihrer Entlassung eine neue Straftat begangen haben (eine fälschlicherweise als positiv angegeben-Rate von 75%), und dass nur einer von fünf Gefangenen, die eine neue Straftat begangen haben, der Kategorie C angehörte (eine fälschlicherweise als negativ angegeben-Rate von 80%). Eine neue Version der Software wurde 2017 veröffentlicht, muss aber noch überprüft werden.

Die französisch- und italienischsprachigen Kantone arbeiten an einer Alternative zu ROS, die 2022 eingeführt werden soll. Sie behält zwar die 3 Kategorien bei, aber die Software verlangt dazu Interviews mit den zu bewertenden Gefangenen.

Mission: Impossible

Sozialwissenschaftler:innen können große Erfolge bei der Vorhersage allgemeiner Ergebnisse erzielen. Im Jahr 2010 prognostizierte das schweizerische Statistikamt, dass die Wohnbevölkerung der Schweiz bis 2020 8,5 Millionen erreichen wird (tatsächliche Bevölkerung 2020: 8,6 Millionen). Aber kein Wissenschaftler und keine Wissenschaftlerin würde versuchen, den Zeitpunkt des Todes einer bestimmten Person vorherzusagen: Das Leben ist einfach zu komplex.

In dieser Hinsicht unterscheidet sich die Demographie nicht von der Kriminologie. Trotz gegenteiliger Behauptungen kommerzieller Anbieter ist es wahrscheinlich unmöglich, individuelles Verhalten vorherzusagen. Im Jahr 2017 versuchte eine Gruppe von Wissenschaftler:innen das Problem zu lösen. Sie baten 160 Teams von Forscher:innen auf der Grundlage präziser und seit Geburt gesammelter Daten für Tausende von Teenagern die schulischen Leistungen, die Wahrscheinlichkeit, aus ihrer Wohnung geworfen zu werden und vier weitere Ergebnisse vorherzusagen. Für jedes Kind standen Tausende von Datenpunkten zur Verfügung. Die Ergebnisse, die im April 2020 veröffentlicht wurden, machen demütig. Nicht nur, dass kein einziges Team ein Ergebnis mit Genauigkeit vorhersagen konnte, die Teams, die künstliche Intelligenz verwendeten, schnitten auch nicht besser ab als Teams, die nur wenige Variablen mit grundlegenden statistischen Modellen verwendeten.

Abschreckende Wirkung

Trotz der stark eingeschränkten Erfolgsbilanz und der Tatsache, dass es fast unmöglich ist, individuelle Ergebnisse vorherzusagen, verwenden die Schweizer Strafverfolgungsbehörden weiterhin Instrumente, die genau dies versuchen. Ihre Popularität ist zum Teil auf ihre Undurchsichtigkeit zurückzuführen. Es gibt nur sehr wenige öffentliche Informationen über Precobs, Dyrias und ROS. Die Betroffenen, die überwiegend arm sind, verfügen selten über die finanziellen Mittel, die zum Hinterfragen automatisierter Systeme erforderlich sind. Ihre Anwälte konzentrieren sich in der Regel darauf, die von der Staatsanwaltschaft behaupteten grundlegenden Fakten zu überprüfen.

Ohne mehr Transparenz könnten diese Systeme eine „abschreckende Wirkung“ auf die Schweizer Gesellschaft haben, so Moritz Büchi von der Universität Zürich. „Diese Systeme könnten Menschen davon abhalten, ihre Rechte auszuüben, und sie könnten sie dazu bringen, ihr Verhalten zu ändern“, schrieb er. „Dies ist eine Form des vorauseilenden Gehorsams. Da sich die Menschen der Möglichkeit bewusst sind, von diesen Algorithmen (zu Unrecht) verdächtigt zu werden, kann es dazu führen, dass die Konformität mit wahrgenommenen gesellschaftlichen Normen erhöht wird. Ausdruck eigener Meinungen und alternative Lebensweisen könnten unterdrückt werden“.

Das war’s für den zehnten Stopp unseres AlgoRails durch Europa, auf dessen Reise wir mehr darüber erfahren wollen, wie algorithmische Systeme in unserer europäischen Nachbarschaft eingesetzt werden. Nächster Halt ist Polen.


Diese Story wurde von  Julia Gundlach  gekürzt und ins Deutsche übersetzt. Der ungekürzte Beitrag wurde auf der Webseite von AlgorithmWatch veröffentlicht.

Die Blogreihe AlgoRail ist Teil des Automating Society Reports 2020 von der Bertelsmann Stiftung und AlgorithmWatch, der im Herbst dieses Jahres veröffentlicht und von Dr. Sarah Fischer  koordiniert wird. Neben journalistischen Geschichten wie dieser, gibt der Report einen Überblick über verschiedene Anwendungsbeispiele algorithmischer Systeme sowie aktuelle Debatten, Policy Responses und wichtige Akteure in 15 Ländern. Eine erste Ausgabe des Reports ist im Januar 2019 erschienen.


Dieser Text ist lizenziert unter einerCreative Commons Namensnennung 4.0 International Lizenz.