LTO.de - Legal Tribune Online - Aktuelles aus Recht und Justiz
 

Software sagt Einbrüche voraus: Der "Mino­rity Report" wird Wir­k­lich­keit

von Peggy Fiebig

10.07.2017

Mit Algorithmen will die Polizei künftig Einbruchskriminalität besser in den Griff bekommen: Computerprogramme, die musterbasiert vorhersagen können, wo der nächste Einbruch stattfindet, sollen dabei helfen – und sind bereits im Einsatz.

Die Parallele zum Film aus dem Jahr 2002 liegt nahe: In "Minority Report", von Stephen Spielberg mit Tom Cruise in der Hauptrolle verfilmt, werden Verbrechen aufgeklärt, bevor sie geschehen. Precrime heißt die dafür zuständige Abteilung der Washingtoner Polizei, "Precogs" wurden diejenigen genannt, die die Vorhersagen treffen.

Vermutlich haben die Entwickler von "Precobs" auch an den Film gedacht, als sie sich einen Namen für ihr Softwareprogramm ausgedacht haben, das ebenfalls Straftaten prognostizieren soll, bevor sie überhaupt begangen werden. Anders als im Film geht es hier jedoch nicht um Morde, die verhindert werden sollen, sondern um Einbrüche. Precobs steht für "Pre Crime Observation System" steht und beruht auf der Erkenntnis, dass in einem geografischen Umfeld, in dem beispielsweise ein Einbruch begangen wurde, in nächster Zeit mit weiteren ähnlichen Straftaten zu rechnen ist. Die Gültigkeit dieser sogenannten Near-repeat-Hypothese gilt nicht nur für Wohnungseinbrüche: In den USA wurde sie auch für Feuergefechte, KFZ-Diebstähle oder Raubüberfällte bestätigt, wie es in einer Studie des LKA Niedersachsen aus dem Jahr 2015 heißt.

"Near repeat prediction Method" nennt daher auch die Ingenieursfirma aus Oberhausen, die Precobs entwickelt hat, die theoretische Grundlage ihres Programms. Dabei bilden statistische, mathematische, aber auch kriminologische und geografisch bedingte Erkenntnisse das Fundament für die Konfiguration der Algorithmen. Als Datengrundlage werden dann empirische Erkenntnisse über bisherige Einbrüche und Täterprofile verwendet. So spielt es für die Auswertung beispielsweise eine Rolle, ob es sich um einen Einzel- oder Wiederholungstäter, einen Gelegenheits- oder einen professionellen Täter handelte und ob spontan oder strukturiert vorgegangen wurde.

Bayern meldet erste Erfolge

Dabei geht man davon aus, dass jeder Mensch – also auch ein Einbrecher – nach bestimmten Handlungsmustern vorgeht. Die Gebiete, in denen Täter wiederholt auftreten, werden als "near repeat affin" erkannt und bilden die Grundlage für die automatisierte Vorhersage von Wiederholungstaten. Die daraus gewonnenen Prognosen können dann von den Polizeibehörden für operative und präventive Zwecke verwendet werden.

Und auch, wenn es wie Zukunftsmusik klingt - die Software wird jetzt schon eingesetzt: Bayern arbeitet bereits damit, in anderen Bundesländern laufen Pilotprojekte mit diesem oder ähnlichen Systemen. Berlin beispielsweise hat sich dafür entschieden, einen eigenen Weg zu gehen – Krimpro heißt dort ein vergleichbares Programm, das in Zusammenarbeit mit der Firma Microsoft entwickelt wird. Seit Oktober 2016 läuft hier ein erweiterter Testbetrieb, der das gesamte Stadtgebiet erfasst. Im Laufe des Jahres 2017 soll mit Hilfe der gesammelten Daten und Erfahrungen eine Auswertung und Bewertung des Probelaufes durchgeführt und dann auch über die dauerhafte Anwendung entschieden werden.

Das Ganze läuft unter dem Namen predictive policing (vorausschauende Polizeiarbeit) und ist, wenn man dem Bayerischen Innenminister Glauben schenken darf, auch erfolgreich:

Bereits im Sommer 2015 berichtete Innenminister Joachim Herrmann, dass die Einbrüche in den Münchener Gebieten, die von Precobs analysiert wurden, um 42 Prozent zurückgegangen seien. In Berlin ist man vorsichtiger mit einer Einschätzung: Auf Nachfrage weist die Senatsverwaltung für Inneres und Sport darauf hin, dass für derartige Systeme eine statistisch belastbare Evaluation schwierig sei. Wenn in einem prognostizierten Gebiet kein Wohnraumeinbruch festzustellen sei, könne dies sowohl daran liegen, dass die Prognosequalität nicht hoch war, oder auch daran, dass die durchgeführten polizeilichen Maßnahmen erfolgreich waren. Deshalb entziehe sich der zu erzielende präventive Effekt weitgehend einfacher Überprüfung, heißt es in der Antwort der Senatsverwaltung.

Zitiervorschlag

Software sagt Einbrüche voraus: Der "Minority Report" wird Wirklichkeit . In: Legal Tribune Online, 10.07.2017 , https://www.lto.de/persistent/a_id/23410/ (abgerufen am: 14.06.2021 )

Infos zum Zitiervorschlag
Kommentare
  • 10.07.2017 16:10, Steff

    Schön, dann bau ich mir auch so ein Gerät und weiß, wo die "Drecksbullen" garantiert nicht sein werden, weil sie zu der zeit woanders sind.

    Wie wärs mit einer Software, die sagt, welche Parteien verfassungswidrig und eine GEFAHR für die Bürger und unsere Freiheit sind? Ach ja, gibt's ja schon: CSU CSU CSU CDU SPD GRÜN

    Wer überwacht wird bestraft.

  • 10.07.2017 16:23, RDA

    Könnte man so eine Software auch für das Verhalten von Lobbyisten einsetzen?

    • 10.07.2017 22:34, Magi

      Und das bewirkt dann genau was? Und der Erkenntnisnutzen geht gegen 0 - jeder weiß doch, wie sich Lobbyisten verhalten...

    • 11.07.2017 16:46, Haha

      Die von Greenpeace, der Deutschen Umwelthilfe, des NABU, des BUND, von PETA oder doch eher die 16 Verbraucherzentralen der Länder mitsamt des vzbv?

  • 10.07.2017 23:23, Informatiker

    Insgesamt gibt der Artikel einen guten Überblick über die politische Diskussion, obwohl er in die Materie der KI nicht tief eingeht - was er auch nicht muss.

    Ob diese Algorithmen in der Praxis gut funktionieren, kann nicht gesagt werden. Da hat Berlin schon eine richtige Einschätzung gegeben. Beim Innenminister von Bayern war ja es leider klar, dass er so ein Statement raushaut. Von gar nichts eine Ahnung, aber zu allem eine Meinung haben. Denn es ist richtig, was Berlin sagt: Was ist die tatsächliche Ursache für den Rückgang der Wohnungseinbrüche? Wie sieht die Aufklärungsquote aus? Wie sieht es mit Ausweichsbewegungen der Täter aus?

    Denn was diese Algorithmen salopp gesagt nur machen: Sie berechnen Wahrscheinlichkeiten aus, die sie an Hand eines Musters ermittelt haben. Dabei ist die Mathematik in diesem Fall noch relativ simpel (aber dennoch für die Allermeisten anspruchsvoll genug). Und die Täter wissen das ja auch - und können sich ja danach ausrichten.

    Was diesen Algorithmus-TÜV angeht, ist das aus praktischen Gesichtspunkten reines Wunschdenken (oder pure Angst). Wer soll diesen TÜV durchführen. Man nehme mal Neuronale Netze (z.B. basiert AlphaGo drauf): Wer ist schon rein fachlich in der Lage, diesen Algorithmus zu prüfen. Noch nicht einmal die Entwickler selbst wissen höchstwahrscheinlich, wie dieser konkret funktioniert. Denn das Programm bildet selbstständig über mehrere zehntausende Neuronen ein Netz, dass sich aus den gegebenen Daten ergeben hat. Und das auf höchster mathematischer Ebene. Schon allein die Mathematik zu verstehen, verlangt einen sehr hohen Anspruch, den sogar selbst nicht alle Informatiker gerecht werden.

    Und wenn wir nicht bei Künstlicher Intelligenz sind, so sind die heutigen "Alltags-"Algorithmen schon hinreichend komplex, dass fremde Entwickler ein sehr lange Zeit brauchen sich in diese Thematik einzuarbeiten (oder sogar manchmal scheitern).

    Wie soll das eine staatliche Behörde schaffen? Mit den Arbeitsbedingungen, die für Entwickler und Informatiker so suboptimal sind, dass z.B. die Zitis-Behörde ("Hackerbehörde") immer noch total unterbesetzt ist (außer paar abgeordnete Beamte)? Geheimdienste, LKA und BKA kaum qualifiziertes IT-Personal finden? Ja, man kann - wie z.B. einige LKAs - Bachelorabsolventen direkt von der Uni anwerben. Aber man darf dann keine große Qualität erwarten. Für sehr anspruchsvolle Aufgaben wie das Eindringen in Systemen oder sogar die Analyse von Algorithmen - und die sich dann noch in dem technischen und fachlichen Gebiet auskennen, für die die Algorithmen entworfen wurden, den Algorithmus ist nicht gleich Algorithmus - kommt man mit diesen finanziellen und organisatorischen Rahmenbedingungen keine guten Leute.

    Und Quellcode offen legen, schön und gut:
    Wer hat schon mal in den Code eines großen Open-Source Programmes reingeschaut? - Und wenn ja: Wer hat es verstanden? Und war sich danach sicher, dass da keine Hintertüren drin waren?
    Solche Softwaresysteme haben gut und gerne mehrere Millionen Codezeilen mit unzählichen Modulen, Klassen, Methoden (und die abhängigen Bibliotheken nicht vergessen). Und sind noch in den unterschiedlichsten Programmiersprachen geschrieben. Und dann ist ja noch die Tatsache da, dass sich Software schnell ändert. Fordern ist leicht und man kann alles fordern - auch wenn man von der Materie überhaupt keine Ahnung hat.

    Es ist doch so: Wenn man die Software nicht vertraut, dann benutzt man es nicht. Der technische Fortschritt wurde ja nicht verordnet, sondern wir alle (als Gemeinschaft) benutzen Facebook, Google, Whats App etc. freiwillig. Und viele hinterlassen ihre Daten bereitwillig im Netz - siehe Facebook.
    Wenn der Staat nun diesen "Algorithmen" mißtraut, so muss er eben selbst welche entwickeln (passiert ja z.B. in der Finanzverwaltung, egal, ob das jetzt positiv oder negativ ist). Ob er sich in der Breite damit durchsetzen wird können, ist eine andere Frage.

  • 19.07.2017 08:18, M.D.

    Als ehemaliger Informatiker bin ich natürlich über solche Erfolge von "Big Data" erfreut. Als Jurist mache ich mir jedoch Gedanken, ob hier nicht letztlich Vorurteile mathematisch berechenbar werden. Solche Vorhersage-Algorithmen spucken regelmäßig aus, dass die Befürchtungen in der Bevölkerung wohl doch nicht so ganz an den Haaren herbeigezogen sind. Vielleicht muss man sich dieser Erkenntnis einfach stellen.

    Früher ging man nicht in den Wald, weil dort die Räuber waren. Wer es nicht glaubte und dennoch in den Wald ging, machte häufig mit ihnen Bekanntschaft.