Kriminalitätsvorhersage
Schädelumfang, Nasenlänge, Abstand der Augen – von äußeren Merkmalen auf Charakterzüge einer Person zu schließen, das war nicht nur ein großes Hobby der Nationalsozialisten. Erst 2016 sollte eine chinesische KI anhand von Gesichtszügen erkennen lernen, wer kriminell ist und wer nicht. Sie hat sich gut geschlagen. Doch egal, wie gut eine KI darin wird, Menschen als Täter zu erkennen, sie wird sich – zumindest in den nächsten Jahren noch – grundlegenden ethischen Fragen und Kritikpunkten stellen müssen.
So wie die US-KI, die berechnen soll, wie wahrscheinlich Straftäter rückfällig werden. Und deren Entscheidung sogar in das Strafmaß einfließt. Oder die britische KI, die aktuell entwickelt wird, mit deren Hilfe nicht nur potenzielle Täter sondern auch Opfer einer Gewalttat identifiziert werden sollen, bevor diese überhaupt stattgefunden hat. Eine britische Version des Minority Report, in der die Leute nicht festgenommen werden, sondern ihnen Sozialarbeiter helfen.
Das Problem dabei, so Kritiker des Alan Turing Institutes, ist die Bias (Voreingenommenheit), die in den Daten steckt, mit denen KIs gefüttert werden. Denn noch immer sind People of Colour und Menschen aus ärmeren Gemeinschaften häufiger polizeibekannt – ohne dass das etwas über ihre grundsätzliche kriminelle Energie aussagen würde. Und noch immer werden People of Colour in den USA häufiger und härter bestraft als weiße Menschen.
In Deutschland sind solche Techniken noch nicht in Verwendung. Doch auch hier ist KI bereits im Einsatz, etwa am Mannheimer Bahnhof, wo intelligente Kamerasysteme verdächtige Bewegungen registrieren und sie Polizisten melden. Dieser Einsatz übrigens ist durch das neue Polizeigesetz in Baden-Württemberg und Bayern möglich geworden.
Die Einschätzung des Alan Turing Instituts und die Antwort der Polizei findest du hier.
„Heise“ hat sich auf die Suche nach Technik begeben, die jetzt oder in Zukunft helfen soll, Extremisten und Verbrecher vor ihren Taten ausfindig zu machen. Und fragt: Was bedeutet das für unsere Persönlichkeitsrechte? Teil 1und Teil 2.
Einige Wissenschaftler glauben nicht an die Gesichtserkennung von Kriminellen. Die “Süddeutsch Zeitung” erklärt warum.
So erkennt China mithilfe einer KI “staatsgefährdende” Uiguren.