Predictive Policing und GesichtserkennungWer haftet künftig bei unzulässigen Grundrechtseingriffen?

predictive-policing-und-gesichtserkennungwer-haftet-kunftig-bei-unzulassigen-grundrechtseingriffen?

09-02-21 10:27:00,

Florian Krahmer studierte Politikwissenschaft an der Universität Leipzig und arbeitete mehrere Jahre als Wissenschaftler für die Linke im Sächsischen Landtag. Gegenwärtig hat er einen Lehrauftrag an der Universität Leipzig inne und forscht zu polizeiwissenschaftlichen Themen in Sachsen.

Der Einsatz neuerer Technologien und hier vor allem Künstlicher Intelligenz (KI) hat in den letzten Jahren vermehrt haftungsrechtliche Fragestellungen aufgeworfen. Wer ist beispielsweise verantwortlich für einen Unfall, der von einem autonom fahrenden Fahrzeug verursacht wurde?

Das Haftungsrecht kennt im Grunde die Höhere Gewalt und die Verantwortlichkeit konkreter Rechtssubjekte. Mit dem Einsatz neuer Technologien wird dies zunehmend komplizierter. Die sich daraus ergebenden Fragestellungen sind auch für die Anwendungen bei Polizeien und anderen Behörden relevant, aber bisher nur unzureichend diskutiert worden. Eine Diskussion wird in der Regel mit der Argumentation vermieden, dass es sich entweder gar nicht um Grundrechtseingriffe handelt oder dass es letztlich eine konkrete Person ist, die handelt und die die Software nur zur Entscheidungsunterstützung nutzt. Dass diese Argumentation nicht durchzuhalten ist, soll nachfolgend dargestellt werden.

Automatisierte Fehlerquote

Das erste Beispiel betrifft den Einsatz automatisierter Gesichtserkennung im öffentlichen Raum. Seit 2017 wurden in einem Pilotprojekt der Bundespolizei verschiedene Gesichtserkennungsprogramme am Bahnhof Berlin Südkreuz getestet. Zwar existieren Debatten über die Zulässigkeit des Gesamtprojektes, es wird aber kaum darüber diskutiert, wer im Falle einer grundsätzlichen Zulässigkeit für die Folgen der daraus resultierenden Kontrollpraktiken haftet.

Entgegen euphorischer Presseveröffentlichungen des Bundesinnenministeriums über hohe Erfolgsquoten und geringe Fehlerquoten der automatisierten Gesichtserkennung hat das Max-Planck-Institut errechnet, was die offizielle Fehlerquote für eine Kontrollpraxis im Wirkbetrieb bedeuten würde und wie ein Verhältnis von Echttreffern und False-Positiv-Fällen aussehen könnte. Zwar konnten acht von zehn gesuchten Personen erkannt werden und „nur“ bei 0,1 Prozent der videographierten Personen kam es zu einem Fehlalarm, was aber bei der Menge an Bahnreisenden zu einer enormen Zahl führen würde:

Die Deutsche Bahn berichtet, dass rund 11,9 Millionen Menschen täglich mit der Bahn reisen. […] Jedem Alarm solle ein Einsatz der Polizei zur Abklärung folgen. Da eine flächendeckende Überwachung an Bahnhöfen jedoch 11.900 falsche Alarme pro Tag erwarten ließe, müssten jeden Monat über 350.000 Personen unnötigerweise kontrolliert werden. Das wäre nicht nur enorm aufwändig und teuer, unsere Bahnhöfe würden auch bald wie die Kontrollen an Flughäfen aussehen.

Setzt man die Anzahl der Echttreffer (entsprechend achtzig Prozent Treffergenauigkeit und bezogen auf den Fahndungsbestand von 2018) ins Verhältnis zur Anzahl der Fehlalarme,

 » Lees verder

%d bloggers liken dit: