# taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne
> In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen
> Dieb. Der aber sieht nicht annähernd wie der Täter aus.
IMG Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz
Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass
automatisierte Gesichtserkennung, neben vielen anderen Problemen,
[1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu
identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist
nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden
kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat
Michigan erfahren].
Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert
von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material
wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von
Williams Fahrerlaubnis.
Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte
Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU)
hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines
menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams
Namen Beschwerde gegen das Detroit Police Department] ein.
Dessen Chef musste nun einräumen, dass die false positives bei der
Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft
behaupteten korrekten Trefferrate in etwa derselben Dimension ist die
absolute Zahl der falschen Identifizierungen viel zu hoch, um einen
praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das
Detroiter Ergebnis sprengt jeden Rahmen.
## Verbot der Technologie
Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe
Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der
Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen
68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile
und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten
racial bias der Algorithmen.
Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem
offensichtlichen und systematischen Versagen der Technologie ziehen, ist
noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst
in der vergangenen Woche reihte sich Boston in die länger werdende Reihe
von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der
automatischen Gesichtserkennung warten wollen und sie für die polizeiliche
Praxis verboten haben.
1 Jul 2020
## LINKS
DIR [1] /Amazon-beendet-Kooperation/!5688012
DIR [2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-facial-recognition-is-wrong-96-of-the-time/
DIR [3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_final.pdf
DIR [4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%20on%20Facial%20Recognition%20Usage%20%20061520%20-%20062120.pdf
## AUTOREN
DIR Daniél Kretschmar
## TAGS
DIR Schwerpunkt Rassismus
DIR Polizei
DIR Gesichtserkennung
DIR Datenschutz
DIR Schwerpunkt Rassismus
DIR US-Polizei
DIR Schwerpunkt Rassismus
DIR Schwerpunkt Meta
DIR Black Lives Matter
DIR Innere Sicherheit
## ARTIKEL ZUM THEMA
DIR Kritik am Sicherheitspaket: Gefährliche Datenspeicherung
Teile des neuen Sicherheitspakets könnten eine weitreichende Überwachung
der Bevölkerung erlauben. Einige Maßnahmen verstoßen gegen das Grundgesetz.
DIR Facebooks Algorithmen werden geprüft: Diskriminierung im System
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen
rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
DIR Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“
Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex
Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung.
DIR Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“
Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa
E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist.
DIR Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
zeigen zwei im „Guardian“ dokumentierte Fälle.
DIR Amazon beendet Kooperation: Polizei vorläufig ohne Amazon
Amazon erlaubt der US-Polizei nicht mehr, eine Software zur
Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh
nicht.
DIR Software zur Gesichtserkennung: Seehofer verzichtet drauf
Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für
Aufregung. Nun streicht Seehofer Pläne für den automatisierten
Bild-Abgleich.