URI: 
       # taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne
       
       > In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen
       > Dieb. Der aber sieht nicht annähernd wie der Täter aus.
       
   IMG Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz
       
       Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass
       automatisierte Gesichtserkennung, neben vielen anderen Problemen,
       [1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu
       identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist
       nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden
       kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat
       Michigan erfahren].
       
       Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert
       von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material
       wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von
       Williams Fahrerlaubnis.
       
       Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte
       Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU)
       hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines
       menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams
       Namen Beschwerde gegen das Detroit Police Department] ein.
       
       Dessen Chef musste nun einräumen, dass die false positives bei der
       Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft
       behaupteten korrekten Trefferrate in etwa derselben Dimension ist die
       absolute Zahl der falschen Identifizierungen viel zu hoch, um einen
       praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das
       Detroiter Ergebnis sprengt jeden Rahmen.
       
       ## Verbot der Technologie
       
       Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe
       Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der
       Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen
       68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurteile
       und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten
       racial bias der Algorithmen.
       
       Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem
       offensichtlichen und systematischen Versagen der Technologie ziehen, ist
       noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst
       in der vergangenen Woche reihte sich Boston in die länger werdende Reihe
       von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der
       automatischen Gesichtserkennung warten wollen und sie für die polizeiliche
       Praxis verboten haben.
       
       1 Jul 2020
       
       ## LINKS
       
   DIR [1] /Amazon-beendet-Kooperation/!5688012
   DIR [2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-facial-recognition-is-wrong-96-of-the-time/
   DIR [3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_final.pdf
   DIR [4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%20on%20Facial%20Recognition%20Usage%20%20061520%20-%20062120.pdf
       
       ## AUTOREN
       
   DIR Daniél Kretschmar
       
       ## TAGS
       
   DIR Schwerpunkt Rassismus
   DIR Polizei
   DIR Gesichtserkennung
   DIR Datenschutz
   DIR Schwerpunkt Rassismus
   DIR US-Polizei
   DIR Schwerpunkt Rassismus
   DIR Schwerpunkt Meta
   DIR Black Lives Matter
   DIR Innere Sicherheit
       
       ## ARTIKEL ZUM THEMA
       
   DIR Kritik am Sicherheitspaket: Gefährliche Datenspeicherung
       
       Teile des neuen Sicherheitspakets könnten eine weitreichende Überwachung
       der Bevölkerung erlauben. Einige Maßnahmen verstoßen gegen das Grundgesetz.
       
   DIR Facebooks Algorithmen werden geprüft: Diskriminierung im System
       
       Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen
       rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
       
   DIR Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“
       
       Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex
       Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung.
       
   DIR Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“
       
       Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa
       E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist.
       
   DIR Filter bei Facebook und Microsoft: Beim Livetest versagt
       
       Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
       zeigen zwei im „Guardian“ dokumentierte Fälle.
       
   DIR Amazon beendet Kooperation: Polizei vorläufig ohne Amazon
       
       Amazon erlaubt der US-Polizei nicht mehr, eine Software zur
       Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh
       nicht.
       
   DIR Software zur Gesichtserkennung: Seehofer verzichtet drauf
       
       Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für
       Aufregung. Nun streicht Seehofer Pläne für den automatisierten
       Bild-Abgleich.