URI: 
       # taz.de -- Dokumentarfilm „Coded Bias“: Einäugige Maschinen
       
       > Menschen können rassistisch und sexistisch sein – so wie die Algorithmen,
       > die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded
       > Bias“.
       
   IMG Bild: Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini
       
       Hamburg taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden
       wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht
       etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen
       kombiniert – mittels Webcam und [1][Gesichtserkennungssoftware]. Dabei
       stieß [2][die Computerwissenschaftlerin] auf ein Problem: Keine
       ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die
       Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft,
       identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder
       Frauengesichter.
       
       Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht
       erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer
       Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini
       Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die
       am Dienstagabend [3][die Hamburger W3 streamt]: Da beobachten
       Aktivist*innen der [4][britischen NGO „Big Brother Watch“], wie ein
       Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür
       eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten
       habe, mögen die Beamt*innen nicht erkennen.
       
       Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei
       der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts
       schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern
       machen darf – gegenüber den einschlägigen Tech-Riesen willigen die
       Nutzer*innen ja wenigstens noch so was wie ein in die jeweils irgendwo
       in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer
       das Internet nutzen will, der Gesichtserkennung zustimmen – und der
       Verarbeitung durch den Staat.
       
       Und im US-Staat Massachusetts soll eine Software der gestressten Justiz
       helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und
       das eben wiederum erkennbar entlang den Linien von – Hautfarbe und
       Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge
       vielerorts auf der Welt bei Job- oder Kreditvergabe oder der
       Risikoberechnung in den entsprechenden Abteilungen der Versicherungen.
       
       Aber jedes System, so muss angenommen werden, in dem ausreichend hoher
       Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren,
       zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo
       Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf
       Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch
       bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum
       geht, wer ein gespendetes Organ bekommt?
       
       Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der
       Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende
       Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für
       Vorurteile, als es die Menschen sind, die sie ins Werk setzen.
       
       11 May 2021
       
       ## LINKS
       
   DIR [1] /Hamburger-gegen-US-Ueberwachungsfirma/!5744733
   DIR [2] https://www.media.mit.edu/people/joyab/overview/
   DIR [3] https://w3-hamburg.de/veranstaltung/coded-bias/
   DIR [4] https://bigbrotherwatch.org.uk/
       
       ## AUTOREN
       
   DIR Alexander Diehl
       
       ## TAGS
       
   DIR Datenschutz
   DIR Schwerpunkt Überwachung
   DIR Bürgerrechte
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Computer
   DIR Schwerpunkt Überwachung
   DIR Diskriminierung
   DIR Schwerpunkt Rassismus
   DIR IG
   DIR Schwerpunkt Coronavirus
   DIR Cybersicherheit
       
       ## ARTIKEL ZUM THEMA
       
   DIR Experte über Firma für Gesichtserkennung: „Einschüchternde Wirkung“
       
       Das US-Unternehmen Clearview speichert in seiner biometrischen
       Fotodatenbank auch Europäer:innen. Das will die Datenschutzorganisation
       noyb beenden.
       
   DIR Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
       
       Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
       ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.
       
   DIR Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
       
       Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
       männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
       
   DIR Forscherin über frühe Hackerszene: „Stasi ließ Hacker anfangs gewähren“
       
       Ein Gespräch mit der Historikerin Julia Gül Erdogan über die Bedeutung des
       Hackens und die frühen Vorläufer der Hackerszene in der BRD und DDR.
       
   DIR Kontaktverfolgung bei Corona: Luca soll es richten
       
       In Hamburg soll die privatwirtschaftliche Luca-App Infektionsketten
       ermitteln. Dabei hat der Datenschützer Bedenken.
       
   DIR Cyberkriminalität in den USA: 150.000 Sicherheitskameras gehackt
       
       Ein Hacker-Angriff auf Überwachungskameras hat offenbar Einblicke in
       Gefängnisse und Schulen ermöglicht. Auch Tesla soll betroffen sein.