URI: 
       # taz.de -- Filter bei Facebook und Microsoft: Beim Livetest versagt
       
       > Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
       > zeigen zwei im „Guardian“ dokumentierte Fälle.
       
   IMG Bild: Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um 1896
       
       Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch
       unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer
       Netzkonzerne offenzulegen.
       
       Ein Bericht auf der australischen Seite des Guardian befasste sich mit der
       Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am
       australischen Premier Scott Morrison mit einem historischen Foto von
       Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass
       es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit
       unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.
       
       Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden
       anderer Nutzer*innen als unangemessen eingestuft worden: Die
       Analysesoftware von Facebook hatte die Abbildung der lediglich [1][mit
       Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert] und
       automatisch gesperrt.
       
       Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und
       entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus
       der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen
       entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild
       war wiederum das historische Bild der angeketteten Aborigines. Mit
       derselben Illustration [2][berichtet der Guardian weiter über den Fall] und
       unterzieht so die Resilienz des Facebook-Content-Filters einer
       Livetestreihe.
       
       ## Redaktion gefeuert
       
       Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den
       Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt.
       So [3][berichtete der Guardian Ende Mai], dass das Webportal Microsoft News
       (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen
       Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung
       relevanter Nachrichten verschiedener Medien für die Nutzer*innen des
       Portals sei in der Entwicklung so weit fortgeschritten, dass auf
       menschliche Mitarbeit verzichtet werden könne.
       
       Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen
       Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer
       Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung
       mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN:
       „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei
       Women of Color nicht auseinanderhalten könnt.“
       
       Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der
       vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite
       Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus
       diesen prominent platzierte. [4][Nach Information des Guardian sollten nun
       die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen
       den Beitrag entfernen], der dann wiederholt vom Algorithmus nach oben
       gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN
       aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine
       nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus
       schlicht nicht.
       
       Offenbart werden in diesen Fällen die Schwächen automatischer
       Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen
       algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision
       menschlicher Wahrnehmung und Bewertung. Auch die unzähligen
       Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen
       müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass
       Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.
       
       Schwerere [5][Aufgaben wie Gesichtserkennung] werden dabei besonders oft
       falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung
       bestehender und zumeist [6][unbedacht in die Algorithmen programmierter
       menschlicher Vorurteile] zusätzlich ins Gewicht, weshalb Frauen und
       nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die
       Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des
       Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran,
       das gesichtete Material zu kontextualisieren.
       
       15 Jun 2020
       
       ## LINKS
       
   DIR [1] https://www.theguardian.com/technology/2020/jun/13/facebook-incorrectly-removes-picture-of-aboriginal-men-in-chains-because-of-nudity
   DIR [2] https://www.theguardian.com/technology/2020/jun/15/facebook-blocks-bans-users-sharing-guardian-article-showing-aboriginal-men-in-chains
   DIR [3] https://www.theguardian.com/technology/2020/may/30/microsoft-sacks-journalists-to-replace-them-with-robots
   DIR [4] https://www.theguardian.com/technology/2020/jun/09/microsofts-robot-journalist-confused-by-mixed-race-little-mix-singers
   DIR [5] /Gesichtserkennung-im-Netz/!5655672
   DIR [6] /Gesichtserkennung-in-der-Kritik/!5547535
       
       ## AUTOREN
       
   DIR Daniél Kretschmar
       
       ## TAGS
       
   DIR Schwerpunkt Meta
   DIR Microsoft
   DIR Algorithmen
   DIR Medienkrise
   DIR Schwerpunkt Rassismus
   DIR Algorithmus
   DIR Digitale Wirtschaft
   DIR Internet
       
       ## ARTIKEL ZUM THEMA
       
   DIR Rassismus in Algorithmen: Gesichtserkennung für die Tonne
       
       In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen
       Dieb. Der aber sieht nicht annähernd wie der Täter aus.
       
   DIR Einfluss auf den Algorithmus: Das System spinnt
       
       Menschen und Algorithmen beeinflussen sich gegenseitig. Ausnahmesituationen
       wie die Coronapandemie bringen die Systeme an ihre Grenzen.
       
   DIR Buch über digitalen Kapitalismus: In Zeiten des Überflusses
       
       Neue Märkte, neue Unternehmen, neue Menschen? Philipp Staab geht den
       Veränderungen durch die digitale Ökonomie auf den Grund.
       
   DIR Erinnerung und Vergessen im Netz: Ausgrabungen im digitalen Raum
       
       Unmengen an Daten werden produziert, gespeichert – und vergessen. Wird das
       alles archiviert? Ein Blick auf künftige Archäologie.