URI: 
       # taz.de -- Physiker über digitale Diskriminierung: „Die Algorithmen entscheiden“
       
       > Viele Firmen nutzen automatisierte Verfahren, um Bewerber oder Kunden zu
       > bestimmen. Das ist ungerecht, sagt Andreas Dewes – und fordert
       > Kontrollen.
       
   IMG Bild: Aussieben. Algorithmen können das. Firmen wollen das. Aber dürfen sie auch?
       
       taz: Herr Dewes, Sie befassen sich wissenschaftlich mit Algorithmen,
       genauer gesagt mit der Diskriminierung durch Algorithmen. Warum? 
       
       Andreas Dewes: Es ist heute so, dass Algorithmen immer mehr Aufgaben
       übernehmen, die früher Menschen gemacht haben. Das heißt, dass Algorithmen
       jetzt Entscheidungen treffen können – sie entscheiden beispielsweise
       darüber, wer zum Bewerbungsgespräch eingeladen wird, wer in ein bestimmtes
       Land einreisen darf und wer einen Kredit bekommt. Es werden also immer mehr
       Bereiche in unserem Leben unter die Kontrolle von Algorithmen gestellt, es
       wird aber wenig hinterfragt, wie diese funktionieren und ob sie wirklich
       fair sind.
       
       Also glauben Sie, dass Algorithmen keine fairen Entscheidungen treffen? 
       
       Algorithmen sind nichts anderes als eine Art Kochrezept. Sie sind eine
       Handlungsanweisung für den Computer, der anhand von bestimmten Daten, die
       man ihm zur Verfügung stellt, bestimmte Zielgrößen optimieren soll. So
       sollen sie zum Beispiel bei Jobbewerbungen die Kandidaten herausfiltern,
       die am besten passen. Bei Krediten sollen sie den Kunden heraussuchen, der
       wohl am zuverlässigsten zahlt. In der Hinsicht sind Algorithmen erst mal
       neutral und versuchen die Zielgröße, die man ihnen gibt, zu optimieren.
       Doch es kann passieren, dass man dem Algorithmus, der eigentlich neutral
       sein soll, unbewusst einen diskriminierenden Aspekt gibt.
       
       Wie passiert das? 
       
       Um einen Algorithmus zu konzipieren, muss er am Anfang mit Trainingsdaten
       sozusagen gefüttert werden. Es wird ihm also gezeigt, wonach man sucht und
       wer der perfekte Kandidat wäre. Der Algorithmus versucht nun so viele Daten
       wie möglich über den Bewerber herauszufinden. Er versucht die gleichen
       Entscheidungen zu treffen, die der Mensch getroffen hätte.
       
       Sind also Algorithmen so rassistisch und sexistisch wie der, der sie
       programmiert? 
       
       Das kann man so sagen, aber man muss gar nicht so weit gehen. Ich würde
       sagen, dass man genau darauf achten muss, welche Trainingsdaten man dem
       Algorithmus zur Verfügung stellt. Außerdem sollte man ihm keine
       Informationen geben, die potenziell Aufschluss über Eigenschaften geben,
       die unter besonderem Schutz stehen.
       
       Was meinen Sie damit? 
       
       Von Diskriminierung spricht man, wenn Menschen aufgrund der Hautfarbe, des
       Alters oder des Geschlechts benachteiligt werden. Das bedeutet, die
       Informationen dürfen, wenn der Algorithmus sie herausfindet, nicht
       verwendet werden. Eigentlich ist es ganz einfach: Dann gibt man dem
       Algorithmus diese Informationen einfach nicht. Doch das Problem ist, dass
       man – Stichwort Big Data – so viele Informationen über den Menschen sammeln
       kann. So ist es möglich, dass der Algorithmus diese sensiblen Informationen
       herleiten kann, ohne dass man sie ihm explizit gibt.
       
       Wie denn? 
       
       Es gibt viele Informationen, die nicht explizit Auskunft über Geschlecht
       oder Herkunft geben, aber mit denen man diese Eigenschaften ziemlich gut
       vorhersagen kann. Zum Beispiel: Die Seiten, die man besucht, können
       ziemlich genau darüber Auskunft geben, ob man ein männlicher oder ein
       weiblicher Nutzer ist. Da hat der Algorithmus also implizit noch zusätzlich
       andere Informationen bekommen, als man ihm bewusst zur Verfügung gestellt
       hat. Wenn man in der Zielgröße eine indirekte Diskriminierung gegen eine
       Gruppe drin hat, dann kann der Algorithmus anhand der impliziten
       Informationen diese Gruppe diskriminieren.
       
       Woher weiß ein Algorithmus denn zum Beispiel, welches Geschlecht zu
       bevorzugen ist? 
       
       Das weiß der Algorithmus natürlich nicht. Aber das ist indirekt in der
       Zielgröße drin. Beim Bewerbungsprozess ist es so, dass der Algorithmus
       versucht, die Entscheidungen, die der Mensch vorher gemacht hat,
       nachzumachen. Das bedeutet, wenn es vorher eine Diskriminierung im Prozess
       gab, also wenn beispielsweise bevorzugt Männer eingeladen worden sind, dann
       versucht der Algorithmus, diese Entscheidungen zu reproduzieren, mit dem
       Unterschied, dass ihm durch Big Data mehr Informationen zur Verfügung
       stehen. Er weiß also nicht, dass er diskriminiert, aber gleichzeitig kann
       er das besser als ein Mensch.
       
       Zum Beispiel? 
       
       Sagen wir, wir haben 50 Prozent männliche Bewerber und 50 Prozent weibliche
       Bewerber. Zum Einladungsgespräch wurden bisher – aus welchem Grund auch
       immer – 30 Prozent der Männer und nur 15 Prozent der Frauen eingeladen. Der
       Algorithmus, der die menschlichen Entscheidungen automatisieren will,
       sieht, dass es bei Männern eine höhere Akzeptanz gibt, also wird er auch
       häufiger Männer einladen, auch wenn man es nicht explizit programmiert. Er
       automatisiert also die menschlichen Entscheidungen und versucht dazu alle
       Informationen zu nutzen, die er finden kann.
       
       Kann man nachweisen, ob bei dem Prozess eine Diskriminierung stattgefunden
       hat? 
       
       Im Prinzip schon. Das Problem ist, dass viele Firmen diese Daten nicht
       veröffentlichen. Auch wird der Algorithmus oft nicht getestet. Man
       programmiert ihn und vertraut ihm, dass er die beste Entscheidung trifft
       und blendet aus, dass es zu Problemen wie Diskriminierung kommen kann. Ohne
       Prüfung kann man nicht gegensteuern. Der einfachste Test ist, das
       Geschlecht der Bewerber zu erheben und dann im Nachhinein zu schauen, wie
       die Verhältnisse sind. Das wird beispielsweise in den USA genutzt. Aber das
       wird eben oft nicht gemacht.
       
       Gibt es für die Entscheidungen durch Algorithmen auch positive Beispiele? 
       
       Natürlich. So können zum Beispiel Versicherungen viel passgenauer ihre
       Angebote auf den Kunden ausrichten. Auch in der personalisierten Medizin
       helfen Algorithmen, in dem man mit ihrer Hilfe versucht, Krankheiten anhand
       von Patientendaten schneller und sicherer zu erkennen und bessere
       Vorhersagen beispielsweise zur Wirksamkeit oder Verträglichkeit von
       Medikamenten zu erhalten. Algorithmen sind, wie gesagt, erst einmal
       neutral. Das Problem ist, dass wir dem Algorithmus viel zu viel Kontrolle
       übergeben, ohne zu überprüfen, was da eigentlich passiert.
       
       Was fordern Sie? 
       
       Was jetzt wichtig wird, ist, dass die Möglichkeit geschaffen wird,
       Algorithmen von unabhängigen Gutachtern überprüft zu lassen – also eine Art
       Algorithmen-TÜV. Wie man einen Datenschutzbeauftragten hat, bräuchte man
       einen Algorithmusbeauftragten, der sich damit befasst. Wo das nicht möglich
       ist, sollten sich Nutzer zusammenschließen und versuchen, sich
       Informationen über den Algorithmus zu beschaffen. Das geht natürlich nur
       eingeschränkt, aber ich glaube, es ist wichtig, die Entscheidungen eines
       Algorithmus nicht als gegeben zu akzeptieren, sondern ständig zu
       hinterfragen. Auch muss die Gesetzgebung mal festhalten, dass Daten nicht
       unbegrenzt verarbeitet werden dürfen und dass auch eine Deanonymisierung
       von Usern unter Strafe gestellt oder zumindest erschwert wird.
       
       Es soll also möglich sein, dass man gegen die Erhebung von Daten rechtlich
       vorgehen kann? 
       
       Das wäre das Beste. Personenbezogene Daten sind keine Schatzgruben, sondern
       radioaktiver Müll, man muss viel vorsichtiger damit umgehen.
       
       2 Apr 2016
       
       ## AUTOREN
       
   DIR Laila Oudray
       
       ## TAGS
       
   DIR Algorithmus
   DIR personenbezogene Daten
   DIR Diskriminierung
   DIR Kontrolle
   DIR Datenspeicherung
   DIR Schwerpunkt Rassismus
   DIR Google
       
       ## ARTIKEL ZUM THEMA
       
   DIR Debatte Daten und Öffentlichkeit: Willkommen bei Huxley
       
       Daten sind die wichtigste Währung und manipulieren unser Kaufverhalten.
       Aber auch über unser Weltbild haben sie immer mehr Macht.
       
   DIR Mensch und Maschine: Haben Sie Angst vor Algorithmen?
       
       Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf
       ihre Neutralität. Dabei entscheiden sie nicht immer fair.
       
   DIR Autonomes Fahren: Google-Auto verursacht Unfall
       
       Die Software eines selbstfahrenden Fahrzeugs des Internetkonzerns ist
       erstmals schuld an einer Kollision im Straßenverkehr.