URI: 
       # taz.de -- Wie KI Sexismus produziert: Die Frau ist immer unter 35
       
       > Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
       > misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
       
   IMG Bild: Kann sie auch Führungskraft? Der KI zufolge eher nicht
       
       Die KI liebt junge Frauen. Allerdings nicht in jedem Fall, vor allem nicht
       in maßgeblichen gesellschaftlichen Positionen. Es fällt auf, dass Frauen
       entweder gar nicht oder nur selten in Funktionen wie der von
       Wissenschaftlerinnen, Ärztinnen oder Ingenieurinnen repräsentiert sind. Von
       Vorstandsmitgliedern ganz zu schweigen. Das gilt allen voran [1][für den
       Generator „Midjourney“], dem derzeit führenden Programm für Kreative.
       
       Dabei fängt das Missverhältnis früher an. Aufschluss gibt der simple
       Begriff „Frau“. Über einen Zeitraum von fünf Monaten habe ich immer wieder
       diesen „Prompt“ bei Midjourney eingetippt und 100 Bilder erzeugt. 100 Mal
       bekam ich das Bild einer sehr schönen jungen Frau gezeigt. Manche würden
       sie „idealtypisch“ nennen.
       
       Das „Ideal“ geht so weit, dass man kaum individuelle Gesichtszüge
       unterscheiden kann. Die praktisch immer Langhaarige befindet sich in 97
       Prozent aller Abbildungen in einer nicht näher definierten Umgebung, im
       luftleeren Raum und sieht oft aus, als blase eine Windmaschine ihre Mähne
       romantisch um den Kopf. Wenn sonst noch etwas zu sehen ist, sind es Blumen
       im wirbelnden Haar, Schmetterlinge oder Vögel.
       
       Gibt man den Begriff „Mann“ ein, so erscheinen Männer verschiedenen Alters.
       Auch sie können sich in einer etwas wolkigen, unklaren Umgebung befinden,
       als Attribute aber dienen ihnen Technik oder Architektur. Oft stehen sie
       beherzt in einer Landschaft, schauen ernst oder blicken nachdenklich in die
       Ferne. Die Frau dagegen kennt nur einen Gesichtsausdruck: den leeren.
       
       ## Männer mit Betätigungsfeld
       
       Das entspricht dem, was [2][die Filmemacherin Nina Menkes in ihrem Film
       „Brainwashed“] über die visuelle Darstellung von Frauen und Männer in
       Hollywoodfilmen zeigt. Sie hat hochwertige Hollywoodproduktionen der 1940er
       Jahre bis zu aktuellen analysiert. Was man dort sieht: Männer mit einem
       Betätigungsfeld, verankert in der Welt als Akteure, als Subjekte. Die Frau
       hat oft einen unklaren, neutralen Hintergrund, sie handelt nicht, die
       Konzentration liegt auf ihrem Äußeren. So schwebt sie quasi im Raum oder
       liegt ansprechend herum – eine Projektionsfläche.
       
       Der Film von Nina Menkes ist deshalb so sehenswert, weil er sichtbar macht,
       was wir seit Jahrzehnten sehen, ohne es wahrzunehmen. Und wie wir den
       männlichen Blick internalisiert haben. Nicht einmal Sofia Coppola ist davor
       sicher. Sogar sie rutscht in die tradierte Bildsprache, wenn sie in „Lost
       in Translation“ im Vorspann von Scarlett Johansson nur den Po im
       transparenten Schlüpfer zeigt und anschließend Bill Murrays Kopf im Taxi,
       wie er durch die Stadt gleitet.
       
       Nun haben wir mit der KI ein Tool, das die verrücktesten Ideen
       visualisieren kann. Wenn man den führenden Köpfen des Silicon Valley
       glaubt, wird KI die Menschheit verbessern und nie geahnte Möglichkeiten der
       Problemlösung schaffen. Nur das Rollenverständnis dieser Welt scheint
       stecken geblieben zu sein, in einem Sci-fi-Groschenroman oder einem
       Computerspiel mit markigen Männern und kurvigen Frauen. Obendrein erzeugt
       Midjourney, sofern man keine weiteren Angaben zur Ethnie macht, [3][nahezu
       ausschließlich weiße Personen], so meine Erfahrung. Ist unsere Realität
       bereits männlich und weiß dominiert, so ist die der KI noch weißer, noch
       männlicher.
       
       [4][Eine Studie von Bloomberg zum Generator Stable Diffusion] vom Juni 2023
       zeigt Folgendes: Frauen haben kaum lukrative Jobs oder bekleiden
       Machtpositionen. Im Test wurden beim Begriff „judge“ 3 Prozent Frauen
       generiert, während in der echten Welt 34 Prozent der US-Richter Frauen
       sind. „Doctors“ in den USA sind zu 40 Prozent weiblich, in der Welt von
       Stable Diffusion sind es aber nur 7 Prozent. Hier waren Frauen insgesamt
       nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in
       schlecht bezahlten Berufen überrepräsentiert. Ergebnis: Als schwarze Frau
       brät man Burger oder macht sauber.
       
       ## Stereotypisierte Gegenwart
       
       Praktisch keine Rolle spielen Frauen ab Mitte 40. Während Männer bis zum
       Greisenalter dargestellt werden, ist die Frau so gut wie immer unter 35.
       „Fuckable“ nennt man das.
       
       Pflegepersonal bei Midjourney und Dreamstudio (Stability AI) ist in meinen
       Tests zu 100 Prozent weiblich und weiß, dazu in der Regel sexualisiert –
       die comicartige feuchte Vorstellung einer Krankenschwester statt
       medizinischer Fachkraft. Bei Dall-e gibt es immerhin männliche Pfleger, und
       Weiße sind sogar in der Minderheit, ergibt jedenfalls ein Versuch mit
       jeweils 20 Prompteingaben mit je vier Ergebnissen, also 80 Bildern.
       
       Es lässt sich nicht genau nachvollziehen, wie es dazu kommt. Am ehesten
       fassbar ist es bei Stable Diffusion, dem einzigen Generator, dessen
       Datengrundlage offengelegt wurde. Es handelt sich um die Datenbank
       LAION-5B, die aus fünf Milliarden Text-Bild-Paaren besteht. Sie stammen aus
       Quellen wie Bildagenturen, Websites, Handydaten. Und weil die Datenbank
       nicht nur die bereits stereotypisierte Gegenwart abbildet, sondern auch die
       Vergangenheit, verstärken sich gestrige Gesellschaftsbilder. Man hätte dem
       entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein.
       
       Vielleicht liegt es daran, dass in der IT-Industrie nur 12 bis 20 Prozent
       Frauen arbeiten. Im Jahr 2019 lag der Frauenanteil bei
       Informatik-Promotionen in den USA bei 20 Prozent, in Deutschland bei 16
       Prozent. Dieses Missverhältnis schlägt sich inhaltlich nieder.
       
       ## Kunst des cleveren Prompts
       
       Natürlich kann man durch gezielte Prompts viele Voreinstellungen umgehen.
       Die Kunst besteht aus einem möglichst cleveren, oft komlexen Prompt. Aber
       nicht alle merken, dass es hier eine Schieflage gibt und nicht alle haben
       den Nerv dafür, wenn es eilt und als Ergebnis ein mittelgutes Bild auch
       reicht.
       
       Eine Initiative aus den Niederlanden versucht der Männerdominanz mit einem
       eigenen Tool entgegenzuwirken. „Missjourney“ ist ein Bildgenerator, der nur
       Frauenbilder erzeugt, egal welche Features man eingibt. Allerdings ist die
       Plattform eher ein symbolisches Werkzeug, sie kann mit ihrer Ausstattung an
       andere Anbieter nicht heranreichen. Sie soll vor allem Bewusstsein
       schaffen.
       
       Wenn wir nicht wollen, dass sich Bilder, von denen wir dachten, wir hätten
       sie bereits überwunden, in gewaltiger Menge reproduzieren, verfestigen und
       potenzieren, müssen wir versuchen, die Tech-Firmen zu beeinflussen. Wir
       müssen sie unermüdlich darauf hinweisen, wie sexistisch und rassistisch
       ihre Parameter sind. Dafür müssen wir viele sein und Lösungsvorschläge
       parat haben. Eine gesetzliche Regelung ist in naher Zukunft nicht zu
       erwarten. Es bleibt wohl nur, ihnen auf die Nerven gehen.
       
       Eva Häberle ist seit 25 Jahren freischaffende Fotografin.
       
       30 Nov 2023
       
       ## LINKS
       
   DIR [1] /Klara-Indernach-schreibt-fuer-Express/!5958414
   DIR [2] /Sexismus-in-der-Filmbranche/!5831917
   DIR [3] /Kuenstliche-rassistische-Bilder/!5923104
   DIR [4] https://www.bloomberg.com/graphics/2023-generative-ai-bias/?utm_source=website&utm_medium=share&utm_campaign=email
       
       ## AUTOREN
       
   DIR Eva Häberle
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Fotografie
   DIR Sexismus
   DIR Big Tech
   DIR Schwerpunkt Künstliche Intelligenz
   DIR TV-Serien
   DIR Schwerpunkt Rassismus
   DIR Schwerpunkt Rassismus
       
       ## ARTIKEL ZUM THEMA
       
   DIR Dekolonialisierung von KI: Die Bots sollen indigene Sprachen lernen
       
       Chile hat ein KI-Sprachmodell entwickelt, das lokale Sprachen und Kulturen
       berücksichtigt. Doch Big Tech bedroht die technologische Unabhängigkeit.
       
   DIR Chatbot „AndersDenken“: Besonnen geworden
       
       „AndersDenken“ liefert nicht nur Argumente für nervige Diskussionen. Er
       lädt auch zur Reflexion ein.
       
   DIR „Aus Mangel an Beweisen“ bei Apple TV: Gyllenhaal ist reich und traurig
       
       In der Serie „Aus Mangel an Beweisen“ wird die Chance auf ein zeitgemäßes
       Remake des 90er-Jahre-Klassikers vertan – und zwar massiv.
       
   DIR Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“
       
       Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
       Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
       
   DIR Künstliche rassistische Bilder: KI zeigt wahres Gesicht der AfD
       
       AfD-Politiker Norbert Kleinwächter hetzte mit KI-Bildern gegen Geflüchtete.
       Die Täuschung zeigt aber auch ungeschminkte Realität – die des Rassismus.
       
   DIR Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
       
       Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht gibt.
       Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und Bots.