URI: 
       # taz.de -- Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
       
       > Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht
       > gibt. Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und
       > Bots.
       
   IMG Bild: Sie schauen Euch zwar an – aber sie gibt's in Wirklichkeit gar nicht
       
       Dass sich Fotos von Personen dank Software extrem verändern lassen, ist
       nicht neu. Und auch nicht, dass Programme Figuren nach menschlichem Vorbild
       generieren können. Doch was künstliche Intelligenz in Sachen Fälschung –
       und Täuschung – schon alles kann, da zeigt jetzt die Website
       [1][thispersondoesnotexist.com] (deutsch: Diese Person existiert nicht).
       
       Mit jeder Aktualisierung erstellt die Website ein neues Portraitfoto einer
       Person, das so in jedem Facebook-Account erscheinen könnte. Manchmal sehen
       die Bilder aus wie Urlaubsfotos, auf denen am Rand noch die Schulter eines
       herausgeschnittenen Menschen zu sehen ist. Andere Bilder wirken wie
       Bewerbungsfotos, die Menschen in formeller Kleidung vor neutralem
       Hintergrund zeigen. Nur: Die Menschen auf den Fotos gibt es nicht. Sie
       wurden mithilfe von künstlicher Intelligenz erstellt.
       
       ## Fälschungen aus echten Gesichtern
       
       Der Vorgang, der hinter dem zufälligen Fake-Face-Generator steckt, macht
       sich das Prinzip sogenannter Generative Adversarial Networks (GAN) zunutze,
       das schon hinter den „Deepfakes“, also dem [2][Skandal um
       Bewegtbildmanipulation], steckte. Im Frühjahr 2018 wurde die Öffentlichkeit
       auf diese Form der Fälschung aufmerksam, als Buzzfeed ein gefälschtes Video
       vom damaligen US-Präsidenten Barack Obama veröffentlichte und
       Internetnutzer*innen die Gesichter von Schauspieler*innen in Pornos hinein
       montierten.
       
       Die Website mit den falschen Gesichtern erinnert nun daran, dass von
       Fälschungen nicht nur Prominente betroffen sein können. Auf Grundlage der
       GAN-Technologie greift ein Algorithmus zunächst auf ein riesiges Datenset
       von Fotos echter Menschen zu. Verschiedene Merkmale der Bilder werden
       durchmischt und so zu einem neuen Gesicht zusammengefügt. Im nächsten
       Schritt prüft ein anderer Algorithmus, ob das Bild echt oder gefälscht ist.
       Wenn der Computer die Täuschung erkennt, geht das Foto wieder zurück zum
       ersten Schritt – um es noch besser zu machen.
       
       Urheber der Website ist Philip Wang, der als Software-Ingenieur beim
       Shuttle-Dienst Uber arbeitet. „Den meisten Menschen ist nicht klar, wie gut
       künstliche Intelligenz künftig Bilder miteinander verschmelzen können
       wird“, sagte [3][Wang gegenüber Motherboard] in der vergangenen Woche.
       
       Kritiker*innen sind durch die Technik hinter dem zufälligen Fotogenerator
       alarmiert. Das Problem bleibt seit Jahren dasselbe: Die Technik entwickelt
       sich schneller, als die Gesellschaft mit Regularien und Medienkompetenz
       folgen kann. Die zunehmend gute Qualität der Bilder macht es nur noch
       schwerer, Fake-Profile und Bots von echten Accounts zu unterscheiden – und
       in der Konsequenz die Glaubwürdigkeit von Inhalten im Netz zu
       gewährleisten.
       
       19 Feb 2019
       
       ## LINKS
       
   DIR [1] https://thispersondoesnotexist.com/
   DIR [2] /Deepfakes--gefaelschte-Videos/!5497121
   DIR [3] https://motherboard.vice.com/en_us/article/7xn4wy/this-website-uses-ai-to-generate-the-faces-of-people-who-dont-exist
       
       ## AUTOREN
       
   DIR Lin Hierse
       
       ## TAGS
       
   DIR Manipulation
   DIR Netzsicherheit
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Gesellschaftskritik
   DIR Twitter / X
   DIR Fake News
   DIR Schwerpunkt Angela Merkel
       
       ## ARTIKEL ZUM THEMA
       
   DIR Wie KI Sexismus produziert: Die Frau ist immer unter 35
       
       Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
       misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
       
   DIR Kritik nach Video einer Touristin: Kolonialist*innen am Hotel-Pool
       
       In fremden Ländern fremde Sitten kritisieren? Der etwas cholerische
       Tierrechtseinsatz einer britischen Touristin in Marokko sorgt für
       Aufregung.
       
   DIR Midterms in den USA: Twitter löscht Fake-Accounts
       
       Vor den Wahlen in der kommenden Woche hat Twitter 10.000 Profile gelöscht.
       Diese hätten ausgegeben, von Demokraten zu sein und zum Wahlboykott
       aufgefordert.
       
   DIR „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
       
       Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
       Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
       
   DIR Manipulation von Fotografien: Merkel schwitzt!
       
       Fotografien gelten als verlässliche Quellen. Aber gefälschte Fotos sind
       nicht leicht zu erkennen. Es gibt Tricks, um Fakes zu erkennen.