# taz.de -- Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
> Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht
> gibt. Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und
> Bots.
IMG Bild: Sie schauen Euch zwar an – aber sie gibt's in Wirklichkeit gar nicht
Dass sich Fotos von Personen dank Software extrem verändern lassen, ist
nicht neu. Und auch nicht, dass Programme Figuren nach menschlichem Vorbild
generieren können. Doch was künstliche Intelligenz in Sachen Fälschung –
und Täuschung – schon alles kann, da zeigt jetzt die Website
[1][thispersondoesnotexist.com] (deutsch: Diese Person existiert nicht).
Mit jeder Aktualisierung erstellt die Website ein neues Portraitfoto einer
Person, das so in jedem Facebook-Account erscheinen könnte. Manchmal sehen
die Bilder aus wie Urlaubsfotos, auf denen am Rand noch die Schulter eines
herausgeschnittenen Menschen zu sehen ist. Andere Bilder wirken wie
Bewerbungsfotos, die Menschen in formeller Kleidung vor neutralem
Hintergrund zeigen. Nur: Die Menschen auf den Fotos gibt es nicht. Sie
wurden mithilfe von künstlicher Intelligenz erstellt.
## Fälschungen aus echten Gesichtern
Der Vorgang, der hinter dem zufälligen Fake-Face-Generator steckt, macht
sich das Prinzip sogenannter Generative Adversarial Networks (GAN) zunutze,
das schon hinter den „Deepfakes“, also dem [2][Skandal um
Bewegtbildmanipulation], steckte. Im Frühjahr 2018 wurde die Öffentlichkeit
auf diese Form der Fälschung aufmerksam, als Buzzfeed ein gefälschtes Video
vom damaligen US-Präsidenten Barack Obama veröffentlichte und
Internetnutzer*innen die Gesichter von Schauspieler*innen in Pornos hinein
montierten.
Die Website mit den falschen Gesichtern erinnert nun daran, dass von
Fälschungen nicht nur Prominente betroffen sein können. Auf Grundlage der
GAN-Technologie greift ein Algorithmus zunächst auf ein riesiges Datenset
von Fotos echter Menschen zu. Verschiedene Merkmale der Bilder werden
durchmischt und so zu einem neuen Gesicht zusammengefügt. Im nächsten
Schritt prüft ein anderer Algorithmus, ob das Bild echt oder gefälscht ist.
Wenn der Computer die Täuschung erkennt, geht das Foto wieder zurück zum
ersten Schritt – um es noch besser zu machen.
Urheber der Website ist Philip Wang, der als Software-Ingenieur beim
Shuttle-Dienst Uber arbeitet. „Den meisten Menschen ist nicht klar, wie gut
künstliche Intelligenz künftig Bilder miteinander verschmelzen können
wird“, sagte [3][Wang gegenüber Motherboard] in der vergangenen Woche.
Kritiker*innen sind durch die Technik hinter dem zufälligen Fotogenerator
alarmiert. Das Problem bleibt seit Jahren dasselbe: Die Technik entwickelt
sich schneller, als die Gesellschaft mit Regularien und Medienkompetenz
folgen kann. Die zunehmend gute Qualität der Bilder macht es nur noch
schwerer, Fake-Profile und Bots von echten Accounts zu unterscheiden – und
in der Konsequenz die Glaubwürdigkeit von Inhalten im Netz zu
gewährleisten.
19 Feb 2019
## LINKS
DIR [1] https://thispersondoesnotexist.com/
DIR [2] /Deepfakes--gefaelschte-Videos/!5497121
DIR [3] https://motherboard.vice.com/en_us/article/7xn4wy/this-website-uses-ai-to-generate-the-faces-of-people-who-dont-exist
## AUTOREN
DIR Lin Hierse
## TAGS
DIR Manipulation
DIR Netzsicherheit
DIR Schwerpunkt Künstliche Intelligenz
DIR Gesellschaftskritik
DIR Twitter / X
DIR Fake News
DIR Schwerpunkt Angela Merkel
## ARTIKEL ZUM THEMA
DIR Wie KI Sexismus produziert: Die Frau ist immer unter 35
Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
DIR Kritik nach Video einer Touristin: Kolonialist*innen am Hotel-Pool
In fremden Ländern fremde Sitten kritisieren? Der etwas cholerische
Tierrechtseinsatz einer britischen Touristin in Marokko sorgt für
Aufregung.
DIR Midterms in den USA: Twitter löscht Fake-Accounts
Vor den Wahlen in der kommenden Woche hat Twitter 10.000 Profile gelöscht.
Diese hätten ausgegeben, von Demokraten zu sein und zum Wahlboykott
aufgefordert.
DIR „Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat.
Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
DIR Manipulation von Fotografien: Merkel schwitzt!
Fotografien gelten als verlässliche Quellen. Aber gefälschte Fotos sind
nicht leicht zu erkennen. Es gibt Tricks, um Fakes zu erkennen.