URI: 
       # taz.de -- KI und Anthropomorphismus: Mensch in der Maschine?
       
       > Für das Sprechen über Technik fehlen uns die passenden Worte. Darum
       > greifen wir zu menschlichen Metaphern. Aber das birgt Probleme.
       
   IMG Bild: Wir sehen Hände, wo in Wahrheit nur Metalle und Sensoren sind
       
       Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem
       Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann
       Nutzer:innen „austricksen“. Und das ist nur eine winzige Auswahl der
       Eigenschaften und Fähigkeiten, [1][die in den vergangenen Monaten ChatGPT
       und anderen Sprachanwendungen mit künstlicher Intelligenz (KI)
       zugeschrieben wurden].
       
       Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über
       Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da
       „irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue
       Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und
       der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften
       oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle
       und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren
       können wirklich eine Menge und vieles auch besser als ihre menschlichen
       Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder
       Vergleichbares.
       
       Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem
       Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im
       Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche
       Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen
       Empathie ist es ja durchaus auch sympathisch, dass wir in unseren
       [2][Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen], auch
       wenn es sich nur um schick verbaute Metalle und Sensoren handelt.
       
       Doch dass für das Sprechen über Technik meist die passenden Worte fehlen,
       ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die
       gesellschaftliche Sicht auf Technik prägt.
       
       Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die
       die Anwendungen unter die Nutzer:innen bringen, setzen einiges daran,
       die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT:
       Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein
       paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt
       zunächst der Cursor, als würde da jemand überlegen. Dann geht es los,
       Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine
       Pause. Als würde jemand tippen.
       
       Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na
       klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage
       dienen, sondern eher der Herstellung einer Verbindung zwischen den
       vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen
       Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine
       Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf
       haben. Kein Wunder also, dass etwa Nutzer:innen von KI-Assistenzsystemen
       wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät
       kommunizieren.
       
       Die Vermenschlichung hat verschiedene problematische Effekte und es ist
       davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele:
       Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form
       ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder
       sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns
       aber instinktiv merkwürdig vorkommen.
       
       Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und
       verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig,
       bewusst kritisch zu bleiben. Darüber hinaus führt der
       Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches
       Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich
       ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an
       Hand von Wahrscheinlichkeiten generiert.
       
       Und [3][in Zukunft wird es wahrscheinlich noch komplizierter]. Wir werden
       vermutlich eines Tages unterscheiden müssen zwischen problematischer
       Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter
       geht, die explizit als emotionale oder therapeutische Stütze designt werden
       und wo es genau die Vermenschlichung ist, die den Nutzer:innen hilft. So
       lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass
       immer mehr Dienste auf den Markt kommen, deren Verpackung anderes
       verspricht, als der technische Inhalt hält.
       
       4 Apr 2023
       
       ## LINKS
       
   DIR [1] /KI-und-ChatGPT/!5909029
   DIR [2] /Anthropomorphe-Roboter/!5057268
   DIR [3] /Sex-in-den-neuen-20er-Jahren/!5650790
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Roboter
   DIR GNS
   DIR Technologie
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Bildung
   DIR Lesestück Recherche und Reportage
   DIR Kolumne Digitalozän
   DIR IG
   DIR Kriminalität
   DIR Technologie
   DIR Zukunft
   DIR Universität Göttingen
       
       ## ARTIKEL ZUM THEMA
       
   DIR Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen
       
       Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches
       Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren.
       
   DIR Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“
       
       Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
       Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert
       Lepenies.
       
   DIR Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
       
       Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
       zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
       
   DIR Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief
       
       Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In
       Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen.
       
   DIR Risiken von KI: „Alles geht zu schnell“
       
       Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
       Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
       
   DIR Falschaussagen der KI: Rufschädigung durch ChatGPT
       
       Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood
       fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
       
   DIR Moratorium über Umgang mit KI: Pause mit Problemen
       
       Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
       Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
       
   DIR Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch!
       
       Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt
       einzigartigere Kolumnen als alle Literaten zusammen.
       
   DIR Forschung mit kollaborierenden Robotern: Wenn Roboter Menschen missverstehen
       
       So fruchtbar wie gefährlich: Eine Studie der TU Clausthal und der Uni
       Göttingen erforscht die künftige Zusammenarbeit von Roboter und Mensch.