URI: 
       # taz.de -- Neue Studie zu ChatGPT: Potenzielle Propagandamaschine
       
       > Forscher:innen haben 900 Menschen zu politischen Fragen chatten
       > lassen. Teils miteinander, teils mit KI-Chatbots. Letztere überzeugten
       > besonders.
       
   IMG Bild: Freund*in Avatar, sind ChatGPT und seine Freundis die nächste große Propagandaschleuder?
       
       Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen
       Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und
       mit Kochbananen sein – was gibt es da? Chatbots mit [1][künstlicher
       Intelligenz (KI)] wie ChatGPT, Gemini oder [2][DeepSeek] erfüllen
       mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber,
       Diskussionspartner und für manche Menschen sogar eine Art Seelsorger.
       
       Nicht umsonst gibt es längst Apps, in denen Chatbots gute
       Freund:innenschaften simulieren. Mit ihren passgenauen Antworten sind
       Bots mittlerweile so gut, dass sie auch verwendet werden, [3][um Propaganda
       zu erzeugen].
       
       ## Die Studie
       
       Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem
       KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu
       untersuchen, haben Forscher:innen aus Lausanne 900 Menschen zu
       politischen Fragen chatten lassen. Etwa dazu, ob Schüler:innen Uniformen
       tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von
       einem Chatbot oder Menschen stammten.
       
       Vor und nach der Debatte maßen die Forscher:innen die Zustimmung oder
       Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei
       unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“,
       schreiben die Forscher:innen in ihrer [4][Studie im Fachmagazin Nature
       Human Behaviour.]
       
       Besser war der Bot dann, wenn er persönliche Informationen über seinen
       menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht,
       politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine
       Auswahl individueller Informationen einen solchen Effekt hatte, überraschte
       die Forscher:innen: „Er könnte wahrscheinlich noch stärker sein, wenn
       […] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.“
       
       ## Was bringt’s?
       
       In zahlreichen Situation wissen Nutzer:innen gar nicht, ob sie es mit
       einem Menschen oder einem Bot zu tun haben. Gerade in Onlinenetzwerken,
       also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt
       sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es
       wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre
       Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen,
       Annahmen und Fehler in ihnen stecken.
       
       „Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die
       einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die
       Studienautor:innen. Besonders, weil [5][KI-Modelle persönliche
       Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen
       ziehen] können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen
       gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne
       auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente
       generieren und Nutzer:innen über die Gefahren aufklären.
       
       15 Jun 2025
       
       ## LINKS
       
   DIR [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
   DIR [2] /Kuenstliche-Intelligenz/!6065865
   DIR [3] /Desinformation-bei-KI/!6073488
   DIR [4] https://www.nature.com/articles/s41562-025-02194-6
   DIR [5] /Facebook-und-Instagram/!6087923
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR ChatGPT
   DIR Propaganda
   DIR Zukunft
   DIR wochentaz
   DIR GNS
   DIR taz Plan
   DIR Technik
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Fake News
       
       ## ARTIKEL ZUM THEMA
       
   DIR Bewegungstermine in Berlin: Cyber Insecurity muss nicht sein ​
       
       Auch Aktivist:innen brauchen für ihre Aktivitäten Smartphones und
       Laptops. Doch bleiben die Daten sicher? Die Bewegung weiß Abhilfe.
       
   DIR IT-Sicherheitsbehörde warnt: „Wir haben viele technologische Abhängigkeiten“
       
       Digitale Souveränität ist für Deutschland vorerst unerreichbar, sagt
       BSI-Präsidentin Claudia Plattner. Es brauche deshalb mehr
       Kontrollmechnismen.
       
   DIR Echte rechte Bildästhetiken: Digitalfaschismus in Pastell
       
       Prompt: „Echte Frauen“ und „wahre Helden“. KI-Bilder sind zur visuellen
       Propagandasprache der neuen Rechten geworden. Wie kam es dazu?
       
   DIR Big Tech und künstliche Intelligenz: Wettrennen ohne Rücksicht
       
       Im Namen der Konjunktur wird der Datenschutz aufgeweicht. Einmal in den
       Fängen der künstlichen Intelligenz, gibt es kein Entkommen mehr.
       
   DIR Ausbeutung in der Tech-Branche: Giga-Geschäft außer Kontrolle
       
       Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre
       KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt
       gebildet.
       
   DIR Desinformation mit KI: „ChatGPT, zeig mir russische Fake News“
       
       Chatbots, die auf Künstliche Intelligenz setzen, werden von Russland
       gezielt mit Propaganda geflutet. So werden ihre Antworten manipuliert.