URI: 
       # taz.de -- Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zuschreibt
       
       > Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen
       > Norweger hat es nun besonders schwer getroffen.
       
   IMG Bild: Der undurchsichtige Chatbot von Open AI hat schon wiederholt Falschinformationen über Menschen verbreitet
       
       Berlin taz | Es klingt wie eine Szene aus einem Psychothriller: Ein Mann
       fragt beim KI-Chatbot ChatGPT nach Informationen zu seinem eigenen Namen.
       Worauf er nicht vorbereitet war: Der Chatbot generierte daraufhin eine
       Antwort, in der es wahrheitswidrig unter anderem hieß, er habe zwei seiner
       Kinder ermordet, beim Dritten habe er einen Mord versucht und sei für die
       Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden. Die falsche
       Schilderung enthielt aber durchaus reale Elemente über den Nutzer aus
       Norwegen, unter anderem den Namen seiner Heimatstadt.
       
       Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb,
       die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde
       eingereicht hat. Die Datenschutz-Grundverordnung (DSGVO) gilt auch dort,
       Norwegen ist Teil des Europäischen Wirtschaftsraumes.
       
       „Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt
       sein“, erklärt Joakim Söderberg, Jurist bei noyb. Nutzer:innen hätten
       das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen
       Hinweis anzuzeigen, dass die generierten Informationen nicht
       notwendigerweise korrekt sind, sei nicht ausreichend.
       
       ChatGPT ist [1][eine der am meisten genutzten Anwendungen] generativer
       künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe
       hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte
       entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu.
       ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche
       Quellen, Fehlinformationen zu Parteien und falsche Informationen über
       Menschen.
       
       ## Nicht das erste Verfahren
       
       Es läuft [2][bereits ein Verfahren], in dem noyb Beschwerde eingereicht
       hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt
       hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff
       „Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er
       den Chatbots damit eine menschliche Eigenschaft zuschreibt.
       
       Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an
       der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis
       der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich
       ein europaweit geltendes Urteil erstreiten, und für einen
       Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die
       Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so
       Hacker gegenüber dem Science Media Center.
       
       Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den
       Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene
       dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt.
       
       ## Mögliche Folgen
       
       Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen
       Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist
       gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen
       einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu
       viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das
       entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind.
       Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT
       und später auch bei dem chinesischen Anbieter DeepSeek.
       
       „OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu
       unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls
       letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu
       erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch
       Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch
       reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige
       Beschwerdewege für Nutzer:innen einrichten und die Ausgabe von
       Falschinformationen nach entsprechenden Hinweisen unterbinden.
       
       Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende
       Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert
       und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“
       der Ergebnisse verbessern.
       
       24 Mar 2025
       
       ## LINKS
       
   DIR [1] /ChatGPT-mit-Tuecken/!5924109
   DIR [2] /Beschwerde-gegen-OpenAI-in-der-EU/!6007268
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Datenschutz
   DIR Verbraucherschutz
   DIR ChatGPT
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Roboter
   DIR Transparenz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Ethik-Problem bei Facebook-Mutter: Meta ließ seine KI mit Kindern flirten
       
       KI-Chatbots des Konzerns durften laut internen Richtlinien „Kinder in
       romantische oder sinnliche Gespräche verwickeln“. US-Politiker sind empört.
       
   DIR Nutzen und Gefahren von KI: Keine Angst, aber Regeln
       
       KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die
       EU ist auf dem richtigen Weg.
       
   DIR ChatGPT mit Tücken: Kein Entkommen vor der KI
       
       Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
       Anfang einer rasanten Entwicklung – die auch Risiken birgt.
       
   DIR OpenAI in der Kritk: Transparent gewaschen
       
       Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
       ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
       problematischer.