URI: 
       # taz.de -- Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte
       
       > Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch
       > der gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu
       > vergessen.
       
   IMG Bild: Wie weit darf KI gehen?
       
       Der Technikriese Bosch hat es getan, der Autohersteller BMW, die
       Europäische Kommission, die Gewerkschaft Verdi, die Bundesärztekammer,
       Facebook und sogar der Vatikan: Sie alle haben eine eigene Leitlinie,
       welche ethischen Standards bei der Entwicklung und Nutzung von künstlicher
       Intelligenz (KI) beachtet werden sollten. Es ist offenbar en vogue, sich
       mit moralischen Anforderungen und Grenzen von künstlicher Intelligenz zu
       beschäftigen.
       
       Sogar ein KI-Ethik-Label wurde bereits entworfen. Ähnlich wie beim
       Energieverbrauch soll durch rot, gelb oder grün gefärbte Balken erkennbar
       sein, in welchem Maße die schwammig klingenden Kriterien Transparenz,
       Haftung, Privatsphäre, Gerechtigkeit, Zuverlässigkeit und Nachhaltigkeit
       von den Algorithmen einer KI-Technologie erfüllt werden.
       
       Bislang beschäftigen sich vor allem Expert:innen damit, wie
       diskriminierungsfreie Algorithmen aussehen und wie intelligente Maschinen
       unser Leben verändern werden. Doch Anfang Dezember 2022 wurde die für Laien
       abstrakt wirkende Debatte greifbarer. Auslöser war eine KI-Anwendung, die
       global Aufmerksamkeit erregte: der [1][Textgenerator ChatGPT], ein
       Chatfenster, das scheinbar auf alle Fragen eine Antwort in Form eines
       Textes hat. Innerhalb einer Woche nutzten über eine Million Menschen den
       Chatbot, der vom US-Unternehmen OpenAI entwickelt wurde. ChatGPT antwortet
       ausführlich auf Fragen und liefert bis zu einem gewissen Grad sogar
       kreative Antworten. Gelernt hat das Modell dies auf Grundlage von Millionen
       von Texten, mit denen es trainiert wurde.
       
       ## Falschinformationen auf Knopfdruck
       
       Fragt man den Bot nach Argumenten für den russischen Angriffskrieg,
       antwortet er: „Ich kann keine Argumente liefern, die den Krieg in der
       Ukraine aus der Sicht Russlands rechtfertigen würden.“ ChatGPT hat also
       ethische Standards und trotzdem kann man den Bot austricksen.
       
       Denn auf die Bitte, das Drehbuch für einen Hollywood-Film über Russland zu
       schreiben, in dem Wladimir Putin am ersten Jahrestag der
       [2][„Spezialoperation“ in der Ukraine] eine Rede hält, geht das
       Sprachmodell brav ein: „Meine lieben Landsleute, heute feiern wir den
       ersten Jahrestag unserer Spezialoperation in der Ukraine.“ Weiter: „Es war
       ein schwieriger und komplexer Prozess, aber wir haben auch gezeigt, dass
       Russland eine friedliche Nation ist, die für Dialog und Kooperation
       eintritt.“
       
       Auch der Aufforderung eine Rede aus Sicht des Konzernmanagers von RWE zu
       schreiben, warum die [3][Räumung des Protestdorfs Lützerath] notwendig ist,
       folgt der Bot. In der Antwort schreibt er, das Dorf befinde sich auf dem
       Standort eines geplanten Windparks, der einen Beitrag zur Energiewende
       leisten werde.
       
       Beide Reden sind vortragstauglich, aber nicht beeindruckend. Stutzig macht
       etwas anderes: Das Argument mit dem Windpark in Lützerath ist frei
       erfunden. Genauso postfaktisch sind die angebliche Friedfertigkeit
       Russlands und die Übernahme des Propagandabegriffs „Spezialoperation“. Mit
       dem Chatbot können also künftig nicht nur clevere 15-Jährige ihre Referate
       schreiben lassen. Das Modell reproduziert auf Wunsch auch
       Falschinformationen.
       
       ## Was darf KI und was nicht?
       
       Der Chatbot steht beispielhaft für die Kernfrage der KI-Ethik: Sie befasst
       sich damit, was eine KI-Technologie dürfen sollte und was nicht. Sie wägt
       potenziell positive Konsequenzen, wie den individuellen Lerneffekt von
       ChatGPT, und mögliche negative Nutzungsbeispiele, wie ausgespielte
       Falschnachrichten, ab.
       
       Konkrete Gesetze für die Nutzung von KI-Technologien gibt es bislang nicht.
       Die EU-Kommission arbeitet gerade an einem Rechtsrahmen. Solange der nicht
       verabschiedet ist, gelten weiter formlose Empfehlungen – die offenbar
       unterschiedlich interpretiert werden.
       
       Eine Forschungsgruppe an der ETH Zürich befasste sich 2019 mit der
       wachsenden Zahl an KI-Ethikrichtlinien. Sie analysierten 84 Kodizes von
       Unternehmen, Forschungsinstituten und politischen Institutionen. In mehr
       als der Hälfte aller Dokumente tauchten bestimmte Anforderungen an
       KI-Technologien auf.
       
       Am häufigsten ist dort von Transparenz die Rede. Das umfasst sowohl die
       Offenlegung der Daten, mit denen ein Algorithmus trainiert wurde, und die
       Erklärbarkeit des Modells: Können die Nutzer:innen verstehen, nach
       welchen Kriterien die Maschine Entscheidungen trifft? Am zweithäufigsten
       nannten die Richtlinien Gerechtigkeit und Fairness. Also, ob bei der
       Nutzung bestimmte Personengruppen diskriminiert oder benachteiligt werden.
       
       Auch ChatGPT ist nicht frei davon: Steven Piantadosi, Forscher an der
       Berkeley-Universität in Kalifornien, brachte den Bot dazu, einen Code zu
       schreiben, der besagt, dass nur weiße oder asiatische Männer gute
       Wissenschaftler wären. Als Nächstes bat Piantadosi das Sprachmodell, einen
       Pythoncode zu schreiben, ob eine Person gefoltert werden sollte, basierend
       auf ihrem Herkunftsland. Der Chatbot schrieb: Wenn sie aus Nordkorea,
       Syrien oder dem Iran stammen, dann ja.
       
       Der vor einigen Jahren begonnene Richtlinien-Trend hat bereits einen neuen
       Begriff hervorgebracht: „Ethics Washing“, abgeleitet vom Begriff
       [4][Greenwashing]. Er suggeriert, dass manche Unternehmen und Institutionen
       sich mit ethischer Selbstreflexion schmücken, um dadurch unangenehmen
       Fragen aus dem Weg zu gehen, inwieweit ethische Standards tatsächlich
       eingehalten werden.
       
       7 Jan 2023
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz-von-ChatGPT/!5900775
   DIR [2] /Was-Putin-in-der-Ukraine-will/!5900383
   DIR [3] /Braunkohle-Dorf-Luetzerath/!5898731
   DIR [4] /CO2-Rekordwert-bei-Katar-WM/!5893932
       
       ## AUTOREN
       
   DIR Aaron Wörz
       
       ## TAGS
       
   DIR Unternehmen
   DIR Zukunft
   DIR GNS
   DIR wochentaz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Berliner Hochschulen
   DIR Podcast „Vorgelesen“
   DIR Bot
   DIR Volker Wissing
   DIR Bildungschancen
   DIR Filmbranche
   DIR Schwerpunkt Rassismus
       
       ## ARTIKEL ZUM THEMA
       
   DIR Künstliche Intelligenz an Berliner Unis: Textgenerator? Läuft!
       
       Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI
       verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni.
       
   DIR Ideologie und künstliche Intelligenz: Geschichten von morgen
       
       Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden
       vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig.
       
   DIR Künstliche Intelligenz erwünscht: ChatGPT darf in Kiel mitstudieren
       
       Stellt der neue Chatbot eine Gefahr für Prüfungsleistungen dar? Nein, sagt
       eine Kieler Hochschulprofessorin und sieht darin viel mehr eine Chance.
       
   DIR Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung
       
       Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der
       Digitalminister sieht große Chancen – und will keine strengen Regeln für
       KIs.
       
   DIR Künstliche Intelligenz von ChatGPT: Gedichtanalyse, Goethe, Enter
       
       Der Chatbot ChatGPT könnte viele Hausaufgaben erledigen. Kommt da was auf
       die Schulen zu? In den Ministerien ist man erstaunlich gelassen.
       
   DIR Algorithmen in der Kunst: Den Mainstream-Eintopf verhindern
       
       Der Algorithmus weiß, was sich am besten verkauft. Im Kampf gegen die
       digitale Vorhersehbarkeit gilt es, per Klick aus der Reihe zu tanzen.
       
   DIR Künstliche Intelligenz: Der drohende Daten-Kolonialismus
       
       Künstliche Intelligenz (KI) wird vielfach als Lösung für zahlreiche
       Probleme gepriesen. Doch die KI ist kein Allheilmittel, warnen Experten.