URI: 
       # taz.de -- Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“
       
       > Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
       > Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von
       > KI.
       
   IMG Bild: Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteuerte Roboter als Schüler:innen
       
       wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben
       beeinflusst? 
       
       Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine
       Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme
       klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich
       verwende. Daher wird sie immer besser darin, das, was ich sage, auch
       richtig aufzuschreiben.
       
       Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst? 
       
       Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie
       aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist
       diese Software eine große Hilfe für mich. Aber es gibt auch unzählige
       unerfreuliche oder problematische Anwendungen.
       
       An welche denken Sie da vor allem? 
       
       Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über
       Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand
       ins Gefängnis gehen muss oder [1][welche medizinische Diagnose gestellt
       wird]. Das ist auch deshalb problematisch, weil KI aus den Daten der
       Vergangenheit lernt.
       
       Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit
       bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch
       in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die
       Benachteiligung fort.
       
       Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit
       umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das
       EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg? 
       
       Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift,
       bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht
       die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche
       Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist
       – zum Beispiel in der Arbeitswelt oder in der Rechtsprechung.
       
       Was ist nicht gut am Gesetzesvorhaben? 
       
       Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass
       Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen
       Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls
       vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko
       der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu
       minimieren.
       
       Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in
       der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen
       wurde: Die Informatikerin Timnit Gebru etwa [2][musste Google verlassen],
       nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen
       Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich
       eingestampft, etwa bei Twitter.
       
       Wie ginge es besser? 
       
       Es müssten externe Audits vorgeschrieben werden, von Institutionen, die
       nichts mit den Herstellern selbst zu tun haben.
       
       Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die
       Gesellschaft? 
       
       Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die
       kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die
       bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein
       wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich
       lernt KI aus Daten, die es schon gibt.
       
       Ist KI strukturkonservativ? 
       
       Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken
       verabschieden, dass KI irgendetwas objektiver machen würde als Menschen.
       Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten
       gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum
       Menschen den Anschein von Objektivität.
       
       Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias
       hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein
       Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden,
       einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl
       sie ebenso geeignet sind für den Job.
       
       Wie lässt sich diesem Bias entgegenwirken? 
       
       Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der
       Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel
       um eine Gesichtserkennung geht – [3][was sind denn für Gesichter drin in
       den Trainingsdaten], wie sehen die aus? Der zweite Schritt ist ein aktives
       Entgegenwirken.
       
       Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den
       Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche
       Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich
       dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum
       Bias-Testen und eines zum Bias-Reduzieren.
       
       Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt? 
       
       Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat
       und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann
       muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI
       Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und
       beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung
       bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch
       schon im Einsatz, zum Beispiel bei Amazon.
       
       In den vergangenen Wochen gab es zahlreiche [4][Warnungen vor KI]. Der
       Politologe Ian Bremmer hält sie für eine der großen Gefahren für die
       Demokratie. 
       
       Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem
       Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich
       etwa Bilder oder Texte generieren lassen. [5][Und die sind wahnsinnig gut
       darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind.] Es
       lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann
       Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt
       haben.
       
       Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns
       vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen
       verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen
       sein könnten, dann ist das eine Gefahr für die Demokratie.
       
       Wie lässt sich dem entgegenwirken? 
       
       Das Verbreiten von Falschinformation, um den politischen Diskurs zu
       beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit
       Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und
       Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit,
       ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen.
       
       Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung
       haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht
       verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten
       ansetzen: Zum einen müssen wir herausfinden, warum heute so viel
       Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf
       fruchtbaren Boden fallen lässt, und wie wir das ändern können.
       
       Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen.
       Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch
       verpflichtende Wasserzeichen für KI-generierte Inhalte.
       
       Aber daran werden sich nicht alle halten. 
       
       Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein
       Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele
       geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und
       anderen, die sie erstellen.
       
       Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der
       Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten
       und Zeitaufwand verursachen. 
       
       Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten
       wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil
       eine schlecht durchdachte und unzureichend getestete KI viel Schaden
       anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten
       Fall die Gelegenheit gibt, Strukturen zu überdenken.
       
       Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen?
       Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden
       schlechter bewertet werden.
       
       Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gut“
       für einen Jungen entspricht, dann kann ich das bei der Auswahl von
       Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute
       Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir
       die Wirklichkeit. Und diese Chance, die müssen wir nutzen.
       
       10 Jun 2023
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
   DIR [2] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475
   DIR [3] /Ideologie-und-kuenstliche-Intelligenz/!5907912
   DIR [4] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
   DIR [5] /Kuenstliche-Intelligenz/!5905841
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Rassismus
   DIR Sexismus
   DIR Chancengleichheit
   DIR GNS
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Digitalisierung
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Algorithmen
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Rassismus
   DIR Schwerpunkt Überwachung
   DIR EU-Parlament
   DIR EU-Parlament
   DIR Technik
   DIR Medien
   DIR Zukunft
       
       ## ARTIKEL ZUM THEMA
       
   DIR EU-Gesetzgebung zu KI: Kritik nach Marathonsitzung
       
       Am Freitag sollte die EU-Einigung zu Künstlicher Intelligenz stehen. Doch
       das Prozedere und die letzten Streitpunkte sorgen für Proteste.
       
   DIR Wie KI Sexismus produziert: Die Frau ist immer unter 35
       
       Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
       misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
       
   DIR Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
       
       Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das
       ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
       
   DIR Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien
       
       Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen.
       Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.
       
   DIR Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
       
       Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das
       schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.
       
   DIR Diskriminierung durch KI: Der Algorithmus sagt Nein
       
       Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
       anderem durch KI – und zeigt auf, was sich besser machen ließe.
       
   DIR Lieblingsfarben von Fliegen: Ein Algorithmus gegen Fliegen
       
       Die Farbe Blau wirkt auf Fliegen anziehend – weshalb das so ist, macht nun
       ein Algorithmus deutlich. Er soll auch bei der Schädlingsbekämpfung helfen.
       
   DIR Europarat verhandelt Abkommen: KI für die Milliarden
       
       Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
       Die Konvention des Europarats würde Menschen auf mindestens drei
       Kontinenten betreffen. Doch es gibt auch Kritik.
       
   DIR Nicole Anyomi über Rassismus im Fußball: „Das war erschreckend“
       
       Die Nationalspielerin Nicole Anyomi äußert sich zum Rassismusvorfall bei
       der U21-EM. Auch sie hat schon ähnliche Erfahrungen gemacht.
       
   DIR Debatte im EU-Parlament: Streit um Überwachung mit KI
       
       Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es
       Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.
       
   DIR Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
       
       Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche
       selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.
       
   DIR EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen
       
       Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste
       Regulierung von KI abstimmen. Expert:innen fordern schon
       Nachbesserungen.
       
   DIR Folgen von Künstlicher Intelligenz: Ohnmacht durch KI
       
       Künstliche Intelligenz dürfte die Menschheit schneller verändern als die
       Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?
       
   DIR Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen
       
       Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der
       Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.
       
   DIR Künstliche Intelligenz: Wer hat Angst vor ChatGPT?
       
       Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald
       von Maschinen übernommen werden. Warum das kein Albtraum sein muss.