URI: 
       # taz.de -- EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen
       
       > Am Mittwoch möchte das EU-Parlament über die weltweit bislang
       > umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon
       > Nachbesserungen.
       
   IMG Bild: Das Bild des deutschen Fotografen Boris Eldagsen ist ein Produkt von künstlicher Intelligenz
       
       Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in
       der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI)
       herstellen und kontrollieren. Eine Welt, in der unterbezahlte
       Arbeiter:innen diese KI-Systeme kuratieren und ihnen zuliefern müssen.
       In der die Interessen und Rechte der Nutzer:innen und das Wohl der
       Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die
       Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden
       von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“
       
       Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der
       Signal-Stiftung, die mit der gleichnamigem [1][Messenger-App] verbunden
       ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now
       Instituts an der New York University beschäftigt sie sich auch
       wissenschaftlich mit der Technologie. Auf der Bühne bei der
       Digitalkonferenz re:publica spricht sie vor einem Publikum, das
       tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist.
       
       Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue
       Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie
       aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich
       die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas,
       das Hoffnungen weckt. Und Ängste.
       
       Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter
       etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken
       gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte
       eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes
       sein, wie etwa Pandemien und Atomkrieg.“
       
       ## OpenAI-Chef tingelt durch die Politikwelt
       
       Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für
       Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für
       einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen.
       KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als
       „Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, desto
       mehr Macht geben wir den Firmen dahinter“, sagt sie.
       
       Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die
       Staatschef:innen zahlreicher Länder – und nahm auch am Treffen eines
       transatlantischen Kooperationsforums teil, auf dem Vertreter:innen von
       EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten.
       
       Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal
       nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch
       soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es
       ist die weltweit bislang umfassendste Regulierung zu künstlicher
       Intelligenz.
       
       Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis
       zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog
       genannten Kompromissverhandlungen geeinigt haben. Weil es wegen
       Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die
       Regelungen letztlich greifen, kündigten EU und USA nach dem
       Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit
       überbrücken und die Weichen in Richtung der europäischen Regelungen stellen
       soll.
       
       ## Positive Reaktionen auf Regeln
       
       Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an
       gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch
       was taugen die europäischen Regeln in der Form, wie sie aktuell geplant
       sind?
       
       Spricht man mit Expert:innen für IT-Recht und -Ethik über den AI Act,
       sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU
       einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die
       Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das
       Risiko, desto umfassender und strenger die Regeln.
       
       Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker
       reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und
       Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen
       KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des
       EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere
       Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der
       sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur
       biometrischen Massenüberwachung.
       
       „Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias
       Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den
       Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei
       technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die
       Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen
       Entwicklungen überholt zu werden.
       
       ## Wer lässt sich zur Rechenschaft ziehen?
       
       Auch Sandra Wachter, Professorin am Oxford Internet Institute der
       gleichnamigen Universität sieht viel Positives – aber in einigen Punkten
       auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass
       die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten
       sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe
       Prüfer:innen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine
       KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen?
       „Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den
       Entwicklern der Foundation Models und das ist meines Erachtens nicht
       ausreichend“, sagt Wachter.
       
       Foundation Models sind quasi die Basis-Modelle für KI-Anwendungen. Im Bezug
       auf die Herstellungskette vergleicht Wachter sie mit einem Hersteller von
       Ton. Ähnlich wie das Rohmaterial Ton in einem zweiten Schritt verarbeitet
       wird und in einem Dritten ein:e Kund:in es kauft und nutzt, werden aus den
       Basis-Modellen im nächsten Schritt KI-Anwendungen entwickelt und diese
       schließlich von den Nutzer:innen verwendet.
       
       Wachter plädiert dafür, alle Akteur:innen in der Kette in die
       Verantwortung zu nehmen – aber mit unterschiedlichen Pflichten. So müsse
       ein Ton-Hersteller beispielsweise dafür sorgen, dass kein Gift in dem
       Material sei. Der Hersteller einer Vase darf keine Fälschung erstellen und
       der Kunde niemanden damit erschlagen. Eine analoge Regulierung brauche es
       auch für KI.
       
       Auch beim Umweltaspekt gibt es noch Luft nach oben. Zum Beispiel ist eine
       Bewertung der Umweltauswirkungen bislang nur für Anwendungen
       vorgeschrieben, die in den Bereich des hohen Risikos fallen. Die
       KI-Anwendung für den OP-Roboter braucht also die Bewertung, der
       [2][Chatbot] aber nicht. Dazu kommt: Die Modelle zum Maschinellen Lernen,
       die zahlreichen aktuellen KI-Anwendungen zu Grunde liegen, werden immer
       größer – und damit ressourcenintensiver. „Wenn wir davon ausgehen, dass wir
       unseren Energieverbrauch reduzieren müssen, ist das kontraproduktiv“, sagt
       Friederike Rohde vom Institut für ökologische Wirtschaftsforschung.
       
       ## Halber Liter Wasserverbrauch für 20 bis 50 Fragen
       
       Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft
       an der Europauniversität Viadrina, schlägt in einem aktuellen Arbeitspapier
       daher unter anderem eine Deckelung des Energieverbrauchs vor – diese könnte
       für gesellschaftlich wichtige Anwendungen höher ausfallen als für weniger
       wichtige. Außerdem gelte es, neben der Energie auch den Wasserverbrauch im
       Blick zu haben: Ein großes Modell, wie GPT-4, auf dem auch ChatGPT basiert,
       verbrauche „signifikante Mengen“ Wasser für die Kühlung der Rechenzentren.
       Ein Austausch von 20 bis 50 Fragen mit ChatGPT verbrauche aktuellen
       Schätzungen zufolge etwa einen halben Liter Wasser.
       
       Wie das mit der Ressourcenschonung gehen kann, zeigt Björn Ommer auf der
       re:publica-Konferenz. Ommer ist Professor an der
       Ludwigs-Maximilians-Universität München. Gemeinsam mit seiner
       Forschungsgruppe veröffentlichte er im vergangenen Jahr einen der
       leistungsfähigsten KI-Bildgeneratoren, die es derzeit gibt: Stable
       Diffusion.
       
       Im Unterschied zu anderen generativen KIs wie Midjourney oder ChatGPT ist
       Ommers Software Open Source: [3][Jede:r kann den Quellcode einsehen und
       verändern.] Das kleine und damit ressourcensparende Modell führt dazu, dass
       die Software auch auf Heimcomputern mit etwas leistungsfähigeren
       Grafikkarten anwendbar ist. „Demokratisierung von KI“ nennt Ommer das.
       
       Es könnte ein Baustein sein dafür, dass KI-Anwendungen nicht nur von
       wenigen großen Firmen entwickelt und betrieben werden. „Wenn es uns
       gelingt, den Menschen in den Mittelpunkt zu stellen, dann wird KI ein
       großartiges Werkzeug werden, das unsere menschlichen Fähigkeiten ergänzt
       und erweitert“, sagt Ommer. Die nächsten Schritte beim AI Act werden
       zeigen, ob es in diese Richtung geht.
       
       13 Jun 2023
       
       ## LINKS
       
   DIR [1] /Alternative-Messenger-Dienste/!5743214
   DIR [2] /Chatbots-und-Google/!5912238
   DIR [3] /Open-Source-Aktivist-ueber-freie-Lizenzen/!5119575
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR EU-Parlament
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Digitalisierung
   DIR Datenschutz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Faschismus
   DIR Gesetz
   DIR Technologie
   DIR Schwerpunkt Überwachung
   DIR Frauenkörper
   DIR Schwerpunkt Rassismus
   DIR Glaube, Religion, Kirchenaustritte
       
       ## ARTIKEL ZUM THEMA
       
   DIR Rechtsexpertin über Verbraucherrechte: „Ein Akteur haftet immer“
       
       Masterarbeit futsch, smartes Türschloss zu: Wenn Software Schäden
       verursacht, haben Verbraucher:innen schlechte Karten. Noch. Wird es
       besser?
       
   DIR Umstrittenes EU-Überwachungsgesetz: Anlasslose Chatkontrolle abgesagt
       
       Bürgerrechtler:innen jubeln: Das EU-Parlament will das
       Überwachungsgesetz entschärfen. Doch auch am jüngsten Entwurf gibt es
       Kritik.
       
   DIR Diskriminierung durch KI: Der Algorithmus sagt Nein
       
       Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
       anderem durch KI – und zeigt auf, was sich besser machen ließe.
       
   DIR Europarat verhandelt Abkommen: KI für die Milliarden
       
       Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
       Die Konvention des Europarats würde Menschen auf mindestens drei
       Kontinenten betreffen. Doch es gibt auch Kritik.
       
   DIR Faschismus durch künstliche Intelligenz: Gesellschaft als Maschine
       
       KI wird zu weniger Arbeitsplätzen führen. Daran müssen wir uns gewöhnen.
       Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und
       gefährlich.
       
   DIR Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz
       
       Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf
       konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig.
       
   DIR Macht der künstlichen Intelligenz: Wer profitiert
       
       Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den
       technologischen, sondern auch um den ökonomischen Aspekt.
       
   DIR Debatte im EU-Parlament: Streit um Überwachung mit KI
       
       Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es
       Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.
       
   DIR Die politische Rolle des Kehlkopfs: Tiefere Stimme, höhere Position
       
       Was könnte Annalena Baerbock erreichen mit dem Organ eines Sigmar Gabriel?
       Vielleicht gleicht KI ja bald die vokale Geschlechterungerechtigkeit aus.
       
   DIR Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“
       
       Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
       Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
       
   DIR Gottesdienst durch Künstliche Intelligenz: Und ChatGPT sprach…
       
       Beim Evangelischen Kirchentag wurde der erste, von Künstlicher Intelligenz
       erdachte und geleitete, deutsche Gottesdienst gehalten. Ein Erfolg?