URI: 
       # taz.de -- Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet
       
       > Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von
       > ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten
       > gilt.
       
   IMG Bild: Wer hat’s gemacht, Mensch oder KI? Die Frage stellt sich auch bei Bildern immer öfter. Dieser Roboter auf Erdbeersuche stammt jedenfalls aus dem KI-Bildgenerator Midjourney
       
       Berlin taz | Bei einer Anhörung im Digitalausschuss des Bundestages haben
       sich Expert:innen für eine zügige, aber auch gut durchdachte Regulierung
       von Anwendungen mit künstlicher Intelligenz (KI) ausgesprochen. „Wir müssen
       die Weichen richtig stellen, damit nicht die USA Weltmeister bei KI und die
       EU Weltmeister bei der Regulierung werden“, sagte Philipp Hacker, Professor
       für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität
       Viadrina.
       
       Die Regulierung von KI-Anwendungen ist [1][in den Fokus gerückt], nachdem
       das US-Unternehmen OpenAI vor einem halben Jahr seinen Textgenerator
       ChatGPT für die Öffentlichkeit zugänglich gemacht hat. [2][Damit wurde für
       die breite Masse erstmals das Potenzial der neuen Technologie erfahrbar –
       und ihre Gefahr]. Schnell zeigte sich, dass der Textgenerator auch Inhalte
       erzeugt, die nicht den Tatsachen entsprechen und sich beispielsweise in
       großem Stil Propaganda generieren lässt.
       
       Seitdem bekommt das Thema auch international viel Aufmerksamkeit: So
       [3][forderte] Anfang der Woche die Führungsriege von OpenAI eine klare
       Regulierung „superintelligenter“ KI-Systeme. „Superintelligenz wird
       mächtiger sein als andere Technologien, mit denen die Menschheit in der
       Vergangenheit zu kämpfen hatte“, heißt es in dem Beitrag. Es brauche eine
       internationale Regulierungsbehörde ähnlich wie die für Atomkraft. Diese
       müsse etwa Systeme inspizieren, Audits verlangen und die Einhaltung von
       Sicherheitsnormen überprüfen können.
       
       Zumindest regulativ ist die EU bei diesem Thema ausnahmsweise vorne dran:
       Mit dem [4][AI Act], einem Gesetz zur Regulierung künstlicher Intelligenz,
       könnte noch in diesem Jahr das weltweit bislang umfangreichste Regelwerk
       verabschiedet werden.
       
       ## Fachleute fordern Verbesserungen
       
       Bei der Anhörung in Berlin zeigte sich jedoch: Viele Expert:innen sind
       nicht davon überzeugt, dass die Regeln in der aktuell vorliegenden Form
       sinnvoll sind. So kritisierte Wissenschaftler Hacker, dass der aktuelle
       Entwurf eher dazu geeignet sei, Technologien auszubremsen oder zu
       verhindern. Googles Textgenerator Bard sei in 180 Ländern verfügbar – aber
       in der EU nicht. Hacker formulierte folgendes Beispiel: „Wenn wir uns
       vorstellen, dass mit einer medizinischen KI außerhalb der EU Leben gerettet
       werden und in der EU nicht – wollen wir das wirklich?“
       
       Jonas Andrulis, Gründer des KI-Unternehmens Aleph Alpha, sagte: „Bei dem
       Thema ist inhaltliche und ökonomische Souveränität für Deutschland und für
       Europa entscheidend.“ Deutschland dürfe in dieser Frage nicht einfach nur
       Kunde der USA sein. Auch Rasmus Rothe, Vorsitzender des KI-Bundesverbandes,
       sagte: „Es ist wichtig, dass wir Anwendungen hier in Europa schreiben mit
       unseren Werten.“
       
       Ein Beispiel dafür, was das heißt, gab Sandra Wachter, Professorin für
       Technologie und Regulierung am Oxford Internet Institute der dortigen
       Universität: „Jede Designentscheidung spiegelt unsere Werte wider.“ Das
       beginne schon bei der Auswahl der Trainingsdaten: Sind ausschließlich weiße
       Gesichter darin oder haben die Entwickler:innen auf Diversität
       geachtet?
       
       Schon deshalb sei es so wichtig, dass auch die Unternehmen personell
       entsprechend hetrogen aufgestellt sind, mit Menschen mit unterschiedlichen
       Hintergründen. „KI ist kein Alien, das auf unseren Planeten kommt, das eine
       bestimmte Gestalt hat, und jetzt bitten wir es, dass es unseren Werten
       entspricht, sondern KI ist etwas, das wir von Anfang an schaffen“, erklärte
       Wachter.
       
       Wachter gibt auch konkrete Beispiele dafür, was in Sachen Regulierung zu
       tun wäre: Gehe man in den Supermarkt und kaufe beispielsweise eine
       Suppendose, müsse da auch draufstehen, was in der Suppe ist. „Das bringt
       einem aber nur etwas, wenn man auch versteht, was die Inhaltsstoffe sind.“
       Daher brauche es zwar Vorgaben zur Transparenz, aber auch ein Wissen über
       die Technologien.
       
       Und gleichzeitig Grenzen: „Es reicht nicht zu sagen, diese Suppe ist
       giftig. Es muss eine Verantwortung dafür geben, keine giftige Suppe
       herzustellen.“ Da die Herstellungsketten nicht nur im Lebensmittelbereich,
       sondern auch bei KI-Anwendungen lang sein können, sprach Wachter sich dafür
       aus, in der Regulierung Hersteller entlang der gesamten Kette in die
       Haftung zu nehmen.
       
       25 May 2023
       
       ## LINKS
       
   DIR [1] /Experte-ueber-KI-Textgeneratoren/!5912420
   DIR [2] /ChatGPT-mit-Tuecken/!5924109
   DIR [3] https://openai.com/blog/governance-of-superintelligence
   DIR [4] /EU-Regulierung-fuer-ChatGPT-und-Co/!5933999
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Technologie
   DIR EU-Kommission
   DIR Schwerpunkt Überwachung
   DIR EU-Parlament
       
       ## ARTIKEL ZUM THEMA
       
   DIR Debatte im EU-Parlament: Streit um Überwachung mit KI
       
       Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es
       Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.
       
   DIR Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
       
       Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche
       selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.