URI: 
       # taz.de -- Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
       
       > Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der
       > Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu
       > handeln.
       
   IMG Bild: Könnte nicht nur Teil des Problems, sondern auch Teil der Lösung sein: OpenAI-Chef Sam Altman
       
       Die Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren
       zahlreich und sie waren laut: [1][Künstliche Intelligenz könne zu einer
       Gefahr für die Menschheit werden], sie sei in eine Reihe zu stellen mit den
       Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist:
       Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie
       etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen
       Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des
       Problems, sondern auch Teil der Lösung sein.
       
       Das sollte man im Hinterkopf behalten, [2][wenn das EU-Parlament diese
       Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI)
       beschließt]. Denn Ideen für Lösungsansätze werden in den alarmistischen
       Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste:
       Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und
       konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in
       Gang zu bringen. Vielmehr dienen sie einerseits der eigenen
       Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die
       [3][Probleme klein, die es bei KI schon jetzt gibt] und die durch Regeln
       gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen.
       
       Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild-
       und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das
       Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch
       einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem,
       also die Schwierigkeit, dass häufig nicht einmal die Entwickler:innen
       selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die
       zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem
       Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder
       bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer
       menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern
       lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen
       Technologie noch weiter ausbauen, als es derzeit schon der Fall ist.
       
       Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo
       wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen
       Schäden größer wären als der reale oder möglicherweise zu erwartende
       Nutzen?
       
       Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am
       Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen
       können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten
       werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme,
       die jetzt gelöst werden müssen – und zwar ohne sich von
       Weltuntergangsszenarien lähmen zu lassen.
       
       13 Jun 2023
       
       ## LINKS
       
   DIR [1] /Folgen-von-Kuenstlicher-Intelligenz/!5936188
   DIR [2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487
   DIR [3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR EU-Parlament
   DIR Technologie
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Panik
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Rassismus
   DIR Technik
   DIR Antibiotikaresistenz
   DIR Medien
   DIR Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien
       
       Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen.
       Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.
       
   DIR Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“
       
       Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
       Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
       
   DIR Folgen von Künstlicher Intelligenz: Ohnmacht durch KI
       
       Künstliche Intelligenz dürfte die Menschheit schneller verändern als die
       Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?
       
   DIR Studie zu multiresistenten Bakterien: KI gegen Krankenhauskeime
       
       Gegen einen resistenten Keim wurde ein neuer Wirkstoff entdeckt. Zu dem
       Durchbruch verhalf eine künstliche Intelligenz.
       
   DIR Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen
       
       Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der
       Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.
       
   DIR Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet
       
       Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von
       ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten
       gilt.