URI: 
       # taz.de -- Künstliche Intelligenz: Keine Panik vor KI
       
       > Die Angst vor einer vorgeblichen Superintelligenz ist Unsinn – und
       > verhindert eine Debatte über Gefahren wie die Interessen von Google oder
       > Amazon.
       
   IMG Bild: Schreckensszenarien täuschen darüber hinweg, dass stochastische Modelle ganz andere Risiken haben
       
       Seit [1][Sprachmodelle wie ChatGPT] im Herbst 2022 für die Allgemeinheit
       geöffnet wurden, ist ein breiter gesellschaftlicher Diskurs über künstliche
       Intelligenz (KI) entstanden. Der spannt sich aktuell über den
       Gesprächsstoff sommerlicher Gartenpartys („Also, ich habe die KI mal
       gefragt, …“) über optimistische Äußerungen aus der Wirtschaft („zentraler
       Wettbewerbsfaktor“) [2][bis hin zu dystopischen Warnungen] aus der
       digitalen Techbranche selbst („Verlust der Steuerungsfähigkeit unserer
       Zivilisation“). Die Reaktionen auf KI schwanken zwischen Faszination und
       Grauen. Was stimmt denn nun und wie kann man für KI zu einer ausgewogenen
       Einschätzung kommen? Klar ist: KI-Anwendungen müssen reguliert werden, um
       sie für Demokratie und Gemeinwohl gestalten zu können.
       
       KI ganz allgemein als Technik in den Blick zu nehmen und zu überlegen, ob
       sie denn gut oder schlecht sei, ist ungefähr so sinnvoll, wie über die Vor-
       und Nachteile der Stromversorgung nachzudenken. Die Verfügbarkeit von
       Elektrizität hat zu einer starken Veränderung der Lebens- und Arbeitswelten
       geführt. Kaum jemand kommt jedoch auf die Idee, sie an sich zu bewerten.
       Sondern sie begegnet uns zum Beispiel in Form der Straßenbeleuchtung, des
       Küchenmixers oder [3][eines Elektroautos]. Ähnlich verhält es sich auch
       mit KI: Sie ist immer in ihren jeweiligen Anwendungskontexten zu
       betrachten. Für ein KI-Sprachmodell sind andere Anwendungsregeln notwendig
       als für einen autonom fahrenden PKW oder für KI, die für die Auswahl von
       Inhalten in Sozialen Medien genutzt wird. Natürlich brauchen wir – wie in
       der Stromversorgung – allgemeine Standards zur sicheren und ethisch
       akzeptablen Nutzung von KI. Dazu gehören unter anderem menschliche
       Aufsicht, Trainingsdatenqualität oder Nachvollziehbarkeit.
       
       Es wird häufig der Eindruck erweckt, bei KI handele sich um eine ganz
       besondere Technik, die „autonom“ handele, dem Menschen überlegen sei und
       ganz prinzipiell nicht verstanden werden könne. Deshalb könne man sie
       schlecht regulieren. Das stimmt nicht. Wenn man als durchschnittliche
       Verbraucherin ein Gerät oder eine Maschine nicht versteht, kann man diese
       Technik trotzdem nutzen und den Umgang mit ihr sicher und gut gestalten.
       Den ganz überwiegenden Teil der Techniken, die wir benutzen, verstehen wir
       nicht. Man denke nur an den Küchenmixer oder das Auto. Ihre Funktion können
       nur wenige Expertinnen und Experten erklären. Die meisten wollen einfach
       nur sicher ohne Stromschlag Sahne schlagen oder mit dem PKW fahren und
       zuverlässig das Bremspedal treten können.
       
       Trotzdem müssen Technologien natürlich im Prinzip transparent sein, sodass
       sie kontrolliert hergestellt werden können und die durch sie ausgelösten
       Handlungen rechtssicher nachvollziehbar sind. Aber es muss nicht für jede
       einzelne Person, die KI nutzt, die Funktion im Detail erklärbar sein. In
       einem demokratischen Rechtsstaat sorgen starke Institutionen für eine
       verbraucherfreundliche Nutzung von Techniken, ohne dass jede einzelne von
       uns ein Informatikstudium für das Leben in einer digitalen Gesellschaft
       ablegen muss.
       
       ## Steuerung ist möglich
       
       Tatsächlich allerdings ist es so, dass KI teils auch für Expertinnen
       intransparent bleibt. Anwendungen suchen sich selbst ihre Lösungswege für
       bestimmte Aufgaben. KI „lernt“ auf anderen Wegen als Menschen und erstellt
       Muster aus Daten, deren Genese (sowohl der Muster als auch der Daten) nicht
       oder nur schlecht nachvollziehbar sind. Trotzdem können die Randbedingungen
       und die Ergebnisse von KI-gesteuerten Prozessen durch den Menschen kritisch
       nachvollzogen und bewertet werden. Zum Beispiel können Trainingsdaten
       dokumentiert und kritisch geprüft werden, die Algorithmen für
       KI-Anwendungen können nach ethischen Kriterien aufgestellt und durch
       unabhängige Stellen kontrolliert werden. Auch die Ergebnisse von
       automatisierten Entscheidungen sollten fortlaufend auf Diskriminierung,
       Unausgewogenheit und Fehler untersucht werden, sodass auch bei
       selbstlernenden Systemen stets im Blick behalten wird, dass neue
       Eigendynamiken maschinellen Lernens keinen schädlichen Einfluss gewinnen.
       
       Seit einigen Monaten wird [4][vermehrt vor den großen Risiken der KI
       gewarnt]. In offenen Briefen von Wissenschaftlerinnen und Vertretern von
       Digitalkonzernen ist von der Dominanz der KI die Rede, von Deepfakes oder
       Killerrobotern und einer allgemeinen Verdummung des Menschen. In Science
       Fiction und Unterhaltung sind solche Negativszenarien schon lange ein
       attraktives Thema.
       
       ## Reale ökonomische Interessen
       
       Solche Dystopien und die damit verbundenen Mystifizierungen verschleiern
       jedoch die realen Interessen, die mit KI verbunden sind. In Hinblick auf
       eine wert- und gemeinwohlorientierte Nutzung von KI ist vielmehr ganz
       konventionell zu fragen: [5][Wem nützt eine Anwendung und wem schadet sie?]
       Es gibt keine Indizien oder gar wissenschaftlich begründete Hinweise dafür,
       dass KI an der Schwelle zu einer bösartigen Superintelligenz steht. Selbst
       wenn die Forschung zu einer künstlichen allgemeinen Intelligenz in
       Jahrzehnten zu überzeugenden Ergebnissen kommen sollte, dann wird diese
       Intelligenz aller Wahrscheinlichkeit nach als Assistenzsystem zur
       Unterstützung verschiedenster menschlicher Tätigkeiten genutzt werden.
       
       So wie auch jetzt KI den Menschen in vielen Feldern sinnvoll unterstützen
       und teils ersetzen kann. Das heißt jedoch nicht, dass KI sich eigenständige
       Ziele setzen kann, die sie gegen eine hilflose Menschheit durchsetzt.
       Vielmehr ist es so, dass die großen Digitalkonzerne wie Meta, Google oder
       Amazon ihre in den letzten Jahrzehnten gehorteten Datenschätze nun für KI
       und den Ausbau ihrer überragenden Marktpositionen nutzen können. Sie
       beherrschen damit wichtige Bereiche der gesellschaftlichen Infrastrukturen
       wie (öffentliche) Kommunikation und Handelsplattformen nach ihren
       gewinnorientierten Zielen, ohne demokratisch kontrolliert zu werden.
       
       ## Stochastische Modelle haben andere Risiken
       
       [6][Schreckensszenarien von nicht steuerbaren Superintelligenzen] täuschen
       darüber hinweg, dass stochastische Modelle (das wäre eine sachgemäßere
       Bezeichnung von KI) mit realen und ganz anderen großen Risiken verbunden
       sind. Beispielhaft hierfür steht das Unternehmen „Neuralink“ von Elon Musk.
       Musk, der kürzlich noch ein Moratorium zum Stopp der Forschung an
       bedeutenden KI-Innovationen gefordert hat, will durch Implantate [7][eine
       Schnittstelle zwischen Gehirn und Computer schaffen], mit der vermeintliche
       menschliche Defizite wie Gedächtnisprobleme, Depression, Angst oder
       Hörverlust behoben werden sollen. Hier wie auch für den gesamten
       medizinischen Bereich von der Forschung, Diagnose über die Therapie bis hin
       zu „Gesundheitsapps“ fallen die Möglichkeiten der KI auf fruchtbaren Boden.
       Wir müssen also vielmehr nach den konkreten Folgen für Biopolitik,
       Datenschutz und Menschenbild fragen, statt allgemein über
       Schreckensszenarien zu sprechen.
       
       KI hat auch Risiken für öffentliche Medienkommunikation und
       Meinungsbildung. KI-Anwendungen helfen, Wahlkampagnen effektiver und
       individualisierter zu gestalten. Sie haben aber auch das Potenzial, die
       Präferenzen und Charaktereigenschaften von Wählern zu erkennen und zu
       manipulieren, zum Beispiel durch Falschinformationen und [8][Deepfakes],
       die gezielt und intransparent gestreut werden. Auch generell ist KI für die
       Gestaltung von sozialen Medien von großer Bedeutung. KI steuert die
       Antworten von Suchmaschinen, prägt die Auswahl von Inhalten in sozialen
       Medien und generiert Texte und Bilder. In der Medienkommunikation
       delegieren die Digitalkonzerne bereits jetzt viele Steuerungsaufgaben an
       algorithmische Systeme. Aber eben nicht nach einem in Dystopien
       vorgestellten Eigensinn der KI, sondern zielgenau für die
       Geschäftsinteressen der Datenökonomie.
       
       ## Demokratische Antworten finden
       
       Auf solche Probleme müssen demokratisch und ethisch legitimierte Antworten
       gefunden werden. Zum Beispiel Offenlegungspflichten und Register für KI,
       Zertifikate und Standards für riskante KI-Anwendungen oder für solche, die
       mit Manipulation, Diskriminierung und Überwachung verbunden sein können.
       Zum Beispiel zur Organisation von Migration, Personalauswahl oder solche,
       die Auswirkungen auf kritische Infrastrukturen haben beziehungsweise in der
       öffentlichen Verwaltung eingesetzt werden.
       
       Aber auch Auswirkungen müssen gemeinwohlorientiert gestaltet werden: Wie
       sieht es etwa mit den Arbeitnehmerinnenrechten für all diejenigen aus, die
       KI-Daten beschriften und zur Nutzung vorbereiten? Wie kann eine wirksame
       Konzentrationskontrolle für Digitalkonzerne umgesetzt werden?
       
       ## Es braucht Selbstverpflichtungen
       
       Die aktuell vom Europaparlament [9][verabschiedete KI-Verordnung] wird ein
       entscheidender Beitrag für eine verbesserte Regulierung sein. Die
       KI-Verordnung reicht jedoch nicht aus. Wir brauchen insbesondere im
       staatsfernen Medienbereich Selbstverpflichtungen mit
       Kennzeichnungspflichten und redaktionell verantwortlichem Umgang mit
       KI-Instrumenten im Journalismus. Zudem muss Ethik in KI-Forschung und
       Entwicklung integriert werden, was inzwischen sogar in Google-Publikationen
       gefordert wird. Und selbstverständlich sind wir auch alle selbst
       aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie
       selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische
       Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung.
       
       Es stellt sich nicht die Frage, ob KI reguliert werden soll, sondern wer
       das tut. Gesellschaften leben immer nach Normen und Regeln. Wenn wir sie
       nicht demokratisch und gemeinsam bestimmen, überlassen wir die Regeln für
       den Umgang mit KI den Digitalkonzernen.
       
       26 Jun 2023
       
       ## LINKS
       
   DIR [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
   DIR [2] /Faschismus-durch-kuenstliche-Intelligenz/!5938774
   DIR [3] /Elektroautos-mit-Solarzellen/!5908960
   DIR [4] /Geplante-EU-Regulierung-von-KI/!5937412
   DIR [5] /Macht-der-kuenstlichen-Intelligenz/!5937599
   DIR [6] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
   DIR [7] /Neuropsychologin-ueber-Gehirne-und-Computer/!5941275
   DIR [8] /Zauber-und-Gefahr-von-Deepfakes/!5600572
   DIR [9] /Regulierung-Kuenstlicher-Intelligenz/!5940720
       
       ## AUTOREN
       
   DIR Jessica Heesen
       
       ## TAGS
       
   DIR Mensch-Maschine-Beziehung 
   DIR Google
   DIR Amazon
   DIR Science-Fiction
   DIR Intelligente Maschinen
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Pressefreiheit
   DIR Saskia Esken
   DIR Amazon
   DIR Literatur
   DIR Gesetz
   DIR Technologie
       
       ## ARTIKEL ZUM THEMA
       
   DIR Künstliche Intelligenz: ChatGPT wird dümmer
       
       Forscher*innen der Stanford Universität und der UC Berkeley haben
       Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
       
   DIR TÜV für Künstliche Intelligenz: Die Neuen im Newsroom
       
       Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz.
       Auch der Journalismus muss seine Grundsätze mal wieder updaten.
       
   DIR SPD-Chefin Esken über Desinformation: „Brauchen schlagkräftige Behörden“
       
       SPD-Chefin Saskia Esken fordert mehr Personal im Kampf gegen Fake News,
       Hassrede im Netz und Desinformation. Doch auch da gebe es einen
       Fachkräftemangel.
       
   DIR Kontrolle von Digitalkonzernen: Erfolg für das Bundeskartellamt
       
       Der Onlinehändler Amazon klagt gegen besondere Kontrollen der
       Wettbewerbshüter. Doch der BGH sieht in denen offenbar kein Problem.
       
   DIR KI in Filmen und Romanen: Die KI versteht dich besser
       
       Was ist die Künstliche Intelligenz? Rationale Bedrohung? Oder
       Wunschmaschine? Filme und Romane verwischen die Grenzen zwischen Mensch und
       Programm.
       
   DIR Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz
       
       Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf
       konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig.
       
   DIR Macht der künstlichen Intelligenz: Wer profitiert
       
       Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den
       technologischen, sondern auch um den ökonomischen Aspekt.