URI: 
       # taz.de -- Zukunft von KI: Habt keine Angst
       
       > 2023 war das Jahr der künstlichen Intelligenz. Um die Zukunft der
       > Technologie zu gestalten, brauchen wir Mut, Utopie und Spaß.
       
   IMG Bild: Workshop in einer Schule zum Umgang mit ChatGPT in Duisburg
       
       Das zurückliegende Jahr war das Jahr der KI. ChatGPT ging 2022 online und
       in den Monaten darauf eine Unmenge weiterer Anwendungen. KI boomt! Sie
       hilft uns, Texte zu schreiben, Bilder und [1][medizinische Diagnosen zu
       erstellen]. Aber schnell wurde aus der Freude Panik, aus dem Mut
       apokalyptischer Wahn. Wird uns die KI irgendwann wie in der Filmreihe
       „Matrix“ unterjochen? Haben Expert*innen, Politpromis und Wirtschaftsbosse,
       die [2][im Mai warnten:] „Das Risiko der Ausrottung durch künstliche
       Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für
       die gesamte Gesellschaft wie Pandemien und Atomkrieg“, recht?
       
       Nein. Die Risiken von KI liegen an ganz anderen Stellen. Aber um die
       anzugehen, müssen wir uns von der „Matrix“-Panik lösen. Denn auch 2024 wird
       ein KI-Jahr. Und auch 2025 und viele folgende. Die neuen Entwicklungen in
       allen Disziplinen und Diskursen werden unsere Leben und unsere
       Wahrnehmungen prägen. Dem müssen wir aber anders entgegenblicken als mit
       wässrig-zittrigen Panikaugen, die sich beim kleinsten Knacken im Gebüsch
       zusammenkneifen aus Angst vor dem bösen Wolf.
       
       Es braucht einen wachen, offenen, kritischen Blick. Sonst haben wir keine
       Chance, die Zukunft von KI und Mensch verantwortungsvoll mitzugestalten.
       KI-generierte Gründe für Skepsis, Ekel und Veränderungswut gibt es ja
       genug: menschenverachtende Deepfakes auf Pornoplattformen, hetzende
       Propaganda in Krieg und Extremismus, KI-unterstütztes Ausspielen von
       Werbung in Momenten, in denen wir besonders emotional angreifbar und
       dadurch in Kauflaune sind.
       
       Das Problem: So richtig viel Bürger*innen-Input, das lässt sich zumindest
       vermuten, ist gar nicht erwünscht. Zwar verständigte sich die EU nach
       Jahren der Planung auf den [3][AI Act], die weltweit erste Verordnung zur
       Nutzung von KI. Welche Regeln wir als Bürger*innen aber für KI wollen
       und welche auf gar keinen Fall, das wurden wir vorher nicht gefragt. Sonst
       hätten wir doch alle mal einen Fragebogen zugeschickt bekommen oder eine
       Einladung zu einer Podiumsdiskussion als Teil einer irgendwie gearteten
       KI-Öffentlichkeitsoffensive.
       
       ## Gefühl dafür bekommen
       
       Statt mit uns zu sprechen, sprachen Kanzler Olaf Scholz und die Präsidentin
       der Europäischen Kommission Ursula von der Leyen aber mit [4][Sam Altman].
       Altman ist Chef von OpenAI, dem Apparat, der hinter ChatGPT steht. Und
       Altman liebt es, apokalyptische Warnungen auszusprechen. Das hat zwei
       Gründe: Zum einen macht OpenAI damit Werbung, besonders ethisch mit KI
       umzugehen und auf zukünftige Gefahren zu achten. Zum anderen ist Angst
       lähmend. Wer Angst hat, mischt sich nicht ein. Wer Angst hat, lässt die
       Macher*innen machen, in diesem Fall Sam Altman und Co.
       
       Was wir 2024 deswegen brauchen, ist etwas ganz anderes. Wir brauchen
       Skepsis. Gegenüber dem Hype, aber vor allem gegenüber Altman und den
       anderen Autor*innen von Horrorgeschichten. Und wir brauchen Mut, Utopien
       und Spaß! Jede Anfrage bei ChatGPT und Co verbraucht enorme Mengen an
       Ressourcen. Jede Anfrage kann wiederum Unternehmen Daten liefern, negative
       Eigenschaften von KI wie Bias verstärken. Dennoch dürfen wir Chatbots für
       Spaß nutzen, sollten uns damit auseinandersetzen, am besten positiv, um ein
       Gefühl für diese Technik zu bekommen und Ideen entwickeln zu können, wie
       wir sie gut einsetzen können. Vielleicht können wir es ja als Training
       verstehen.
       
       Wir brauchen Bildung! Nicht nur in den Schulen, sondern auch an allen
       anderen Orten. Denn wir müssen uns mit (Technik-)Ethik auseinandersetzen,
       einen eigenen Zugang zu finden versuchen, vielleicht auch Denkrichtungen
       voranzubringen – oder sie in die Praxis zu übersetzen. Das könnte auch
       manchen Politiker*innen nicht schaden, die etwa davon träumen, dass KI
       in Zukunft vorhersagen kann, wo bald eingebrochen wird. Dafür müssten sie
       aber sensibelste Daten zusammenführen: Wohnort, Bildung, Arbeit oder
       Arbeitslosigkeit, Alter, Herkunft, Behinderung, Krankheit, Familienstand.
       Das ist die wahre Dystopie.
       
       Und was könnte falsch daran sein, wenn man Anti-Anschlags-KI auf Bilder von
       Überwachungskameras ansetzt, sodass sie uns erkennt – und unsere Emotionen?
       Ach ja: dass Emotionen das privateste sind, das wir besitzen. Wir müssen
       uns über diese Fragen Gedanken machen, und wir müssen laut werden. Gerade
       deswegen ist es unerlässlich, dass wir uns von der irrationalen Angst
       abwenden.
       
       ## Nur wir können uns selbst unterwerfen
       
       Und wir brauchen Solidarität! Wie immer. Wir müssen uns einsetzen für
       Arbeitsschutz und faire Bezahlung von Klickarbeiter*innen, die die KI
       füttern und betreuen – [5][oft unterbezahlt im Ausland, etwa in Uganda].
       
       Wir müssen, weil es die Politik nicht tut, auf unsere Daten achten. Mit
       ihnen wird KI trainiert, sie geben den Konzernen Macht. Sie machen es
       möglich, dass KI lernt, anhand unseres Alters, unserer Herkunft, unserer
       Queerness oder Nichtqueerness zu entscheiden, welche Werbung wir bekommen.
       Oder auch, wie in anderen Ländern schon katastrophal gescheitert,
       einzuschätzen, wie wahrscheinlich es ist, dass wir kriminell werden. Der
       Satz „Ich hab ja nichts zu verbergen“ bringt uns da nicht weiter. Denn
       unsere Daten sind immer auch Daten über andere Menschen, sie ermöglichen
       Vorhersagen über sie.
       
       Gleichzeitig ist KI aber genauso rassistisch wie die Datensammlungen, mit
       denen sie arbeitet. [6][Das bedeutet für Schwarze Menschen etwa ein
       erhöhtes Risiko, fälschlicherweise bei Gesichtserkennung als
       Straftäter*in „identifiziert“ zu werden.] [7][KI-Tools, die bei der
       Jobvergabe helfen sollen, haben sich als diskriminierend herausgestellt].
       Und KI kann schließlich auch bei der „Grenzüberwachung“ eingesetzt werden.
       
       Technik ist, wie wir sie machen und was wir aus ihr machen. Vielleicht
       braucht es also vor allem Gemeinschaft, damit wir uns mal besprechen, wie
       wir unsere Daten schön unbrauchbar gestalten können, um KI im Training
       gelegentlich auch zu irritieren. Denn auch 2024 gilt: Die KI wird uns nicht
       unterwerfen. Die Einzigen, die uns unterwerfen können, sind wir selbst.
       
       29 Dec 2023
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
   DIR [2] /Auswirkungen-Kuenstlicher-Intelligenz/!5934661
   DIR [3] /EU-Einigung-auf-KI-Gesetz/!5975908
   DIR [4] /Chaos-bei-OpenAI/!5972516
   DIR [5] /Niedriglohnarbeit-fuer-US-Tech-Konzerne/!5959693
   DIR [6] https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html
   DIR [7] https://www.newamerica.org/oti/blog/ai-discrimination-in-hiring-and-what-we-can-do-about-it/
       
       ## AUTOREN
       
   DIR Johannes Drosdowski
       
       ## TAGS
       
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Rassismus
   DIR Technikfeindlichkeit
   DIR Technologie
   DIR Bildung
   DIR Kolumne Der rote Faden
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Leben mit Behinderung
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Osteuropa
   DIR Musik
   DIR Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Olaf Scholz auf TikTok: Dem Olaf seine Aktentasche
       
       Olaf Scholz ist nicht länger das Faxgerät der Bundesregierung. Der
       Bundeskanzler ist jetzt auf TikTok.
       
   DIR Student entwickelt KI, die KI erkennt: Entlarvende Logik
       
       Tim Tlok aus Seevetal hat einen Detektor gebaut, der KI-generierte Texte
       von menschengemachten unterscheiden kann. KI-geplagte Lehrkräfte freuen
       sich.
       
   DIR Internetnutzung und KI: Antrainierte Vorurteile
       
       Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung
       Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.
       
   DIR Künstliche Intelligenz im Alltag: Steaks braten mit dem Kühlschrank
       
       Tech-Hersteller haben erneut eine goldene KI-Zukunft versprochen. Die Frage
       ist nicht, ob wir die brauchen, sondern wer bereit ist, dafür zu zahlen.
       
   DIR Diskriminierende KIs: „Zeigen den Status quo von gestern“
       
       Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert.
       Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind
       schuld.
       
   DIR Podcast über Hacker der 80er: Suche nach dem dunklen Rächer
       
       „Dark Avenger“ begibt sich auf die Spuren eines der größten
       Computervirenschöpfers der 1980er. Doch der Podcast rudert ab und zu ins
       Fiktionale aus.
       
   DIR Neues Album „WIRE“ von Portrait XO: Im Duett mit der KI
       
       Fremd und befremdlich vertraut: Als Portrait XO veröffentlicht
       US-Produzentin Rania Kim mit einer Stimm-KI das verblüffende Albumprojekt
       „WIRE“.
       
   DIR OpenAI und Microsoft verklagt: New York Times gegen ChatGPT
       
       ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das
       Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen
       Verlage.