URI: 
       # taz.de -- Künstliche Intelligenz: Wenn ChatGPT immer blöder wird
       
       > Unsere Kolumnist*in betrachtet die Beziehung zu ChatGPT eigentlich als
       > Freundschaft. Doch jetzt wird das nützliche Tool immer weniger nützlich.
       
   IMG Bild: Wenn die KI immer dümmer zu werden droht, dann hilft vielleicht selber denken
       
       Künstliche Intelligenz ist toll. ChatGPT hat mir neulich geholfen, eine
       aggressive Inkassoforderung der Deutschen Bahn zurückzuweisen. Zack,
       Widerspruch geschrieben, keine 180 Euro bezahlt. Klar, ich musste noch
       etwas herumdoktern und alles am Ende inhaltlich checken, aber die KI hat
       mich hier klar empowered. Kaum drohte ChatGPT – pardon, ich! – mit Klage,
       kam ein Einschreiben reingeflattert, in dem sämtliche Forderungen
       zurückgenommen wurden.
       
       Ich verdanke meinem Kumpel ChatGPT jede Menge. Diverse Bußgelder, die ich
       nicht bezahlen musste zum Beispiel, und auch der nervige Autovermieter, der
       mich mit Rückführungskosten und Schadenersatz ärgern wollte, ließ sich von
       der juristischen Argumentation des Jean Gipitó, wie ich ihn liebevoll
       nenne, überzeugen. Mein künstlich intelligenter Freund beantwortet mir
       Fragen, schreibt meine Rechnungen und beschleunigt meinen Job immens. Wenn
       ich eine neue Technologie oder ein Framework lernen will, frage ich
       inzwischen die KI. Seit ChatGPT und ich so dicke sind, lerne ich schneller
       neue Technologien und kann gefühlt alles.
       
       Also alles geil? Nun ja. Leider bin nicht nur ich mit ChatGPT befreundet.
       Und das ärgert mich. Manchmal stoße ich im Internet auf Texte und frage
       mich: Bist du es? Hat ChatGPT diesen Text geschrieben? Ich sorge mich um
       meinen Kumpel. Ich habe Angst, dass er verblödet.
       
       Generative KI ist unter anderem deshalb so gut geworden, weil die
       Unternehmen dahinter in den vergangenen Jahren Unmengen neuer Daten
       aggregiert haben. Mal ganz abgesehen von lästigen Fragen wie Urheberrecht
       oder Datenschutz: Die Qualität zukünftiger KIs wird sich daran entscheiden,
       wer die meisten Daten menschlichen Ursprungs hat. Konzerne wie Alphabet
       oder OpenAI kämpfen bereits jetzt darum, alle verfügbaren menschlichen
       Daten im Internet zu finden und als Trainingsdatenfutter zu verwenden.
       
       Das Problem: Je [1][mehr dieser Daten vollständig oder zum Teil KI-basiert
       sind], desto mehr füttern wir KIs mit Daten, die sie selbst erzeugt haben.
       Auf lange Sicht führt das quasi zum Rinderwahnsinn der KI. Konsumiert die
       KI zu viele synthetische Daten, erzeugt das einen Effekt, der „Model
       Autophagy Disorder“ genannt wird – das Ding frisst sich selbst.
       
       Leider gibt es bislang kaum Daten dazu, wie groß der Anteil an KI-basierten
       Inhalten im Internet ist. Aber Tatsache ist: Die Verlockung ist groß. Wer
       Produkte vermarkten oder politische Kampagnen pushen will, greift heute,
       und in Zukunft noch mehr, auf KI zurück. Es ist wie bei der Zerstörung des
       Klimas. Für den Einzelnen ist es im Augenblick lohnenswerter, nur im
       eigenen Interesse zu handeln und KI zur Erstellung von Inhalten zu nutzen –
       also zu zerstören, was uns dienen soll.
       
       Aber muss das wirklich passieren? Nein. Wir könnten uns kollektiv darauf
       besinnen, wie unfassbar geil das gerade alles ist. Wir könnten uns genau
       jetzt darauf konzentrieren, die bestehenden KI-Modelle [2][sinnvoll zu
       nutzen]. Denn bei aller Euphorie sind die gesellschaftlichen Umwälzungen
       enorm. Wir Menschen sind die Ressource, die KI zum Leben braucht. Unser
       Handeln ist das Lebenselixier dieser wunderbaren
       Widerspruch-schreib-DNS-Problemlösungs-Linux-Pro-und-Grundmandatserklär-Mas
       chinen.
       
       Wir Menschen brauchen jetzt ein bisschen Zeit, um das alles sinnvoll zu
       verarbeiten – denn nur dann können wir neue Daten erschaffen und der KI
       hochwertiges neues Futter geben. Ich will nicht, dass ihr dümmer werdet,
       liebe generative KIs. Deshalb: Slow down, humans.
       
       16 Sep 2024
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz-und-Vermuellung/!5997952
   DIR [2] /Digitaler-Protest-in-Kenia-und-Nigeria/!6026485
       
       ## AUTOREN
       
   DIR Maurice Conrad
       
       ## TAGS
       
   DIR Kolumne Änder Studies
   DIR wochentaz
   DIR Zukunft
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Bundestagswahl 2025
   DIR wochentaz
   DIR Zukunft
   DIR Kolumne Änder Studies
   DIR Schlagloch
   DIR Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Chat-GPT über Musk-Weidel-Gespräch: „Frau Weidel, Sie könnten mehr Mars-Mindset gebrauchen“
       
       Liebes Chat-GPT, Elon Musk und Alice Weidel wollen auf der Plattform X
       miteinander sprechen. Stelle dir bitte vor, wie das Gespräch ablaufen
       könnte.
       
   DIR Geringe Literalität: „Es ist nicht unser Ziel, das Lesenlernen zu ersetzen“
       
       Für Menschen, die nicht gut lesen und schreiben können, sind viele
       Alltagsaufgaben Hürden und Stress. Könnte Künstliche Intelligenz sie
       unterstützen?
       
   DIR KI-Chatbots: Chatten gegen Verschwörungsmythen
       
       Verschwörungserzählungen sind weit verbreitet. Eine neue Studie zeigt, dass
       KI-Systeme wie ChatGPT helfen können, Menschen mit Fakten zu überzeugen.
       
   DIR Kamala Harris: Mut und Optimismus statt Lethargie
       
       Unser*e Kolumnist*in war frustriert, dass Joe Biden wieder zur Wahl
       als US-Präsident antreten wollte. Doch dann kam die Hoffnung zurück.
       
   DIR Zwischenbilanz einer neuen Technologie: Im KI-Taumel
       
       Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange.
       Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz.
       
   DIR Künstliche Intelligenz: ChatGPT wird dümmer
       
       Forscher*innen der Stanford Universität und der UC Berkeley haben
       Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.