URI: 
       # taz.de -- Ökologischer Fußabdruck von KI: Die Klimakiller-Intelligenz
       
       > Künstliche Intelligenz gilt als neue Schlüsseltechnologie, auch gegen die
       > Klimakrise. Doch sie hat ein schmutziges Geheimnis – im wahrsten Sinne.
       
   IMG Bild: Keine KI ohne Supercomputer. Doch die benötigen Unmengen an Wasser zur Kühlung
       
       Berlin taz | Die Veröffentlichung des [1][Chatbots ChatGPT] hat für einen
       riesigen KI-Hype gesorgt. Schüler schreiben Hausaufgaben mit dem Werkzeug,
       Anwälte Klageschriften, Künstler Songs. In Hollywood streiken derweil
       Drehbuchautoren und Schauspieler, weil sie befürchten, dass ihnen Computer
       ihre Arbeit wegnehmen könnten. [2][KI könnte die Gesellschaft so
       tiefgreifend verändern] wie vorher die Erfindung der Dampfmaschine und der
       Elektrizität.
       
       Während namhafte Forscher den Weltuntergang heraufbeschwören, glauben
       Tech-Vordenker wie der Netscape-Gründer Marc Andreessen, dass KI die Welt
       retten könne: Sie würde die menschliche Intelligenz so erweitern, dass die
       Menschheit Probleme wie Unterernährung, Krankheiten und den Klimawandel
       einfach „lösen“ könne.
       
       In den kühnen Vorstellungen der Tech-Optimisten könnten KI-Systeme robustes
       Saatgut, Arzneimittel oder neue Energieträger erfinden; smarte
       Bewässerungssysteme, die mit meteorologischen Echtzeit-Daten gespeist
       werden, Böden ressourcenschonend mit Wasser versorgen; smarte Häuser, die
       mit Algorithmen die Routinen des Bewohners erlernen, Energie und Wasser
       sparen.
       
       Doch in dem solutionistischen Überschwang wird gerne übersehen, dass die KI
       selbst ein schmutziges Geheimnis hat: Sie verursacht jede Menge
       Treibhausgase.
       
       ## Supercomputer mit Superverbrauch
       
       Bereits 2019 kam eine MIT-Studie zu dem Ergebnis, dass das Training eines
       Deep-Learning-Modells so viel CO₂ verursacht wie fünf (Verbrenner-)Autos in
       ihrer gesamten Lebensspanne. Der Grund: Das maschinelle Lernverfahren ist
       extrem energieintensiv. Damit sich die Algorithmen durch riesige
       Datenmengen wühlen und darin statistische Muster erkennen können, müssen
       tage-, manchmal sogar wochenlang Supercomputer mit speziellen Grafikkarten
       laufen, die sehr viel Strom verbrauchen. Je nachdem, aus welchen Quellen
       sich dieser Strom speist, verursacht das Training schädliche
       Treibhausgase.
       
       Man muss bedenken, dass die Modelle, die zum Zeitpunkt der Studie auf dem
       Markt waren, bei weitem nicht so leistungsfähig waren wie die heutigen.
       GPT-2, eines der Vorgängermodelle von ChatGPT, operierte mit 1,5 Milliarden
       Parametern. Der Nachfolger GPT-4 hat bereits 1,8 Billionen Parameter.
       
       Für das Training von ChatGPT, das mit schätzungsweise 300 Milliarden
       Wörtern gefüttert wurde, brauchte es allein 20.000 Grafikkarten. Die
       „Dampfmaschinen des Geistes“, wie der damalige IBM-Präsident Thomas Watson
       seine schrankgroßen Rechnerungetüme in den 1950er Jahren nannte, haben
       einen unsichtbaren Auspuff, dessen Existenz in der wolkigen Cloud-Rhetorik
       gerne vernebelt wird.
       
       Offizielle Zahlen, wie viel Energie das Training von ChatGPT verbrauchte,
       gibt es nicht. Schätzungen gehen von 1.287 Megawattstunden aus, was etwa
       dem jährlichen Energieverbrauch von 120 US-Haushalten entspricht. Zwar
       betreibt Microsoft, in dessen Cloud ChatGPT läuft, seine Rechenzentren
       teils mit erneuerbaren Energien. Doch angesichts der immensen Rechenpower
       dürfte der Bot wohl kaum klimaneutral sein.
       
       ## Tonnenweise Kühlwasser
       
       Nach Angaben der Internationalen Energieagentur (IEA) verbrauchen
       Rechenzentren rund ein Prozent der globalen Stromproduktion. Jeder Prompt,
       jeder Instagram-Post setzt eine Rechenoperation in einer Serverfarm in
       Gang, und damit die Server nicht heiß laufen, braucht es in den
       Rechenzentren tonnenweise Kühlwasser.
       
       Laut einer Studie der Universitäten California Riverside und Texas
       Arlington verbrauchte allein das Training von GPT-3.700.000 Liter Wasser.
       Damit könnte man einen ganzen Kühlturm eines Atomreaktors füllen. ChatGPT
       „schluckt“ nach Berechnungen der Wissenschaftler bei einem Austausch mit 25
       bis 50 Fragen einen halben Liter Wasser. Wenn man also sinnlos mit dem
       Textgenerator herumspielt, ist das ungefähr so, als würde man eine
       Wasserflasche ausleeren. Angesichts von apokalyptischen Waldbränden und
       Dürren mutet dieser verschwenderische Konsum wie ein Frevel an.
       
       Auch die Herstellung von Chips ist extrem ressourcenintensiv. Der
       taiwanische Chiphersteller TSMC, der größte Auftragsfertiger der Welt, der
       unter anderem auch Apple beliefert, ist für sechs Prozent des
       Stromverbrauchs auf der ostasiatischen Insel verantwortlich. Die Ökobilanz
       ist katastrophal, denn Taiwans Strom speist sich fast zur Hälfte aus
       schmutziger Kohlekraft. Um die hochempfindlichen Rohlinge, die sogenannten
       Wafer, zu reinigen, sind zudem Unmengen an Ultra-Reinstwasser nötig. TSMC
       verbraucht pro Tag 150.000 Kubikmeter Wasser, das Volumen von 60
       olympischen Schwimmbecken.
       
       Das Problem: Taiwan leidet seit Jahren unter Trinkwasserknappheit.
       Ausbleibende Regenfälle und Trockenperioden haben die Pegel der
       Wasserreservoire zuletzt empfindlich sinken lassen. In einigen Städten
       Taiwans mussten bereits das Trinkwasser rationiert und der Wasserdruck
       reduziert werden, damit die globalen Lieferketten der wichtigen Halbleiter
       nicht gestört werden. Die Regierung lässt zudem im ganzen Land nach Brunnen
       bohren. Dass die wütenden Reisbauern mit Kompensationszahlungen
       ruhiggestellt wurden, erzählen einem die Verkäufer der schönen neuen Welt
       natürlich nicht.
       
       Angesichts des gewaltigen ökologischen Fußabdruckes stellt sich die Frage,
       ob Künstliche Intelligenz wirklich so nachhaltig ist, wie es ihre
       Entwickler behaupten, zumal die Modelle immer rechen- und damit
       energieintensiver werden. Ist KI die Lösung für den Klimawandel?
       
       Oder ist sie das Problem?
       
       ## Selbst zu denken ist umweltfreundlich
       
       Es ist erstaunlich, wie kritikfrei der öffentliche Diskurs über „smarte“
       Technologien läuft, wie viel Geld in KI-Unternehmen fließt, die den
       Extraktivismus des Industriezeitalters perpetuieren. Dabei wäre es so
       wichtig, den Grundsatz der Datensparsamkeit ökologisch neu zu denken, die
       Entwicklung von synthetischen Daten als eine Art Bio-Kraftstoff für
       Denkmaschinen voranzutreiben, kurz: eine Ökologie der Information zu
       formulieren, die kritisch hinterfragt, ob man jedes Selfie mit einem
       KI-Filter aufhübschen und in sozialen Medien posten muss. Dann müsste man
       auch nicht überall auf der Welt hangargroße Serverfarmen in die Landschaft
       betonieren, die im Konflikt mit dem Wohnungsbau und der Landwirtschaft
       stehen.
       
       In den Niederlanden gingen in diesem Jahr Bauern auf die Barrikaden, weil
       die Regierung für den Bau eines Microsoft-Rechenzentrums private
       Grundstücke enteignen wollte. Die Landwirte treibt die Sorge um, dass der
       Tech-Konzern das Strom- und Wassernetz anzapft – und damit ihre Ernte
       gefährdet. Ob es angesichts der Ressourcenknappheit auf der Erde eine kluge
       Idee ist, (landwirtschaftliche) Flächen zu versiegeln, darf bezweifelt
       werden. Wenn der Grundwasserspiegel sinkt, hilft auch eine KI nicht viel
       weiter.
       
       Mit Blick auf den Ressourcenverbrauch und die zunehmenden Cybergefahren
       erscheint Lowtech gegenüber Hightech als resilienteres und nachhaltigeres
       Mittel, um den Planeten zu retten: Fahrrad statt Auto, begrünte Fassaden
       statt Klimaanlagen, eiweißbasierte statt künstlicher Intelligenz.
       
       Das menschliche Gehirn verbraucht lediglich 20 Watt. Zum Vergleich: Die
       Jeopardy-Version von IBMs Supercomputer Watson benötigte 85.000 Watt, um
       bei der Rateshow zwei menschliche Spieler zu bezwingen. Vielleicht sollte
       man öfter mal den eigenen Denkapparat einschalten, anstatt Chatbots mit
       Fragen zu löchern. Es gibt nichts, was so umweltfreundlich ist wie das
       eigene Denken.
       
       28 Jul 2023
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz/!5948779
   DIR [2] /Kuenstliche-Intelligenz-in-der-Kunst/!5948453
       
       ## AUTOREN
       
   DIR Adrian Lobe
       
       ## TAGS
       
   DIR Server
   DIR Wassermangel
   DIR Energie
   DIR GNS
   DIR Schwerpunkt Künstliche Intelligenz
   DIR wochentaz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Server
   DIR Server
   DIR Streaming
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schlagloch
   DIR Schwerpunkt Klimawandel
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Schwerpunkt Künstliche Intelligenz
       
       ## ARTIKEL ZUM THEMA
       
   DIR Neurobiologe über Intelligenz: „KI-Systeme sind Zombies“
       
       Der Mensch als Krone der Evolution? Neurobiologe Sebastian Markert zweifelt
       daran. Ein Gespräch über Orcas, Gorillas und künstliche Intelligenz.
       
   DIR Wissenschaftler entwickeln neue Hardware: Energiewende in der KI
       
       Künstliche Intelligenz braucht viel Energie. Kieler Wissenschaftler stellen
       Hardware vor, die so sparsam arbeiten soll wie das menschliche Gehirn.
       
   DIR Norderstedter Energiewende: Wärme aus dem Rechenzentrum
       
       Abwärme kann die Energiewende voranbringen. Könnte Norderstedt Vorrreiter
       für die smarte Energienutzung in ganz Deutschland sein?
       
   DIR Energieverbrauch Künstlicher Intelligenz: KI ist wie ein Backofen
       
       Künstliche Intelligenz soll in der Klimakrise helfen. Die rechenintensiven
       Modelle sind jedoch selbst Energiefresser. Forscher sehen Änderungsbedarf.
       
   DIR Umweltbelastung durch Streaming: Das schwarze Loch
       
       Ein Besuch der weltgrößten TV- und Streaming-Messe Mipcomin Cannes wirft
       die Frage auf: Was kostet Streaming eigentlich die Umwelt?
       
   DIR Chatbots aus China: Ernie statt ChatGPT
       
       Die chinesische Regierung hat erstmals mehrere KI-Chatbots für die
       Öffentlichkeit freigegeben. Diese dienen vor allem der politischen
       Kontrolle.
       
   DIR KI und Gesellschaft: Smartphone im Lendenschurz
       
       Einerseits großer technischer Fortschritt, andererseits alte
       gesellschaftliche Strukturen: Es ist Zeit, aus diesem grotesken Widerspruch
       auszubrechen.
       
   DIR Steigende Lebensmittelpreise: Die Klima-Ernährungskrise beginnt
       
       Die Katastrophen häufen sich und werden spürbar, auch an der
       Supermarktkasse. Was das mit dem Klimawandel zu tun hat.
       
   DIR Künstliche Intelligenz im Hörfunk: KI kills the Radio Star
       
       Bei bigFM startet das deutschlandweit erste KI-Radio. In Zeiten, in denen
       immer mehr Branchenstars zu Spotify abwandern, ist das nur logisch.
       
   DIR Textgenerator „Poetron“: Gedichte? Vorsicht vor KI
       
       Günter Gehl entwickelte schon 1985 den skurrilen Textgenerator „Poetron“.
       Als KI-Pionier und Vorläufer von ChatGPT möchte er aber nicht gelten.
       
   DIR Künstliche Intelligenz: ChatGPT wird dümmer
       
       Forscher*innen der Stanford Universität und der UC Berkeley haben
       Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
       
   DIR Künstliche Intelligenz in der Kunst: Auf der Suche nach dem Deep Fake
       
       Eine Ausstellung will KI in der Kunst zeigen. Was es bedeutet, wenn
       Technologie täuschende Bilder produziert, erklärt sie aber kaum.
       
   DIR Intelligente Videoüberwachung in Hamburg: Punkt, Punkt, Komma, Strich
       
       Mit Hilfe Künstlicher Intelligenz will die Hamburger Polizei Gefahren
       effektiver erkennen. Dabei identifizieren Kameras verdächtige
       Bewegungsmuster.