URI: 
       # taz.de -- Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“
       
       > Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
       > Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint
       > Robert Lepenies.
       
   IMG Bild: Reale Intelligenz: Student:innen in der Ludwig-Maximilians-Universität München
       
       taz: Die Künstliche Intelligenz ChatGPT generiert auf Prüfungsfragen in
       Jura oder Medizin so gute Antworten, dass Student:innen damit Bestnoten
       erzielen würden. Wie verändert diese Entwicklung die Bedeutung des Wissens? 
       
       Robert Lepenies: Selbst wenn eine Anwendung wie ChatGPT eines Tages
       verlässlich das bereits vorhandene Wissen der Welt zusammenfassen würde –
       es bliebe immer noch genug übrig, was uns keine Software abnehmen kann. Wir
       müssen zum Beispiel wissen, wie wir es schaffen, eine nachhaltige
       gesellschaftliche Transformation hinzukriegen. Wenn wir uns also fragen,
       was Hochschulen im Speziellen und Bildung im Allgemeinen in Zeiten von
       Künstlicher Intelligenz noch für eine Aufgabe hat, dann würde ich sagen: Es
       gibt noch genug zu tun.
       
       Was verändert [1][denn ChatGPT?] 
       
       Erst mal macht es uns klar, wie falsch es ist, Bildung immer nur im Kontext
       von Prüfungen oder Seminararbeiten zu sehen. Wissen muss etwas sein, das
       die Welt voranbringt. Bringt uns diese Debatte hin zu mehr Praxisnähe, zum
       Ausprobieren, zum experimentellen Lernen? Das wäre toll. Ein reiner Fokus
       auf Hausarbeit oder Klausur als Maßstab für erfolgreiche Bildung – davon
       müssen wir uns befreien.
       
       Und ganz konkret? 
       
       Die Leichtigkeit, mit der es möglich ist, mit ChatGPT schnell große Mengen
       an Text zu produzieren, die wälzt viel um. Und das betrifft tatsächlich
       alle Menschen, die an Bildungseinrichtungen arbeiten. Man kann eine
       schnelle Seminararbeit erstellen, eine Modulbeschreibung, man kann
       Werbetexte, Konferenzankündigungen, Bewerbungen oder Anträge unglaublich
       schnell generieren.
       
       Ist das jetzt gut oder schlecht? 
       
       Ambivalent.
       
       Warum? 
       
       Wir können einerseits ganz viel Hilfreiches damit anfangen. Nach Abschluss
       einer Bildungseinheit kann ich mir als Lehrender [2][von der Software] zum
       Beispiel ein Quiz dazu generieren lassen. Ich kann meinen Seminarplan
       hochladen mit der Frage, ob ich etwas Wichtiges vergessen habe. Bald werden
       wir wohl auf Knopfdruck einzelne Lernvideos erstellen und bebildern lassen
       können. Schon heute kann ich im Seminar einen Chatbot im Prozess des
       Brainstormings mit einbinden und dann gemeinschaftlich die Ergebnisse
       diskutieren. Da sind die Ergebnisse meiner Erfahrung nach viel
       höherwertiger, als wenn zunächst jeder für sich selbst nachdenkt oder mit
       Nachbarin oder Nachbarn. Das ist wie vor 30 Jahren in der Kneipe: Hatte da
       jemand eine Faktenfrage, konnte man auch nicht einfach nachschauen. Heute
       geht das. Und das kann eine Diskussion durchaus voranbringen oder
       Falschinformationen ausräumen.
       
       Und andererseits? 
       
       Andererseits hängt die normative Bewertung solcher Technologien von
       mehreren Faktoren ab. Unter anderem auch davon, wie gerecht die
       Gesellschaft ist, auf die eine Technologie trifft – in unserer Welt, in der
       Lebenschancen global extrem ungleich verteilt sind, werden wir sicher bald
       die Auswirkungen spüren. Trifft eine disruptive Technologie auf eine sehr
       ungerechte Gesellschaft, wird sie davon höchstwahrscheinlich noch
       ungerechter. Trifft sie auf einen paradiesischen Zustand der Gleichheit,
       dann wird es mehr positive Effekte geben.
       
       Letzteres haben wir jedenfalls nicht. Welche Auswirkungen hat das also in
       der Praxis? 
       
       Erstmal merken wir, dass sich etwas verändert. Und das ist gut, denn wann
       immer wir Veränderung wahrnehmen, können wir sie auch reflektieren und
       damit bewusst umgehen. Das heißt: An jedem [3][Tag der Lehre an jeder Uni
       ist ChatGPT] auch ein Thema. Da stellt sich etwa die Frage, wie wir unsere
       Studierenden auf eine Welt vorbereiten, in der sie sich ständig auf neue
       Technologien einstellen müssen. Wer wird von diesen Veränderungen betroffen
       sein? Was bedeutet es für eine Gesellschaft, wenn die Technologien ein
       ständiges Umorientieren erfordern? Hier sind wir wieder beim Thema
       Gerechtigkeit. Oder ganz konkret: Wie gehen die Prüfungsämter damit um,
       dass sich Seminararbeiten oder Teile davon einfach maschinell erstellen
       lassen?
       
       Ist das ein Problem, das Sie in der Praxis sehen? 
       
       Noch nicht. Mit Betonung auf „noch“. Denn momentan kann man darüber lachen,
       dass es inhaltlich häufig Quatsch ist, was bei dem Programm rauskommt.
       Manche Studierende nutzen es trotzdem und fallen auf die Nase damit. Zum
       Beispiel, weil sie das Programm als Suchmaschine nutzen und
       Falschbehauptungen übernehmen. Die Frage ist: Was ist denn in drei Jahren,
       wenn diese Funktionen überall eingebettet sind? Haben dann noch Menschen
       die Konzentration, seitenlange Artikel durchzulesen? Oder haben wir das
       verlernt, weil alle sich nur noch KI-generierte Zusammenfassungen
       anschauen? Es ist faszinierend zu sehen, wie schnell sich Kulturtechniken
       verändern.
       
       Und welche Antworten haben Sie? 
       
       Eine Antwort ist eine Pluralität der Prüfungsformen. Wir müssen vom
       Auswendiglernen und Reproduzieren weg zur Anwendung, zur Transformation –
       der Welt und der eigenen Persönlichkeit. Zum Beispiel Gruppenarbeit in
       konkreten Projekten in der Praxis. Da lernen die Studierenden direkt am
       Zahn der Zeit, was die Gesellschaft, was die Unternehmen oder
       Organisationen eigentlich denken und brauchen und welche Fragen sie sich
       stellen. Dabei verbringt beispielsweise eine Gruppe Studierender ein
       Semester bei einer zivilgesellschaftlichen Organisation und entwickelt
       gemeinsam mit denen ein durchführbares Konzept zu einer gesellschaftlich
       relevanten Frage. Was man jetzt schon absehen kann: Wir werden in Zukunft
       ganz neue Fähigkeiten brauchen. Eine ist, den Output eines solchen
       Programms richtig einzuordnen. Und zwar nicht nur offensichtliche
       Falschinformationen, sondern beispielsweise Verzerrungen, die sich durch
       einseitige Trainingsdaten ergeben können. Eine andere Kompetenz, die
       wichtiger werden wird: Wie bekomme ich das Programm überhaupt dazu, etwas
       Sinnvolles zu erzeugen? Das ist gar nicht so einfach, etwa bei einem
       Bildgenerator genau das Bild generiert zu bekommen, was man im Kopf hat. Da
       braucht man Ausdauer, aber auch ein gewisses Maß an Interaktion, Sozialität
       und intuitivem Wissen über die Welt jenseits der Maschine. Man braucht
       Impressionen von draußen, um in der Lage zu sein, einen guten Prompt …
       
       …das ist der Textbefehl für eine Künstliche Intelligenz … 
       
       … zu generieren. Dieses Silicon-Valley-Bild, dass man einfach die Lernenden
       vor die Bildschirme setzt und dann wird das schon, das wird nie aufgehen
       können. Wir werden immer noch die Welt jenseits des Bildschirms brauchen.
       
       Inwieweit sind Sie in dem ganzen Prozess als Bildungseinrichtungen
       Getriebene oder Gestalterinnen? 
       
       Ich hoffe natürlich, dass wir zu den Gestaltern gehören. Dass wir es
       schaffen, Reflektionsräume zu öffnen, Raum für Kritik zu geben – und nicht
       einfach beibringen, wie man die besten Prompts schreibt. Stattdessen geht
       es vor allem darum, kritisches Denken zu vermitteln: Wer bekommt denn die
       ganzen Daten der Nutzenden? Woher kommen die Trainingsdaten für die KI?
       Welche Biases, also Verzerrungen sind da möglicherweise drin? Wie geht man
       damit um? Wie checken wir Quellen? Das alles macht einen noch nicht zum
       Gestalter, aber es schafft eine Digitalkompetenz. Und die ist die Basis zum
       Gestalten.
       
       Und was braucht es noch? 
       
       Ich glaube, wir brauchen mehrere große, politische Lösungen. Europäische
       KI-Modelle, die offen und privatsphärefreundlich sind, und eine wirksame
       Regulierung beispielsweise. Da passiert gerade noch nicht genug und vor
       allem nicht schnell genug.
       
       Je stärker wir KI-Anwendungen einbinden, desto abhängiger machen wir uns
       von ihnen – davon, dass das Internet funktioniert oder das Unternehmen
       OpenAI sein Programm ChatGPT weiterhin für alle kostenlos bereitstellt. 
       
       Ja, da ist es wichtig, dass wir als Gesellschaft darauf achten, die
       Souveränität zu behalten. Dass wir also Entscheidungen weiterhin selber
       treffen und Kompetenzen – wie etwa die Fähigkeit zu einer medizinischen
       Diagnosestellung – immer noch haben, auch wenn die KI das vielleicht besser
       kann. Es braucht ein Reservoir an Menschen, die elementare Kulturtechniken
       beherrschen, wie etwa das Schreiben. Ob es aber deshalb sinnvoll ist, alle
       Schüler:innen in einer Abiturprüfung fünf Stunden lang mit einem
       Kugelschreiber ein Papier bearbeiten zu lassen – das bezweifel ich.
       
       26 Apr 2023
       
       ## LINKS
       
   DIR [1] /ChatGPT-mit-Tuecken/!5924109
   DIR [2] /OpenAI-in-der-Kritk/!5922783
   DIR [3] /ChatGPT-loest-Bildungskrise-aus/!5920652
       
       ## AUTOREN
       
   DIR Svenja Bergt
       
       ## TAGS
       
   DIR Bildung
   DIR Unterricht
   DIR Schwerpunkt Künstliche Intelligenz
   DIR GNS
   DIR Kiel
   DIR Bürgerrechte
   DIR Zukunft
   DIR IG
   DIR Roboter
       
       ## ARTIKEL ZUM THEMA
       
   DIR Künstliche Intelligenz in der Medizin: Hatschi? KI!
       
       Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein
       Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen
       helfen.
       
   DIR Chancenstartprogramm und Schulförderung: Eine Lehrstunde aus Kiel
       
       Der Bund will ab 2024 benachteiligte Schüler:innen mit mehr Geld
       unterstützen. An einer Schule in Kiel weiß man, wie es sinnvoll eingesetzt
       wird.
       
   DIR KI-Regulierung in der EU: Regeln für die Maschine
       
       EU-Abgeordnete haben sich auf einen Entwurf geeinigt, der KI nach Risiko
       einstufen soll. Damit sollen Menschenrechte geschützt und die Wirtschaft
       beflügelt werden.
       
   DIR Künstliche Intelligenz: Wer hat Angst vor ChatGPT?
       
       Die Entwicklung von KI schreitet voran und menschliche Arbeit könnten bald
       von Maschinen übernommen werden. Warum das kein Albtraum sein muss.
       
   DIR Risiken von KI: „Alles geht zu schnell“
       
       Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
       Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
       
   DIR KI und Anthropomorphismus: Mensch in der Maschine?
       
       Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
       wir zu menschlichen Metaphern. Aber das birgt Probleme.