URI: 
       # taz.de -- ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
       
       > Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
       > Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung
       > dadurch etwas Zentrales verlorengeht. Stimmt das?
       
       Die ersten Videos liefen zum Jahreswechsel auf Sihams Smartphone ein. Von
       da an folgte ein Tiktok-Kurzclip auf den nächsten, neben Kosmetik-, Tanz-
       und Tiervideos immer wieder ChatGPT, die geniale Erfindung. „Ständig
       erzählte irgendjemand, wie einfach man damit Hausaufgaben machen kann und
       wie es das ganze Schulleben auf den Kopf stellen würde“, sagt die Schülerin
       aus der Fritz-Karsen-Schule in Berlin-Neukölln. „Also habe ich es selbst
       ausprobiert.“
       
       Seit ChatGPT Ende November 2022 gestartet ist, drehen sich die Diskussionen
       in sozialen Netzwerken oft um das auf einer künstlichen Intelligenz (KI)
       basierende Sprachsystem. Und Spiegel, Zeit, FAZ machen KI zum Titelthema.
       Was KI bereits alles kann, wo KI schon überall eingesetzt wird, wann KI
       unsere Arbeit übernimmt. Wöchentlich gibt es neue Experteninterviews, oder
       die KI schreibt die Kolumnen gleich selbst – wie einmal im Monat in der
       wochentaz, wo [1][die künstliche Intelligenz Anic T. Waed Autorin der
       Kolumne „Intelligenzbestie“ ist].
       
       ChatGPT, so heißt es, könne komplexe Fragen beantworten, gebe Erklärungen
       und Tipps, helfe genauso schnell bei der Reiseplanung, wie sie einen
       Computercode oder ein neues Theaterstück schreibt.
       
       „Zuerst habe ich die Englischaufgaben damit gemacht“, sagt Siham. „Frage
       eingeben und die Antwort kopieren. Das geht total einfach, wenn man mal
       faul ist oder keine Zeit hat.“ Auch bei grundsätzlichem Lernstoff, für den
       im Unterricht der Oberstufe mal wieder nicht genug Zeit blieb, hilft
       ChatGPT nach. Dadurch wurde die KI zum Standard-Tool der 17-Jährigen. „Wenn
       mir die Antwort nicht ausreicht, schreibe ich:,Erkläre das genauer', oder
       ich stelle meine Frage anders. Schon bekomme ich einen neuen,
       detaillierteren Text, der mir beim Lernen hilft.“
       
       ## War das jetzt schon gemogelt?
       
       In diesen Tagen macht sich mal Begeisterung breit, mal Besorgnis. Dabei
       hätten wir auch schon vor Jahren von KI überwältigt sein können: Erst
       bezwingt ein Computer den Weltmeister im Schach, dann helfen Navis beim
       Autofahren, später empfehlen uns Algorithmen personalisierte Inhalte wie
       Bücher, Musik, Filme und Schnäppchen. Aber so richtig von den Socken sind
       wir erst, als eine KI beginnt, auf Zuruf verrückte Bilder zu zeichnen oder
       in einem Chatfenster mit uns zu plaudern. Faszinierend und gruselig
       zugleich.
       
       Gruselig vor allem für Schulen und Universitäten. Denn dort, wo Schreiben
       eine Persönlichkeit ausbilden, kritisches Denken fördern und junge Menschen
       zu mündigen BürgerInnen erziehen soll, beginnen die jungen Menschen, das
       Schreiben einer Maschine zu überlassen.
       
       Wenn dieser Schritt aber von einem Computer übernommen wird, geht in der
       Persönlichkeitsentwicklung nicht etwas Zentrales verloren? Muss das
       Bildungswesen einschreiten? Kann man das überhaupt verhindern?
       
       Gerade wurde Siham von ihrem Lehrer erwischt. Was heißt schon „erwischt“:
       „Warum soll ich nicht ChatGPT benutzen? Ist doch auch nicht groß anders als
       Googeln.“ Siham sucht in ihrem Chatverlauf mit ChatGPT, um welches Thema es
       ging, kann den Dialog mit der Sprach-KI aber auf die Schnelle nicht finden.
       Es war im Politikkurs, die Hausaufgabe hatte irgendwas mit
       Verfassungsorganen und dem Bundesrat zu tun. „ChatGPT hat da auch ganz gute
       Antworten geliefert, aber dann ist mein Lehrer stutzig geworden.“
       
       „Das war Zufall“, sagt Lehrer Friedemann Gürtler. „Ich hatte mit ChatGPT
       gespielt und viele dieser typischen, abwägenden Antworten erhalten.“
       Sihams Sätze in der Hausaufgabe hatten einen ganz ähnlichen Ton. „Die
       abwägende Antwort hat nicht so recht zu der eindeutigen Fragestellung
       gepasst.“
       
       Hat Siham etwas Verbotenes getan? Hat sie getäuscht? Plagiiert? Friedemann
       Gürtler war sich da auch nicht so ganz sicher. Also hat er Siham gebeten,
       ein Referat über ChatGPT zu halten. Da hatten schon die meisten
       SchülerInnen in Sihams Oberstufe von dem Programm mitbekommen. „Inzwischen
       nutzt jeder ChatGPT für die Schule“, sagt Siham. „Das ist total nützlich
       und auch richtig so. Nur wird es ab jetzt für die Lehrkräfte schwierig
       werden, die schriftlichen Leistungen zu bewerten.“
       
       Dass Computer Fließtexte generieren, die sich nicht von jenen unterscheiden
       lassen, die Menschen verfassen, ist für die Lehre ein Riesenproblem.
       [2][ChatGPT soll an der Uni von Minnesota sogar schon eine Juraprüfung
       bestanden haben.] Auch im Theorieteil, den MedizinerInnen ablegen müssen,
       um in den USA praktizieren zu dürfen, hat ChatGPT locker die
       vorgeschriebene Mindestpunktzahl erreicht.
       
       Warum also nicht einfach ChatGPT verbieten?
       
       In den USA ist das teilweise schon geschehen, der Schulbezirk in New York
       hat sich dazu entschieden. In der EU feilen Kommission und Parlament seit
       zwei Jahren am Artificial Intelligence Act, dem ersten Regelwerk für KI.
       Sogenannte Hochrisikoanwendungen sollen dabei eingeschränkt werden wie die
       Gesichtserkennung oder die Prüfung der Kreditwürdigkeit. ChatGPT ist per
       Definition auch ein Hochrisiko, solange die generierten Texte nicht einer
       Person zugeschrieben werden. Irgendjemand muss ja dafür geradestehen,
       sollte die Maschine sexistischen, rassistischen, manipulativen,
       zusammengelogenen Mist verzapfen. Kann man Schulen so eine Maschine
       zumuten?
       
       ## Berliner Firma bringt eigene Version heraus
       
       Gerade einmal fünf Tage brauchte ChatGPT, um weltweit eine Million
       NutzerInnen zu erreichen. Kein anderer Onlinedienst hat diese Marke so
       schnell geknackt. Instagram brauchte knapp drei Monate, Twitter zwei Jahre.
       Der irrwitzige Hype überrascht auch Fachkreise, denn Sprachmodelle wie GPT,
       die bei Google LaMDA und bei Facebook OPT-175B und jetzt LLaMA heißen,
       gibt es schon etwas länger, auch wenn sie noch nicht frei nutzbar sind.
       
       [3][GPT steht für Generative Pretrained Transformer und ist ein neuronales
       Netz, dessen Verbindungen sich zwischen den Rechenknoten bei Erfolg
       verstärken.] Dadurch lernt das Netzwerk, ähnlich wie unser Gehirn es tut.
       Die künstliche Intelligenz wurde mit massenhaft Textdaten trainiert:
       Artikel, Aufsätze, Blogeinträge, wissenschaftliche Papers, Belletristik,
       Kochrezepte – Millionen Texte, größtenteils aus dem Internet und ein
       beträchtlicher Stapel Fachbücher.
       
       Es ist in etwa so, als hätte man ein Kind in eine Bibliothek gesperrt, wo
       es sich mit der Zeit einen Sinn aus den Texten zusammengereimt hat. Welcher
       Buchstabe folgt mit welcher Wahrscheinlichkeit auf den anderen? Welches
       Wort folgt auf welches Wort? Welche Wortfolgen passen grammatikalisch und
       inhaltlich zusammen? Auf der Grundlage von erlernten statistischen
       Wahrscheinlichkeiten imitiert ChatGPT menschliche Sprache und erzeugt mit
       jeder Anfrage einen neuen Text. In seiner inzwischen dritten Version macht
       das Programm das so gut, dass unsereins in der Regel die Luft wegbleibt.
       
       Für ChatGPT wurde das bestehende Sprachmodell lediglich mit einer
       Chatfunktion garniert. Das macht es leicht, das Programm zu benutzen, und
       bringt auch noch Spaß mit ins Spiel. So können alle „prompten“, also eine
       Anfrage an das Programm richten. Und die Erfinder von ChatGPT konnten ihr
       Monster auf die ganze Welt loslassen, das seitdem durch die Prompts von
       derzeit weit über 100 Millionen Menschen weiter trainiert und verbessert
       wird.
       
       Dass diese kostbaren Daten gerade Sekunde für Sekunde den Internetriesen
       durch die Lappen gehen, macht ChatGPT zu dem großen Ding, das es gerade
       ist. Zum ersten Mal spurtet Google nicht vorweg, sondern muss nachziehen.
       Hastig hat es sein eigenes künstliches Sprachmodell namens Bard
       veröffentlicht, das bei dessen Vorstellung gleich mal eine falsche Info
       verbreitete und die Aktie von Googles Mutterkonzern Alphabet absacken ließ.
       Chinas Suchmaschine Baidu antwortet derweil mit ihrem Chatbot Ernie.
       
       Ernie und Bard, kein Witz. Und ausnahmsweise gibt es mit dem Heidelberger
       Unternehmen Aleph Alpha auch einen deutschen Player, der in Sachen KI auf
       Augenhöhe mitmischt.
       
       Andere Firmen nutzen GPT3 für ihre Produkte, alle können die Sprach-KI
       kostenfrei in ihre Software einbauen. Zu diesen Firmen gehört auch
       Mindverse aus Berlin-Spandau. Geschäftsführer Noel Lorenz, 25 Jahre alt,
       spaziert durch die neuen Räume, in die er vor Kurzem mit seinem Team
       eingezogen ist. Sein Personal verdoppelt sich gerade, der hintere Trakt der
       Etage ist noch eine Baustelle.
       
       „Von GPT3 war ich schon fasziniert, als es noch in der Betaphase steckte“,
       erzählt Lorenz. Da war das Modell endlich in der Lage, selbstständig Muster
       in seinen Daten zu erkennen und menschenähnliche Texte zu erstellen. Das
       gelang, weil die KI mit einer Datenmenge trainiert wurde, die bald
       1.500-mal so groß war wie die der Vorgängerversion.
       
       Vor zwei Jahren gegründet, surft Mindverse nun auf der Erfolgswelle von
       ChatGPT mit. „Im Vergleich zu GPT kann Mindverse besser Deutsch und ist
       dank seiner Livedaten aus dem Internet moderner“, sagt Lorenz. ChatGPT
       greift nur auf Datensätze bis zum Jahr 2021 zurück. Seit zehn Jahren
       programmiert Lorenz, vor sieben Jahren hat er seine erste Firma gegründet,
       dann verkauft. Er hat ein bisschen Medizin studiert, ist aber lieber zu BWL
       gewechselt. Der schwarze Steve-Jobs-Rolli unter dem Sakko lässt erahnen,
       welche Richtung seine Karriere einschlagen soll.
       
       Neben der Chatfunktion bietet Mindverse zusätzliche Feintuning-Modelle, die
       sich gezielter auf die Datensätze beziehen als bei ChatGPT. „Das neuronale
       Netzwerk antwortet nur so gut, wie es gefragt wird. Daher konkretisieren
       wir die Anfragen mit unserer Software.“ Eine Funktion ist dafür gemacht,
       Stichpunkte in Fließtext zu verwandeln, eine andere soll Aufsätze mit
       Thesen und Argumenten schreiben, die nächste werbewirksame Überschriften
       erfinden oder Songtexte dichten.
       
       „Die KI wird ständig von unseren Powerusern trainiert und bewertet“, sagt
       Lorenz. Das bedeutet, dass das Sprachmodell weiter lernt und umso
       menschlicher wird, während es den Gesprächspartner spielt. Außerdem bezieht
       die Maschine Formeln ein, die die Lesbarkeit von Texten berechnen: das
       Flesch-Kincaid-Grade-Level, den Gunning-Fog-Index, den Coleman-Liau-Index.
       Diese Formeln zählen Buchstaben, Silben und Wörter und berechnen, wie
       verständlich ein Satz sein muss. Unabhängig von dessen Inhalt ist das
       wichtig für die Suchmaschinenoptimierung. Je besser die berechnete
       Lesbarkeit, desto höher das Ranking bei Google und Co.
       
       Im Gegensatz zur ersten Version von ChatGPT gibt Mindverse auch die
       Websites an, die die KI als Quelle genutzt hat. Das könnte bei Hausarbeiten
       ein entscheidender Vorteil sein. „Wir haben bestimmte offizielle Websites
       als seriös eingestuft und bewerten Quellen höher, je häufiger sie verlinkt
       werden“, sagt Noel Lorenz. Außerdem hat der Mindverse-Kopf auch an den
       Datenschutz gedacht. Die Prompts und Entwürfe können über anonyme Konten
       verfasst werden.
       
       Das hat Thomas Süße auf das Programm aufmerksam gemacht. Er steht vor einem
       Smartboard in den Räumen des Campus Gütersloh, einem schlichten weißen
       Gebäude hinter dem Bahnhof, auch „Gleis 13“ genannt. Die Studierenden
       machen hier hauptsächlich etwas mit Maschinen: Mechatronik, Engineering,
       Logistik, digitale Technologien. Sozialwissenschaftler Süße bringt die
       menschliche Komponente in die Maschinenwelt, indem er zur Transformation
       der Arbeit forscht. „Die Technisierung verändert, beschleunigt, erleichtert
       unsere Arbeit“, erklärt der Professor. „Sie setzt uns aber auch unter
       Druck.“
       
       Technostress nennt Thomas Süße das, die Schattenseite der Digitalisierung.
       Er kritzelt blaue Pfeile und Kürzel an die Wand und denkt laut: „Bislang
       haben sowohl Hochschulen als auch Schulen nur sehr wenig wissenschaftliche
       Erkenntnisse darüber, wie Schüler und Studierende die Sprach-KI sinnvoll
       nutzen.“ Es gibt noch keine gesicherten Antworten. Wie auch, ChatGPT ist zu
       neu – und das Bildungswesen zu langsam. „Darum brauchen wir jetzt
       Grundlagenforschung, und zwar schnell.“
       
       Doch Lernerfolg lässt sich nicht so einfach nachweisen. [4][Gelernte
       Kompetenz, das umfasst neben Fachwissen auch kreatives Schaffen, kritisches
       Denken, Zusammenarbeit, die Fähigkeit, sich mitzuteilen.] „Das sind alles
       persönlich empfundene und eingeschätzte Werte“, sagt Süße. „Mein Job ist
       es, diese schwer erfassbaren Variablen besser messbar zu machen.“ Dazu will
       er eine große Gruppe SchülerInnen befragen, die regelmäßig eine Sprach-KI
       nutzt.
       
       Der Plan: Eine Klassenstufe soll ihre Facharbeit schreiben und dabei
       Mindverse verwenden dürfen. „Wir wollen wissen, welche Rolle die Sprach-KI
       spielt: ob sie Ideen einbringt, als Sparringpartnerin im Schreibprozess
       hilft, oder Co-Autorin wird.“ An der ersten Untersuchung werden 120 junge
       Leute teilnehmen. Wie praktisch, dass die benötigte Kohorte quasi vor der
       Haustür des Professors lernt.
       
       ## Den richtigen Umgang mit ChatGPT lernen
       
       Das Evangelisch Stiftische Gymnasium (ESG) in Gütersloh ist ein bisschen
       besonders. Protestanten gründeten es, als die ersten Maschinen begannen,
       die Arbeitswelt auf den Kopf zu stellen, und die Aufgaben des Handwerks
       übernahmen. Es heißt, hier würden RichterInnen, ChirurgInnen und
       ManagerInnen von morgen die Schulbank drücken.
       
       Der in Gütersloh ansässige Medienkonzern Bertelsmann hat den Backsteinbau
       der Schule um eine verspiegelte Mediothek mit Tonstudio und
       Videoschnittraum ergänzt. Seit einem Vierteljahrhundert sind Laptops hier
       Teil des Unterrichts. Dank Lernplattform und Endgeräten wechselte das ESG
       im Lockdown spielend in den Distanzunterricht. Und auch bei der Verwendung
       von Sprach-KIs gibt es an dieser Schule nur wenig Berührungsängste.
       
       Deutschlehrer Hendrik Haverkamp hat seine 8. Klasse erst neulich gegen
       ChatGPT antreten lassen. Die Aufgabe war eine Gedichtanalyse. Nachdem die
       Schülerinnen und Schüler ihre Arbeiten abgegeben hatten, kam die KI an die
       Reihe. Sie brauchte nur ein paar Sekunden, um ihren Text abzuliefern: eine
       fein strukturierte Analyse mit aufeinander aufbauenden Argumenten und ohne
       einen Rechtschreibfehler. „Das sah auf den ersten Blick nach einer
       hervorragenden Arbeit aus“, erzählt Haverkamp. „Nur war der Text inhaltlich
       komplett falsch.“
       
       ## Sprachmaschine statt Wissensmaschine
       
       Die KI schrieb das Gedicht „Berliner Abend“ von Paul Boldt lieber Erich
       Kästner zu und erzählte etwas über hübsche Naturbeobachtungen, die in
       Boldts Schilderungen nicht wirklich vorkommen. Die Argumente der Maschine
       waren teils erzkonservativ, teils weltfremd. Das erste Urteil der Klasse
       über ChatGPT: „Boomer-Tool“. „ChatGPT ist wie ein Insidergag: Ich verstehe
       ihn nur dann, wenn ich genug darüber weiß“, sagt Haverkamp.
       
       Es ist Mittwoch, ein eisiger Morgen, erste Stunde, Deutsch. In der 8.
       Klasse sind die Laptops aufgeklappt, kein Heft, kein Stift liegt auf den
       Tischen. Lehrer Haverkamp steht vor dem Bildschirm an der Wand, wo früher
       mal eine Kreidetafel hing, und schickt ein paar Meldungen über Elon Musk
       auf den Monitor. „Welche Nachricht ist Fake und von ChatGPT, welche ist
       echt?“ Es gibt erste Vermutungen, der Schreibstil der KI ist der Klasse
       längst vertraut.
       
       „ChatGPT macht keine Umschreibungen wie ‚Der 51-Jährige‘.“ „Das Wort
       ‚Milliarden‘ würde nicht mit,Mrd.' abgekürzt.“ Haverkamp zeigt der Klasse
       ein Tool, das künstlich generierte und von Menschen verfasste Texte
       unterscheiden können soll. Kann es aber nicht. Die Sprach-KI ist zu weit
       entwickelt, das Prüfungsprogramm aufgeschmissen. Dann kopiert ein Schüler
       fix einen Textbaustein der menschengemachten Meldung aus der Zeitung, sucht
       im Netz und findet die Quelle.
       
       „Mir wäre es lieber, wenn ChatGPT auch mal zugeben würde, dass es keine
       Ahnung hat“, sagt Lilli aus der 10. Klasse. „Eine eigene Meinung würde ihr
       auch gut stehen.“ Im Projektunterricht beschäftigt sich die 16-Jährige
       gerade mit den sogenannten Neuen Medien. „Die KI relativiert alle Argumente
       und geht nicht so richtig in die Tiefe. Man braucht eigenes Wissen und muss
       skeptisch bleiben, damit man keine Fehler übernimmt.“ Bei Themen, für die
       es kein Richtig oder Falsch gibt, sagt Lilli, wenn es ethisch, emotional
       oder persönlich wird, dann sei ChatGPT blank.
       
       ChatGPT ist eine Sprachmaschine, keine Wissensmaschine. Das Programm
       schwafelt, immer selbstbewusst, immer wieder inhaltsarm. Es verwendet
       Worthülsen, bedient sich aus Quellen wie Blogs oder der Boulevardpresse,
       ignoriert direkte Zitate, liest nicht zwischen den Zeilen, erzählt lieber
       irgendetwas, als gar nichts zu texten. Viele Floskeln, inflationär
       verwurstete Fremdwörter, sicheres Auftreten bei völliger Ahnungslosigkeit,
       eine Illusion des Plausiblen.
       
       Dennoch arbeitet auch Lillis Mitschüler Max viel mit dem Sprachtool. „Wenn
       ich einen Aufsatz schreibe oder etwas programmieren will. Die KI verkürzt
       die Zeit für die Fleißarbeit, damit ich mehr Zeit für die Denkarbeit habe.“
       Wegen der Sache mit ChatGPT waren auch schon mehrere Medienleute am
       Gymnasium und haben mit ihm gesprochen. Gerade erst kam ein Fernsehteam
       vorbei, erzählt Max. Die hätten für ihren Beitrag aber mal schön seine
       Antworten verdreht. „Es kam so rüber, als würde ich die KI aus purer
       Faulheit alle Hausaufgaben erledigen lassen.“ Ganz so einfach sei das nun
       auch wieder nicht.
       
       Im Mai werden Max und Lilli ihre Facharbeiten schreiben, KI-unterstützt,
       für die Studie von Thomas Süße. „Ich kann mir vorstellen, dass das Programm
       eine Inspirationsquelle sein wird“, sagt Lilli. „Es hat mir vorher schon
       gute Überschriften oder auch Argumente vorgeschlagen, auf die ich selbst
       nicht gekommen wäre. Warum sollte ich solche Ideen nicht benutzen.“
       
       Für die meisten SchülerInnen und Studierenden ist das noch nicht so
       selbstverständlich wie für Lilli und Max. Künstliche Intelligenz für eine
       Abschlussarbeit zu verwenden ist zwar kein Plagiat. Dafür müsste das
       geistige Eigentum einer Person gestohlen werden, und noch machen wir
       zwischen Mensch und Maschine einen klaren Unterschied. Jedoch kann man die
       Texte einer KI auch schlecht als eigenes geistiges Eigentum ausgeben. Das
       wäre eher als Täuschungsversuch zu werten.
       
       ## Was ist erlaubt, was verboten?
       
       Diese Art der vermeintlichen Täuschung bringt zwei Probleme mit sich.
       
       Erstens: Das ohnehin schon überlastete Lehrpersonal müsste nach
       maschinellem Ghostwriting fahnden. Aber wann? Und wie? Schon jetzt bekommt
       es kein Tool hin, zielsicher KI-Content zu erkennen. Das wird auch in
       Zukunft kaum gelingen, da die Sprach-KI ja ständig besser,
       menschenähnlicher wird.
       
       Zweitens: Wo fängt die Täuschung an? Ganz sicher, wenn man ganze
       KI-generierte Absätze verwendet. Aber auch schon bei ein paar Worten? Oder
       bei einer Idee, die mir von allein nicht eingefallen ist? Oder wenn ich
       meinen Text durch ein Rechtschreibprogramm laufen lasse? Wenn ich einen
       Taschenrechner benutze?
       
       Im Gegensatz zu den USA scheinen es die Bundesländer nicht auf ein Verbot
       von ChatGPT abzusehen. Auf der Bildungsmesse Didacta in Stuttgart hieß es
       gerade: Sprach-KI hat zu viel Potenzial, um sie zu verbieten.
       
       [5][Seitens des Hessischen Kultusministerium hieß es: KI-Anwendungen
       könnten „Schülerinnen und Schüler individuell in ihrem Lernprozess
       unterstützen“.] Viel konkreter wird es bis dato nicht. [6][Immerhin
       veröffentlichte das nordrhein-westfälische Schulministerium einen Leitfaden
       zum Umgang mit KI.] Darin wird die Arbeit mit Textrobotern nicht verboten,
       stattdessen auf die Pflicht der Schulen hingewiesen, Medienkompetenz zu
       lehren.
       
       Eine Richtlinie, wie die Lehrerinnen und Lehrer künftig Leistungen prüfen
       sollen, hat noch niemand geschrieben. Und so scheint es, als würden wir der
       künstlichen Intelligenz genauso begegnen wie den anderen Krisen der
       jüngeren Zeit auch. Klima, Corona, KI-Weltherrschaft: Wir sehen es kommen,
       wir wissen, dass wir handeln müssen – und sitzen es lieber aus.
       
       „Die Angst ist vor allem so groß, weil es an Erfahrung fehlt“, sagt Anja
       Strobel. Die Psychologin forscht im Bereich „Hybrid Societies“ an der TU
       Chemnitz daran, wie der Mensch mit der Maschine interagiert und ein
       vertrauensvolles Miteinander in der Arbeitswelt möglich ist. Strobel hat
       Interviews ausgewertet, die der Gütersloher Sozialwissenschaftler Thomas
       Süße mit ArbeiterInnen in einer Fabrik geführt hat. Sie sprachen darin über
       ihre Erfahrung, eine künstliche Intelligenz wie einen Azubi anzulernen.
       
       „Wir haben uns angesehen, wie Menschen Roboter wahrnehmen, welche
       Eigenschaften sie ihnen zuschreiben und welche Aufgaben sie die Roboter
       übernehmen lassen“, erklärt die Psychologin. Denn der technologische
       Fortschritt entwickelt sich nur in die Richtung, die wir bereit sind
       mitzugehen. Der optimistische Weg ist der: Die KI wird viel Arbeit
       vereinfachen und Jobs nur dort ersetzen, wo sie neue schafft.
       
       Die Maschinen könnten die anstrengenden, die monotonen Aufgaben übernehmen,
       sagt Anja Strobel, während die Menschen sich auf das Kreative, das
       Sinnstiftende, das Miteinander konzentrieren. „Doch das unberechenbare Neue
       macht uns nervös. Das kennen wir auch aus anderen Bereichen unseres
       Lebens.“
       
       Was ChatGPT betrifft, hat Strobel weniger Sorge, dass es den universitären
       Alltag stark beeinflussen wird. „Wir haben einiges ausprobiert und unseren
       Spaß damit gehabt“, sagt die Professorin. „Manches kann das Programm gut,
       woanders versagt es grandios.“ Den Uni-Alltag würde die Sprach-KI zunächst
       wenig verändern. „Die Studierenden dürfen generell keine Texte für bare
       Münze nehmen, nur weil sie gut klingen.“ Die Prüfungen hat Anja Strobel
       auch vorher schon lieber mündlich abgenommen. „Das ist zwar sehr
       zeitaufwendig, aber im Gespräch kann ich ganz anders schauen, ob die
       Studierenden verstanden haben, was sie gelernt haben.“
       
       Wenn es nach Lehrer Haverkamp geht, ist dagegen der Punkt erreicht, den
       Unterricht und die Prüfungskultur grundlegend zu ändern. „Stellen Sie sich
       vor, Sie sollen Ihr Handy abgeben, das WLAN ausstellen und sich in einen
       Raum einschließen, um dort nach 90 Minuten mit einer ausgefeilten Darlegung
       Ihrer Standpunkte herauszukommen“, schildert er die gängige
       Prüfungssituation. „Im wahren Leben würde das niemand von Ihnen erwarten,
       aber genau das erwarten wir von unseren Schülern.“
       
       Kann man das nicht verändern? Schwierig. Zwar sind die Lehrpläne längst
       kompetenzorientiert, was bedeutet, dass weniger Wissen, dafür mehr
       Fähigkeiten vermittelt werden. Aber in der praktischen Umsetzung bleibt es
       meist beim Pauken für den Wissenstest. Die KI kann das jetzt ändern.
       Vielleicht erzwingt sie es sogar. Denn sie würde es den Lehrkräften
       leichter machen, ihren Unterricht auf den Lernprozess zu beziehen. Will
       heißen: mehr Weg statt Ziel, mehr Entwicklung als das geschriebene
       Ergebnis.
       
       Vom „Flipped Classroom“ ist schon lange die Rede. Dort sollen Hausaufgaben
       und Vermittlung des Stoffs vertauscht werden: zu Hause Inhalt erarbeiten,
       im Unterricht anwenden. Die Sprach-KI als Lernassistent macht’s möglich.
       Ganze Unterrichtsstunden würden hinfällig, weil die Grundlagen ein Programm
       übernehmen könnte. „Dann müsste ich die Klasse nicht mehr zu stumpfsinnigen
       Aufgaben ermutigen, die ich danach stumpfsinnig korrigieren muss“, sagt
       Haverkamp. „Stattdessen könnte ich die Zeit für Feedback nutzen und die
       Schülerinnen und Schüler individuell betreuen.“
       
       Noch bevor die Studie über die Facharbeiten am Gymnasium in Gütersloh
       beginnt, hat Haverkamp schon eine Ahnung, was dabei herauskommen wird. Der
       Deutschlehrer ließ bereits eine Arbeit schreiben, bei der die Klasse
       ChatGPT nutzen durfte. Die von der KI stammenden Argumente sollten die
       SchülerInnen kenntlich machen. „Die besten Noten bekamen diejenigen, die
       die wenigsten KI-Anteile übernommen hatten. Sie ließen sich nur
       inspirieren. Je schwächer die Schüler in der Arbeit waren, desto mehr
       hatten sie übernommen.“
       
       ## Bildungsschere wächst durch Sprach-KIs
       
       Daraus ergibt sich neben der Frage der Prüfung und der Täuschung ein viel
       größeres Problem: die Bildungsschere. „Die starken Schüler profitieren am
       meisten von der KI“, sagt Haverkamp. „Sie können die Technologie
       reflektierter einsetzen. Die einen nutzen die gewonnene Zeit zum Lernen,
       die anderen für außerschulische Hobbys.“
       
       Die KI könnte die Schere gleich in vielerlei Hinsicht auseinandertreiben:
       zwischen den Schulen mit besserer und schlechterer Ausrüstung, zwischen den
       leistungsstärkeren und leistungsschwächeren Schülerinnen und Schülern – und
       auch zwischen den Armen und Reichen, wenn die kostenpflichtige
       Premium-Sprach-KI mal besser sein wird als die herkömmliche.
       
       Und das gilt nicht nur für Uni und Schule. Wir alle begegnen künstlicher
       Intelligenz, benutzen sie aktiv oder unbewusst. Die einen wissen, dass sie
       von einer Maschine mit Infos geflutet werden. Andere lassen sich eventuell
       beeinflussen. Wahrscheinlich wird es bald normal sein, dass wir zwischen
       KI-Inhalten und von Menschen verfassten Texten unterscheiden, zwischen
       Billigware und feingeistigem Handwerk. Sofern wir den Unterschied überhaupt
       merken.
       
       In dieser Woche hat OpenAI sein neues Sprachmodell GPT4 veröffentlicht. Im
       Vergleich zu seinem Vorgänger GPT3 hat es einen fünfmal so großen Datensatz
       und kann statt nur in Textform auch in Bildern antworten.
       
       18 Mar 2023
       
       ## LINKS
       
   DIR [1] /Anic-T-Wae/!a110123/
   DIR [2] https://www.zdf.de/nachrichten/panorama/chatgpt-jura-pruefung-minnesota-100.html
   DIR [3] https://www.scinexx.de/dossierartikel/wie-funktionieren-chatgpt-und-co/
   DIR [4] https://www.joeran.de/die-4k-skills-was-meint-kreativitaet-kritisches-denken-kollaboration-kommunikation/
   DIR [5] https://www.egovernment.de/schulen-und-universitaeten-sehen-chancen-von-chatgpt-a-dd3cc2286bcdd3c62520dd9bf5857c7f/#:~:text=Trotz%20kritischer%20Stimmen%20blicken%20hessische,es%20seitens%20des%20hessischen%20Kultusministeriums
   DIR [6] https://www.schulministerium.nrw/system/files/media/document/file/handlungsleitfaden_ki_msb_nrw_230223.pdf
       
       ## AUTOREN
       
   DIR Philipp Brandstädter
       
       ## TAGS
       
   DIR Lesestück Recherche und Reportage
   DIR Bildungssystem
   DIR GNS
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Bildungspolitik
   DIR Sprache
   DIR Zukunft
   DIR Technologie
   DIR Knigge
   DIR Roboter
   DIR Zukunft
   DIR Konsum
   DIR Volker Wissing
       
       ## ARTIKEL ZUM THEMA
       
   DIR Sprachprofiler über ihre Arbeit: „Spannend ist das Unbewusste“
       
       Was verrät Sprache über uns? Mit dieser Frage beschäftigen sich Leo Martin
       und Patrick Rottler professionell – und treten damit öffentlich auf.
       
   DIR Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in
       
       Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T.
       Wae. Aber aufgeben möchte sie deswegen nicht.
       
   DIR Moratorium über Umgang mit KI: Pause mit Problemen
       
       Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
       Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
       
   DIR Deutsche-Knigge-Gesellschaft: Die große Angst vor der Jogginghose
       
       Jogginghosen in Schulen: Das geht gar nicht. Sagt zumindest die
       Deutsche-Knigge-Gesellschaft und fordert deswegen nun ein Verbot.
       
   DIR ChatGPT mit Tücken: Kein Entkommen vor der KI
       
       Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
       Anfang einer rasanten Entwicklung – die auch Risiken birgt.
       
   DIR Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch!
       
       Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt
       einzigartigere Kolumnen als alle Literaten zusammen.
       
   DIR KI und freies Handeln: Der berechnete Mensch
       
       Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme
       nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?
       
   DIR Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung
       
       Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der
       Digitalminister sieht große Chancen – und will keine strengen Regeln für
       KIs.