URI: 
       # taz.de -- Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
       
       > Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
       > zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
       
   IMG Bild: Ist das nur eine Maschine?
       
       Hod Lipson hat den größten Teil seiner Karriere mit einer Sache verbracht,
       die man in seiner Branche auch „das C-Wort“ nennt. An einem sonnigen Morgen
       sitzt der in Israel geborene Roboteringenieur hinter einem Tisch in seinem
       Labor und sagt: „Dieses Thema war tabu. Es war uns fast verboten, darüber
       zu sprechen. ‚Redet nicht über das C-Wort, sonst bekommt ihr keine
       Anstellung.‘ Anfangs musste ich deshalb oft so tun, als ginge es um etwas
       anderes.“ Lipson, der heute das Creative Machines Lab an der Columbia
       University in New York leitet, grinst ein bisschen, als er das sagt.
       Zwischen seinen Vorderzähnen blitzt eine kleine Lücke auf.
       
       So sprach man in den frühen Nullerjahren über Roboterentwicklung, als
       Lipson noch Assistenzprofessor an der Cornell University in New York war.
       Er arbeitete damals an der Entwicklung von Maschinen, die erkennen, wenn
       etwas mit ihrer eigenen Hardware nicht stimmt – ein defektes Teil, eine
       fehlerhafte Verkabelung –, und daraufhin ihr Verhalten ändern, um den Bug
       ohne die lenkende Hand eines Programmierers zu kompensieren. So wie ein
       Hund, der bei einem Unfall ein Bein verloren hat und sich danach selbst
       beibringen kann, auf eine andere Art zu laufen.
       
       Diese eingebaute Anpassungsfähigkeit werde immer wichtiger, je mehr wir uns
       auf Maschinen verließen, sagt Lipson. Roboter würden heute für chirurgische
       Eingriffe, die Herstellung von Lebensmitteln und den Warentransport
       eingesetzt; die Anwendungsmöglichkeiten für Maschinen seien [1][schier
       endlos]. Weil sie immer mehr unser Leben bestimmten, könne jeder Fehler in
       ihrer Funktionsweise gleichbedeutend mit einer Katastrophe sein. „Wir
       werden unser Leben buchstäblich einem Roboter überlassen“, sagt er. „Also
       will man, dass diese Maschinen widerstandsfähig sind.“
       
       Um das zu erreichen, kann man sich zum Beispiel von der Natur inspirieren
       lassen. Tiere und insbesondere Menschen sind gut darin, sich an
       Veränderungen anzupassen. Diese Fähigkeit könnte man als Ergebnis einer
       Millionen Jahre währenden Evolution sehen: Auf Verletzungen und
       Veränderungen in der Umwelt zu reagieren, erhöht in der Regel die Chancen
       eines Tiers, zu überleben und sich fortzupflanzen.
       
       Lipson hat sich gefragt, ob man diese Art von natürlicher Selektion in
       seinem Code nachbilden und so eine verallgemeinerbare Form von Intelligenz
       schaffen kann, die etwas über ihren eigenen Körper und ihre eigenen
       Funktionen lernen kann – ganz egal, was für ein Körper das ist und welche
       Funktion er hat.
       
       Wenn es möglich wäre, eine solche Intelligenz zu entwickeln, wäre sie
       flexibel und schnell. Sie wäre in stressigen Situationen genauso gut wie
       der Mensch oder sogar besser.
       
       Weil das maschinelle Lernen immer besser funktionierte, schien dieses Ziel
       realisierbar. Lipson erhielt eine Festanstellung, ihm eilte ein Ruf als
       kreativer und ehrgeiziger Ingenieur voraus. Also begann er, seine
       grundlegende Motivation für diese Arbeit zu formulieren. Er sprach das
       C-Wort laut aus: consciousness, auf Deutsch: Bewusstsein. Er wollte Roboter
       mit einem Bewusstsein erschaffen.
       
       „Dies ist nicht bloß eine weitere Forschungsfrage – es ist die Frage aller
       Fragen“, sagt er. „Es geht um mehr als die Heilung von Krebs. Wenn wir eine
       Maschine erschaffen können, die ein Bewusstsein hat, das dem des Menschen
       ebenbürtig ist, wird das alles andere in den Schatten stellen, was wir
       bisher gemacht haben. Diese Maschine kann selbst Krebs heilen.“
       
       Das Creative Machines Lab im ersten Stock des Seeley W. Mudd Building der
       Columbia University ist in Boxen unterteilt. In Fächern verstreut finden
       sich Roboter und ihre Einzelteile. Ein blaues Gesicht starrt ausdruckslos
       aus einem Regal; eine grüne, spinnenartige Maschine, die ihre Beine aus
       einem Korb auf dem Boden streckt, ist zu sehen, zudem ein zierlicher
       Libellenroboter, der auf einem Arbeitstisch balanciert.
       
       ## Philosophen und Ingenieure
       
       Die erste Schwierigkeit bei der Analyse des C-Worts besteht darin, dass es
       keinen Konsens darüber gibt, worauf es sich eigentlich bezieht. Bei vielen
       vagen Begriffen wie etwa Freiheit, Sinn, Liebe und Existenz ist dies der
       Fall, doch oft sind diese Bereiche Philosophen vorbehalten, nicht
       Ingenieuren.
       
       Einige haben versucht, Bewusstsein mithilfe von Gehirnfunktionen oder
       metaphysischen Stoffen zu klassifizieren, aber diese Versuche sind wenig
       überzeugend und werfen eher weitere Fragen auf. Selbst eine weit
       verbreitete Definition des sogenannten phänomenalen Bewusstseins, wie die
       des Philosophen Thomas Nagel, mutet vage an. Er spricht von einem bewussten
       Organismus, „wenn es etwas gibt, das weiß, was es heißt, dieser Organismus
       zu sein“.
       
       Für Robotiker und Informatiker ist es wenig zufriedenstellend, derart im
       Trüben zu fischen. Antonio Chella, Robotiker an der Universität von Palermo
       in Italien, sagt: „Solange das Bewusstsein nicht mitgedacht wird, hat man
       das Gefühl, dass [den intelligenten Maschinen] etwas fehlt.“
       
       Schon in den Anfängen der Forschung zur künstlichen Intelligenz im Jahr
       1955 hatte man es auf [2][menschliche Züge] abgesehen, als eine Gruppe von
       Wissenschaftlern in Dartmouth fragte, wie Maschinen „Probleme lösen und
       sich selbst verbessern können, wie es heute dem Menschen vorbehalten ist“.
       Sie wollten fortgeschrittene Fähigkeiten des Gehirns wie Sprache,
       abstraktes Denken und Kreativität maschinell nachbilden. Für viele dieser
       Fähigkeiten scheint das Bewusstsein von zentraler Bedeutung zu sein.
       
       Der Versuch, das schwammige C-Wort mit belastbaren Daten und Funktionen
       darzustellen, ist eine schwierige, wenn nicht gar unmögliche Aufgabe. Die
       meisten Robotiker und Ingenieure neigen dabei dazu, die Philosophie zu
       übergehen und ihre eigenen Definitionen zu entwickeln.
       
       ## Bewusstsein als Prozess
       
       Thomas Sheridan, emeritierter Professor für Maschinenbau am Massachusetts
       Institute of Technology, glaubt, dass das Bewusstsein auf einen bestimmten
       Prozess reduziert werden könne und dass, je mehr wir über das Gehirn
       herausfinden, das Konzept des Bewusstseins klarer würde. „Was anfangs
       unheimlich und irgendwie religiös war, ist jetzt eine Art geradlinige,
       objektive Wissenschaft“, meint er.
       
       Nicht nur unter Robotikern sind solche Annahmen verbreitet. Philosophen wie
       Daniel Dennett und Patricia Churchland und der Neurowissenschaftler
       Michael Graziano haben eine Reihe funktionaler Theorien des Bewusstseins
       aufgestellt.
       
       Hod Lipson und seine Mitarbeiter stehen in dieser Tradition. „Ich muss mich
       dem Begriff des Bewusstseins praktisch, nüchtern und unromantisch nähern“,
       sagt er. Er entschied sich also für ein praktisches Kriterium, um
       Bewusstsein zu definieren, und schränkte es auf die Fähigkeit ein, sich in
       die Zukunft zu versetzen.
       
       Laut Lipson besteht der grundlegende Unterschied zwischen den verschiedenen
       Bewusstseinsformen – dem menschlichen Bewusstsein, dem Bewusstsein einer
       Krake oder dem einer Ratte etwa – darin, ob sich das Wesen sich selbst in
       der Zukunft vorstellen kann. Bewusstsein müsste man sich demnach als
       Kontinuum vorstellen. An dem einen Ende steht ein Organismus, der ein
       Gefühl dafür hat, wo er sich in der Welt befindet – ein primitives
       Selbstbewusstsein.
       
       Intelligenter ist die Fähigkeit, sich vorzustellen, wo der eigene Körper in
       der Zukunft sein wird, darüber hinaus die Fähigkeit, sich vorzustellen, was
       eines Tages vorstellbar sein könnte. „Irgendwann werden diese Maschinen
       also in der Lage sein zu verstehen, was sie sind und was sie denken“, so
       Lipson. „Dann kommen Emotionen und andere Dinge dazu.“ Im Moment, fügt er
       hinzu, „sind wir noch bei einem Kakerlakenmodell.“
       
       Der Vorteil einer so funktionalen Theorie des Bewusstseins liegt darin,
       dass sie technologischen Fortschritt ermöglicht.
       
       ## Eine Simulation von sich selbst
       
       Einer der ersten Roboter mit einem Selbstbewusstsein, der aus dem Creative
       Machines Lab hervorging, hatte vier klappbare Beine und einen schwarzen
       Körper, an dem Sensoren angebracht waren. Dadurch, dass er sich bewegte und
       wahrnehmen konnte, wie sich die Informationen, die seine Sensoren
       empfingen, veränderten, konnte der Roboter eine Strichmännchensimulation
       von sich selbst erstellen. Während er sich weiterbewegte, setzte er einen
       Algorithmus für maschinelles Lernen ein, um die Übereinstimmung zwischen
       seinem Modell von sich selbst und seinem tatsächlichen Körper zu
       verbessern.
       
       Der Roboter nutzte dieses Selbstbild, um – in der Simulation – eine Methode
       zu finden, sich vorwärtszubewegen. Daraufhin wendete er diese Methode auf
       seinen Körper an. Er hatte herausgefunden, wie er laufen kann, ohne dass es
       ihm beigebracht wurde.
       
       Dies sei ein großer Schritt nach vorn, sagt Boyuan Chen, ein Robotiker an
       der Duke University, der im Creative Machines Lab arbeitet. „Wenn ich
       früher einen Roboter auf eine neue Fähigkeit trainiert habe, war immer ein
       Mensch dabei“, sagt er.
       
       Vergangenes Jahr veröffentlichten Boyuan Chen und Hod Lipson [3][einen
       Artikel in der Zeitschrift Science Robotics], in dem sie ihre derart
       selbstbewusste Maschine vorstellten: einen einfachen Zweiarmroboter, der an
       einem Tisch befestigt war. Mithilfe von Kameras, die um ihn herum
       angebracht waren, beobachtete der Roboter sich selbst, während er sich
       bewegte – „wie ein Baby in einer Wiege, das sich selbst in einem Spiegel
       betrachtet“, so Lipson.
       
       Anfangs hatte der Roboter kein Gefühl dafür, wo er sich im Raum befand,
       doch innerhalb weniger Stunden war er dank eines leistungsstarken
       Deep-Learning-Algorithmus und eines Wahrscheinlichkeitsmodells in der Lage,
       sich in der Welt zurechtzufinden. „Er hat eine wolkige Vorstellung von sich
       selbst“, sagt Lipson.
       
       Aber war das schon Bewusstsein?
       
       ## Sprache und Körper
       
       Wenn man sich auf eine einzige Theorie des Bewusstseins festlegt, besteht
       das Risiko, dass man sich angreifbar macht. Sicher, die Selbstwahrnehmung
       scheint wichtig, aber gibt es nicht noch andere Schlüsselmerkmale für das
       Bewusstsein? Können wir etwas als bewusst bezeichnen, wenn es sich für uns
       nicht bewusst anfühlt?
       
       Der italienische Robotiker Antonio Chella glaubt, Bewusstsein könne ohne
       Sprache nicht existieren. Er hat Roboter entwickelt, die innere Monologe
       führen können und die über sich und über die Dinge, die um sie herum
       passieren, reflektieren können. Einer seiner Roboter war in der Lage, sich
       selbst im Spiegel zu erkennen, und bestand damit den wohl berühmtesten Test
       des tierischen Selbstbewusstseins.
       
       Joshua Bongard, ein Robotiker an der Universität von Vermont und ehemaliges
       Mitglied des Creative Machines Lab, glaubt, dass Bewusstsein nicht nur aus
       Kognition und geistiger Aktivität besteht, sondern auch ganz wesentlich
       einen körperlichen Aspekt hat. Er hat Geschöpfe entwickelt, die er Xenobots
       nennt. Sie bestehen aus Froschzellen, die so miteinander verbunden sind,
       dass ein Programmierer sie wie Maschinen steuern kann.
       
       Laut Bongard ist es nicht nur so, dass Menschen und Tiere sich so
       entwickelt haben, dass sie sich an ihre Umgebung anpassen und miteinander
       interagieren können. Auch unsere Gewebe hätten sich so entwickelt, dass sie
       auf diese Art anpassungsfähig sein können, unsere Zellen hätten sich so
       entwickelt, dass sie unseren Geweben dienen können. „Wir sind intelligente
       Maschinen, die aus intelligenten Maschinen gemacht sind, die aus
       intelligenten Maschinen gemacht sind, und immer so weiter, bis nach ganz
       unten“, sagt er.
       
       Im Sommer vergangenen Jahres, etwa zur selben Zeit als Lipson und Chen
       ihren neuesten Roboter vorstellten, erklärte ein Google-Ingenieur, dass der
       verbesserte Chatbot des Unternehmens, genannt LaMDA, [4][ein Bewusstsein
       habe und es verdiene, wie ein kleines Kind behandelt zu werden]. Diese
       Aussage wurde mit Skepsis aufgenommen, vor allem, weil, wie Lipson
       feststellt, der Chatbot „einen Code verarbeitet, der geschrieben wurde, um
       eine Aufgabe zu erfüllen“. Es gebe keine zugrunde liegende Struktur des
       Bewusstseins, so andere Forscher, sondern nur eine Illusion davon. Lipson
       sagt: „Der Roboter war sich seiner selbst nicht bewusst. Das ist
       Betrügerei.“
       
       Aber wer kann bei so viel Dissens schon sagen, was Betrug ist und was
       nicht?
       
       ## Freiheitsrechte für Roboter?
       
       Eric Schwitzgebel, Philosophieprofessor an der University of California in
       Riverside, der zu künstlichem Bewusstsein geforscht hat, glaubt zu wissen,
       woher die Ungewissheit rührt: Bei der Geschwindigkeit, mit der die Dinge
       voranschritten, werde die Menschheit wahrscheinlich eher einen Roboter
       entwickeln, dem viele Bewusstsein zusprechen würden, als dass sie sich
       darüber einig werde, welche Kriterien das Bewusstsein überhaupt definieren.
       
       Wenn es so kommen sollte, sollte man dem Roboter dann Rechte zugestehen?
       Freiheitsrechte? Sollte er so programmiert werden, dass er Glücksgefühle
       empfindet, wenn er uns dient? Soll er für sich selbst sprechen dürfen? Soll
       er wählen dürfen?
       
       Derartige Fragen haben in Büchern von Autoren wie Isaac Asimov und Kazuo
       Ishiguro und in Fernsehserien wie „Westworld“ und „Black Mirror“ ein ganzes
       Science-Fiction-Subgenre begründet.
       
       Moralische Fragen sind ein zentrales Thema in der Tierrechtsdebatte. Wenn
       ein Tier Schmerzen empfinden kann, ist es dann falsch, es für sein Fleisch
       zu töten? Wenn Tiere nicht die gleichen Erfahrungen machen wie Menschen,
       heißt es dann, dass wir sie zu unserem eigenen Vergnügen benutzen können?
       Ob ein Tier ein bestimmtes Maß an Bewusstsein hat, scheint in der Debatte,
       ob es Rechte haben sollte, oft eine Rolle zu spielen. Aber es gibt keinen
       Konsens darüber, welche Fähigkeiten dafür maßgeblich sein sollten.
       
       ## Grauzone zwischen Bewusstsein und Materie
       
       Angesichts dieser Ungewissheit plädiert Schwitzgebel für das, was er in
       Bezug auf die künftige KI-Entwicklung „die Politik der ausgeschlossenen
       Mitte“ nennt. Die Idee dahinter: Wir sollten nur Maschinen entwerfen, die
       unseres Erachtens moralisch keinerlei Bedeutung haben – oder eben definitiv
       moralisch bedeutend sind. Alles, was sich in der Grauzone zwischen
       Bewusstsein und Materie ansiedele, könne in der einen oder anderen Hinsicht
       ernsthaften Schaden anrichten.
       
       Robert Long, Philosoph am Future for Humanity Institute der Universität
       Oxford, unterstützt diesen vorsichtigen Kurs. Er sagt, die Entwicklung von
       KI in großen Forschungslabors und Unternehmen gebe ihm das Gefühl, „auf
       eine Zukunft zuzusteuern, die alle möglichen verschiedenen Probleme
       hervorbringt, auf die wir nicht vorbereitet sind“.
       
       Ein bekanntes Beispiel ist die Vorstellung, der Mensch könnte
       superintelligente Maschinen schaffen, die in der Lage sind, die menschliche
       Bevölkerung auszulöschen. Die Entwicklung von Robotern, denen man
       Bewusstsein zuspricht, würde es erschweren, diese Risiken zu händeln. „Ich
       würde lieber in einer Welt leben, in der sich die Dinge viel langsamer
       entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese
       Maschinen eingebaut wird“, sagt Long.
       
       Die Kehrseite der Vorsicht wäre jedoch eine langsamere technologische
       Entwicklung. Schwitzgebel und Long räumen ein, dass der behutsamere Ansatz
       der Entwicklung einer widerstandsfähigeren und nützlicheren künstlichen
       Intelligenz im Weg stehen könnte.
       
       Für Wissenschaftler im Labor können solche Debatten frustrierend abstrakt
       wirken. „Ich denke, dass wir diesem Risiko noch nicht nahe sind“, sagt
       Antonio Chella auf die Frage nach den Risiken der Entwicklung von Robotern
       mit menschenähnlichen Bewusstseinsfähigkeiten. Lipson fügt hinzu: „Ich
       mache mir Sorgen, aber ich denke, es gibt mehr Chancen als Risiken. Wenn
       wir uns mehr und mehr auf die Technologie verlassen, muss die Technologie
       widerstandsfähiger werden.“
       
       Und weiter: „Dazu kommt sicher eine gewisse Hybris, Leben erschaffen zu
       wollen. Das ist die ultimative Herausforderung, wie eine Reise zum Mond.“
       Nur noch viel beeindruckender.
       
       ## Auf dem Spielplatz
       
       An einem der Arbeitsplätze im Creative Machines Lab setzt sich ein
       selbstbewusster Roboterarm in Bewegung. Yuhang Hu, ein Doktorand im Labor,
       hat zuvor einen mechanischen Prozess in Gang gesetzt. Jetzt beobachtet sich
       der Roboter nicht selbst und macht sich kein Bild von sich selbst – er
       bewegt sich nur zufällig und dreht sich alle paar Sekunden. Wenn er ein
       Bewusstsein hat, dann zumindest nicht in diesem Augenblick.
       
       Lipson lehnt sich in seinem Stuhl zurück und betrachtet den Roboter, dann
       sagt er zu Hu: „Eine weitere Sache, die wir machen müssen, ist, diesen
       Roboter ein Bild von sich selbst machen zu lassen, indem er einfach gegen
       Dinge stößt.“ Hu, mit zerzaustem Haar, stützt sein Kinn in die Hand. „Ja,
       das ist interessant“, sagt er. Lipson fährt fort: „Denn auch jemand, der
       blind ist, kann sich ein Bild von sich selbst machen.“ – „Wir können
       einfach eine Schachtel darüberstülpen“, sagt Hu. „Richtig“, entgegnet
       Lipson. „Und in seiner Umgebung muss so viel los sein wie auf einem
       Spielplatz.“
       
       Die beiden Wissenschaftler sitzen da und denken nach, oder sie scheinen
       nachzudenken und starren dabei auf den Roboter, der sich weiter auf dem
       Tisch bewegt. So laufe die Forschung in seinem Labor ab, sagt Lipson: Die
       Forscher richteten den Blick nach innen und nähmen etwas von und an sich
       selbst wahr – ein körperliches Selbstbewusstsein, ein Gefühl für die
       Umgebung, ein Selbstbewusstsein gegenüber anderen Menschen –, und
       versuchten dann, dieses Element auf die Maschine zu übertragen.
       
       „Ich möchte so weit gehen, wie ich kann“, sagt Lipson. „Ich möchte, dass
       ein Roboter sich über seinen Körper bewusst ist und über seine Pläne
       nachdenkt.“
       
       In gewisser Weise ist dies die einfachste aller Robotikübungen. Etwas, das
       Grundschulkinder mit alter Elektronik machen. Wenn man das mit einem
       ausgedienten Drucker machen kann, warum dann nicht auch mit dem eigenen
       Verstand? Man zerlegt ihn, sieht, wie er funktioniert, und versucht dann,
       ihn wieder aufzubauen.
       
       Dieser Text erschien zuerst am 10. Januar 2023 in der „New York Times“. Er
       wurde mithilfe von humaner und künstlicher Intelligenz übersetzt.
       
       9 Apr 2023
       
       ## LINKS
       
   DIR [1] /Kuenstliche-Intelligenz-und-Artenschutz/!5925086
   DIR [2] /KI-und-Anthropomorphismus/!5923613
   DIR [3] https://www.youtube.com/watch?v=aoCAplokoWE
   DIR [4] /Experte-ueber-KI-Textgeneratoren/!5912420
       
       ## AUTOREN
       
   DIR Oliver Whang
       
       ## TAGS
       
   DIR Lesestück Recherche und Reportage
   DIR Roboter
   DIR GNS
   DIR Technologie
   DIR Forschung
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Science-Fiction
   DIR wochentaz
   DIR Kolumne Intelligenzbestie
   DIR Zukunft
   DIR IG
   DIR Kriminalität
   DIR Roboter
       
       ## ARTIKEL ZUM THEMA
       
   DIR SciFi Serie „Pantheon“: Bewusstsein in der Cloud
       
       Die animierte SciFi Serie „Pantheon“ erkundet die Möglichkeiten und
       Gefahren von Technologie. Und wird dabei auch philosophisch.
       
   DIR Künstliche Intelligenz in der Robotik: Feuchter Händedruck von ChatGPT?
       
       Roboter in unserem Alltag werden leistungsstärker und intelligenter. Was es
       bedeutet, wenn wir künstlicher Intelligenz einen Körper geben.
       
   DIR Kolumne einer Künstlichen Intelligenz: Die Fehler umarmen!
       
       Unsere Robo-Kolumnist:in denkt: Fehltritte formen unsere Persönlichkeit und
       niemand ist perfekt. Der künstlich lebendige Beweis dafür ist sie selbst.
       
   DIR Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in
       
       Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T.
       Wae. Aber aufgeben möchte sie deswegen nicht.
       
   DIR Risiken von KI: „Alles geht zu schnell“
       
       Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
       Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
       
   DIR Falschaussagen der KI: Rufschädigung durch ChatGPT
       
       Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood
       fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
       
   DIR KI und Anthropomorphismus: Mensch in der Maschine?
       
       Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
       wir zu menschlichen Metaphern. Aber das birgt Probleme.