URI: 
       # taz.de -- Künstliche Intelligenz in der Medizin: Algorithmus auf Rezept
       
       > Künstliche Intelligenz wird Ärzt:innen nicht ersetzen. Die Technologie
       > kann sie aber entscheidend entlasten, sagt die Medizinethikerin Alena
       > Buyx.
       
   IMG Bild: Direkte Kommunikation zwischen Arzt und Patient
       
       wochentaz: Frau Buyx, wie wichtig ist es für Menschen, dass sie nicht von
       einem Computersystem, sondern von einem anderen Menschen behandelt werden? 
       
       Alena Buyx: Das ist sehr individuell. Menschen stehen [1][Technik sehr
       unterschiedlich offen gegenüber]. Die einen fühlen sich wohler damit,
       vermeintlich peinliche Sachen einer Maschine zu erzählen. Andere erwarten
       von ihr mehr Präzision. Wieder andere wollen unbedingt den Kontakt zu
       Menschen und von KI gar nichts hören. Viele stehen dem Einsatz von
       künstlicher Intelligenz in diagnostischen Anwendungen offener gegenüber als
       in der eigentlichen Behandlung. Es wird eine große Herausforderung, auf
       diese verschiedenen Bedürfnisse einzugehen.
       
       Wie kann das gelingen? 
       
       Die Medizin ist grundsätzlich gut darin, mit verschiedenen Optionen zu
       arbeiten, vor allem in der Behandlung. Um den Menschen Vorbehalte zu
       nehmen, muss Patientinnen und Patienten gegenüber viel erklärt werden.
       
       KI ist erst mal ein Werkzeug, das sich überall anwenden lässt. Was macht
       sie besonders in der Medizin?
       
       Künstliche Intelligenz ist ein Instrument, nicht mehr, nicht weniger. Diese
       aktuelle Überhöhung ist problematisch. Für die Anwendung haben [2][wir im
       Ethikrat eine ethische Faustregel entwickelt]: KI muss die Handlungs- und
       Entfaltungsmöglichkeiten des Menschen erweitern und nicht verringern, und
       sie darf den Menschen nicht ersetzen. Diese Aspekte sind sehr relevant für
       die Medizin. Wenn man KI sinnvoll einsetzt, kann das Verhältnis von Nutzen
       und Risiko in der Medizin aber positiv sein, weil die Möglichkeiten vor
       allem der prädiktiven Mustererkennung so hoch sind. Das hilft in der
       Forschung oder auch der Diagnostik und Prävention.
       
       Welche Rolle spielt KI heute schon in der Medizin? 
       
       In der medizinischen Praxis in Deutschland ist der Einsatz noch nicht
       etabliert. Sehr gut funktioniert KI aber beispielsweise schon in der
       Medikamentenentwicklung.
       
       In welchem Bereich könnte der Einsatz am besten wirken? 
       
       Menschen in Gesundheitsberufen verbringen bis zu vierzig Prozent ihrer
       Arbeitszeit mit Verwaltungsaufgaben am Computer. Ich wünsche mir, dass KI
       die Leute freispielt. Es ist eine falsche Zielsetzung, direkt in den Kern
       des Arzt-Patienten-Verhältnisses reinzugehen. Dieser Aspekt der Behandlung
       ist zentral und zu Recht stark geschützt. Eine viel weniger problematische,
       echte Erleichterung wäre es, wenn die KI-Modelle etwa [3][Arztbriefe
       vorschreiben], Akten vorauswerten, Dokumentation vorbereiten.
       
       Es gibt auch Anwendungsbeispiele bei der Diagnose und
       Behandlungsempfehlungen. Wo ist da das Potenzial? 
       
       Hier geht es ins [4][Arzt-Patienten-Verhältnis], also müssen wir
       vorsichtig sein. Bei diagnostischen Befundungssystemen, etwa in der
       Bildgebung von Röntgen- oder CT-Aufnahmen, können Algorithmen helfen,
       Muster zu erkennen, und auf veränderte Strukturen hinweisen. Und im Bereich
       der Vorhersage ist irre viel Musik drin. Zum Beispiel in der frühen
       Erkennung von akutem Nierenversagen auf der Intensivstation, das sehr
       gefährlich sein kann. Eine KI konnte diese Komplikation in 48 Stunden mit
       guter Präzision vorhersagen, zeigte zuletzt ein wissenschaftliches Paper.
       Der Datensatz war allerdings verzerrt, er stammte zum Großteil von
       männlichen Patienten. Das ist ein wichtiges Problem beim Training von
       KI-Systemen, so was muss vermieden werden.
       
       Künstliche Intelligenz darf keine Menschen ersetzen, sagten Sie. Wie viel
       Macht dürfen solche Systeme haben? Braucht es dafür bestimmte Regeln, die
       etwa festlegen, dass die letzte Entscheidung immer ein*e Ärzt*in treffen
       muss? 
       
       Die Letztverantwortung eines gesamten Behandlungsprozesses muss bei der
       Ärztin, dem Arzt liegen. Dennoch kann es in bestimmten Bereichen eine Art
       geteilter Verantwortung geben. Dort, wo es angemessen machbar ist, können
       Algorithmen einzelne Entscheidungsaspekte überlassen werden – aber nur
       eingebettet in den gesamten Prozess.
       
       Selbst wenn Ärzt*innen die letzte Entscheidung treffen, beeinflusst ihr
       Vertrauen in Technik sie. Dieses darf nicht blind sein. Wie können sie beim
       Einsatz von KI mit diesem Problem, dem sogenannten Automation Bias,
       umgehen? 
       
       Menschen haben die Tendenz, stark an Technologie zu glauben. In Kliniken
       fehlt außerdem oft die Zeit, das verstärkt die Gefahr, dass Ergebnisse
       eines Algorithmus nicht hinterfragt werden. Bei der Etablierung von KI im
       medizinischen Alltag sollte daher sowohl daran geforscht werden, wie gut
       die Methode funktioniert, als auch daran, wie sie Ärztinnen und Ärzte
       beeinflusst und wie ein Automation Bias vermieden werden kann.
       
       Es gibt Studien, die einen [5][Unterschied bei Automation Bias zeigen,] je
       nachdem, wann Mediziner*innen Informationen von der KI bekommen,
       abhängig davon, ob sie sich erst ein eigenes Bild gemacht haben. 
       
       Genau. Wann und wie sie Informationen erhalten, sollte miterforscht werden.
       Ansätze, dem zu begegnen, liegen etwa im Design der Benutzeroberflächen und
       wie dabei Unsicherheiten im Ergebnis kommuniziert werden. Oder man baut
       Zwischenchecks ein, die Ärztinnen und Ärzte auffordern, Ergebnisse noch mal
       zu überprüfen. Ein Thema, das sich dem direkt anschließt, ist zudem das
       De-skilling.
       
       Was heißt das? 
       
       Menschen verlernen bestimmte Dinge, wenn sie sich immer auf ein System
       verlassen können. An sich ist das keine Katastrophe. Die Medizin kennt
       solche Prozesse. Früher hat man beispielsweise viel mehr offen operiert,
       dann kam die minimalinvasive Chirurgie. Es folgt eine Übergangsphase, heute
       operiert man bei vielen Indikationen standardmäßig minimalinvasiv. Die
       Fähigkeiten verschieben sich und das ist okay. Die Regeln dafür, welche
       Fähigkeiten wie erhalten werden müssen, sollten von der medizinischen
       Community selbst entwickelt werden.
       
       Wo wird KI bereits in der Praxis eingesetzt? 
       
       Es gibt schon länger Assistenzsysteme, die auf Algorithmen basieren, etwa
       in der Vorbefundung von Lungen-Röntgenaufnahmen. Auch in der Psychotherapie
       wird KI im Ausland bereits teils breit angewendet. In der
       Verhaltenstherapie gibt es Chatbots, mit denen Patienten alleine arbeiten
       können. Solche Tools sollten aber von Therapeuten als Instrument in einem
       professionellen therapeutischen Kontext eingesetzt werden. Der Behandler
       bleibt verantwortlich für den gesamten Prozess.
       
       Damit sind also nicht Psychotherapie-Apps aus dem App-Store gemeint.
       Inwieweit sind diese positiv zu sehen? 
       
       Nun, es gibt die sozusagen in besser. Die Software, die es im App-Store
       frei oder für 3,50 Euro gibt, sind am ehesten Beta-Versionen. Sie sind
       dort, um Daten zu sammeln für ihr Training. Später verlassen sie den Store
       wieder und werden spezifisch trainiert, verbessert und dann teils als
       professionelle, medizinische Anwendung angeboten. Um als Medizintechnik
       zugelassen zu werden, müssen sie ohnehin einen entsprechenden
       Zulassungsprozess durchlaufen. In Deutschland sind nur wenige KI-basierte
       Medizin-Apps im Gebrauch. In den USA etwa gibt es aber einzelne
       Krankenhäuser, die nur noch technologisierte Psychotherapien anbieten. Da
       gibt es keine Psychotherapeuten mehr.
       
       Das klingt dystopisch. 
       
       Genau so darf es eben nicht passieren, selbst mit spezifischen, gut
       trainierten Systemen. Deshalb sollte vor allem die medizinische Community
       sich genau überlegen, was sie entwickeln wollen.
       
       Das heißt? 
       
       Entwickler sehen oft mal einen Datensatz und fragen sich: Was kann ich
       damit Tolles machen? Sinnvoll wäre es andersherum. Was brauchen wir in der
       Medizin wirklich? Was wollen wir der KI gegebenenfalls teilweise
       überlassen? Deswegen ist es hochproblematisch, wenn nur noch Algorithmen
       Psychotherapie abwickeln. Das sind die vier Schritte zu weit.
       
       Aktuell sprechen viele Forschende davon, dass sie sich in einer
       Zwischenphase befinden. KI-Systeme sind teils noch nicht gut genug und es
       ist unklar, welche Regeln es genau braucht. Ist das auch eine politische
       Frage? 
       
       Auch, aber selbst Fachpolitikerinnen und Fachpolitiker wissen teilweise
       nicht genau, was die Bedarfe auf Station sind. Wo brauchen wir die Leute am
       meisten? Welche Handlungsbereiche wollen wir wirklich schützen? Das wissen
       die Menschen aus der Praxis am besten. Sie sollten entsprechend die
       internen Standards jedenfalls mitentwickeln. Die Politik kann ja nicht
       vorgeben, wann und wie etwa Informationen an einen Arzt kommuniziert werden
       sollen. Das wäre etwas absurd. Politik ist für die Leitplanken da, die
       Fachcommunitys für die internen Standards von Entwicklung und Anwendung.
       
       Ein politisches Thema ist aber die Nutzung von Daten, von denen künstliche
       Intelligenz sehr viele braucht. Dazu traten im März erst das Digitalgesetz
       und das Gesundheitsdatennutzungsgesetz in Kraft. Sie sehen vor, dass
       künftig [6][eine Widerspruchslösung] für die Datennutzung ausgearbeitet
       wird. Wie sinnvoll könnte das sein? 
       
       Das ist sehr sinnvoll, wenn es verantwortlich gemacht wird. Wenn man diese
       Technologie in ihrer besten Ausprägung haben will, braucht man unbedingt
       gute, eigene Daten. Wir sind in Deutschland diesbezüglich bisher sehr
       restriktiv gewesen. Das zu korrigieren halte ich für sehr wichtig. Wir
       brauchen unsere eigenen Daten.
       
       China oder die USA sind in der Erforschung von künstlicher Intelligenz
       schon viel weiter. Ihre Systeme können wir hier aber nicht nutzen? 
       
       Es braucht Daten von Menschen und Verwaltungen in Deutschland, das ist ein
       anderer Kontext und sind andere Patienten. Plakative Berichte über eine KI,
       die in irgendeinem Bereich besser als ein Facharzt war, zeigen lediglich
       das Potenzial der Technologie auf. Und tatsächlich ist ja eine prinzipiell
       bessere Diagnose oder Behandlung auch das Mindeste, was wir von KI erwarten
       – wir würden ja nicht etwas einführen, was schlechter ist. Die Systeme
       müssen sich dann aber auch noch in der echten Situation, in der echten
       Praxis bewähren. Und das sicher zu gewährleisten ist die große Hürde, die
       in meiner Wahrnehmung noch nicht wirklich genommen ist.
       
       6 Jul 2024
       
       ## LINKS
       
   DIR [1] https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/deutsche-sind-offen-fuer-innovationen-und-wuenschen-sich-mehr-europaeische-kooperation
   DIR [2] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf
   DIR [3] https://www.fraunhofer.de/de/presse/presseinformationen/2023/august-2023/kuenstliche-intelligenz-wird-bald-arztbriefe-schreiben.html
   DIR [4] https://www.coe.int/en/web/bioethics/report-impact-of-ai-on-the-doctor-patient-relationship
   DIR [5] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10916499/
   DIR [6] https://www.bundesgesundheitsministerium.de/presse/pressemitteilungen/bundeskabinett-beschliesst-digitalgesetze-fuer-bessere-versorgung-und-forschung-im-gesundheitswesen
       
       ## AUTOREN
       
   DIR Adefunmi Olanigan
       
       ## TAGS
       
   DIR Zukunft
   DIR GNS
   DIR Medizin
   DIR wochentaz
   DIR Schwerpunkt Künstliche Intelligenz
   DIR Ethikrat
   DIR Hannover
   DIR Ethikrat
   DIR Zukunft
   DIR Zukunft
   DIR Schwerpunkt Künstliche Intelligenz
   DIR GNS
       
       ## ARTIKEL ZUM THEMA
       
   DIR Künstliche Intelligenz in der Medizin: Ambivalente Datenmassen
       
       KI in der Medizin ist überlegen, wenn es um winzige Abweichungen geht. Aber
       ihr Einsatz kann auch zu weit gehen. Zwei KI-Projekte in Kiel und Hannover.
       
   DIR Deutscher Ethikrat vollständig: Ampel besinnt sich auf die Ethik
       
       Monatelang war der Deutsche Ethikrat nicht arbeitsfähig – weil die
       Ampelregierung keine Mitglieder benannte. Das hat sich jetzt geändert.
       
   DIR KI in der Medizin: Für Körper, Kopf und Herz
       
       Bereits heute kann künstliche Intelligenz die medizinische Behandlung
       unterstützen und sogar Leben retten. Drei Beispiele aus der Praxis.
       
   DIR KI und die frühe Krebserkennung: Besser als das menschliche Auge
       
       Eine Künstliche Intelligenz soll die Behandlungschancen von Tumoren
       verbessern. Erste Studienergebnisse sind vielversprechend.
       
   DIR Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz
       
       KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch
       viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.
       
   DIR Künstliche Intelligenz in der Medizin: Hatschi? KI!
       
       Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein
       Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen
       helfen.