chatgbt
Künst­li­che Intel­li­genz – wie tauglich ist sie in der Medizin?

Künst­li­che Intel­li­genz und ihre Anwen­dungs­mög­lich­kei­ten in der Pflege werden seit Jahren erforscht. Auch für ChatGPT, das Dialog­pro­gramm des US-Unter­neh­mens OpenAI, werden mögli­che Einsatz­be­rei­che disku­tiert, die vor allem in den Planungs- und Dokumen­ta­ti­ons­be­reich fallen.

ChatGPT: Was kann es in der Pflege leisten?

Aber wie schätzt das Programm selbst seine Anwen­dungs­mög­lich­kei­ten in der Pflege ein? Wir haben ihm genau diese Frage gestellt.

Rechts­de­pe­sche: Beschreibe mögli­che Anwen­dungs­fälle für ChatGPT in der Kranken- und Alten­pflege

ChatGPT: In der Kranken- und Alten­pflege gibt es viele Anwen­dungs­fälle für ein System wie ChatGPT. Hier sind einige Beispiele:

  1. Patien­ten-Infor­ma­tio­nen: ChatGPT kann verwen­det werden, um Patien­ten über ihre Gesund­heit, Behand­lungs­pläne und Anwei­sun­gen zu infor­mie­ren. Es kann auch als virtu­el­ler Assis­tent für ältere Patien­ten dienen, die Schwie­rig­kei­ten haben, Infor­ma­tio­nen aus klassi­schen Infor­ma­ti­ons­quel­len wie Broschü­ren oder Websites zu verste­hen.
  2. Medika­men­ten-Manage­ment: ChatGPT kann Patien­ten dabei unter­stüt­zen, ihre Medika­men­ten­ein­nahme zu verwal­ten, indem es sie daran erinnert, welche Medika­mente zu welcher Zeit einzu­neh­men sind, und ihnen Infor­ma­tio­nen über mögli­che Wechsel­wir­kun­gen mit anderen Medika­men­ten oder Lebens­mit­teln bereit­stellt.
  3. Diagnose-Unter­stüt­zung: ChatGPT kann als Teil einer Diagnos­tik-Platt­form einge­setzt werden, um Patien­ten bei der Selbst­dia­gnos­tik und ‑beurtei­lung zu unter­stüt­zen. Es kann Fragen stellen, Symptome sammeln und Empfeh­lun­gen geben, wann ein Arzt aufge­sucht werden sollte.
  4. Thera­pie-Unter­stüt­zung: ChatGPT kann Patien­ten dabei unter­stüt­zen, ihre Thera­pie besser zu verste­hen und umzuset­zen. Es kann Fragen zu spezi­fi­schen Übungen oder Aktivi­tä­ten beant­wor­ten und motivie­rende Unter­stüt­zung bereit­stel­len.
    Pflege-Unter­stüt­zung: ChatGPT kann auch als Werkzeug für Pflege­kräfte einge­setzt werden, um ihnen bei der Verwal­tung von Patien­ten­in­for­ma­tio­nen, der Überwa­chung von Gesund­heits­zu­stän­den und der Organi­sa­tion von Pflege­maß­nah­men zu helfen.

Es ist wichtig zu beach­ten, dass ChatGPT kein medizi­ni­sches Gerät ist und keine Diagno­sen oder Behand­lun­gen ersetzt. Es sollte immer in Zusam­men­ar­beit mit medizi­ni­schem Fachper­so­nal einge­setzt werden.

KI im Patien­ten­ge­spräch

Abgese­hen davon, dass die Formu­lie­run­gen teilweise sehr unspe­zi­fisch sind – was bedeu­tet „Patien­ten über ihre Anwei­sun­gen infor­mie­ren“ konkret? – sind einige dieser Beispiele absurd.

Das beginnt bei Punkt 1: Gesund­heits­in­for­ma­tio­nen können für viele Menschen belas­tend sein. Beson­ders chroni­sche Erkran­kun­gen wie Diabe­tes oder Diagno­sen wie Krebs verlan­gen vom Gesund­heits­per­so­nal sehr viel Einfüh­lungs­ver­mö­gen. Welcher Mensch würde sich leich­ter tun, solche Gesprä­che mit einer Künst­li­chen Intel­li­genz zu führen?

Auch die Vorstel­lung, ältere Menschen, die mit Broschü­ren Probleme haben, würden sich ausge­rech­net mit einem Compu­ter­pro­gramm wohler fühlen, ist schwer nachvoll­zieh­bar.

Punkt 2 – das Medika­men­ten­ma­nage­ment – ist tatsäch­lich ein Anwen­dungs­be­reich, den Forscher­teams für KI in der Pflege sehen. Spezi­ell die Erinne­rung an die Medika­mente kann ChatGPT überneh­men. Da die Künst­li­che Intel­li­genz Daten schnel­ler auswer­ten kann als der Mensch könnte sie auch Medika­men­ten­pläne erstel­len und über Wechsel­wir­kun­gen aufklä­ren.

Die Diagno­se­stel­lung ist ebenfalls eine denkbare Einsatz­mög­lich­keit für KI, da auch diese auf der Daten­ana­lyse beruht. Wichtig bei solchen Anwen­dungs­fäl­len ist aller­dings, dass die Infor­ma­tio­nen aus zuver­läs­si­gen Daten­ban­ken stammen. Denn eines der großen Probleme bei KI ist, dass die Überle­gun­gen der Software nicht trans­pa­rent sind.

ChatGPT: Woher stammen die Infor­ma­tio­nen?

Um das zu testen, haben wir die Symptome für Diabe­tes einge­ge­ben und eine entspre­chende Diagnose erhal­ten. Auf die Frage, auf welchen Quellen die Antwort basiert, haben wir folgende Antwort bekom­men:

ChatGPT: Als KI-Modell wurde ich von OpenAI auf der Basis von großen Textkor­pora trainiert, die eine breite Palette an Infor­ma­tio­nen enthal­ten, einschließ­lich medizi­ni­scher Fakten und Symptome verschie­de­ner Krank­hei­ten. In Bezug auf die Symptome von Diabe­tes melli­tus basiert mein Wissen auf umfang­rei­chen medizi­ni­schen Studien, Leitli­nien und anderen medizi­ni­schen Quellen, die für Ärzte und medizi­ni­sches Perso­nal geschrie­ben wurden. Es ist jedoch wichtig zu beach­ten, dass ich kein Ersatz für eine profes­sio­nelle medizi­ni­sche Meinung bin und dass Sie bei gesund­heit­li­chen Proble­men immer einen Arzt aufsu­chen sollten.

Mit anderen Worten: Das steht irgendwo drin. Wo, weiß man nicht genau – zumin­dest verrät es einem die Software nicht. Da liest sich dann auch der letzte Satz nicht beson­ders vertrau­ens­er­we­ckend.

Abgese­hen davon hat KI die Tendenz, bei mehre­ren Auswahl­mög­lich­kei­ten dieje­nige zu wählen, die häufi­ger vorkommt. Statis­tisch ist das absolut korrekt, kann aber dazu führen, dass ChatGPT Falsch­in­for­ma­tio­nen verbrei­tet, wenn sie nur oft genug auftre­ten.

Das fällt auch am nächs­ten Beispiel auf. Um ChatGPTs Fähig­kei­ten in der Thera­pie­un­ter­stüt­zung auf die Probe zu stellen, haben wir gefragt, wie man Menschen mit Diabe­tes zu einer Ernäh­rungs­um­stel­lung motivie­ren kann. Die Antwort:

Chat GPT: Es gibt verschie­dene Ansätze, um Menschen mit Diabe­tes zu motivie­ren, ihre Ernäh­rung umzustel­len. Hier sind einige Tipps:

  1. Verständ­nis schaf­fen: Helfen Sie den Betrof­fe­nen zu verste­hen, warum eine gesunde Ernäh­rung so wichtig ist, um ihre Diabe­tes unter Kontrolle zu halten. Erklä­ren Sie, wie bestimmte Lebens­mit­tel den Blutzu­cker­spie­gel beein­flus­sen können.
  2. Ziele definie­ren: Überle­gen Sie gemein­sam mit den Betrof­fe­nen, welche konkre­ten Ziele sie errei­chen möchten. Dies kann beispiels­weise das Reduzie­ren des Konsums von raffi­nier­ten Kohlen­hy­dra­ten oder das Erhöhen des Verzehrs von Obst und Gemüse sein.
  3. Positi­ves Feedback geben: Beloh­nen Sie Fortschritte und feiern Sie kleine Siege. Positive Bestä­ti­gung kann ein großer Ansporn sein, um weiter­zu­ma­chen.
  4. Unter­stüt­zung bieten: Bieten Sie den Betrof­fe­nen Unter­stüt­zung bei der Suche nach gesun­den Lebens­mit­tel­al­ter­na­ti­ven und bei der Planung von Mahlzei­ten. Gemein­same Einkäufe und Kochex­pe­ri­mente können ebenfalls hilfreich sein.
  5. Überwin­dung von Heraus­for­de­run­gen: Helfen Sie den Betrof­fe­nen, Hinder­nisse zu überwin­den und Lösun­gen für Probleme zu finden. Ermuti­gen Sie sie, kleine Schritte zu unter­neh­men und Fehler als Lernmög­lich­kei­ten zu sehen.
  6. Gemein­schaft schaf­fen: Verbin­den Sie die Betrof­fe­nen mit anderen, die ähnli­che Ziele verfol­gen, zum Beispiel in einer Selbst­hil­fe­gruppe oder über Online-Foren. Gemein­sam können sie Erfah­run­gen austau­schen und sich gegen­sei­tig motivie­ren.

Es ist wichtig zu beach­ten, dass jeder Mensch anders motiviert wird und es nicht eine „einzige Lösung“ für alle gibt. Es ist wichtig, indivi­du­ell auf die Bedürf­nisse und Vorlie­ben jedes Einzel­nen einzu­ge­hen.

Das ist grund­sätz­lich richtig. Aber zum Einen heißt es nicht „die“, sondern „der Diabe­tes“, auch wenn dieser Fehler sehr oft gemacht wird. Und zum Anderen sind diese Ratschläge dann doch sehr allge­mein, während eine Diabe­tes­be­ra­te­rin ganz anders auf die Person einge­hen kann, die ihr gegen­über sitzt. Gerade beim Thema Thera­pie­mo­ti­va­tion ist also wieder mensch­li­ches Feinge­fühl gefragt.

ChatGPT: Stark im Verwal­tungs­be­reich

Der letzte Punkt ist tatsäch­lich derje­nige, dem Forscher­teams am meisten Bedeu­tung beimes­sen: So könnte die künst­li­che Intel­li­genz Einsatz­pläne für die ambulante Pflege erstel­len, Schicht­dienste organi­sie­ren, Dokumen­ta­ti­ons­auf­ga­ben überneh­men oder bei Patien­ten­be­rich­ten unter­stüt­zen.

Auch die Auswer­tung von Bluttests oder die Ausgabe von Labor­er­geb­nis­sen durch KI ist denkbar, genauso wie die Überwa­chung von Patien­ten­da­ten.

Aber auch unter ethischen Gesichts­punk­ten: KI im direk­ten Kontakt mit Patien­ten ist proble­ma­tisch. Deshalb sollte ihr Einsatz darauf beschränkt bleiben, Pflege­kräf­ten Verwal­tungs­auf­ga­ben abzuneh­men und ihnen so mehr Zeit mit den Patien­ten zu ermög­li­chen. Denn mensch­li­che Zuwen­dung kann die Software nicht erset­zen.