Die University of California hat ChatGPT unlängst fast 200 ärztliche Fragen gestellt – und die Kommunikation des Chatbots mit jener von Ärztinnen und Ärzten verglichen. Ergebnis: ChatGPT antwortet kompetent und einfühlsam.
Für die Studie, die in “Jama Internal Medicine” erschien [1], wählten die Forscher Fragen im Reddit-Forum “Ask Docs” aus. Ausschlaggebend für die Bewertung der Antworten waren für sie einerseits Qualität, andererseits Empathie. Bei der Evaluation wussten die Gesundheitsexperten nicht, von wem die Antworten stammten – vom Arzt oder Chatbot. Inhaltlich ging es um Alltagsthemen wie die Folgen einer Kopfverletzung.
In fast 80 Prozent der Fälle stuften die drei Juroren die Chat-Antworten als informativer und überzeugender ein – auch, weil sie feinfühliger vermittelt wurden.
So antwortete ChatGPT etwa viermal ausführlicher als die ärztliche Vergleichsgruppe, die den Patienten im Schnitt 52 Wörter pro Antwort gönnten. Die Maschine erklärte in durchschnittlich 211 Wörtern zudem Risiken und Hilfsmöglichkeiten.
Ein Fazit der Forschenden – trotz Warnung, der Technik “blind” zu vertrauen: Wenn mehr Patientenfragen schnell, empathisch und qualitativ hochwertig beantwortet würden, könnte dies Klinikbesuche reduzieren und Ressourcen freisetzen.
Hausärzte nehmen Chatbot unter die Lupe
Szenenwechsel: Dr. Christian Köhler und Christian Sommerbrodt veröffentlichen mit “Das Arztgespräch” einen Podcast zum Thema ChatGPT. Darin malen sich die Allgemeinmediziner aus, wie Künstliche Intelligenz (KI) den Praxisalltag erleichtern könnte: Sich von einer KI die Blutanalyse auswerten oder ein Ranking der wöchentlichen Diabetespatienten erstellen lassen – das wäre fein.
Auch Patientinnen und Patienten, die vor dem Praxisbesuch ein Avatar telefonisch zum Krankheitsbild befragt, könnten Zeit sparen. Doch bisher ist das alles “Science-Fiction”, sagt Sommerbrodt.
KI wie die von OpenAI, dem “Mutter- Unternehmen” von ChatGPT, sei in Praxen noch nicht relevant. Der Hausarzt aus Wiesbaden und Chef des Hessischen Hausärzteverbandes skizziert, was wirklich geschieht: Zwar würden bei Langzeitblutdruckmessungen, Belastungs-EKG oder Lungenfunktionstests Daten von Erkrankten gemessen, aufgezeichnet und ausgewertet. Die Diagnose stelle dennoch immer der Arzt.
Denn oft passiert es laut Sommmerbrodt, dass vermeintlich intelligente Software Fehlalarme auslöse. “Da werden Herzinfarkte dokumentiert, die gar keine sind.” Die Folge: Mehrarbeit statt Zeitersparnis. Denn die angeblichen Herzinfarktpatienten müssten engmaschiger kontrolliert werden, um mögliche Befunde auszuschließen.
Potenzial für Menschen mit Migrationshintergrund
“Hausärzte können von anderen Organisationen lernen”, ist sich unterdessen Felix Pflüger sicher. Der Chef von Peoplefone Deutschland, zu dessen 10.000 Kunden etliche Mediziner gehören, weiß, welche Hilfe KI vor allem in der Praxisorganisation liefern kann:
“Wird ChatGPT mit einer Sprach-KI kombiniert, können Patienten nicht mehr unterscheiden, ob eine Ärztin oder ein Chatbot antwortet”, so der Geschäftsführer des Telefonie-Providers, der noch auf eine weitere Anwendung verweist: Der Softwarehersteller Sogedes lasse aktuell testen, wie intelligente Programme sprachliche Barrieren abbauen können.
In einem Video zeigt Geschäftsführer Berndt Walz eine deutschsprachige Frau, die mit einem chinesischen Mann telefoniert. Beide reden in ihrer Muttersprache, das Programm übersetzt simultan. Die Verständigung klappt mit einer kurzen Zeitverzögerung von etwa einer Sekunde, die nötig ist, weil im Hintergrund eine Menge Daten verarbeitet – konkret vom Ton in Text transkribiert, übersetzt und wieder als Ton ausgegeben – werden.
Hier zeigt sich auch für Praxen durchaus Potenzial. “Die Anwendung klappt schon gut bei strukturierten Gesprächen”, sagt Walz. Telefonische Rezeptwünsche oder Terminanfragen seien damit fast synchron zu übersetzen. Hausärztinnen und -ärzte in Städten wie Mannheim oder Berlin, die einen hohen Anteil an Menschen ausweisen, deren Muttersprache russisch oder türkisch ist, könnten davon profitieren.
Nutzen in der Praxis: Hilfe beim Schreiben
Schon heute nutzt Hausarzt Sommerbrodt ChatGPT etwa für das Schreiben von Patienteninfos. So lässt er sich kurze Texte zur nichtmedikamentösen Behandlung von Bluthochdruck oder Ernährungstipps bei Hyperurikämie erstellen. Eine Überarbeitung sei aber immer Pflicht, so Sommerbrodt.
Darüber hinaus erinnert er daran, dass der Einsatz digitaler Helfer auch entsprechende Nutzer benötigt. “Programme setzen erfahrene Anwender voraus.” Aber das sei in der Realität oft nicht der Fall. Beispiel Online-Terminkalender: Doppelt belegte Termine oder gelöschte Daten seien vor allem zu Beginn täglich der Fall gewesen.
Seit Kurzem experimentiert auch Dr. Ralf Brügel mit ChatGPT. Vor allem bei der Einordnung von Symptomen sieht der Schorndorfer Kinderarzt die Nutzung kritisch. Etwa, wenn Eltern nach Diagnosen zu Krankheitsbildern suchen. Auf die Eingabe: “Mein Kind hat rote Punkte”, erhält Brügel eine Liste an Antworten mit Krankheitsbildern.
“Was mir fehlt, ist eine Priorisierung”, so der Mediziner. Insofern hält er die KI für kaum besser als eine Google-Suche, die ebenfalls wenig helfe, weil das Antwortspektrum meist viel zu breit sei.
Zwar ist die KI durchaus in der Lage, genauer zu antworten, doch dafür müssen die Fragen präzise formuliert sein. So könnten Fachleute der KI fehlende Aspekte nennen und sie auffordern, diese zu berücksichtigen. So hatte Brügel etwa bei der Frage nach den roten Punkten Petechien vermisst. Die Hauteinblutungen können auf Meningokokken hindeuten. “Das darf nicht fehlen”, sagt der Arzt.
Wichtig: Ärztinnen und Ärzte bleiben in der Haftung
Als sinnvoll bewertet Brügel den Einsatz von ChatGPT in der Praxisorga. So ließ der Kinderarzt die KI ein Merkblatt zum Thema “Das Wichtigste zu Schreibabys” erstellen. Das Ergebnis fand er “zu 80 Prozent gut”. Mit ein paar Eingriffen hinsichtlich inhaltlicher Prioritäten wäre das Merkblatt brauchbar.
Das Plus von ChatGPT: Der gesamte Prozess dauert nur einen Bruchteil der Zeit, die der Arzt sonst für die Erstellung des Merkblatts gebraucht hätte – frei von Tippfehlern versteht sich.
In ihrem Podcast berichten die Hausärzte Köhler und Sommerbrodt auch über die Vorbereitung von Vorträgen mit Hilfe des Bots. Auch für das Verwalten von Patientendaten, perspektivisch in Kombination mit der elektronischen Patientenakte, könnten sich Routinevorgänge automatisieren. Das Schreiben von Attesten oder Arztbriefen könnte darunter fallen.
Am Ende bleibt zu klären, wer haftet, wenn die Software falsch antwortet. Fakt ist: ChatGPT hat (noch) keine eigene Rechtspersönlichkeit. Somit scheidet eine eigene Haftung aus. Möglich wären ferner Produkt- und Produzentenhaftungen, die den Hersteller betreffen würden.
Schwierig dürfte es werden, einen Haftungsanspruch nachzuweisen. Ein Vorschlag für eine EU-Richtlinie, welche die Haftung genauer regeln soll, liegt dem Gesetzgeber seit 2022 vor. Letztlich bleiben Stand heute die bedienenden Ärztinnen und Ärzte in der Verantwortung.
Fazit: 3 Einsatzgebiete von ChatGPT in der Praxis
- Verfassen (einfacher) Patientenanschreiben: Für Patienteninfos – etwa zu Ernährungstipps bei Hyperurikämie – oder Anschreiben mit Blick auf häufig versäumte Termine kann ChatGPT oft zumindest eine gute Basis liefern. Gerade Hausärztinnen und Hausärzten, denen das Verfassen solcher Textstücke nicht leicht von der Hand geht, kann dies ein Gedankenanstoß und damit Zeitersparnis sein. Ein Überarbeiten ist jedoch immer nötig!
- Verfassen von (Fach-)Vorträgen, insbesondere erstes Erstellen einer Struktur. Cave: ChatGPT funktioniert derzeit ohne Quellenangaben, zudem ist der Bot nicht ans Internet angeschlossen. Vielmehr wurde das Programm laut eigenen Angaben mit Textdaten trainiert, die bis September 2021 verfügbar waren, darunter Enzyklopädien, Fachartikel und Forschungsarbeiten. Aktualisierungen fehlen folglich.
- Perspektivisch wäre auch ein medizinischer Einsatz denkbar, etwa in der Auswertung von Blutanalysen oder in der Diagnosestellung – dies ist laut Einschätzungen aus Hausarztpraxen aber heute (noch) nicht praktikabel.
Quelle:
1. doi: 10.1001/jamainternmed.2023.1838