KI in O & U: Was bringt es Ärzten und Patienten?

Foto: khunkornStudio/stock.adobe.com

Welche Rolle spielt KI in O & U? Eine Session auf dem diesjährigen DKOU stellte drei konkrete Beispiele vor: von der Studienlage zur Nutzung von Large Language Models über KI-Tools in der orthopädischen Praxis bis zum spezialisierten Chatbot für Patienten.

Den Anfang zur DKOU-Session „KI in Orthopädie und Unfallchirurgie“ machte Dr. Jonas Roos vom Universitätsklinikum Bonn mit seinem Überblick dazu, wie sich Large Language Models (LLMs) in den letzten drei Jahren in O & U entwickelt haben. Generell hat sich die Anzahl an Publikationen, die sich mit KI befassen, Roos zufolge seit 2010 verzehnfacht – und der überwiegende Teil der Forschung (85 %) ist in den letzten drei Jahren generiert worden. LLMs – insbesondere ChatGPT – spielen seit 2022 eine wachsende Rolle. In O & U etwa bei der Patientenaufklärung, in der Diagnostik sowie radiologischen Interpretation, als Tools für die klinische Unterstützung oder in der Ausbildung.

Wie Roos ausführte, könne ChatGPT in der Ausbildung auch jenseits der Tatsache, dass das LLM inzwischen sämtliche Examensfragen beantworten kann, eine Rolle spielen. Es könne etwa Antworten erläutern und in Echtzeit erklären, interaktive Fallstudien entwickeln oder für das Design von Prüfungsfragen oder Curricula nützlich sein.

KI in O & U – verschiedene Einsatzmöglichkeiten

Als Beispiel für mögliche Unterstützung in der Klinik nannte Roos Hilfestellung bei Differenzialdiagnosen, medizinische Beratung, Aufklärung, Erstellung von Rehabilitationsplänen oder die visuelle Darstellung von Befunden. Der Bonner Mediziner lieferte für den Punkt „Differenzialdiagnosen“ auch ein konkretes Fallbeispiel: Die Frage nach möglichen Differenzialdiagnosen bei einer Patientin mit Hüft-TEP und Schmerzen im operierten Gelenk beantwortet ChatGPT mit einer Liste an Diagnosevorschlägen, Merksätzen und einer visuellen Darstellung.

Mit Blick auf Patientenaufklärung und Kommunikation lieferten ChatGPT & Co. im Vergleich zu Suchmaschinen mehr wissenschaftliche Informationen und könnten Fragen gezielt in Form eines Dialogs beantworten. Die Tools könnten wertvolle Tools für Ärzte sein. Studien hätten auch gute Ergebnisse bei der Erläuterung medizinischer Begriffe oder der „Übersetzung“ radiologischer Befunde belegt.

ChatGPT-Vision für die Analyse von Röntgenbildern

Seit November 2011 gibt es GTP-Vision: Das LLM ist dabei mehr als nur ein Bilderkennungstool. Während klassische Bilderkennung spezifische Aufgaben erfüllen kann – beispielsweise Gesichtserkennung –, versteht ChatGPT-Vision den Kontext und liefert komplexe Schlussfolgerungen, die auf den Bildinhalten basieren.

Roos verwies auf erste Studien, die das neue KI-Tool im Fokus hatten, mit vielversprechenden Ergebnissen bezüglich der Bildanalyse – aber auch Nachteilen. So gebe es ungeprüfte Antworten und unvorhersehbare Risiken, die Antworten seien nicht immer korrekt: Wie Roos erläuterte, fanden 66 von 68 Studien hier Fehler. Dabei hänge die Antwort auch vom Prompting ab. Weitere Probleme seien Einschränkungen bezügliche Genauigkeit, Lesbarkeit und Zuverlässigkeit oder es komme zu Halluzinationseffekten, wie Roos ausführte.

Sein Fazit: Die Entwicklung gehe stetig weiter und eine fortschreitende Einbindung sei sicherlich sinnvoll und notwendig. Aber er konstatierte auch, dass eine generelle Einbindung in den Arbeitsalltag noch nicht möglich sei.

Was möglich ist: KI-gestützte Sprechstundendokumentation

Auch wenn im Bereich Bildgebung die KI noch nicht ganz alltagstauglich ist, sieht es mit Blick auf Bürokratie und Dokumentation im Praxisalltag anders aus: Hier gibt es bereits KI-Systeme, eines davon stellte Dr. Tom Jansen aus Köln vor. Die von ihm mitentwickelte KI-gestützte Software zur Sprechstundendokumentation soll Bürokratielast und Dokumentationspflichten im Arbeitsalltag reduzieren.

Denn: „Sie verbringen 61 Tage im Jahr in der Praxis mit Dokumentation“, brachte Jansen das wachsende Problem auf den Punkt. Und die digitale Transformation ändere daran wenig – eher das Gegenteil sei der Fall: In der Medizin habe es – im Gegensatz zu anderen Branchen – keinen Produktivitätszuwachs durch IT gegeben. Aber Jansen betonte auch: „Wir sind an einem Turning Point.“

Zeit sparen mit KI?

Er verwies auf eine Studie, die zeigen konnte, dass eine KI-Schreibassistenz rund 30 Prozent Zeitersparnis bringt – selbst ohne Schnittstelle zum Praxisverwaltungssystem (PVS). Jansen selbst hat eine Sprechstunden-KI mitentwickelt und in seiner Praxis implementiert. Bevor diese genutzt werden kann, müssen Patienten der Nutzung zustimmen. In der Sprechstunde wird das Gespräch aufgezeichnet, medizinisch relevante Gesprächsinhalte extrahiert, relevante Dokumentationen erstellt und ins PVS exportiert. Auch Befundberichte für die elektronische Patientenakte können erstellt werden.

Als wichtiges Feature stellte Jansen den modularen Aufbau heraus, der eine Anpassung an die jeweilige Arztpraxis erlaube. Auch Editieren durch Spracheingabe oder Diktieren sind möglich. Wichtig für Jansen: die automatisierte Formularerstellung, beispielsweise Überweisungsschein, Kassen- oder Privatrezept und Verordnung von Hilfsmitteln oder Antrag auf Reha-Sport. Das seien „wirklich interessante Sachen, die Spaß machen werden“, so Jansen.

KI in O & U für Patienten: OrthoChat

Nicht nur Ärzte nutzen KI, auch Patienten greifen inzwischen auf KI zurück und wenden sich mit gesundheitlichen Fragen beispielsweise an ChatGPT – allerdings ist das nicht immer sinnvoll, wie eine Studie zeigen konnte. Der BVOU hat für sein Patienten-Informationsportal ein eigenes Angebot geschaffen: Seit einem Jahr können Patienten den OrthoChat zu ihren Symptomen und Diagnosen befragen und bekommen Antworten. Ein Jahr nach der Einführung des Features stellten Dr. David Baur und PD Dr. Anna Völker, beide aus Leipzig, den OrthoChat und erste Erfahrungen vor.

Was Patienten brauchen, sind Völker zufolge Orientierung und verlässliche Quellen, aber reine LLMs könnten das nicht leisten. OrthoChat hingegen generiert seine Antworten nur aus den kuratierten der Website OrthInform. Völkers Fazit einer Validierung durch ärztliche Kollegen und normale User: „Wir haben relativ gute Ergebnisse erhalten – einziger Ausreißer war die Response-Time.“ So wurden Nutzerfreundlichkeit, Genauigkeit, intuitive Navigation oder Verständnis sehr hoch auf einer 5-Punkte-Skala bewertet.

„Kein Ersatz für Beratung“

„Auch bei der technischen Auswertung haben wir sehr gute Ergebnisse erhalten“, erklärte Baur, „wir haben aber auch Ausreißer gesehen.“ So konnten unerwünschte Informationen nicht ganz vermieden werden. Wer nutzt den Chatbot wie? Auch dieser Frage wurde nachgegangen, Nutzerzahlen, zeitliche Trends und Themen wurden analysiert. Ganz oben auf der Liste der meistgesuchten Keywords landete laut Baur der Begriff „Schmerz”.

„Wir konnten erfolgreich zeigen, dass KI auch anwendbar ist“, lautete Völkers Fazit nach einem Jahr für den OrthoChat. Baur machte klar: „Der Chatbot ist kein Ersatz für eine Beratung – er soll die Suche nach Inhalten erleichtern.“ (ja/BIERMANN)