Können wir der KI bei der Krebs-Diagnose vertrauen?19. April 2024 Daniel Sauter ist wissenschaftlicher Mitarbeiter am Fachbereich Informatik der FH Dortmund. Er untersucht, wie Entscheidungen von KI-Modellen im Anwendungsfall der Histopathologie transparent gemacht werden können. Foto: Benedikt Reichel/FH Dortmund Künstliche Intelligenz (KI) soll das Gesundheitswesen effizienter und günstiger machen. Doch wie können Mediziner sicher sein, dass die Maschine keine Fehler macht? Unter anderem damit befasst sich Daniel Sauter am Fachbereich Informatik der Fachhochschule Dortmund. Der Doktorand ist in seiner finalen Phase am Graduiertenkolleg „WisPerMed“. Forschende der Medizinischen Fakultät der Universität Duisburg-Essen, der Universitätsmedizin Essen und der FH Dortmund arbeiten dort interdisziplinär an Methoden des Maschinellen Lernens zur Diagnose und Therapie des Malignen Melanoms. Für seine Arbeit wurde der 29-Jährige bei der diesjährigen Clusterkonferenz „Innovative Medizin“ des Netzwerks Medizin.NRW mit einem Preis für Nachwuchswissenschaftler ausgezeichnet. „Ich befasse mich hauptsächlich mit den technischen Herausforderungen bei KI-Anwendungen in der Medizin“, erklärt Sauter. In seiner Promotion untersucht er, wie Entscheidungen der KI transparent nachvollziehbar gemacht werden können. Er prüft dabei, ob bestehende Erklär-Methoden für KI-Anwendungen auch in der feingeweblichen Untersuchung zur Melanom-Diagnose, der Dermatohistopathologie, nutzbar sind. „Bei sogenannten Black-Box-Algorithmen wie den Neuronalen Netzwerken ist die Entscheidung der KI nicht Teil des programmierten Codes“, erklärt Sauter. Vielmehr suche die KI eigenständig nach Zusammenhängen in den Daten und treffe daraufhin ihre Entscheidung. „Diese müssen wir verstehen und so die Black-Box knacken.“ Damit soll ausgeschlossen werden, dass es zu Fehldiagnosen kommt, weil die KI ein Muster erkannt hat, das mitunter gar nichts mit dem Krebs zu tun hat. „Die Ergebnisse der Untersuchungen zeigen, dass wir die Entscheidungskriterien der KI konkret abbilden konnten und Fehler in den Parametern erkennbar dargestellt wurden“, fasst Sauter seine Arbeit zusammen. Dies ermögliche es, medizinisch nicht plausible Entscheidungen aus den Modellen herauszunehmen. Parallel dazu arbeitet Sauter an den Lerntechniken für KI-Modelle – speziell für die Krebs-Diagnose. „Hier steht die Forschung vor der Herausforderung, dass ein gewisser Mangel an sauber aufbereiteten Trainingsdaten vorliegt“, sagt der Doktorand. Die digitale Aufbereitung der Gewebeproben als Lernvorlage für KI sei aufwendig. Darum werde auf bestehende KI-Modelle zurückgegriffen. „Die haben quasi schon eine Grundausbildung absolviert“, erklärt Sauter. Ein Teil seiner Doktorarbeit untersucht, wie vorhandene KI-Modelle auf die Besonderheiten in der Erkennung des Melanoms „umgeschult“ werden können. Sauters Promotion wird von Prof. Markus Kukuk am Fachbereich Informatik betreut.
Mehr erfahren zu: "Länder starten neuen Anlauf für Rauchverbot im Auto" Länder starten neuen Anlauf für Rauchverbot im Auto Eine Zigarette im Auto – und schon droht Kindern eine deutlich stärkere Rauchbelastung als in verrauchten Kneipen. Aus den Bundesländern kommt jetzt erneut ein Vorstoß für ein Rauchverbot im Auto.
Mehr erfahren zu: "Möglicher Grund entdeckt, weshalb Melanomzellen aggressiver werden" Möglicher Grund entdeckt, weshalb Melanomzellen aggressiver werden Das „Durchpressen“ durch feinste Venen könnte Melanomzellen aggressiver machen und die Metastasierung begünstigen, so die Vermutung einer Arbeitsgruppe aus Australien.
Mehr erfahren zu: "Künstliche Intelligenz sagt Risiko von mehr als 1000 Erkrankungen vorher" Künstliche Intelligenz sagt Risiko von mehr als 1000 Erkrankungen vorher Während ChatGPT darauf trainiert wurde, Textbausteine vorherzusagen, kann ein neues GPT-Modell offenbar das Risiko für eine Vielzahl von Krankheiten Jahre im Voraus abschätzen. Kommt jetzt „HealthGPT“?