12 subscriptions and 4 subscribers
Article

Deep Learning: Doktor Algorithmus, sag mir, was ich hab

Quelle: DeepMind

Patienten sitzen manchmal stundenlang im Wartezimmer und warten auf eine Diagnose, weil Ärzte überlastet sind. Helfen könnte künftig künstliche Intelligenz. 


Lange Wartezeiten entstehen oft durch Zeit- und Personalmangel: Ärztinnen und Ärzte sind mit Routineaufgaben belastet, die Belegschaft ist zu dünn besetzt. Wenn es Medizinerinnen und Medizinern an Zeit oder Expertise fehlt, könnten sie künftig Unterstützung durch künstliche Intelligenz erhalten, genauer gesagt: durch maschinelles Lernen. Mithilfe von computerunterstützter Diagnostik (CAD) könnten Ärztinnen und Ärzte beispielsweise Augenkrankheiten und neurologische Erkrankungen schneller erkennen. Das legen zwei Studien nahe, die am Montag im renommierten JournalNature Medicine erschienen sind.

Die Untersuchungen widmen sich den sogenannten bildgebenden Verfahren, das Bilddaten von dem Patienten oder der Patientin erstellt - dazu zählt zum Beispiel Computertomografie (CT). Und beide Studien nutzen Deep Learning, also die komplexe Form des maschinellen Lernens, die dem menschlichen Gehirn besonders ähnlich ist: Die werden mit Daten gefüttert und verarbeiten sie selbstständig auf mehreren tiefer liegenden Ebenen - daher Deep Learning -, bis am Ende ein Ergebnis herauskommt, zum Beispiel eine erste Diagnose.

Ein Algorithmus, der teils besser ist als die Experten

In der ersten Studie (Nature Medicine: De Fauw et al., 2018) hat ein Team aus Forscherinnen und Forschern des zu Alphabet gehörenden Londoner Unternehmens DeepMind, des Instituts für Augenheilkunde des University College London und der Augenklinik Moorfields die Deep-Learning-Methode für optische Kohärenztomografie (OCT) eingesetzt. OCTs tasten Netzhaut oder Augenhintergrund mit Licht ab und erstellen hochauflösende Bilder. Die Forscher haben einen Algorithmus gefunden, der die Bilder auf 53 Diagnosen untersucht und die Befunde nach Dringlichkeit der Behandlung kategorisiert.

Aus gut 15.000 Netzhautscans erlernte der Computer, welche Merkmale auf welche Erkrankungen hinweisen. Dann testeten die Forscher den Algorithmus an Bildern von knapp 1.000 anderen Patientinnen und Patienten. Das Computerprogramm erwies sich als genauso gut wie die fünf besten von acht Experten: Obwohl sie zusätzlich weitere Informationen wie frühere Patientenbefunde zur Verfügung hatten, lagen sie mit ihren Einschätzungen nur gleichauf mit dem Algorithmus. Allerdings braucht es nicht immer ein OCT, um eine Augenerkrankung zu erkennen, auch eine gewöhnliche Augenhintergrundspiegelung kann ausreichen.

Einer der Hauptautoren der Studie ist der deutsche Wissenschaftler Olaf Ronneberger, Mitarbeiter bei DeepMind und außerplanmäßiger Informatikprofessor an der Universität Freiburg. Er ist bekannt für die Entwicklung einer Deep-Learning-Architektur namens U-Net, die auch in der Studie Anwendung fand. "Es gibt zu wenige Experten, die OCTs auswerten können", sagt Ronneberger. Das führe dazu, dass sich Behandlungen verzögerten, die Patientinnen und Patienten vor dem Erblinden retten könnten. Künftig solle der Algorithmus helfen, zunächst sei aber noch mehr klinische Forschung nötig.

Die zweite veröffentliche Studie (Nature Medicine: Titano et al, 2018) behandelt die Auswertung von Gehirnscans, um Auffälligkeiten wie Schlaganfälle, Blutungen oder Flüssigkeitsansammlungen zu erkennen. Forscherinnen und Forscher der New Yorker Icahn School of Medicine und der Universität Boston ließen Computer 37.200 Schädel-CTs mithilfe von Deep Learning analysieren und als "kritisch" oder "unkritisch" einordnen. Anschließend mussten die Algorithmen den Ärzten die Bilder zur Befundung nach Dringlichkeit präsentieren, in der Fachsprache nennt man das Triage. Bisher nehmen Medizinerinnen diese Sortierung selbst vor.

Ziel der Studienautoren ist nicht, dass Algorithmen Diagnosen erstellen. Denn maschinelles Lernen generiert bisher häufig zu viele falsche Treffer, also diagnostiziert gesunde Personen als krank. Stattdessen soll das System den Radiologinnen dringende Fälle schneller zur Diagnose anzeigen. "So lindern wir das Bedürfnis nach extrem akkuraten Modellen und betonen stattdessen die Stärke der Methode: Schnelligkeit", schreiben die Autoren. Anstatt dass ein Patient Minuten oder gar Stunden im Wartezimmer sitzt, bis eine Ärztin zu ihm vorgedrungen ist, um die Bilder auszuwerten, könnte das System die Radiologin in akuteren Fällen alarmieren. .....


Original