Deep Learning eröffnet in der Analyse von medizinischen Bilddaten neue Möglichkeiten. Sie verschafft eine objektive Zweitmeinung und steigert die Effizienz und den Durchsatz.
Die Radiologie gilt als der Bereich in der Medizin, in den Künstliche Intelligenz (KI) am schnellsten Einzug halten wird. Angesichts stetig steigender Menge an Bilddaten erscheint die automatisierte Bilddatenanalyse hierbei besonders interessant zu sein. Deep Learning (DL) ist das wohl populärste Teilgebiet der KI. In den letzten Jahren konnten auf besonders „tiefen“ künstlichen neuronalen Netzwerken basierende Algorithmen vor allem im Bereich Bildverarbeitung Durchbrüche erzielen. So ist aktuelle DL-Software dem Menschen z.B. bei Aufgaben wie Objekt- oder Gesichtserkennung weit überlegen.

Deep Learning in der Radiologie
Es erscheint daher naheliegend, DL-Software auch für radiologische Fragestellungen einzusetzen. Hier sind Bilddaten in großer Menge digital vorhanden und radiologische Fragestellungen sind oft klassische Bildverarbeitungsaufgaben, wie z.B. Objekterkennung und -segmentierung oder Anomaliedetektion. Die mangelnde Standardisierung der Aufnahmetechnik und die damit einhergehende extreme Heterogenität der Bilddaten begrenzt jedoch den Einsatz der KI in der Praxis. Um diese starken Variationen zu lernen, brauchen DL-Algorithmen Unmengen an “annotierten Daten“: Bilder, auf denen die zu erlernende Aufgabe bereits von menschlichen Experten vorab erledigt wurde, z.B. das Einzeichnen eines Tumors. Diese manuelle Annotation ist extrem zeit- und kostenaufwändig. Für das Training eines robusten DL-Algorithmus würden tausende dieser annotierten Datensätze benötigt. mediaire hat nun eine spezielle Technik entwickelt, durch die DL-Algorithmen auch mittels nicht-annotierter Bilder trainiert werden können. Dies vereinfacht die Entwicklung enorm, da nicht-annotierte Aufnahmen deutlich kostengünstiger und in großer Zahl zur Verfügung stehen.
mdML: mediaire’s Deep Learning Framework
Bei der Entwicklung von DL-Algorithmen ist oft eine Vielzahl von Experimenten nötig, um die optimale Netzwerk-Architektur zu finden. Bei jedem dieser Experimente werden tausende von Datensätzen zum Training durch verschiedene Netzwerktypen “gejagt“, um dann nach Ablauf des Trainings auf einem Validierungsdatensatz die Güte des jeweiligen Netzwerkes zu bestimmen. Ist so die beste Architektur ermittelt, wird abschließend die Performanz auf einem unabhängigen Testdatensatz ermittelt, bevor das finale Netzwerk in die Software eingebettet wird. Da insbesondereMRT-Bilddatensätze naturgemäß “groß“ sind (ca.100 MB pro Datensatz), sind die Anforderungen an die Trainings-Hardware (Grafikkarte, Arbeitsspeicher, Prozessoren) extrem hoch und auf normalen PCs kaum zu bewerkstelligen.
Daher hat mediaire mit “mdML“ ein Framework für Maschinelles Lernen entwickelt, das reibungsloses Training von Netzwerken in der Cloud ermöglicht. Wir haben uns dabei bewusst gegen existierende Frameworks von Amazon Sagemaker oder GoogleCloud AI entschieden, da das Training auf medizinischen Bilddaten sehr spezielle Anforderungen
an den Trainingsprozess hat, die in Standard-Frameworks typischerweise nicht oder nur schwer abgebildet werden können.
mdbrain – Deep Learning fürs Gehirn
Dank dieser Technik konnten wir mit mdbrain die erste DL-basierte Softwarelösung zur Erkennung neurodegenerativen Erkrankungen auf MRTs vorstellen. Das System wertet MRT-Bilder des Gehirns selbstständig aus und vermisst dabei bestimmte Zielstrukturen. Der Abgleich mit den Daten von Gesunden gleichen Alters und Geschlechts ermöglicht dann die frühzeitige Erkennung pathologischer Veränderung bei neurodegenerativen Erkrankungen wie z.B. Demenz oder MS. mdbrain ist dabei perfekt in den radiologischen Workflow integriert. Die MRT-Aufnahmen werden über das lokale Netzwerk vom MR-Scanner direkt zum mdbrain Server geschickt. Dadurch verlassen die MRT-Daten nie die Praxis, was auch den strengsten Datenschutzrichtlinien genügt. Dank DL und Grafikkarten-Unterstützung kann der mediaire Server innerhalb von weniger als 5 Minuten eine vollständige Hirnanalyse vornehmen. Der fertige Analysereport wird dem Nutzer dann sofort auf den Befundungsrechner geladen.

mdbrain – Validierung und Verifizierung
Um sicherzustellen, dass mdbrain “tut, was es soll„, wird die Software vor jedem Release einem strengen Verifizierungs- und Validierungsprozess unterzogen, der den hohen
Standards des Medizinproduktegesetzes (MPG) genügt. Dazu gehören nicht nur extensive automatisierte und manuelle Verifizierungstests, sondern auch sogenannte Validierungstests, in denen Reproduzierbarkeit, Robustheit und Messgenauigkeit auf vordefinierten Testdatensätzen evaluiert werden. Diese Testdatensätze werden zunächst
typischerweise von mehreren Radiologen annotiert, die Abweichungen untereinander dokumentiert und anschließend mit der Einschätzung von mdbrain verglichen. Ist die Übereinstimmung vonmdbrainmit den Experten besser als die Übereinstimmung der Experten untereinander, so wird die Validierung als erfolgreich betrachtet. Dabei werden Metriken wie DICE-Koeffizient (Segmentierung) oder F1-Score (Läsionserkennung) verwendet. Wichtig für die Akzeptanz in Fachkreisen ist darüber hinaus publizierte Evidenz
für die externe Validierung und ein Vergleich mit akademischen Goldstandards. Im Fall von mdbrain haben wir unser System mit einer Lösung der Harvard Medical School
namens FreeSurfer verglichen. Dabei konnten wir zeigen, dass mdbrain nicht nur wesentlich schnellere Berechnungen ermöglicht (ca. 15h vs. 5 min), sondern auch eine wesentlich höhere Reproduzierbarkeit aufweist (vgl. Abbildung).
Zusammenfassung und Ausblick
Um der KI-gestützten Lösungen langfristig in der Radiologie zum Durchbruch zu verhelfen, sollten Sicherheitsbedenken ernst genommen werden und die Ergebnisse der KI erklärbar sein. Idealerweise geht dies Hand in Hand mit einem klaren Nutzen für den Radiologen unter Praxisbedingungen. Wir sehen diese vor allem in folgenden Bereichen:
- Triage – schnelle Identifikation von Datensätzen, deren Befundung Priorität haben sollte.
- Objektive Zweitmeinung – automatische Segmentierung, Quantifizierung und Normvergleich von Zielstrukturen, wo derzeit noch oft geschätzt wird.
- Effizienzsteigerung – Automatisierung von zeitaufwendigen und/oder fehleranfälligen Arbeitsschritten.
Die Autoren:

