Das Gebiet des maschinellen Lernens und der algorithmischen Datenanalyse hat sich in den letzten Jahren zu einem der wichtigsten Forschungsfelder in der modernen Informatik entwickelt. Die Möglichkeit, daß eine Maschine (semi-) automatisch quantitative Eigenschaften von Daten mit für den Menschen semantisch bedeutenden Konzepten in Verbindung bringt, hat ganz neue Möglichkeiten für empirische Wissenschaften eröffnet: Es wird damit möglich, phänomenologische Modelle von komplexen Phänomenen mit dem Computer zu „lernen“, die sich nicht mehr ab initio („from first principles“) verstehen lassen. Die Maschine kann hier unermüdlich durch große Berge an Daten suchen, und verborgene Muster und Regelmäßigkeiten aufdecken, die eventuell für den menschlichen Beobachter durch den seinen beschränkten Blick auf die Datenberge verborgen bleiben.
Das Projekt “Big Data in Radiology” hat zum Ziel, neue Methoden zu entwickeln, um Beziehungen zwischen geometrischen Strukturen in 3D Computer-Tomographie-Daten und medizinischen Informationen (Diagnosen, Krankheiten, Prognosen etc.) aus Daten zu erlernen. Wir gehen hierzu in zwei Schritten vor: Zunächst benutzen wir Objekterkennungsverfahren aus dem maschinellen Lernen / Computer Vision, um die rohen 3D Voxeldaten aus dem CT-Scanner mit relevante anatomischen Merkmalen (z.B. Gewebetypen, Organe, etc.) zu annotieren. Danach kann diese abstrahierte Repräsentation mit medizinischen Daten und Befunden abgeglichen werden, z.B. mit Regressionsverfahren, die einen funktionalen Zusammenhang zwischen geometrischen Merkmalen und den relevanten Merkmalen lernen. Um den Nutzen im medizinischen Kontext zu evaluieren, wenden wir die Methodik auf einige konkrete medizinische Fragen an. Als langfristige Perspektive der größeren Forschungsrichtung könnten am Ende neue Verfahren stehen, um aus großen Datenbanken von 3D Scans automatisch Hypothesen über medizinische Zusammenhänge für die Forschung abzuleiten, und die gewonnenen Modelle im besten Fall als Ratgeber in der klinischen Praxis einzusetzen.