Wie unter anderem Studien mit menschlichen Testpersonen gezeigt haben, ermöglicht dieser es, mithilfe von Künstlicher Intelligenz motorische Beeinträchtigungen vollautomatisch zu erkennen und mit ihrer Analyse auf die Art der zugrundeliegenden Erkrankungen zu schließen.
Für die computergestützte Bewegungsanalyse müssen die zu untersuchenden Individuen üblicherweise mit reflektierenden Markierungen oder das im Rahmen der Analyse aufgenommene Videomaterial mit virtuellen Markern versehen werden. Beide Verfahren sind vergleichsweise aufwändig. Zudem muss auffälliges Bewegungsverhalten im Vorhinein bekannt sein, damit es weiter untersucht werden kann. „Ein wirkliches Diagnosewerkzeug sollte motorische Störungen nicht nur bestätigen, sondern vielmehr überhaupt erst erkennen und auch korrekt zuordnen können“, erklärt Prof. Ommer, der die Computer-Vision-Gruppe am Interdisziplinären Zentrum für Wissenschaftliches Rechnen der Universität Heidelberg leitet.
Genau das ermöglicht das von seinem Team entwickelte neuartige Diagnoseverfahren mit dem Namen „Unsupervised Behaviour Analysis and Magnification using Deep Learning“ (uBAM). Der zugrundeliegende Algorithmus basiert auf maschinellem Lernen künstlicher neuronaler Netze und erkennt eigenständig und vollautomatisch charakteristisches Bewegungsverhalten und krankhafte Abweichungen davon. Der Algorithmus bestimmt, welche Körperpartie betroffen ist und bietet gewissermaßen eine Lupe für Bewegungsmuster, indem unterschiedlich geartete Abweichungen direkt im Video verstärkt und so sichtbar gemacht werden. Dabei wird das jeweils aktuelle Videomaterial mit Referenzaufnahmen von anderen gesunden oder ebenfalls beeinträchtigen Individuen verglichen. Auch Fortschritte bei der Behandlung von motorischen Störungen können so dokumentiert und analysiert werden.
Grundlage für das uBAM-Interface ist ein sogenanntes künstliches neuronales Faltungsnetzwerk, das insbesondere in der Bilderkennung und Bildverarbeitung eingesetzt wird. Das Netzwerk wurde von den Wissenschaftlern darauf trainiert, ähnliches Bewegungsverhalten trotz großer Unterschiede in der äußeren Erscheinung der jeweiligen Individuen zu identifizieren. Möglich ist das, weil die Künstliche Intelligenz zwischen Körperhaltung und Aussehen unterscheiden kann. Neben der Erkennung und Quantifizierung von Beeinträchtigungen spielt auch die detaillierte Analyse der Symptome eine entscheidende Rolle. „Um diese genau untersuchen zu können, nutzen wir ein generatives neuronales Netzwerk“, so der Informatiker. „Damit ermöglichen wir es Neurowissenschaftlern und Ärzten, auch sehr subtile motorische Störungen auszumachen, die mit bloßem Auge leicht zu übersehen sind, und heben diese hervor, indem wir die Abweichung verstärken. So können wir genau eingrenzen, um welche Art von Erkrankung es sich im individuellen Fall handelt.“
Mit Blick auf die Anwendung erhoffen sich die Wissenschaftler, dass uBAM sowohl in der biomedizinischen Grundlagenforschung als auch in der klinischen Diagnostik und darüber hinaus zum Einsatz kommen wird. Prof. Ommer: „Das Interface kann dort eingesetzt werden, wo sich herkömmliche Methoden als zu aufwändig, mühsam oder nicht leistungsfähig genug erweisen. Potenziell könnte es so zu einem besseren Verständnis von neuronalen Prozessen im Gehirn und zur Entwicklung von neuen Behandlungsmöglichkeiten beitragen.“
MEDICA.de; Quelle: Universität Heidelberg