Was wird für den Einsatz alles benötigt?
Noll: Ein herkömmliches Ultraschallgerät, eine AR-Brille und ein PC, der die notwendigen Berechnungen mithilfe unserer Software durchführt. Letzterer ist normalerweise in jedem Ultraschallgerät vorhanden, erfordert jedoch den Zugang zu diesem System. Alternativ kann aber auch ein separater PC eingesetzt werden, um das AR-Headset mit Daten zu versorgen.
Eine der wichtigsten Komponenten ist jedoch ein Trackingsystem, mit dem die Position der Ultraschallsonde in Relation zu der Brille berechnet wird. Das müssen wir machen, um die erzeugte Ultraschallebene lagerichtig an der Ultraschallsonde anzeigen zu können und damit eine Positionierung im Raum relativ zum Blickwinkel des Nutzers zu gewährleisten. Wenn wir das nicht machen würden, läge diese Ultraschallebene irgendwo im Raum und es bestünde keine Korrelation zur Ultraschallsonde. Wir haben uns in dem Fall für ein externes optisches Trackingsystem entschieden. Das ist ein Gerät mit zwei Kameras, das die Position der AR-Brille auf dem Kopf des Anwenders und die der Ultraschallsonde mithilfe von Markierungen an diesen räumlich bestimmt.
Auf welchem Stand befindet sich das Projekt gerade?
Noll: Das System ist derzeit ein technischer Demonstrator, der hoffentlich noch in diesem Jahr in einem OP-Demolabor eingesetzt werden kann. Der nächste Schritt wäre, einen technischen Partner zu finden, der diese Technologie mit uns weiterentwickeln oder auf den Markt bringen möchte. Dazu müssten Teile des Systems in ein Ultraschallgerät integriert oder an dieses angebunden werden.
Wie sieht das Potenzial für die Weiterentwicklung des AR-Systems aus?
Noll: Es wäre zum Beispiel vorstellbar, dass mithilfe von Künstlicher Intelligenz Anomalien im Ultraschallbild automatisch erkannt werden. Diese könnten dem Arzt live als virtueller Inhalt in der Brille, zum Beispiel durch eine Umrandung oder eine Indikation mit Pfeilen, eingeblendet werden. Daneben könnten dem Anwender weitere nützliche Informationen wie die Größe oder das Volumen der Anomalie in Echtzeit eingeblendet werden. Ich könnte mir auch vorstellen, dass während des Schallens bestimmte Strukturen automatisiert segmentiert und dann ortsfest als 3D-Modell im Raum anzeigt werden könnten. Damit könnte man Stück für Stück ein 3D-Modell der Oberfläche beispielsweise eines Organs erzeugen. Es sind ganz viele Szenarien für die Weiterentwicklung der Technologie denkbar.