Was macht das Projekt aus?
Hampe: Es ist zunächst ein Pilotprojekt, das prüft, ob unser Konzept überhaupt umsetzbar ist. Eine große Stärke ist dabei sicherlich die Interdisziplinarität unseres Teams. Wir haben Leute aus der Industrie wie Georg Heidenreich, die wirklich wissen, wie es geht, die den Prozess sehr gut kennen. Wir haben die relevanten öffentlichen Stakeholder an Bord. Und wesentliche Partner sind die Kollegen vom International Center for Computional Logic der TU Dresden, die sich sehr gut auskennen mit KI und Wissenssystemen. Alles, was wir hier mit KI machen, muss nachher vollziehbar und erklärbar sein. Denn, Georg, was passiert, wenn mit einem Medizingerät etwas schief geht?
Heidenreich: Letztlich ist dann eine Risiko-Management-Akte vorhanden, um ein Ex-Post-Szenario mit den Unterlagen und dem Gerät nachzustellen zu können. Diese Akte, die bislang ein einfacher Ausdruck ist, den die Behörden dann bekommen, möchten wir digitalisieren. So könnten auch die Behörden das Szenario nachspielen. Umgekehrt ist der Hersteller bei der Konstruktion von Geräten in der Lage, aus Bibliotheken und bisherigen Erfahrungen seine Risiko-Management-Akte zusammenzusetzen. Die KI spielt eine Rolle, weil sie bestimmte Prüfungen machen kann. Wir sind nicht so ehrgeizig, davon auszugehen, dass in drei Jahren die inhaltliche Prüfung der Gefährdungsfreiheit durch KI möglich ist. Aber wir haben zum einen bis dahin die Methode, die das ermöglicht, und zum anderen eine Netzwerk-Plattform entwickelt, die über das Projektende hinaus aktiv ist, Wissen sammelt und die KI-Methoden weiterschreibt. Erste Plausibilitätsprüfungen mit KI wird es sicherlich schon im Projekt geben. Im entstehenden Netzwerk werden wir weiter in die Inhalte gehen, sodass beispielhaft für bestimmte Gerätetypen inhaltlich eine Logikprüfung stattfinden kann.