Ein Team der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) erforscht, wie sogenannte intelligente Prothesen weiter verbessert und zuverlässiger gemacht werden können. So soll die Prothese mithilfe interaktiver künstlicher Intelligenz lernen, den menschlichen Willen genauer zu erkennen, ihre Umwelt zu registrieren – und sich dabei ständig weiterentwickeln. Das Projekt wird von der EU mit 6 Millionen Euro gefördert, die FAU erhält 467.000 Euro.
"Wir arbeiten buchstäblich an der Schnittstelle von Mensch und Maschine“, erklärt Prof. Dr. Claudio Castellini, Professur für Medizinrobotik an der FAU. "Prothesen für die oberen Gliedmaßen haben sich in den letzten Jahrzehnten technologisch stark weiterentwickelt.“ Mithilfe der Oberflächen-Elektromyographie etwa können Haut-Elektroden am verbliebenen Armstumpf feinste Muskelregungen erfassen. Diese Biosignale können konvertiert und als elektrische Impulse auf die Prothese übertragen werden. "Der Träger oder die Trägerin steuert die Handprothese also selbstständig mit dem Armstumpf. Durch Methoden der Mustererkennung und des interaktiven maschinellen Lernes kann der Mensch der Prothese zudem seine individuellen Bedürfnisse beim Ausführen einer Geste oder einer Bewegung beibringen.“
Doch die fortschrittlichen robotischen Prothesen sind im Hinblick auf Komfort, Funktion und Kontrolle noch nicht optimal ausgereift, weshalb Menschen mit fehlenden Gliedmaßen oft funktionslose, rein kosmetische Prothesen bevorzugen. Das neue EU-Horizon-Projekt "AI-Powered Manipulation System for Advanced Robotic Service, Manufacturing and Prosthetics (IntelliMan)“ befasst sich deshalb damit, wie diese noch effektiver und zielgerichteter mit ihrer Umwelt interagieren können.
Die Forschenden der FAU ergründen dabei insbesondere, wie reale, aber auch virtuelle Prothesen der oberen Gliedmaßen besser kontrolliert werden können. Fokus ist die sogenannte "Intent Detection“, auf Deutsch Absichtserkennung. Prof. Castellini und sein Team entwickeln dazu die Erfassung und Analyse der menschlichen Biosignale weiter und entwerfen innovative Algorithmen des maschinellen Lernens, um individuelle Bewegungsmuster einer Person auszumachen. Ihre Ergebnisse validieren sie in Nutzerstudien an Proband/-innen mit und ohne körperliche Einschränkungen. Außerdem leitet das FAU-Team den Bereich "Shared Autonomy between humans and robots“ des EU-Projekts, dessen Ziel es ist, die Ergebnisse im Hinblick auf die Sicherheit zu prüfen.
Prof. Castellini leitet das "Assistive Intelligent Robotics“-Lab (AIROB) an der FAU, das sich mit der Steuerung von assistiver Robotik für die oberen und unteren Gliedmaßen sowie funktionaller Elektrostimulation befasst. "Wir nutzen die Möglichkeiten der Absichtserkennung zur Steuerung von assistiver und rehabilitativer Robotik“, erklärt der Wissenschaftler. "Dazu gehören am Körper tragbare Roboter, wie Prothesen und Exoskelette, aber auch Roboterarme und Simulationen in der Virtual Reality.“ Die Professur konzentriert sich dabei insbesondere auf die Biosignalverarbeitung verschiedener Sensormodalitäten und Methoden des maschinellen Lernens zur Absichtserkennung, forscht also an der Schnittstelle und Interaktion zwischen Mensch und Maschine.
MEDICA.de; Quelle: Friedrich-Alexander-Universität Erlangen-Nürnberg