Deep Hand
Tiefenwahrnehmung und Deep Learning für die Muskelkontrolle der oberen Gliedmaßen
Im Projekt Deep Hand werden selbstangetriebene Handprothesen mit dem Ziel entwickelt, Amputierten zu helfen, einen Teil der verloren gegangenen Funktionalitäten der oberen Gliedmaßen wiederzuerlangen. Diese sollten idealerweise mit Hilfe der Aktivitäten der Restmuskulatur bedient werden können. Um dies zu erreichen, entwickelt die AG Robotik der Universität Bremen ein A-Mode Ultraschall Scansystems zur Erfassung der Tiefenmuskelaktivitäten. Die gewonnenen Ultraschalldaten werden in Verbindung mit den Daten aus der Oberflächen-Elektromyographie (sEMG), der Berührungswahrnehmung, der Dehnungsmessung und der Elektrischen Impedanztomographie (EIT) zusammengeführt, um dann durch Deep-Learning-Methoden die Zuverlässigkeit der Prothesensteuerung zu verbessern.
Laufzeit: | 16.03.2020 bis 15.03.2022 |
Zuwendungsempfänger: | Universität Bremen |
Fördergeber: | DFG Deutsche Forschungsgemeinschaft |
Förderkennzeichen: | DFG Projekt Nummer 272314643 |
Partner: |
DLR – Deutsches Zentrum für Luft- und Raumfahrt e.V. |
Anwendungsfelder: | Assistenz- und Rehabilitationssysteme |
Projektdetails
Gegenwärtig basieren die meisten Roboterhand-Prothesen noch auf Oberflächen-EMG-Technologie. Solche Signale ändern sich in der Regel je nach Umgebungs- und Körperbedingungen, was störend sein und zu einer unzuverlässigen Steuerung führen kann. Um die Absicht des Amputierten genauer lesen zu können, zielt das Projekt DeepHand darauf ab, verschiedene Ansätze einzuführen, darunter die Erfassung der Oberflächenmuskelaktivitäten mittels sEMG, taktilem Sensor sowie der Erfassung der Tiefenmuskelaktivitäten mittels EIT und A-Mode-Ultraschall-Scanning.
Die AG Robotik der Universität Bremen wird sich auf die Entwicklung eines tragbaren Systems konzentrieren, das die Aktivitäten der Tiefenmuskulatur mit Hilfe eines Satzes von A-Mode-Ultraschallsensoren erfasst.
Aufgrund seiner kompakten Größe ist ein A-Mode-Ultraschallsensor zur Erkennung der Muskelaktivitäten ideal im Vergleich zu dem B-Mode-Scanning, das sich bereits als wirksamer Ansatz zur Überwachung der Muskelaktivitäten erwiesen, jedoch eine sperrige Größe hat. Die Daten aus den verschiedenen Sensortechnologien werden zusammengeführt und mit Hilfe von maschinellen Lernansätzen weiter untersucht. Dadurch kann die Absicht des Amputierten genauer abgelesen werden und die entsprechende Steuerung der Roboter-Prothesen ist zuverlässiger.