Deep Hand

Tiefenwahrnehmung und Deep Learning für die Muskelkontrolle der oberen Gliedmaßen

Wissenschaftliche/r Leiter/in:
 
Projektkoordinator/in:
 
Projektleiter/in:
 
Ansprechpartner/in:

Im Rahmen des Projekts Deep Hand werden selbstangetriebene Handprothesen entwickelt, die Amputierten helfen sollen, verlorene Funktionen der oberen Gliedmaßen wiederzuerlangen. Idealerweise sollten diese mit den Aktivitäten der verbleibenden Muskeln betrieben werden. Um dies zu erreichen, entwickelt die Forschungsgruppe Robotik an der Universität Bremen ein Ultraschall-Scansystem zur Erfassung tiefer Muskelaktivitäten. Die gewonnenen Ultraschalldaten werden mit Daten der Oberflächen-Elektromyographie (sEMG), der Kraftmyographie (FMG) und der elektrischen Impedanztomographie (EIT) fusioniert. Anschließend werden Deep-Learning-Methoden eingesetzt, um die Zuverlässigkeit der Prothesensteuerung zu verbessern.

Laufzeit: 16.03.2020 bis 31.08.2022
Zuwendungsempfänger: Universität Bremen
Fördergeber: DFG Deutsche Forschungsgemeinschaft
Förderkennzeichen: DFG Projekt Nummer 272314643
Partner:

DLR – Deutsches Zentrum für Luft- und Raumfahrt e.V.
Universität Bielefeld (CITEC)
Universität Siegen

Anwendungsfelder: Assistenz- und Rehabilitationssysteme

Projektdetails

Vogelperspektive auf ein gemeinsames Experiment mit mehreren Modalitäten (Ultraschall, FMG und EIT) Quelle: DFKI GmbH, Bingbin Yu

Die Welt um uns herum ist so gestaltet, dass sie mit den Händen bedient werden kann: unsere Wohnungen, unsere Arbeitsplätze, die alltäglichen Verkehrsmittel usw. Aus diesem Grund führt der Verlust einer oberen Gliedmaße zu schwerwiegenden Beeinträchtigungen in der Funktionalität des täglichen Lebens sowie zu psychischen Schäden. Ein solcher Verlust ist irreversibel. Das Leben ohne Hand oder Arm verändert unwiderruflich die Gewohnheiten, das Aussehen und die affektiven Interaktionen des Amputierten, was zu körperlichen Behinderungen und häufig zu sozialer Ablehnung und Depression führt. Der Amputierte braucht ein lebenslanges Hilfsmittel, das zu einem symbiotischen Begleiter des täglichen Lebens werden soll. Mit dieser Forderung steigt das Interesse an Roboterprothesen, die nicht nur geschickte Handlungen ausführen können, sondern auch die Absichten des Amputierten zuverlässig erkennen.
Gegenwärtig basieren die meisten Roboterhandprothesen auf der Oberflächen-EMG-Technologie. Diese Signale ändern sich in der Regel je nach Umgebungs- und Körperbedingungen, was zu Störungen und unzuverlässiger Steuerung führen kann. Um die Absichten des Amputierten genauer zu erkennen, sollen im Rahmen des DeepHand-Projekts verschiedene Sensoransätze eingeführt werden, darunter die Erkennung von Muskelaktivitäten an der Oberfläche mit Hilfe von sEMG und taktilen Sensoren sowie die Erkennung von Muskelaktivitäten in der Tiefe mit Hilfe von EIT und Ultraschall-Scans.

Die Forschungsgruppe Robotik an der Universität Bremen wird sich auf die Entwicklung eines tragbaren Systems konzentrieren, das mit Hilfe eines Phased-Array-Ultraschallsensors tiefe Muskelaktivitäten erkennt. Aufgrund seiner kompakten Größe ist der Phased-Array-Ultraschallsensor ideal für die Erkennung von Muskelaktivitäten, im Gegensatz zum herkömmlichen B-Mode-Scanning, das sich als effektiver Ansatz für die Überwachung der Muskelaktivitäten erwiesen hat, aber sehr groß ist. Die Daten aus den verschiedenen Sensortechnologien werden fusioniert und mit Hilfe von maschinellen Lernverfahren weiter untersucht. Dadurch kann der Wille des Amputierten präziser erfasst werden, und die entsprechende Steuerung der Roboterprothesen ist zuverlässiger.

Zurück zur Projektliste
© DFKI GmbH
zuletzt geändert am 11.09.2024