TransFIT

Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0

Übersicht TransFIT Szenarios und Partner (Quelle: Meltem Fischer, DFKI)
Übersicht TransFIT Szenarios und Partner (Quelle: Meltem Fischer, DFKI)
Wissenschaftliche/r Leiter/in:
 
Projektkoordinator/in:
 
Projektleiter/in:
 
Ansprechpartner/in:

Das Vorhaben TransFIT ist Bestandteil der Space-Roadmap des DFKI RIC. Im Zentrum steht die Umsetzung eines Kooperationsszenarios zum autonomen und gemeinsamen Aufbau und der Montage von Infrastrukturelementen im Anwendungsbereich Weltraum. Dabei interagieren die Roboter und Astronauten nach dem Konzept der "sliding Autonomie" unterschiedlich stark von reiner Teleoperation über Teleoperation mit teilautonomen Funktionen, Autonomie mit dem "Operator in the Loop" bis hin zu kompletter Autonomie. Ziel der Interaktion ist nicht nur die Umsetzung einer Aufgabenteilung, sondern vielmehr, dass die Roboter aus der Unterstützung durch den Menschen lernen, um immer autonomer agieren zu können.

Laufzeit: 01.07.2017 bis 31.12.2021
Zuwendungsempfänger: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH & Siemens AG & Universität Bremen
Fördergeber: Bundesministerium für Wirtschaft und Klimaschutz
Deutsches Zentrum für Luft- und Raumfahrt e.V.
Förderkennzeichen: Gefördert durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWi), Projektträger Deutsches Zentrum für Luft- und Raumfahrt (DLR). Förderkennzeichen: FKZ 50RA1701, FKZ 50RA1702 und FKZ 50RA1703.
Anwendungsfelder: Weltraumrobotik
Verwandte Projekte: BesMan
Behaviors for Mobile Manipulation (05.2012- 07.2016)
Capio
Dual-Arm-Exoskelett (01.2011- 12.2013)
IMMI
Intelligentes Mensch-Maschine-Interface - Adaptives Brain-Reading für unterstützende Robotik (05.2010- 04.2015)
iMRK
Intelligente Mensch-Roboter-Kollaboration (03.2015- 06.2016)
iStruct
Intelligente Strukturen für mobile Robotersysteme (05.2010- 08.2013)
LIMES
Lernen intelligenter Bewegungen kinematisch komplexer Laufroboter für die Exploration im Weltraum (05.2012- 04.2016)
Moonwalk
Technologies and Human-Robot Collaboration for Surface EVA Exploration Activities and Training in European Analogue Environments (09.2013- 08.2016)
Recupera REHA
Ganzkörper Exoskelett für die robotische Oberkörper-Assistenz (09.2014- 12.2017)
TransTerrA
Semi-autonome kooperative Exploration planetarer Oberflächen mit Errichtung einer logistischen Kette sowie Betrachtung terrestrischer Anwendbarkeit einzelner Aspekte (05.2013- 12.2017)
Verwandte Robotersysteme: Full Body Exoskeleton
Exoskeleton for upper body robotic assistance
RH5
Humanoid robot as an assistance system in a human-optimized environment
Dual Arm Exoskeleton
Exoskeleton for upper body robotic assistance (Recupera REHA)
RH5 Manus
Humanoid robot as an assistance system in a human-optimized environment
RH5
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
RH5 Manus
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
Ganzkörperexoskelett
Exoskelett für die robotische Oberkörper-Assistenz
Aktives Zweiarm-Exoskelett
Zweiarmiges Exoskelett für die robotische Oberkörper-Assistenz (Recupera REHA)
Verwandte Software: HyRoDyn
Hybrid Robot Dynamics
ARC-OPT
Adaptive Robot Control using Optimization
ARC-OPT
Adaptive Robot Control using Optimization
Bagel
Biologically inspired Graph-Based Language
pySPACE
Signalverarbeitungs- und Klassifikationsumgebung in Python
reSPACE
Reconfigurable Signal Processing and Classification Environment
BOLeRo
Behavior Optimization and Learning for Robots
Rock
Robot Construction Kit
HyRoDyn
Hybrid Robot Dynamics

Projektdetails

Anforderungsbeschreibung Raumfahrtszenario

In Zukunft wird es Raumfahrtmissionen geben, bei denen nicht nur Beobachtungsequipment durch Satelliten in die Nähe verschiedener Himmelskörper oder mittels Landern und Roboter auf Planeten, Monden oder Asteroiden geschickt wird, sondern der Mensch als Astronaut direkter Bestandteil der Mission ist und sich selbst auf Planeten, Monden oder Asteroiden aufhalten wird. Hierfür ist der Aufbau von Infrastruktur vor Ort, wie stationären Lagern und Unterkünften, Laboren oder komplexeren und größeren Strukturen aus Modulen notwendig. Um die Astronauten nicht unnötig bei Außenmissionen zu gefährden, ist eine Unterstützung durch Roboter naheliegend. Da Roboter komplexe Aufgaben jedoch nur bedingt autonom lösen und sich nur bedingt flexibel verhalten können, ist eine enge Zusammenarbeit mit den Astronauten beginnend mit einer generellen Zielvorgabe für die (semi-)autonom agierenden Roboter bis hin zur direkten intuitiven Steuerung notwendig. So kann ein Roboter direkt mit dem Menschen interagieren, wenn er ein Modul hält/fixiert, während der Mensch ein weiteres Modul der Infrastruktur fixiert, oder ein Astronaut teleoperiert den Roboter aus der Station in der Umlaufbahn oder aus dem Lander heraus ohne sich unnötigen Gefahren auszusetzen. 

Ein wichtiges Ziel von TransFIT ist es Fähigkeiten für Roboter zu entwickeln, die es den Systemen grundsätzlich ermöglichen komplexe Montageaufgaben, wie Greifen, Halten und Stecken von vorgefertigten Komponenten autonom oder zusammen mit dem Menschen durchzuführen. Dabei soll das Konzept der ''sliding Autonomie'', hier als Wechsel zwischen eigenständiger/autonomer Arbeit und kooperativer Arbeit (teilautonom mit "Operator in the Loop" und als Kooperationspartner) hin zum teleoperierten Verhalten (mit und ohne Teilautonomie) umgesetzt werden. Voraussetzung für die schnelle Anpassbarkeit des Verhaltes ist die Entwicklung einer einfach bedienbaren Steuerungssoftware, die schnelle Anpassungen vor Ort und während einer Mission ermöglicht. So kann gewährleistet werden, dass z.B. nicht vorhersehbare Montageleistungen, insbesondere nicht eingeplante Reparaturen, wie der Wechsel eines Rades, statt autonom vom Roboter auch flexibel in Zusammenarbeit mit dem Menschen durchgeführt werden können.

Zusätzlich soll der Roboter in der Lage sein, Fähigkeiten des Menschen während der Interaktion zu erlernen, um so seine Einsetzbarkeit und Anpassbarkeit an die speziellen Anforderungen zu optimieren. Im Szenario sollen mindestens ein Mensch und ein Roboter zusammen eine Montageleistung erbringen, von der Teilkomponenten vom Roboter autonom, Teilkomponenten von Mensch und Roboter in Kooperation und Teilkomponenten teleoperiert durch einen zweiten Astronauten gelöst werden sollen. Des Weiteren wird gezeigt, dass das Verhalten der Roboter über ein einfach bedienbares Interface zur teilautomatischen Erstellung von Montageanleitungen als auch durch Lernen von Fähigkeiten aus der Beobachtung des menschlichen Verhaltens spontan und einfach angepasst werden kann.

Transfer in den Kontext Industrie 4.0

Die Anforderungen an die Flexibilität von Automatisierungslösungen steigen rasant. Haupttreiber sind die sich ändernden Rahmenbedingungen für die industrielle Produktion auch und gerade in Hochlohnländern wie Deutschland. Diese sind gekennzeichnet durch großen Variantenreichtum der zu fertigenden Produkte, immer kürzer werdende Produktlebenszyklen und in der Folge durch immer kleinere Losgrößen. Diese Rahmenbedingungen machen eine Automatisierung mit klassischen Automatisierungsparadigmen weitestgehend unmöglich, was zu einem extrem niedrigen Automatisierungsgrad in weiten Teilen der Produktion führt. Einer dieser vor allem auf manuelle Arbeit angewiesenen Fertigungsbereiche ist in vielen Branchen die Montage. Bei hoher Variabilität der zu montierenden Produkte ist eine Automatisierung der häufig sehr komplexen Vorgänge mit heutigen Mitteln aufgrund der damit verbundenen hohen Engineering-Aufwände wirtschaftlich nicht darstellbar. Hier müssen neue Konzepte entwickelt und erprobt werden. Eine wesentliche Rolle kommt dabei der nahtlosen und intuitiven Integration von Automatisierungstechnik und der trotz allem unverzichtbaren menschlichen Arbeit zu. Ziel ist die Demonstration einer hochflexiblen, universellen und kooperativen Montagezelle zur Fertigung komplexer Baugruppen, wie beispielsweise von kompakten mechanischen oder elektrischen Geräten, die nach heutigem Stand durch rein manuelle Arbeit erfolgen würde.

Um die erforderliche Flexibilität und Universalität zu erreichen, ohne gleichzeitig hohe Engineeringaufwendungen zu verursachen, muss eine zukunftsweisende Montage-Zelle in der Lage sein, abstrakte Aufgabenspezifikationen autonom und ohne die Notwendigkeit einer detaillierten Programmierung in Zusammenarbeit mit einem menschlichen Werker umsetzen zu können. Hier besteht ein direkter Zusammenhang zwischen den Anforderungen an das Weltraumszenario und dem Montageszenario im Kontext Industrie 4.0. Lösungen zur einfachen Erstellung von Montageanleitungen, also das im Weltraumszenario hierfür entwickelte Interface, sollen auch im Industrieszenario zum Einsatz kommen. Betrachtet wird die arbeitsteilige (MRK) Montage von Geräten bis ca. 10 kg Gesamtgewicht. Die Montageprozesse enthalten dabei Arbeitsschritte, die aufgrund der erforderlichen Geschicklichkeit ähnlich wie im Weltraumszenario nur vom Menschen ausgeführt werden können und solche die auch der Roboter, dafür aber mit größerer Präzision und Wiederholbarkeit, ausführen kann.

Zusätzlich zu einem hohen Autonomie-Grad dürfen aufgabespezifische Werkzeuge und Sensoren keine Basis-Bestandteile einer hochflexiblen und universellen Montagezelle sein. Es wird davon ausgegangen, dass eine systemunabhängige semantische Beschreibung des Montageprozesses für die Produkte (Bill-of-Material und Bill-of-Process), die gefertigt werden sollen, vorliegt. Die Montage-Zelle samt Fähigkeiten ist auch in einer produktunabhängigen semantischen Weise beschrieben. Direkt nach Eingang eines Produktionsauftrags überprüft das System welche von den benötigten Produkteilen vorhanden sind. Durch Reasoning und Handlungsplanung ist das System in der Lage, auf Basis dieser Beschreibungen und in Abhängigkeit der sensoriell erfassten Situation zur Laufzeit eine Montageanleitung für das ausgewählte Produkt automatisch zu generieren. Das System erkennt auch, ob Teilprodukte bereit vorliegen. In solchen Situationen generiert das System dementsprechend eine Montageanleitung, die nur die restlichen Prozess-Schritte enthält. Diese Schritte repräsentieren die Fähigkeiten der Montage-Zelle und sind abstrakt beschrieben, so dass sie auch für den Menschen verständlich sind. Kann ein Schritt nicht durchgeführt werden, weil zum Beispiel ein Teil des Produkts nicht gegriffen werden kann, wird dem Menschen angezeigt, was er zu tun hat um den Schritt abzuarbeiten. Roboterzelle und Mensch führen dann die Montage zur Laufzeit gemeinsam durch.

Die Zielsetzungen des Vorhabens lassen sich wie folgt zusammenfassen:

  • Entwicklung von Hardware- und Softwarelösungen zur sicheren Mensch-Roboter-Kooperation mit bedarfsgesteuertem, variablen Grad der Autonomie.
  • Entwicklung von wissensbasierten Basistechnologien in der Roboterkontrolle und Umgebungswahrnehmung zum Aufbau von Infrastruktur.
  • Entwicklungen von Ansätzen zur intuitiven Mensch-Roboter-Interaktion und situationsangemessener Unterstützung des Astronauten durch teilautonome Assistenzfunktionen, die u.a. automatisierte Feedbackansätze und psychophysiologische Daten nutzen.
  • Steigerung der Roboterautonomie durch die Entwicklung von Basistechnologien für das Online-Lernen zur Verhaltensoptimierung, automatischer Anpassung an Hardwareänderungen und Lernen aus der Interaktion mit dem Menschen ("Operator in the Loop").
  • Transfer der entwickelten Lösungen in den Bereich Industrie 4.0 zur interaktiven Fertigung in flexiblen Montagezellen.

Videos

RH5 Manus: Vorstellung eines leistungsfähigen humanoiden Oberkörperdesigns für dynamische Bewegungen

Video-Vorschaubild
Durch das Abspielen des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.

Jüngste Studien deuten darauf hin, dass eine steife Struktur zusammen mit einer optimalen Massenverteilung die Schlüsseleigenschaften sind, um dynamische Bewegungen auszuführen, und dass parallele Designs einem Roboter diese Eigenschaften verleihen. In dieser Arbeit wird das neue Oberkörperdesign des humanoiden Roboters RH5, genannt RH5 Manus, mit seriell-parallelem Hybriddesign vorgestellt. Die neuen Konstruktionsentscheidungen ermöglichen es uns, dynamische Bewegungen auszuführen, einschließlich Aufgaben, die eine Nutzlast von 4 kg in jeder Hand erfordern,

und schnelle Box-Bewegungen. Die parallele Kinematik in Kombination mit einer seriellen Gesamtkette des Roboters ermöglicht uns eine hohe Krafterzeugung bei einem größeren Bewegungsbereich und einer geringen peripheren Trägheit. Der Roboter ist mit Kraft-Drehmoment-Sensoren, Stereokamera, Laserscannern, hochauflösenden Encodern usw. ausgestattet, die eine Interaktion mit dem Bediener und der Umgebung ermöglichen. Wir generieren verschiedene dynamische Bewegungen mit Hilfe von Bahnoptimierung und führen sie erfolgreich auf dem Roboter mit genauer Bahn- und Geschwindigkeitsverfolgung aus, wobei wir die Grenzen für Rotation, Geschwindigkeit und Drehmoment der Gelenke einhalten.

RH5 Manus: Humanoider Assistenzroboter für zukünftige Weltraummissionen

Video-Vorschaubild
Durch das Abspielen des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.

Der humanoide Roboter "RH5 Manus" wurde im Rahmen des "TransFIT"-Projekts als Assistenzroboter entwickelt, der in der direkten menschlichen Umgebung, zum Beispiel auf einer zukünftigen Mondstation, eingesetzt werden kann. Ziel war es, den Roboter mit den notwendigen Fähigkeiten auszustatten, um komplexe Montagearbeiten sowohl autonom, als auch in Kooperation mit Astronauten und teleoperiert durchzuführen. Ein weiterer Schwerpunkt des Projekts lag auf der Übertragung der entwickelten Technologien auf die industrielle Fertigung und Produktion. Das Video zeigt die mechanische Montage und die Inbetriebnahme des Roboters.

TransFIT: Flexible Interaktion für Infrastrukturaufbau

Video-Vorschaubild
Durch das Abspielen des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.

Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0.

Intrinsisches interaktives verstärkendes Lernen: Nutzung von Fehler-korrelierten Potentialen

Video-Vorschaubild
Durch das Abspielen des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.

Der Roboter lernt dank menschlichem Negativ-Feedback aus eigenem Fehlverhalten

Publikationen

2024

A Survey of Behavior Learning Applications in Robotics - State of the Art and Perspectives
Alexander Fabisch, Christoph Petzoldt, Marc Otto, Frank Kirchner
series DFKI Research Reports, volume RR-24-01, Aug/2024. Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) GmbH, Robotics Innovation Center.

2023

Asynchronous classification of error-related potentials in human-robot interaction
Su-Kyoung Kim, Michael Maurus, Mathias Trampler, Marc Tabie, Elsa Andrea Kirchner
In 25th International Conference on Human-Computer Interaction, (HCII-2023), 23.7.-28.7.2023, Copenhagen, Springer, Jul/2023.
Detection and recognition of human manipulation building blocks
Lisa Gutzeit
Mar/2023. Universität Bremen.
Actuator-Level Motion and Contact Episode Learning and Classification Using Adaptive Resonance Theory
Vinzenz Bargsten, Frank Kirchner
In Journal of Intelligent Service Robotics, Springer, volume 1, pages 1-12, 2023.

2022

Unsupervised Segmentation of Human Manipulation Movements into Building Blocks
Lisa Gutzeit, Frank Kirchner
In IEEE Access, IEEE, volume 10, pages 125723-125734, Dec/2022.
Hierarchical Segmentation of Human Manipulation Movements
Lisa Gutzeit
In Proc. of the 26th International Conference on Pattern Recognition, (ICPR-2022), 21.8.-25.8.2022, Montreal, QC, IEEE Computer Society, pages 2742-2748, Aug/2022.
Kinematic Analysis of a Novel Humanoid Wrist Parallel Mechanism
Christoph Stoeffler, Adriano del Rio Fernandez, Heiner Peters, Moritz Schilling, Shivesh Kumar
Editors: Bruno Siciliano, Oussama Khatib
In ARK 2022: Advances in Robot Kinematics 2022, (ARK-2022), 27.6.-30.6.2022, Bilbao, Springer, series Springer Proceedings in Advanced Robotics, volume 24, pages 348-355, Jun/2022. ISBN: 978-3-031-08140-8.
Learning Task Constraints for Whole-Body Control of Robotic Systems
Dennis Mronga
May/2022. Universität Bremen.
Whole-Body Control of Series-Parallel Hybrid Robots
Dennis Mronga, Shivesh Kumar, Frank Kirchner
In IEEE International Conference on Robotics and Automation (ICRA), (ICRA-2022), 23.5.-27.5.2022, Philadelphia, IEEE, pages 228-234, 2022.
Introducing RH5 Manus: A Powerful Humanoid Upper Body Design for Dynamic Movements
Melya Boukheddimi, Shivesh Kumar, Heiner Peters, Dennis Mronga, Rohan Budhiraja, Frank Kirchner
In IEEE International Conference on Robotics and Automation (ICRA), (ICRA-2022), 23.5.-27.5.2022, Philadelphia, IEEE, pages 01-07, 2022. ISBN: 978-1-7281-9681-7.

2021

Learning initial trajectory using sequence-to-sequence approach to warm start an optimization-based motion planner
Sankaranarayanan Natarajan
In 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems, (IROS-2021), 27.9.-01.10.2021, Prague/Virtual, o.A., Sep/2021.
Learning context-adaptive task constraints for robotic manipulation
Dennis Mronga, Frank Kirchner
In Robotics and Autonomous Systems, Elsevier, volume 141, pages 103779-103779, Jul/2021.
VR-Based Interface Enabling Ad-Hoc Individualization of Information Layer Presentation
Luka Jacke, Michael Maurus, Elsa Andrea Kirchner
In HCI International 2021 - Late Breaking Posters, Springer International Publishing, pages 324-331, Jul/2021. ISBN: 978-3-030-90176-9.
gmr: Gaussian Mixture Regression
Alexander Fabisch
In Journal of Open Source Software, The Open Journal, Journal of Open Source Software, volume 6, number 62, pages 3054, Jun/2021.
Active Exploitation of Redundancies in Reconfigurable Multi-Robot Systems
Thomas M. Roehr
In IEEE Transactions on Robotics, IEEE, volume n.n., pages 1-17, Jun/2021.
A Comparison of Few-Shot Classification of Human Movement Trajectories
Lisa Gutzeit
In Proceedings of the 10th International Conference on Pattern Recognition Applications and Methods - Volume 1: ICPRAM, (ICPRAM-2021), 04.2.-06.2.2021, SciTePress, pages 243-250, Feb/2021. ISBN: 978-989-758-486-2.
Experience-Based Behavior Adaptation of Kinematically-Complex Robots
Alexander Dettmann
In n.n., Feb/2021. Universität Bremen.

2020

Errors in human-robot interactions and their effects on robot learning
Su-Kyoung Kim, Elsa Andrea Kirchner, Lukas Schloßmüller, Frank Kirchner
In Frontiers in Robotics and AI, Frontiers, volume 7 - Section Computational Intelligence in Robotics, pages Article-558531, Oct/2020.
Flexible online adaptation of learning strategy using EEG-based reinforcement signals in real-world robotic applications
Su Kyoung Kim, Elsa Andrea Kirchner, Frank Kirchner
In Proceedings of the IEEE International Conference on Robotics and Automation, (ICRA-2020), 31.3.-31.8.2020, Paris, IEEE, pages 4885-44891, Aug/2020.
Distributed computation and control of robot motion dynamics on FPGAs
Vinzenz Bargsten, José de Gea Fernández
In SN Applied Sciences, Springer Nature, volume 2, number 7, pages 1239-n.n., Jun/2020.
Phobos: A tool for creating complex robot models
Kai von Szadkowski, Simon Reichel
In Journal of Open Source Software, The Open Journal, Journal of Open Source Software, volume 5, number 45, pages 1326, Jan/2020.

2019

Simple and Robust Automatic Detection and Recognition of Human Movement Patterns in Tasks of Different Complexity
Lisa Gutzeit, Marc Otto, Elsa Andrea Kirchner
Editors: Andreas Holzinger, Alan Pope, Hugo Plácido Silva
In Physiological Computing Systems, Springer, pages 39-57, Jul/2019.
Transfer approach for the detection of missed task-relevant events in P300-based brain-computer interfaces
Elsa Andrea Kirchner, Su-Kyoung Kim
In Proceedings in the 9th International IEEE EMBS Conference On Neural Engineering (NER’19), (NER-2019), 20.3.-23.3.2019, San Francisco, CA, IEEE Xplore, pages 134-138, 2019.
Automated Robot Skill Learning from Demonstration for Various Robot Systems
Lisa Gutzeit, Alexander Fabisch, Christoph Petzold, Hendrik Wiese, Frank Kirchner
In KI 2019: Advances in Artificial Intelligence, (KI-2019), 23.9.-26.9.2019, Kassel, Springer, pages 168-181, 2019.

2018

Feel-Good Robotics: Requirements on Touch for Embodiment in Assistive Robotics
Philipp Beckerle, Risto Kõiva, Elsa Andrea Kirchner, Robin Bekrater-Bodmann, Strahinja Dosen, Oliver Christ, David A. Abbink, Claudio Castellini, Bigna Lenggenhager
Editors: Sung-Phil Kim
In Frontiers in Neurorobotics, Frontiers, volume 12, pages o.A., Dec/2018.
Kinematic analysis of a novel parallel 2SPRR+1U ankle mechanism in humanoid robot
Shivesh Kumar, Abhilash Nayak, Heiner Peters, Christopher Schulz, Andreas Mueller, Frank Kirchner
In Advances in Robot Kinematics 2018, (ARK-2018), 01.7.-05.7.2018, Bologna, Springer-Verlag GmbH, series Springer Proceedings in Advanced Robotics, volume 8, pages 431-439, Jul/2018. ISBN: 978-3-319-93188-3.
Automatic Movement Segmentation of Exoskeleton Data
Lisa Gutzeit, Marc Tabie, Elsa Andrea Kirchner
In Conference Proceedings of the 3rd International Mobile Brain/Body Imaging Conference, (MoBI-2018), 11.7.-14.7.2018, Berlin, TU Berlin DepositOnce, pages 62-63, Jul/2018.
The BesMan Learning Platform for Automated Robot Skill Learning
Lisa Gutzeit, Alexander Fabisch, Marc Otto, Jan Hendrik Metzen, Jonas Hansen, Frank Kirchner, Elsa Andrea Kirchner
In Frontiers in Robotics and AI, o.A., volume 5, pages 43, May/2018.
Underactuated gripper design for the assembly of infrastructure in space
Niklas Alexander Mulsow, Peter Kampmann
In Proceedings of the 14th International Symposium on Artificial Intelligence, (iSAIRAS-2018), 04.6.-07.6.2018, Madrid, ESA, 2018.
Conceptual Design of a Variable Stiffness Mechanism in a Humanoid Ankle using Parallel Redundant Actuation
Christoph Stoeffler, Shivesh Kumar, Heiner Peters, Olivier Bruels, Andreas Müller, Frank Kirchner
In IEEE-RAS International Conference on Humanoid Robots, (Humanoids-2018), 06.11.-09.11.2018, IEEE, 2018.

2017

Konstruktion eines zweibeinigen humanoiden Roboters
Heiner Peters, Peter Kampmann, Marc Simnofske
In Proceedings of the 2. VDI Fachkonferenz Humanoide Roboter, 5.12.-6.12.2017, München, VDI Fachkonferenz Humanoide Roboter, Dec/2017.

Zurück zur Projektliste
© DFKI GmbH
zuletzt geändert am 11.09.2024