VeryHuman

Lernen und Verifikation Komplexer Verhalten für Humanoide Roboter

RH5 Humanoid. Quelle: DFKI, Heiner Peters
RH5 Humanoid. Quelle: DFKI, Heiner Peters
Wissenschaftliche/r Leiter/in:
 
Projektleiter/in:
 
Ansprechpartner/in:

Die Validierung von Systemen in sicherheitsrelevanten Situationen ist ein inhärent schwieriges Problem, wenn deren Verhalten über Lernalgorithmen trainiert wurde. Der subsymbolische Operationsmodus erlaubt keine ausreichende Abstraktion oder Repräsentation um Korrektheitsbeweise zu führen. Die Zielsetzung des Projektes VeryHuman ist es, die nötigen Abstraktionsebenen durch Beobachtung und Analyse des zweibeinigen Laufens eines humanoiden Roboters zu synthetisieren. Die zu entwickelnde Theorie dient sowohl als Grundlage, um Belohnungsfunktionen abzuleiten, die für die optimale Kontrolle des Roboters über erweiterte Lernansätze verwendet werden, als auch um verifizierbare Abstraktionen kinematischer Robotermodelle zu generieren, die erleichterte Verhaltensvalidierung erlauben.

Laufzeit: 01.06.2020 bis 31.05.2024
Zuwendungsempfänger: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
Fördergeber: Bundesministerium für Bildung und Forschung
Förderkennzeichen: 01IW20004
Partner: Forschungsbereich Cyber-Physical Systems (CPS), Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Anwendungsfelder: Assistenz- und Rehabilitationssysteme
Logistik, Produktion und Consumer
SAR- & Sicherheitsrobotik
Weltraumrobotik
Verwandte Projekte: D-Rock
Modelle, Verfahren und Werkzeuge für die Modelbasierte Softwareentwicklung von Robotern (06.2015- 05.2018)
TransFIT
Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0 (07.2017- 12.2021)
Q-Rock
Modellbasierte Bestimmung und Validierung von wiederverwendbaren und übertragbaren Roboterverhalten (08.2018- 07.2021)
Verwandte Robotersysteme: RH5
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
RH5 Manus
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
Verwandte Software: HyRoDyn
Hybrid Robot Dynamics
MARS
Machina Arte Robotum Simulans
NDLCom
Node Level Data Link Communication
Rock
Robot Construction Kit

Projektdetails

Darstellung des Workflows im Projekt VeryHuman. Quelle: DFKI, Foto: Daniel Harnack
Biologisch inspirierte Kontrollalgorithmen wurden in jüngster Zeit erfolgreich für Robotersteuerung verwendet. Oft werden Techniken des bestärkenden Lernens oder der optimalen Kontrolltheorie verwendet, um komplexe Bewegungsabläufe mit einem Roboter durchzuführen (z.B. aufrechtes Gehen). Allerdings verbleiben bis dato zwei große Herausfoderungen für diese lernbasierten Ansätze:
  • Robuste Roboterhardware und eine akkurate Simulation des Systems sind notwendig. Der Roboter kann beispielsweise nicht einer großen Anzahl holonomer Randbedingungen,  unter anderem interne mechanisch geschlossene Schleifen und externe Kontakte, unterworfen sein, welche die Genauigkeit der Simulation beeinträchtigen.
  • Zum Anderen kann sich die Implementierung Kontrollalgorithmen dieser Art schwierig gestalten, da es einer adäquaten Spezifikation des gesuchten Verhaltens bedarf. Am Beispiel des aufrechtes Ganges eines zweibeinigen humanoiden Roboters wird deutlich, dass es nicht direkt offensichtlich ist, was diese Spezifikation ist.  Ein Ansatz ist die Relation verschiedener Körperteile zu betrachten (Kopf über Schultern, Schultern über Hüfte, Hüfte über Füßen) und physikalische Stabilitätskriterien zu untersuchen (Druckschwerpunkt, Zero Moment Point, etc.). Aber ist dies wirklich eine ausreichende Beschreibung des aufrechten Ganges, und was sind weitere, nicht-triviale Charakteristika? Die Beantwortung dieser Frage ist die Vorraussetzung, um passende Belohnungsfunktionnen und Randbedingungen für (tiefes) bestärkendes Lernen oder optimale Kontrolle zu formulieren.
Die drei Hauptforschungsfragen dieses Projektes sind:
  • Wie können Verhaltenseigenschaften für einen komplexen humanoiden Roboter formuliert und bewiesen werden?
  • Wie können Frameworks des bestärkenden Lernens und der optimalen Kontrolle effizient kombiniert werden um das gewünschte Verhalten zu erzielen?
  • Wie können aus Verhaltensbeschreibungen Belohnungsfunktionen abgeleitet werden, so dass diese in dem komplexen Anwendungsfall des aufrechten Gehens für bestärkendes Lernen und optimale Kontrollansätze verwendet werden können?
Diese drei Forschungsfragen sind eng verwoben und werden in drei Projektbereichen bearbeitet. Das übergreifende Projektziel ist eine Methodologie zur Entwicklung eines hybriden Kontrollansatzes aus optimaler Kontrolle und bestärkendem Lernen, zusammen mit einer rationalen Rekonstruktion des beobachteten sowie zukünftigen Verhaltens. Diese Rekonstruktion basiert auf Beobachtung der Roboterbewegungen und grundlegender Kenntnis der Physik (Strarrkörperdynamik). Der generelle Ansatz ist in Fig 2 skizziert. Das Demonstrationsszenario beinhaltet die Anwendung der entwickelten Methodologie für den aufrechten Gang des Roboters “RH5”, einer Neuentwicklung des DFKI-RIC (Fig. 1)

Videos

Introducing RH5 Manus: A Powerful Humanoid Upper Body Design for Dynamic Movements

Design, Analysis and Control of the Series-Parallel Hybrid RH5 Humanoid Robot

Torque-limited simple pendulum: A toolkit for getting started with underactuated robotics

Publikationen

2022


2021


Zurück zur Projektliste
© DFKI GmbH
zuletzt geändert am 20.03.2023
nach oben