VeryHuman
Lernen und Verifikation Komplexer Verhalten für Humanoide Roboter
Die Validierung von Systemen in sicherheitsrelevanten Situationen ist ein inhärent schwieriges Problem, wenn deren Verhalten über Lernalgorithmen trainiert wurde. Der subsymbolische Operationsmodus erlaubt keine ausreichende Abstraktion oder Repräsentation um Korrektheitsbeweise zu führen. Die Zielsetzung des Projektes VeryHuman ist es, die nötigen Abstraktionsebenen durch Beobachtung und Analyse des zweibeinigen Laufens eines humanoiden Roboters zu synthetisieren. Die zu entwickelnde Theorie dient sowohl als Grundlage, um Belohnungsfunktionen abzuleiten, die für die optimale Kontrolle des Roboters über erweiterte Lernansätze verwendet werden, als auch um verifizierbare Abstraktionen kinematischer Robotermodelle zu generieren, die erleichterte Verhaltensvalidierung erlauben.
Projektdetails
- Robuste Roboterhardware und eine akkurate Simulation des Systems sind notwendig. Der Roboter kann beispielsweise nicht einer großen Anzahl holonomer Randbedingungen, unter anderem interne mechanisch geschlossene Schleifen und externe Kontakte, unterworfen sein, welche die Genauigkeit der Simulation beeinträchtigen.
- Zum Anderen kann sich die Implementierung Kontrollalgorithmen dieser Art schwierig gestalten, da es einer adäquaten Spezifikation des gesuchten Verhaltens bedarf. Am Beispiel des aufrechtes Ganges eines zweibeinigen humanoiden Roboters wird deutlich, dass es nicht direkt offensichtlich ist, was diese Spezifikation ist. Ein Ansatz ist die Relation verschiedener Körperteile zu betrachten (Kopf über Schultern, Schultern über Hüfte, Hüfte über Füßen) und physikalische Stabilitätskriterien zu untersuchen (Druckschwerpunkt, Zero Moment Point, etc.). Aber ist dies wirklich eine ausreichende Beschreibung des aufrechten Ganges, und was sind weitere, nicht-triviale Charakteristika? Die Beantwortung dieser Frage ist die Vorraussetzung, um passende Belohnungsfunktionnen und Randbedingungen für (tiefes) bestärkendes Lernen oder optimale Kontrolle zu formulieren.
- Wie können Verhaltenseigenschaften für einen komplexen humanoiden Roboter formuliert und bewiesen werden?
- Wie können Frameworks des bestärkenden Lernens und der optimalen Kontrolle effizient kombiniert werden um das gewünschte Verhalten zu erzielen?
- Wie können aus Verhaltensbeschreibungen Belohnungsfunktionen abgeleitet werden, so dass diese in dem komplexen Anwendungsfall des aufrechten Gehens für bestärkendes Lernen und optimale Kontrollansätze verwendet werden können?