TransFIT

Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0

Übersicht TransFIT Szenarios und Partner (Quelle: Meltem Fischer, DFKI)
Übersicht TransFIT Szenarios und Partner (Quelle: Meltem Fischer, DFKI)
Wissenschaftliche/r Leiter/in:
 
Projektkoordinator/in:
 
Projektleiter/in:
 
Ansprechpartner/in:

Das Vorhaben TransFIT ist Bestandteil der Space-Roadmap des DFKI RIC. Im Zentrum steht die Umsetzung eines Kooperationsszenarios zum autonomen und gemeinsamen Aufbau und der Montage von Infrastrukturelementen im Anwendungsbereich Weltraum. Dabei interagieren die Roboter und Astronauten nach dem Konzept der "sliding Autonomie" unterschiedlich stark von reiner Teleoperation über Teleoperation mit teilautonomen Funktionen, Autonomie mit dem "Operator in the Loop" bis hin zu kompletter Autonomie. Ziel der Interaktion ist nicht nur die Umsetzung einer Aufgabenteilung, sondern vielmehr, dass die Roboter aus der Unterstützung durch den Menschen lernen, um immer autonomer agieren zu können.

Laufzeit: 01.07.2017 bis 31.12.2021
Zuwendungsempfänger: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH & Siemens AG & Universität Bremen
Fördergeber: Bundesministerium für Wirtschaft und Klimaschutz
Deutsches Zentrum für Luft- und Raumfahrt e.V.
Förderkennzeichen: Gefördert durch das Bundesministerium für Wirtschaft und Klimaschutz (BMWi), Projektträger Deutsches Zentrum für Luft- und Raumfahrt (DLR). Förderkennzeichen: FKZ 50RA1701, FKZ 50RA1702 und FKZ 50RA1703.
Anwendungsfelder: Weltraumrobotik
Verwandte Projekte: BesMan
Behaviors for Mobile Manipulation (05.2012- 07.2016)
Capio
Dual-Arm-Exoskelett (01.2011- 12.2013)
IMMI
Intelligentes Mensch-Maschine-Interface - Adaptives Brain-Reading für unterstützende Robotik (05.2010- 04.2015)
iMRK
Intelligente Mensch-Roboter-Kollaboration (03.2015- 06.2016)
iStruct
Intelligente Strukturen für mobile Robotersysteme (05.2010- 08.2013)
LIMES
Lernen intelligenter Bewegungen kinematisch komplexer Laufroboter für die Exploration im Weltraum (05.2012- 04.2016)
Moonwalk
Technologies and Human-Robot Collaboration for Surface EVA Exploration Activities and Training in European Analogue Environments (09.2013- 08.2016)
Recupera REHA
Ganzkörper Exoskelett für die robotische Oberkörper-Assistenz (09.2014- 12.2017)
TransTerrA
Semi-autonome kooperative Exploration planetarer Oberflächen mit Errichtung einer logistischen Kette sowie Betrachtung terrestrischer Anwendbarkeit einzelner Aspekte (05.2013- 12.2017)
Verwandte Robotersysteme: RH5
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
RH5 Manus
Humanoider Roboter als Assistenzsystem in menschoptimierter Umgebung
Ganzkörperexoskelett
Exoskelett für die robotische Oberkörper-Assistenz
Aktives Zweiarm-Exoskelett
Zweiarmiges Exoskelett für die robotische Oberkörper-Assistenz (Recupera REHA)
Verwandte Software: ARC-OPT
Adaptive Robot Control using Optimization
Bagel
Biologically inspired Graph-Based Language
pySPACE
Signalverarbeitungs- und Klassifikationsumgebung in Python
reSPACE
Reconfigurable Signal Processing and Classification Environment
BOLeRo
Behavior Optimization and Learning for Robots
Rock
Robot Construction Kit
HyRoDyn
Hybrid Robot Dynamics

Projektdetails

Anforderungsbeschreibung Raumfahrtszenario

In Zukunft wird es Raumfahrtmissionen geben, bei denen nicht nur Beobachtungsequipment durch Satelliten in die Nähe verschiedener Himmelskörper oder mittels Landern und Roboter auf Planeten, Monden oder Asteroiden geschickt wird, sondern der Mensch als Astronaut direkter Bestandteil der Mission ist und sich selbst auf Planeten, Monden oder Asteroiden aufhalten wird. Hierfür ist der Aufbau von Infrastruktur vor Ort, wie stationären Lagern und Unterkünften, Laboren oder komplexeren und größeren Strukturen aus Modulen notwendig. Um die Astronauten nicht unnötig bei Außenmissionen zu gefährden, ist eine Unterstützung durch Roboter naheliegend. Da Roboter komplexe Aufgaben jedoch nur bedingt autonom lösen und sich nur bedingt flexibel verhalten können, ist eine enge Zusammenarbeit mit den Astronauten beginnend mit einer generellen Zielvorgabe für die (semi-)autonom agierenden Roboter bis hin zur direkten intuitiven Steuerung notwendig. So kann ein Roboter direkt mit dem Menschen interagieren, wenn er ein Modul hält/fixiert, während der Mensch ein weiteres Modul der Infrastruktur fixiert, oder ein Astronaut teleoperiert den Roboter aus der Station in der Umlaufbahn oder aus dem Lander heraus ohne sich unnötigen Gefahren auszusetzen. 

Ein wichtiges Ziel von TransFIT ist es Fähigkeiten für Roboter zu entwickeln, die es den Systemen grundsätzlich ermöglichen komplexe Montageaufgaben, wie Greifen, Halten und Stecken von vorgefertigten Komponenten autonom oder zusammen mit dem Menschen durchzuführen. Dabei soll das Konzept der ''sliding Autonomie'', hier als Wechsel zwischen eigenständiger/autonomer Arbeit und kooperativer Arbeit (teilautonom mit "Operator in the Loop" und als Kooperationspartner) hin zum teleoperierten Verhalten (mit und ohne Teilautonomie) umgesetzt werden. Voraussetzung für die schnelle Anpassbarkeit des Verhaltes ist die Entwicklung einer einfach bedienbaren Steuerungssoftware, die schnelle Anpassungen vor Ort und während einer Mission ermöglicht. So kann gewährleistet werden, dass z.B. nicht vorhersehbare Montageleistungen, insbesondere nicht eingeplante Reparaturen, wie der Wechsel eines Rades, statt autonom vom Roboter auch flexibel in Zusammenarbeit mit dem Menschen durchgeführt werden können.

Zusätzlich soll der Roboter in der Lage sein, Fähigkeiten des Menschen während der Interaktion zu erlernen, um so seine Einsetzbarkeit und Anpassbarkeit an die speziellen Anforderungen zu optimieren. Im Szenario sollen mindestens ein Mensch und ein Roboter zusammen eine Montageleistung erbringen, von der Teilkomponenten vom Roboter autonom, Teilkomponenten von Mensch und Roboter in Kooperation und Teilkomponenten teleoperiert durch einen zweiten Astronauten gelöst werden sollen. Des Weiteren wird gezeigt, dass das Verhalten der Roboter über ein einfach bedienbares Interface zur teilautomatischen Erstellung von Montageanleitungen als auch durch Lernen von Fähigkeiten aus der Beobachtung des menschlichen Verhaltens spontan und einfach angepasst werden kann.

Transfer in den Kontext Industrie 4.0

Die Anforderungen an die Flexibilität von Automatisierungslösungen steigen rasant. Haupttreiber sind die sich ändernden Rahmenbedingungen für die industrielle Produktion auch und gerade in Hochlohnländern wie Deutschland. Diese sind gekennzeichnet durch großen Variantenreichtum der zu fertigenden Produkte, immer kürzer werdende Produktlebenszyklen und in der Folge durch immer kleinere Losgrößen. Diese Rahmenbedingungen machen eine Automatisierung mit klassischen Automatisierungsparadigmen weitestgehend unmöglich, was zu einem extrem niedrigen Automatisierungsgrad in weiten Teilen der Produktion führt. Einer dieser vor allem auf manuelle Arbeit angewiesenen Fertigungsbereiche ist in vielen Branchen die Montage. Bei hoher Variabilität der zu montierenden Produkte ist eine Automatisierung der häufig sehr komplexen Vorgänge mit heutigen Mitteln aufgrund der damit verbundenen hohen Engineering-Aufwände wirtschaftlich nicht darstellbar. Hier müssen neue Konzepte entwickelt und erprobt werden. Eine wesentliche Rolle kommt dabei der nahtlosen und intuitiven Integration von Automatisierungstechnik und der trotz allem unverzichtbaren menschlichen Arbeit zu. Ziel ist die Demonstration einer hochflexiblen, universellen und kooperativen Montagezelle zur Fertigung komplexer Baugruppen, wie beispielsweise von kompakten mechanischen oder elektrischen Geräten, die nach heutigem Stand durch rein manuelle Arbeit erfolgen würde.

Um die erforderliche Flexibilität und Universalität zu erreichen, ohne gleichzeitig hohe Engineeringaufwendungen zu verursachen, muss eine zukunftsweisende Montage-Zelle in der Lage sein, abstrakte Aufgabenspezifikationen autonom und ohne die Notwendigkeit einer detaillierten Programmierung in Zusammenarbeit mit einem menschlichen Werker umsetzen zu können. Hier besteht ein direkter Zusammenhang zwischen den Anforderungen an das Weltraumszenario und dem Montageszenario im Kontext Industrie 4.0. Lösungen zur einfachen Erstellung von Montageanleitungen, also das im Weltraumszenario hierfür entwickelte Interface, sollen auch im Industrieszenario zum Einsatz kommen. Betrachtet wird die arbeitsteilige (MRK) Montage von Geräten bis ca. 10 kg Gesamtgewicht. Die Montageprozesse enthalten dabei Arbeitsschritte, die aufgrund der erforderlichen Geschicklichkeit ähnlich wie im Weltraumszenario nur vom Menschen ausgeführt werden können und solche die auch der Roboter, dafür aber mit größerer Präzision und Wiederholbarkeit, ausführen kann.

Zusätzlich zu einem hohen Autonomie-Grad dürfen aufgabespezifische Werkzeuge und Sensoren keine Basis-Bestandteile einer hochflexiblen und universellen Montagezelle sein. Es wird davon ausgegangen, dass eine systemunabhängige semantische Beschreibung des Montageprozesses für die Produkte (Bill-of-Material und Bill-of-Process), die gefertigt werden sollen, vorliegt. Die Montage-Zelle samt Fähigkeiten ist auch in einer produktunabhängigen semantischen Weise beschrieben. Direkt nach Eingang eines Produktionsauftrags überprüft das System welche von den benötigten Produkteilen vorhanden sind. Durch Reasoning und Handlungsplanung ist das System in der Lage, auf Basis dieser Beschreibungen und in Abhängigkeit der sensoriell erfassten Situation zur Laufzeit eine Montageanleitung für das ausgewählte Produkt automatisch zu generieren. Das System erkennt auch, ob Teilprodukte bereit vorliegen. In solchen Situationen generiert das System dementsprechend eine Montageanleitung, die nur die restlichen Prozess-Schritte enthält. Diese Schritte repräsentieren die Fähigkeiten der Montage-Zelle und sind abstrakt beschrieben, so dass sie auch für den Menschen verständlich sind. Kann ein Schritt nicht durchgeführt werden, weil zum Beispiel ein Teil des Produkts nicht gegriffen werden kann, wird dem Menschen angezeigt, was er zu tun hat um den Schritt abzuarbeiten. Roboterzelle und Mensch führen dann die Montage zur Laufzeit gemeinsam durch.

Die Zielsetzungen des Vorhabens lassen sich wie folgt zusammenfassen:

  • Entwicklung von Hardware- und Softwarelösungen zur sicheren Mensch-Roboter-Kooperation mit bedarfsgesteuertem, variablen Grad der Autonomie.
  • Entwicklung von wissensbasierten Basistechnologien in der Roboterkontrolle und Umgebungswahrnehmung zum Aufbau von Infrastruktur.
  • Entwicklungen von Ansätzen zur intuitiven Mensch-Roboter-Interaktion und situationsangemessener Unterstützung des Astronauten durch teilautonome Assistenzfunktionen, die u.a. automatisierte Feedbackansätze und psychophysiologische Daten nutzen.
  • Steigerung der Roboterautonomie durch die Entwicklung von Basistechnologien für das Online-Lernen zur Verhaltensoptimierung, automatischer Anpassung an Hardwareänderungen und Lernen aus der Interaktion mit dem Menschen ("Operator in the Loop").
  • Transfer der entwickelten Lösungen in den Bereich Industrie 4.0 zur interaktiven Fertigung in flexiblen Montagezellen.

Videos

RH5 Manus – Humanoid assistance robot for future space missions

TransFIT: Flexible Interaktion für Infrastrukturaufbau

Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0.

Intrinsisches interaktives verstärkendes Lernen: Nutzung von Fehler-korrelierten Potentialen

Der Roboter lernt dank menschlichem Negativ-Feedback aus eigenem Fehlverhalten

Projektziele im Detail

Intuitive und flexible Interaktionsmöglichkeiten

Die Interaktion mit dem Menschen soll unter verschiedenen Interaktions-Bedingungen gezeigt werden. Das zu entwickelnde Szenario sieht vor, dass der Mensch sowohl direkt mit dem Roboter interagiert und zusammenarbeitet als auch teleoperiert die Steuerung eines Roboters von einer extraterrestrischen Station oder aus einer Station im Orbit übernehmen kann. Die direkte Zusammenarbeit mit dem Roboter soll gezeigt werden. Teleoperation ermöglicht einerseits die Nutzung menschlicher Fähigkeiten direkt durch den Roboter, andererseits ermöglicht es dem Menschen die erweiterten Fähigkeiten des robotischen Systems zu nutzen. 

Ein komplexer humanoider Roboter besitzt sehr viele Freiheitsgrade, weswegen von klassischen Kontrollstrategien abgesehen werden muss. Ein intuitives Mapping zwischen dem Menschen und dem Roboter ist für die Teleoperation nötig. Hier bietet sich die Nutzung von Exoskeletten wie das im Projekt Recupera Reha (FZK: 01IM14006A) gerade entwickelte Ganzkörperexoskelett an. Im Projekt TransTerrA (FZK: 50 RA 1301) kommt ein Exoskelett als Teilsystem zur intuitiven Steuerung der Robotersysteme Coyote III, SherpaTT und insbesondere des Manipulatorarms des Roboters SherpaTT zum Einsatz. Um den Menschen jedoch in das Szenario zu versetzen, ist eine virtuelle Immersion notwendig, wie sie in den Projekten VI-Bot (FKZ 01IW07003), IMMI (FKZ: 50 RA 1012 und 50 RA 1011) und TransTerrA zum Einsatz kam. Im Rahmen von TransFIT soll die virtuelle Immersion und bilaterale Zustandserkennung zwischen Mensch und Roboter erweitert werden. So sollen nicht nur Aspekte wie der Workload des Menschen betrachtet werden, sondern dem Roboter auch direktes Feedback zu seiner Funktionalität und Korrektheit im Verhalten gegeben werden. Außerdem soll untersucht werden, ob eine starke Immersion des Menschen in das Szenario über den Roboter die Steuerung verbessert bzw. vereinfacht. Hierfür soll die Online-Analyse von verschiedenen physiologischen Daten und Verhaltensdaten zum Einsatz kommen. Dazu können zum Einen am Körper getragene Sensoren wie ein Eyetracker zur Beobachtung des Blickverhaltens und anderer Zustände wie Müdigkeit oder Puls, EEG-Elektroden zur Analyse des Fehlerpotentials oder IMU-Sensoren zum Bewegungsverhalten und körperlichen Zustand genutzt werden, zum Anderen aber auch externe Sensoren des Roboters wie Laserscanner oder RGB-D Kameras zur Bewegungs- und Verhaltensanalyse verwendet werden. Idealerweise findet dafür eine multimodale Online-Analyse statt, die mehrere Eingabekanäle miteinander kombiniert, um so möglichst unabhängig von der Umgebung zu sein und sowohl im extraterrestrischen Umfeld als auch im Industriekontext verwendet werden zu können.

Für die Mensch-Maschine-Interaktion wird einerseits auf Arbeiten im Projekt IMMI (FKZ: 50 RA 1012 und 50 RA 1011) zurückgegriffen, die weitergeführt werden, um insbesondere multimodale Daten flexibel zu nutzen und unterschiedliche Interaktionsmöglichkeiten zu unterstützen. Außerdem werden auch Arbeiten aus den Projekten Moonwalk (EU-Projekt; Grant Agreement Nummer: 607346) und iMRK (Auftrag von Volkswagen) aufgegriffen, die den interagierenden Menschen eine einfache Kommunikation über Gesten ermöglichen.

Das robotische System muss automatisch und intuitiv erkennen, in welchem Handlungskontext der Mensch sich gerade befindet. Hierbei kann wiederum die Sensorik aus dem Projekt Moonwalk in ihrer Anwendung erweitert werden, um nicht nur Gestik, sondern generelle Verhaltensmuster zu extrahieren um dann in Kombination mit anderer Sensorik den Handlungskontext für den Roboter zu bestimmen. Für die konkrete Anwendung des Aufbaus extraterrestrischer Infrastruktur bedeutet das beispielsweise, ob der Mensch mit dem System interagieren will, ob unvorhergesehene Ereignisse die Interaktion unterbrechen oder in welcher Phase von zuvor einstudierten Bewegungsabläufen sich der Mensch gerade befindet. Diese Erkenntnis kann dann zur Vorhersage der weiteren Bewegung genutzt werden. Dadurch kann der Roboter z.B. schon zum zu erwarteten Interaktionspunkt fahren. Die bessere Charakterisierung der Bewegung des Menschen kann auch für die Planung und für die gemeinsame Koordination der Systeme genutzt werden.

Online Lernen von Fähigkeiten aus Beobachten

Während der Interaktion mit dem Menschen soll der Roboter in der Lage sein während der Interaktion aus dem Verhalten des Menschen zu lernen. Hierzu müssen Arbeiten aus dem Projekt BesMan (FZK: 50 RA 1216 (DFKI) und 50 RA 1217 (Uni Bremen)) weiterverfolgt und um die Möglichkeit des Online Lernens auf der Basis von Daten aus dem Exoskelett erweitert werden. Das Erlernen von Verhalten soll nur während der Teleoperation erlaubt sein, da hier genaue und systemgemäße Ausführung zu erwarten ist. 

Der Roboter sollte jedoch außerdem in der Lage sein, auf Veränderungen (wie Materialermüdung, Änderungen der Interaktion z.B. durch Personalwechsel) selbständig reagieren zu können, indem bekannte Verhalten angepasst werden (ohne dass zuerst eine Optimierung der Simulation stattfinden muss).

Insbesondere für Roboter mit komplexer Kinematik können Verhalten auch unabhängig vom menschlichen Vorbild in der Simulation gelernt werden. Die Ausführungsdauer in der Realität wird dabei durch eine intelligente Testauswahl (und ein internes Modell für die Transferierbarkeit) minimiert.

Robotersysteme, die durch Reinforcement Learning ihr Verhalten anpassen, benötigen eine Beurteilung ihrer aktuellen Verhaltensweise, die normalerweise in Form einer Reward-Funktion bereitgestellt wird. So könnten Verhalten gelernt werden, die für den Roboter besser geeignet sind als eine exakte Kopie der vom Menschen vorgeführten Bewegung.

Simulationsumgebungen für Lernen, Kontrolle und Interaktion

Der Einsatz von physikalischen Simulationsumgebungen bringt bei der Entwicklung von robotischen Systemen und deren Steuerung eine Reihe von Vorteilen mit sich. So ist es möglich, Design-Konzepte frühzeitig zu testen und so noch vor erster Prototypenfertigung Anpassungen an der Konstruktion zu machen. Auch bei der Entwicklung von Kontrollverfahren können durch die Möglichkeit der virtuellen Erprobung Zeit und Kosten eingespart werden. In TransFIT sollen Simulationsumgebungen für verschiedene Bereiche genutzt werden. Sie kommen für die Entscheidungsfindung bei der Roboterkontrolle, das Lernen für Anpassungen und Optimierungen von Verhalten, z.B. zur Steigerung der Robustheit, sowie bei der Interaktion, z.B. für die virtuelle Immersion des Operators bei der Teleoperation, zum Einsatz. 

Daten aus der Konstruktion dienen als Grundlage für die Erstellung von System-Modellen. Messungen während der Interaktionen des Roboters mit seiner Umgebung werden zur Optimierung dieser grundlegenden Modelle genutzt. Wird der Roboter nicht im Einsatz benötigt, können gezielt Tests ausgeführt werden, welche die Vorhersagekraft der Simulation verbessern.

Simulationswerkzeuge müssen außerdem erweitert, verbessert und genutzt werden, um die Entwicklung und den Betrieb der robotischen Systeme zu unterstützen oder bestimmte Vorgehensweisen wie z.B. den Einsatz von maschinellen Lernverfahren zu ermöglichen. Für die Generierung, Erprobung, Evaluierung und Optimierung unterschiedlichster Verhalten ist die Möglichkeit der Simulation von Robotern und ihrer Interaktion mit der Umgebung unabdingbar. Ein Schwerpunkt liegt hierbei auf echtzeitfähigen Simulationen, die es ermöglichen, die Software für Systeme zu entwickeln und virtuell zu testen. Auch sollen diese Simulationen direkt in die Kontrollsoftware von Robotern eingebunden und zur Laufzeit genutzt werden, um z.B. das Gelingen und die möglichen Folgen einer intendierten Handlung vor deren Ausführung bewerten zu können. Dadurch kann eine Steigerung der Robustheit der autonomen Fähigkeiten der Systeme erreicht werden.

Zudem wird die Simulation zur virtuellen, immersiven Darstellung der Roboter in ihrer vorgesehenen Umgebung für den Operator über Head-Mounted-Displays oder in einer 3D-Rundumprojektion genutzt, um die zeitgleiche intuitive Kontrolle von (mehreren) Systemen zu realisieren und zu verbessern.

Verbesserung der Manipulationsfähigkeit

Auch die Manipulationsfähigkeit des Roboters muss für TransFIT erweitert werden. Wie bereits erwähnt wurde, sind aufgrund der immer komplexeren Kinematik von Robotern ganzheitliche Ansätze wie die Ganzkörperregelung (Whole Body Control) notwendig, um die große Anzahl von Gelenken effizient steuern zu können. Das betrifft nicht nur humanoide Roboter, aber auch mobile Manipulatorsysteme wie den Mantis Roboter. Ein Framework zur Ganzkörperregelung wurde im Projekt BesMan (FZK: 50 RA 1216 (DFKI)) entwickelt und auf verschiedenen Robotersystemen als Ausführungsebene von Manipulationsaufgaben getestet. Es basiert auf Optimierung mit Nebenbedingungen (Constraint-Based Robot Control) und kann auf Robotersystemen mit vielen Freiheitsgraden eingesetzt werden um mehrere parallele Teilaufgaben zu steuern. Basierend auf den Ergebnissen aus BesMan soll dieses Framework weiterentwickelt werden um die Ausführung von Aktionsplänen aufgrund von semantischen Aufgabenbeschreibungen zu ermöglichen, welche unabhängig vom konkreten Anwendungskontext sind (z.B. involvierte Objekte und Robotersysteme).  Dazu soll insbesondere die Möglichkeit untersucht werden, Verfahren zur Ganzkörperregelung mit Lernverfahren zu kombinieren, um eine (teil-)automatisierte Auswahl und Konfiguration der oben beschriebenen Teilaufgaben zu ermöglichen.

Andererseits treten bei sehr schnellen Bewegungen meist auch große Beschleunigungen auf; eine rein kinematische Regelung käme dann an ihre Grenzen, wodurch die Nutzung des dynamischen Modells des Roboters unabdingbar ist. Hier sind die Identifizierung der Dynamik des Roboters anhand experimentell erfasster Roboterdaten und die entsprechende Entwicklung generischer Softwarebausteine für die Nutzung der dynamischen Modelle in morphologisch unterschiedlichen Robotern (humanoider Roboter, Industrieroboter im Transferszenario) nötig. Um diese Modelle zu identifizieren bzw. zu erlernen und die Komplexität der angesprochenen Roboter zu handhaben, käme die Kombination von klassischen Identifikationsverfahren mit Lernverfahren in Frage. Besonders vielversprechend ist die Vereinigung beider Ansätze zur Nutzung von deren Vorteilen. Die klassischen Modelle können genutzt werden, um Lernalgorithmen vor zu trainieren bzw. zu beschleunigen, während die Lernverfahren es erlauben, gleichzeitig die Online-Anpassung der Robotermodelle zu realisieren und deren prädiktives Potenzial zu nutzen. Außerdem ist die Nutzung solch rechnerisch effizienter und dynamischer Modelle von Vorteil, um die Dynamik des Roboters auch für die Bewegungsplanung berücksichtigen zu können, was zurzeit nach dem Stand der Technik kaum umgesetzt wird.

Biologisch inspiriertes Greifen

Die Interaktion von Robotern mit der Umwelt hängt zu einem hohen Maße von ihrer Fähigkeit zu greifen ab. Erst durch das Handhaben von Objekten lässt sich die Umwelt beeinflussen und verändern. Das Handhaben kann durch die Nutzung verschiedener physikalischer Effekte realisiert werden. Wie sicher ein Objekt gegriffen wird, hängt von Parametern wie der Greifkraft, dem erreichten Formschluss oder der Haftwirkung ab. Die Performance des Greifers kann für gewöhnlich aber nicht für alle beim Greifen relevanten Parameter optimiert werden, weswegen die Grenzbereiche meist nur durch spezielle Sonderlösungen abgedeckt werden. Durch die Energie und Massenbeschränkungen mobiler Robotersysteme existiert das Bestreben, das Verhältnis von Eigengewicht zu Nutzlast des Greifers zu maximieren. Diese Herausforderung soll durch einen mechanischen selbst-adaptiven Aufbau der Fingerkinematik und eine intelligente Ansteuerung des Greifers gelöst werden.  Durch den mechanisch selbst-adaptiven Aufbau wird es möglich Objekte mit verschiedenen Geometrien zu greifen - ohne eine zusätzliche Anpassung der Greiferpose auf Steuerungsebene. Die Greifreflexe ermöglichen die Steigerung der Nutzlastkapazität, aber auch eine schnelle Ansteuerung des Greifers auf unterster Ebene im Fall eines drohenden Objektverlustes. 

Ziel ist die Entwicklung eines modularen selbst-adaptiven Greifsystems, dass an verschiedenen industriellen Manipulatoren einsetzbar ist. Das unteraktuierte und mechanisch selbstadaptive Greifsystem, das im Rahmen des SpaceBot Cup 2015 entwickelt wurde, wird in diesem Vorhaben weiterentwickelt und mit taktilen Sensoren aus dem Projekten SeeGrip und LIMES ausgestattet. Der Greifer wird außerdem mit Näherungssensoren auf den Greifflächen ausgestattet, wodurch die Bewegungen des Manipulators durch die Sensorinformationen des Greifers gesteuert werden kann. Dieser Ansatz fungiert als zusätzliche Annäherungsphase zwischen Visual- und Tactile Servoing.

Als weiteres Anwendungsbeispiel wird die Greifersteuerung des humanoiden Roboters durch die Realisierung biologisch inspirierter Greifreflexe erweitert, um einen drohenden Objektverlust durch die Anpassung der Greifkraft zu verhindern. Neben der Entwicklung geeigneter Steuerungsalgorithmen wird die Manipulationsfähigkeit des Systems durch den Einsatz mechanisch selbstadaptiver Greifsysteme verbessert.

Erhöhung sensorischer Intelligenz für die Feinmanipulation

Feinmanipulation benötigt hohe sensorische Unterstützung in den Greifern. Wie bereits erwähnt, soll hier auf Vorarbeiten aus den Projekten SeeGrip und LIMES aufgebaut werden. Die hierbei verwendeten Sensoren wurden ursprünglich im Rahmen eines Weltraumszenarios entwickelt (Canadarm der ISS) und sollen hier für die Rückmeldung von Kontaktkräften eingesetzt werden. In diesem Projekt ist geplant die reine Kontaktsensorik mit Näherungssensoren zu verbinden, um so die komplette Phase der Manipulation (Annäherung, Kontakt, Entfernung) zu überwachen und über den Zustand Rückmeldung zu geben. Bezüglich der Steigerung des TRL dieser Teiltechnologie wird im Projekt sowohl eine Erhöhung der Robustheit der einzelnen Sensormodule, eine Betrachtung unter den Gesichtspunkten der Weltraumqualifizierbarkeit als auch eine Steigerung der „Intelligenz“ der Sensormodule angestrebt. Ziel soll dabei sein, die Sensorverarbeitungskette innerhalb der Greifer soweit auszubauen, dass die aufbereiteten Messwerte direkt in die Manipulations- und Greifplanung einfließen können. Besonderes Interesse liegt hierbei bei der Autonomie des Greifers beim Sicherstellen von stabilen Griffen sowie bei taktilen Explorationsstrategien unter erhöhter Geschwindigkeit.

 

Sichere Objekterkennung durch Kombination von Top-down und Bottom-up Verfahren

Ein wichtiger Punkt für die Manipulations- und Interaktionsfähigkeit eines autonomen Systems ist das Erkennen von Objekten und weiteren relevanten Akteuren (Menschen, Infrastrukturbestandteilen) des jeweiligen Szenarios. Hierzu werden in TransFIT Verfahren entwickelt, die Bottom-up Lernverfahren (bspw. Deep Learning) mit Top-down Wissensverarbeitung und modellbasierten Ansätzen verbinden. Die Lernverfahren werden eingesetzt, um neue Objektklassen zu identifizieren und bekannte Objektklassen zu generalisieren. Die mit dem Lernverfahren verbundene Wissensverarbeitung liefert den Kontext, in dem das Lernverfahren arbeitet und die semantischen Informationen, die an die im jeweiligen Kontext relevanten Objekte gekoppelt sind. Hierbei ergibt sich eine wesentlich stärkere Flexibilität des Verfahrens, da die Wissensverarbeitung einfacher angepasst werden kann und auf gute/stabile Lernverfahren zurückgreifen kann. Des Weiteren kann die Wissensverarbeitung genutzt werden, um die zugrunde liegenden Lernverfahren stabiler zu machen. Klassifikationsergebnisse, welche nicht zum aktuellen Szenario passen, können zum Beispiel ausgeschlossen werden.

Objekterkennung soll durch Verfahren des „Deep Learnings“ realisiert werden. Eine relevante Fragestellung in diesem Zusammenhang ist bspw. das Erlernen von Greifposen von variierenden Instanzen einer bekannten Objektklasse unter Berücksichtigung des Kontextes. Instanzen der Objektklasse „Werkzeug“  (Akkuschrauber, Hammer, Schraubenschlüssel, etc.) können verschiedene Geometrien haben, wodurch die Greifpose adaptiert werden muss. Die ideale Greifpose variiert aber darüber hinaus auch unter dem Gesichtspunkt der Orientierung des zu greifenden Objektes und ob der Roboter das Werkzeug selber verwenden oder einem Menschen anreichen möchte (Kontext).  Zur robusten Objekterkennung werden verschiedene Sensormodalitäten (bspw. Kamera, 3D-Kamera, Laserscanner, Greifsensorik) herangezogen und die entsprechenden Klassifikations- und Lernverfahren werden kombiniert.

Integration von Wissensverarbeitung für eine flexible Handlungsplanung

Die Integration von Wissensverarbeitung ist nicht nur in der Objekterkennung wichtig, sondern spielt auch in der Handlungsplanung des Roboters und bei der Mensch-Roboter-Interaktion eine entscheidende Rolle.

Eine semantische Umgebungsrepräsentation und eine darauf aufbauende Handlungsplanung ermöglicht dem Roboter sein Handeln menschenverständlich auszudrücken und führt zu einer erleichterten beidseitigen Intentionserkennung und daraus folgender Akzeptanz.

Der das Verhalten des Roboters bestimmende Handlungsplaner muss in der Lage sein dieses Wissen zu verwenden, um dadurch verschiedene Planungsebenen des aktuellen Szenarios zu berücksichtigen (temporal, räumlich, kausal, etc.). Darüber hinaus muss es möglich sein, den Menschen und dessen Handeln in der Planung zu berücksichtigen und auch unvorhersehbare Aktionen des Menschen flexibel in die Handlungsplanung integrieren zu können.

Hierzu wird in TransFIT ein hybrider, hierarchischer Planer erweitert und in das Robotersteuerungsframework integriert. Die hierarchische Architektur des Planers erlaubt es, Teilpläne bei unvorhersehbaren Aktionen oder veränderten Randbedingungen wiederverwenden zu können. Durch die hybride Struktur des Planers können parallel verschiedene Planungsebenen (temporal, kausal, geometrisch) betrachtet und das Planungsproblem damit rechnerisch handhabbar und online ausführbar gemacht werden.

Transfer von Technologien

Ein weiterer wichtiger Teil des Projektes TransFIT ist der Transfer der für die Weltraumanwendung entwickelten Methoden in terrestrische Anwendungen. Im Kontext der Entwicklungen zu Fragestellungen für die Industrie 4.0 stehen insbesondere die hohen Anforderungen an die Flexibilität des Systems im Vordergrund. Es ist daher naheliegend die Entwicklungen aus TransFIT in industrielle Szenarien zu übertragen. Hierfür ist in TransFIT eine Zusammenarbeit mit Siemens geplant. 

Siemens übernimmt die federführende Entwicklung dieses Transferdemonstrators und baut diesen auf.

Ziel des Demonstrators ist die Darstellung einer hochflexiblen, universellen und kooperativen Montagezelle zur Fertigung komplexer Baugruppen, wie beispielsweise von kompakten mechanischen oder elektromechanischen Geräten, die nach heutigem Stand durch rein manuelle Arbeit erfolgen würden. Um die erforderliche Flexibilität und Universalität zu erreichen, ohne gleichzeitig hohe Engineeringaufwendungen zu verursachen, muss die Zelle in der Lage sein, abstrakte Aufgabenspezifikationen autonom und ohne die Notwendigkeit einer detaillierten Programmierung in Zusammenarbeit mit einem menschlichen Arbeiter umsetzen zu können.

Ein bilateraler Transfer der Lösungen ist angestrebt. Siemens hat große Erfahrungen in der Produktion kleiner, komplexer Teile. Einfache Aufbauarbeiten auch kleinerer Baustücke sind für die extraterrestrische Infrastruktur ebenfalls notwendig. Komplexere Aufgaben werden zusammen mit dem Menschen vor Ort und Hand-in-Hand abgearbeitet. Um die erforderliche Flexibilität und Universalität in den individuellen Einsätzen zu erreichen, ohne gleichzeitig ein individuelles Re-Engineering vor Ort notwendig zu machen, muss das robotische System in der Lage sein, abstrakte Aufgabenspezifikationen autonom und ohne die Notwendigkeit einer detaillierten Programmierung in Zusammenarbeit mit einem Menschen umsetzen zu können. Diese Anforderungen werden an einen hoch flexiblen Aufbau von extraterrestrischer Infrastruktur gestellt. Lösungen können daher nicht nur aus der Weltraumanwendung in den industriellen Bereich transferiert werden, sondern auch anders herum können etablierte Ansätze aus dem industriellen Bereich im extraterrestrischen Bereich zum Einsatz kommen.

Transfer von Weltraumtechnologie in die industrielle Fertigung:

  • Integration von Wissensverarbeitung für eine flexible Handlungsplanung: Die hierarchische Handlungsplanung, zusammen mit der semantischen Umgebungsrepräsentation und geometrischen Schlussfolgerungsverfahren sollten im Kontext der industriellen Fertigung eingesetzt werden.
  • Sensorbasierte dynamische Bewegungs- und Greifplanung: Übertragung auf den konkreten Hardwareaufbau des Transferdemonstrators (2-armiger Aufbau, off-the-shelf Sensoren und Greifer-System) und 2-armige Montage-Aufgaben. 
  • Ganzkörperregelung basierend auf semantischen Aufgabenbeschreibungen: Übertragung auf den konkreten 2-armigen Aufbau und das Greifer-System des Transferdemonstrators.
  • Kontextbasierte Objekterkennung: Die Objekterkennungspipeline und Greifposenbestimmung werden für den konkreten Hardwareaufbau des  Transferdemonstrators angepasst und im Kontext der industriellen Fertigung angewendet.

Transfer von Fertigungstechnologie in den Weltraum-Infrastrukturaufbau:

  • Skill-basiertes Framework für autonome Produktionsanlage: Das Konzept von Skills führt eine Hierarchie von System-Fähigkeiten ein, die anwendungsunabhängig ist, d.h. sowohl für Fertigung als auch für Weltraum-Infrastrukturaufbau geeignet ist. Eine wesentliche Rolle spielt das Skill-Konzept bei der hierarchischen Planung von Aufgaben und in der Architektur vom gesamten System.
  • Integrierte Aufgaben- und Bewegungsplanung: Sequentielle Schritte eine Montageanleitung können geometrische Abhängigkeiten haben, die nicht berücksichtigt werden können, wenn diese unabhängig geplant und ausgeführt werden. Die Handlungsplanung muss deswegen in der Lage sein, die Bewegungen von Roboter und Werkstücken über mehrere Prozessschritte hinweg zu planen. Dies stellt einige Anforderungen an die Architektur des Systems und an den hierarchischen Planer.
  • Intuitive Mensch-Maschinen Interaktion in autonomen Produktionssystemen: Eine intuitive Mensch-Maschine Interaktion ist nicht nur im Kontext der industriellen Fertigung relevant, sondern generell für jede Art von Mensch-Maschine-Interaktion. Alle Aspekte des Interaktionskonzepts, die unabhängig vom Kontext der industriellen Fertigung sind, sollten auch im Kontext des Weltraum-Infrastrukturaufbaus realisierbar sein.

Publikationen

2023


2022


2021


2020


2019


2018


2017


Zurück zur Projektliste
© DFKI GmbH
zuletzt geändert am 20.03.2023
nach oben