Teams des Robotics Innovation Center

Unter dem langfristigen Ziel „Long Term Autonomy“ beschäftigt sich das Robotics Innovation Center (RIC) im Deutschen Forschungszentrum für Künstliche Intelligenz mit der Frage, wie intelligentes Verhalten von technischen Systemen in komplexen und dynamischen Umgebungen nachhaltig über lange Zeiträume – Monate und Jahre – realisiert werden kann.

Ausgangspunkt für diesen Ansatz ist die Annahme, dass nur Systeme mit einem Mindestmaß an struktureller Komplexität überhaupt die Disposition zu einer nachhaltigen Interaktion mit natürlichen Umgebungen besitzen und infolgedessen geeignete Plattformen für Kontroll- und Steuerungsarchitekturen darstellen.

Am RIC arbeiten sechs Teams von Wissenschaftlerinnen und Wissenschaftlern gemeinsam an der Umsetzung dieser Vision: Im Team Systemdesign steht die Konstruktion und Integration robotischer Systeme auf Basis neuester Fertigungstechnologien und Materialien im Mittelpunkt. Das Team Hardware-Architekturen nutzt indes neueste Chiptechnologien, um parallele, dezentrale und fehlertolerante Netzwerke eingebetteter Systeme zu entwerfen und zu implementieren.

Mit der Entwicklung von Strategien und Methoden zur adaptiven Kontrolle und echtzeitfähigen Simulation von komplexen Robotern beschäftigt sich das Team Verhaltenssteuerung & Simulation. Demgegenüber entwickelt das Team Nachhaltige Interaktion und Lernen Methoden, die es einem Roboter ermöglichen, selbstständig neue Lösungen für gegebene Aufgaben zu ermitteln und die Struktur komplexer Aufgaben autonom zu erfassen. Zudem rückt dieses Team den Menschen als Teil einer immer stärker vernetzten, von robotischen Systemen durchdrungenen Welt in den Fokus. Hier werden nicht-invasive Methoden zur optimalen, benutzeradaptiven Integration des Menschen in die Interaktionsschleifen auf Basis von Methoden der Künstlichen Intelligenz entwickelt.

Mit den regelungstechnischen Aspekten des Roboters und der nachgiebigen Kontrolle hoch komplexer, geschlossener sowie paralleler kinematischer Ketten beschäftigt sich das Team Roboterregelung.

Schließlich entwickelt das Team Wissenbasierte Langzeitautonomie Werkzeuge und Methoden, die den Roboter über lange Zeiträume hinweg selbstständig in für ihn fremden Umgebungen navigieren lassen.

Systemdesign

Mechatronisches Robotersystem AILA
Mechatronisches Robotersystem AILA
Mechatronisches Robotersystem ARAMIES (Foto: Dieter Klein)
Mechatronisches Robotersystem ARAMIES (Foto: Dieter Klein)

Im Team „System Design“ entwickeln DFKI-Wissenschaftler mechatronische Systeme, die als Basis für intelligente autonome Roboter dienen. Die enge Verzahnung von mechanischen und elektronischen Komponenten ist eine notwendige Voraussetzung für die Leistungsfähigkeit robotischer Systeme. Strukturbauteile werden zunehmend als Teile der sensoriellen Messkette verwendet, während sie ebenso die gegenläufigen Anforderungen der Kraftleitung der Aktuatoren und des extremen Leichtbaus erfüllen müssen.

Konsequenter Leichtbau ist ein grundlegendes Paradigma mobiler autonomer Systeme. Hierfür nutzt das DFKI innovative Fertigungsverfahren und neue Materialien, um hochdynamische Leichtbaustrukturen zu realisieren. Intelligente Materialien, die sensorische und aktorische Funktionen in sich vereinen, tragen durch Funktionsintegration einen Anteil am Leichtbau.

Ein weiterer Schwerpunkt des Teams ist die Modularisierung von Systemen und die Schnittstellenentwicklung. Modulare Systeme ermöglichen eine schnelle Anpassung des Systemzustands an sich ändernde Randbedingungen. Gleichzeitig verkürzt sich der Entwicklungsprozess, indem das Team auf bereits entwickelte Module zurückgreift.

Teamleiter: Dr. Marc Simnofske

Hardware-Architekturen

Die zentrale Verarbeitung großer Datenmengen erfordert ein Umdenken beim Einsatz herkömmlicher Rechnerarchitekturen. (Foto: Peter Kampmann, DFKI GmbH)
Die zentrale Verarbeitung großer Datenmengen erfordert ein Umdenken beim Einsatz herkömmlicher Rechnerarchitekturen. (Foto: Peter Kampmann, DFKI GmbH)
Erfasster DFKI-Schriftzug durch ein taktiles Sensorfeld. (Grafik: DFKI GmbH)
Erfasster DFKI-Schriftzug durch ein taktiles Sensorfeld. (Grafik: DFKI GmbH)

Technische und insbesondere robotische Systeme interagieren auf Basis von Sensorinformationen mit ihrer Umwelt – eigenständig und über lange Zeiträume hinweg. Um die stetig wachsende Menge an aufgenommenen Sensorinformationen in den nächsten Roboter-Generationen bewältigen zu können, entwickelt das Team geeignete Verarbeitungsarchitekturen. Dabei verwenden sie zukunftsweisende Chiptechnologien und Ansätze der Künstlichen Intelligenz bereits auf Hardwareebene. Für den Einsatz von Robotern bei langfristigen Missionen müssen die Hardwarekomponenten robust und fehlertolerant sein. Um dies zu erreichen, betrachten die Wissenschaftler Rekonfigurationstechnologien und selbstheilende Ansätze. Ein weiteres zentrales Thema des Teams ist die tiefgreifende Erfassung des Energiebedarfs der einzelnen Komponenten in einem Roboter sowie die energieeffiziente Auslegung der Systeme – diese begleitet stets die Entwicklung der Hardwaremodule.

Parallel dazu beschäftigen sich die Wissenschaftler mit der Realisierung von hochintegrierten Sensorlösungen. Durch das Bestreben, die Umgebung eines robotischen Systems so detailliert wie möglich zu erfassen, ist eine hohe Sensordichte unter Verwendung unterschiedlicher Sensormodalitäten vonnöten. Diese wiederum erfordert neuartige Ansätze bei der Sensorintegration. Die Verschmelzung verschiedener Messprinzipien, die Verarbeitung der erfassten Information vor Ort sowie die Integration von Signalwandlung und Verarbeitung  erforscht das Team Hardware-Architekturen unter anderem.

Teamleiter: Dr.-Ing. Peter Kampmann

Roboterregelung

Nachgiebiges Roboterverhalten durch modell-basierte Regelung (Foto: Vinzenz Bargsten, DFKI GmbH)
Nachgiebiges Roboterverhalten durch modell-basierte Regelung (Foto: Vinzenz Bargsten, DFKI GmbH)
Ganzkörperregelung für hochredundante Roboter  (Foto: Jose de Gea, DFKI GmbH)
Ganzkörperregelung für hochredundante Roboter (Foto: Jose de Gea, DFKI GmbH)

Das Team „Roboterregelung“ beschäftigt sich mit der Entwicklung von Strategien zur Regelung dynamischer Systeme von einarmigen Roboterarmen bis hin zu komplexen Morphologien, zum Beispiel von humanoiden Robotern oder mobilen Manipulatoren. Ziel ist ein Paradigmenwechsel: ausgehend von der klassischen, kinematischen Robotersteuerung, hin zu einer komplexen Regelung, welche die dynamischen Eigenschaften des Roboters sowie der Umgebung berücksichtigt und dadurch eine bessere Performance und Umgebungsinteraktion ermöglicht. In Kooperation mit den Teams „Nachhaltige Interaktion & Lernen“ und Verhaltenssteuerung & Simulation“ liegen die Forschungsschwerpunkte des Teams „Roboterregelung“ in der Nutzung verschiedenartiger Sensorik zur reaktiven Regelung von Robotern sowie der Erkennung und Vorhersage von Kontaktpunkten mit der Umgebung. Eine weitere Herausforderung, die in Zusammenarbeit mit dem Team „Autonomie“ angegangen wird, ist die Integration von Regelungsansätzen in die Software-Frameworks und -Architekturen.

Aufgrund der immer komplexeren Kinematik von Robotern sind ganzheitliche Ansätze wie die Ganzkörperregelung (Whole Body Control) notwendig, um die große Anzahl von Gelenken steuern und mehrere Aufgaben parallel ausführen zu können. So muss zum Beispiel ein humanoider Roboter, der auf einer Leiter stehend ein Loch in die Wand bohrt, über seine eigentliche Aufgabe hinaus auch seine Körperhaltung bewahren und die Balance halten können. Diese Fähigkeiten erfordern wiederum Strategien zur Identifikation der dynamischen Robotereigenschaften sowie effiziente Algorithmen zur kinematischen und dynamischen  Regelung. Eine optimale Steuerung und die Nutzung prädiktiver Strategien sind sowohl auf der Gelenkebene als auch bei der Regelung des gesamten Roboters notwendig, damit dieser sich robust, fehlertolerant und adaptiv bezüglich unterschiedlicher Umgebungen und Aufgaben verhalten kann. Ebenso wichtig ist es, dass sich der Roboter in der Interaktion mit dem Menschen nachgiebig verhält und über Algorithmen zur Kontakt- und Kollisionsdetektion verfügt.

Zusammenfassend beschäftigt sich das Team „Roboterregelung“ mit der Regelung und der Dynamik des Bewegungsapparates von komplexen Robotersystemen, wie zum Beispiel Humanoiden, die auf zwei Beinen laufen. Ziel ist es, generische, roboterunabhängige Regelungsstrategien zu entwickeln, die Umgebungs- und Kontextinformationen berücksichtigen, um sich an verschiedene Umgebungen anpassen zu können. In Zusammenarbeit mit den anderen Teams sollen Systeme entwickelt werden, die in nicht strukturierten und dynamisch veränderlichen Umgebungen operieren können. 

Teamleiter: Dr.-Ing. José de Gea Fernández

Verhaltenssteuerung & Simulation

System mit einer umfangreichen sensomotorischen Disposition zum Zweck der mobilen Manipulation in unstrukturierten und dynamischen Umgebungen (Graphik: Annemarie Hirth, DFKI GmbH)
System mit einer umfangreichen sensomotorischen Disposition zum Zweck der mobilen Manipulation in unstrukturierten und dynamischen Umgebungen (Graphik: Annemarie Hirth, DFKI GmbH)
Verhaltensoptimierung für den Roboter SpaceClimber mit Hilfe von Simulation im Virtual Reality Lab (Grafik: DFKI GmbH)
Verhaltensoptimierung für den Roboter SpaceClimber mit Hilfe von Simulation im Virtual Reality Lab (Grafik: DFKI GmbH)

Aufgrund der voranschreitenden technologischen Entwicklungen sind wir in der Lage die sensorische und motorische Integrationsdichte und Ausstattung von Robotern kontinuierlich zu steigern, um den Systemen umfangreichere Fähigkeiten zu geben ihre Umgebung auf unterschiedliche Weisen wahrzunehmen und in ihr zu agieren. Um die dadurch gewonnen Möglichkeiten im vollen Umfang ausnutzen zu können, wird die Verhaltenssteuerung solch komplexer Systeme immer herausfordernder. Für die Generierung, Erprobung, Evaluierung und Optimierung unterschiedlichster Verhalten sind Werkzeuge zur Simulation von Robotern und ihrer Interaktion mit der Umgebung daher unabdingbar. 

Das Team beschäftigt sich mit der Verhaltenssteuerung von Robotern mit umfangreicher sensomotorischer Disposition. In diesem Bereich sollen Effizienz, Flexibilität und Adaptivität der Roboter gesteigert werden, um ihre Fähigkeiten der Manipulation und Mobilität zu verbessern. Weitere Anforderungen wie hohe Stabilität, Robustheit und Sicherheit spielen dabei eine wesentliche Rolle. Die Forschungs- und Entwicklungsarbeiten fokussieren zudem den erhöhten Einsatz von integrierter Sensorik, welche in Kooperation mit dem Team „Hardware Architekturen“ entwickelt wird, bei der Bewegungssteuerung neuer Antriebe und innovativer Kinematiken, die in Zusammenarbeit mit dem Team „System Design“ konzeptioniert werden. 

Systeme, die in Zukunft eingesetzt werden, müssen sich der Umgebung, den Anforderungen und den Aufgaben anpassen können – aber auch entsprechend robust sein. Sobald die Systeme in Interaktion mit dem Menschen oder in gefährlichen Umgebungen zum Einsatz kommen, ergeben sich maximale Sicherheitsanforderungen, die besondere Herausforderungen an die Wissenschaft und Technologieentwicklung stellen. 

Je nach Anwendungsszenario sollen die Systeme über lange Zeiträume autonom und zuverlässig agieren können. Eine besondere Herausforderung hinsichtlich der Langzeitautonomie von Robotern liegt darin, die Reglerparameter an sich verändernde Systemparameter anzupassen. Beispielsweise soll ein Gelenk, das wegen Verschleiß eine erhöhte Reibung aufweist, weniger belastet werden. Das muss der Roboter selbstständig erkennen sowie alternative Bewegungsstrategien finden und nutzen. Bestes Vorbild für solche Systeme ist die Natur selbst. Hier gilt es, Fähigkeiten, Funktionsprinzipien, Morphologien und Regelungsansätze aus biologischen in technische Systeme zu übertragen. An der Umsetzung derartiger Steuerungskonzepte arbeiten wir zusammen mit dem Team „Roboterregelung“.

Werkzeuge zur Simulation werden genutzt, um die Entwicklung und den Betrieb robotischer Systeme zu unterstützen oder bestimmte Vorgehensweisen wie z.B. den Einsatz von maschinellen Lernverfahren, wie es im Team „Nachhaltige Interaktion und Lernen“ erfolgt, erst zu ermöglichen. So werden sowohl FEM-Simulationen zur Optimierung der Strömungskörper von Unterwasserrobotern als auch Rigid-Body-Simulationen zur Optimierung der Morphologie sowie der Verhalten von Robotern eingesetzt. Ein Schwerpunkt liegt hierbei auf echtzeitfähigen Simulationen, die es ermöglichen, die Software für Systeme zu entwickeln und virtuell zu testen. Zudem können diese Simulationen direkt in die Kontrollsoftware von Robotern eingebunden und zur Laufzeit genutzt werden, um z.B. das Gelingen und die möglichen Folgen einer intendierten Handlung vor der Ausführung bewerten zu können. Dadurch kann gemeinsam mit dem Team „Autonomie“ eine Steigerung der autonomen Fähigkeiten der Systeme erreicht werden. 

Weitere Themen im Bereich der Simulation sind: „Hardware in the Loop“ (HIL) – die Einbindung echter Hardware in ein Simulationssystem, z.B. zum Testen von Sensoren –, „Virtual Reality“ zur virtuellen Darstellung und zum Testen von Robotern in ihrer vorgesehenen Umgebung, immersive Darstellungen für den Operator über Head-Mounted-Displays oder in einer Rundumprojektion zur besseren, zeitgleichen Kontrolle von (mehreren) Systemen. 

Die Forscher arbeiten neben der Anwendung dieser Bereiche an deren Weiterentwicklung. So werden Methoden erschlossen, um neue, bislang nicht vorhandene Funktionen und Eigenschaften in die Echtzeitsimulation zu integrieren und die Lücke zwischen Simulation und Realität zu minimieren.

Teamleiter: Dr.-Ing. Sebastian Bartsch

Nachhaltige Interaktion & Lernen

Unterstützung von Mensch-Maschine-Interaktion: Entwicklung und Optimierung komplexer Multi-Roboter-Kontrollszenarien (Foto: Jan Albiez, DFKI GmbH)
Unterstützung von Mensch-Maschine-Interaktion: Entwicklung und Optimierung komplexer Multi-Roboter-Kontrollszenarien (Foto: Jan Albiez, DFKI GmbH)
Teleoperation im Mock-up der Raumstation ISS: Humanoide Avatare in schwer zugänglichen Einsatzgebieten (Foto: Jan Albiez, DFKI GmbH)
Teleoperation im Mock-up der Raumstation ISS: Humanoide Avatare in schwer zugänglichen Einsatzgebieten (Foto: Jan Albiez, DFKI GmbH)

Die Vision des Teams “Nachhaltige Interaktion und Lernen” sind interaktive, autonome robotische Systeme, die über eine längere Zeitspanne in einer komplexen Umgebung agieren und dabei fortwährend hinzulernen können. Hierfür benötigen sie keine Hilfe- oder Aufgabenstellungen von einem menschlichen Betreuer, können jedoch mit diesem intuitiv interagieren, ihn unterstützen und in unterschiedlichsten Situationen von ihm lernen. Auf diese Weise können die Roboter nicht nur ihr Verhalten verbessern, sondern sich auch flexibel auf verschiedene Charaktere einstellen. Dies ermöglicht eine nachhaltige Zusammenarbeit unter optimaler Nutzung der kognitiven Fähigkeiten des Menschen bei individueller Unterstützung durch autonome robotische Systeme.

Die Forscherinnen und Forscher des Teams “Nachhaltige Interaktion und Lernen” entwickeln neue Lernverfahren, die es autonomen Robotern erlauben, eigenständig und fortwährend aus ihren Erfahrungen zu lernen, dieses Wissen zu konsolidieren und in geeigneten Repräsentationen dauerhaft zu speichern. Indem die Roboter lernen, ihre Umgebung besser zu verstehen, ihr Verhalten zu adaptieren und die Konsequenzen ihres Handelns vorherzusagen, können sie in dynamischen Umgebungen agieren und sich kontinuierlich an diese anpassen. Die Fähigkeit der Systeme auf Basis einfacher Verhaltensprimitiven komplexes Verhalten zu erlernen, dient außerdem dazu, das Handeln des Menschen besser zu verstehen und eine Interaktion deutlich intuitiver zu gestalten. Zudem lässt sich das Verhalten des Roboters so adaptieren, dass es für den Menschen vorhersagbarer wird, wodurch auch die Akzeptanz des Systems als Interaktionspartner erhöht wird. Die Prognostizierbarkeit des Roboters für den Menschen ist wiederum an die Vorhersagbarkeit des Menschen für das System gekoppelt, die einen wichtigen Einfluss auf die Sicherheit der Mensch-Roboter-Interaktion hat.

Relevante Aspekte in der Kontrolle der robotischen Systeme erarbeitet das Team „Nachhaltige Interaktion und Lernen“ insbesondere mit dem Team „Roboterregelung“. Die mobilen oder in die Systeme integrierbaren Hardwarelösungen entstehen in enger Zusammenarbeit mit dem Team „Hardware-Architekturen“.  Zudem ist eine enge Kooperation mit den Teams, „Wissensbasierte Langzeitautonomie“, „Verhaltenssteuerung & Simulation“ und „Systemdesign“ unerlässlich. 

Wissensbasierte Langzeitautonomie

Autonome Navigation in unstrukturierten Außenumgebungen auf dem Robotersystem Asguard v4. (Grafik: DFKI GmbH)
Autonome Navigation in unstrukturierten Außenumgebungen auf dem Robotersystem Asguard v4. (Grafik: DFKI GmbH)
Die Entwicklung modellbasierter Softwarekomponenten ermöglicht die Verwaltung von komplexen robotischen Systemen. (Grafik: DFKI GmbH)
Die Entwicklung modellbasierter Softwarekomponenten ermöglicht die Verwaltung von komplexen robotischen Systemen. (Grafik: DFKI GmbH)

Zentrales Ziel von Team Wissensbasierte Langzeitautonomie ist die Erforschung von Verfahren und Softwareinfrastrukturen, um robuste, langzeitautonome Systeme in rauen Umgebungsbedingungen realisieren zu können. Dies erfordert resiliente Systeme, die auf Veränderungen der eigenen Hard- und Software sowie auf Veränderungen der Umgebungsbedingungen reagieren und ihr Handeln diesen Veränderungen anpassen können. Dazu müssen die Systeme die Semantik der Veränderung erfassen und den Einfluss auf sich und ihre Aufgaben ableiten können. Dementsprechend sind robuste, ausfallsichere Roboterkontrollarchitekturen, semantische Umgebungswahrnehmung, die Repräsentation dieser Daten und semantisch gestützte Roboterfähigkeiten zentrale Forschungsthemen von Team Wissensbasierte Langzeitautonomie.

Die genannten Forschungsthemen werden gemeinsam vorangetrieben, da es starke gegenseitige Abhängigkeiten zwischen ihnen gibt und komplexe Roboterverhalten (bspw. aktive Wahrnehmung oder hybride hierarchische Handlungsplanung und deren Ausführung) nur durch die Kombination dieser Forschungsthemen realisiert werden kann. 

Ferner arbeitet Team Wissensbasierte Langzeitautonomie gemeinsam mit den anderen Teams daran, dass Kontextwissen in alle Bereiche der Robotersteuerung Einzug hält. Dies ermöglicht es, in Roboterfunktionen wie Objekterkennung, Navigation, Manipulation und Interaktion die Relevanz, Eigenschaften und Auswirkungen von Objekten bzw. Handlungen zu berücksichtigen, um so Roboterfunktionen zu entwickeln, die im jeweiligen Kontext wesentlich robuster und situationsgerechter funktionieren. 

Mit diesen Forschungsthemen einher geht die Entwicklung und Erforschung eines robusten Robotersteuerungsframeworks, das in der Lage ist, die genannten Ziele zu realisieren, da aktuell kein Framework die notwendigen Voraussetzungen liefert, um Themen wie modellbasierte Roboterentwicklung, Hard- und Softwarerekonfiguration, Langzeitautonomie, ausfallsichere Kontrollstrukturen sowie durchgängig wissensbasierte Robotersteuerung zu realisieren. 

Durch seinen Forschungsfokus hat Team Wissensbasierte Langzeitautonomie Schnittstellen zu allen anderen Teams des Robotics Innovation Centers:
Die Hardwareentwicklungen des Teams Systemdesign beeinflussen maßgeblich die Fähigkeiten und Funktionen (Wahrnehmung, Navigation und Planung), die durch Team Wissensbasierte Langzeitautonomie auf dieser Hardware umgesetzt werden. Auf der anderen Seite können die in Team Wissensbasierte Langzeitautonomie entwickelten Tools zur modellbasierten Roboterentwicklung langfristig die Prozesse im Systemdesign unterstützen und beeinflussen.
Das Team Hardware-Architekturen stellt Team Wissensbasierte Langzeitautonomie die Basis, um Steuerungsalgorithmen auf dem Roboter verteilen zu können. Die Themen Hard- und Softwarerekonfiguration erfordern hier eine enge Zusammenarbeit der Teams. Darüber hinaus öffnen die hier entwickelten neuen Sensormodalitäten Team Wissensbasierte Langzeitautonomie weitere Möglichkeiten zur semantischen Umgebungswahrnehmung.
Die Roboterregelung ermöglicht es Team Wissensbasierte Langzeitautonomie, mobile Manipulation auf einem abstrakten Level in die Handlungsplanung und -ausführung des Roboters zu integrieren. Team Wissensbasierte Langzeitautonomie gibt der Roboterregelung wiederum das Kontextwissen vor, so dass diese Positionen, Geschwindigkeiten und semantische Eigenschaften der relevanten Objekte und Personen in der Manipulationsplanung berücksichtigen können.
Eine ähnliche Schnittstelle hat Team Wissensbasierte Langzeitautonomie zur Verhaltenssteuerung & Simulation, welches Team Wissensbasierte Langzeitautonomie einen Zugriff auf die Mobilität des Roboters unabhängig von dessen Morphologie ermöglicht. Auch hier existiert eine Schnittstelle, um semantische Umgebungsinformation in die Verhaltenssteuerung zu integrieren.
Team Nachhaltige Interaktion & Lernen profitiert ebenfalls stark von der semantischen Umgebungsrepräsentation und dem Kontextwissen, welches durch Team Wissensbasierte Langzeitautonomie bereitgestellt wird, da dadurch die Interaktion mit dem Menschen situationsabhängig gestaltet werden kann. Durch die Verwendung des gleichen Vokabulars bei Mensch und Roboter kann Interaktion leicht in das Handeln des Roboters überführt werden. Darüber hinaus erfordert der Forschungsfokus Lernen eine enge Zusammenarbeit mit Team Wissensbasierte Langzeitautonomie in den Bereichen der Umgebungswahrnehmung und semantischer Umgebungsrepräsentation.

© DFKI GmbH
zuletzt geändert am 28.12.2016
nach oben