INSYS

Interpretable Monitoring Systems

Das Ziel von INSYS ist es, basierend auf der Explainable Artificial Intelligence (XAI) in Machine Learning der Arbeitsgruppe Robotik und des DFKI RIC Agenda der Arbeitsgruppe Robotik und des DFKI RIC, ist es, komplexe Systeme zu entwerfen und zu implementieren, die mit interpretierbaren Mechanismen ausgestattet sind, um bei der Überwachung von Weltraummissionen zu helfen. INSYS ist ein Verbundvorhaben zusammen mit der AG Robotik der Universität Bremen.

Laufzeit: 01.12.2020 bis 30.11.2022
Zuwendungsempfänger: Deutsches Forschungszentrum für Künstliche Intelligenz GmbH & Universität Bremen
Fördergeber: Bundesministerium für Wirtschaft und Energie
Förderkennzeichen: Bundesministerium für Wirtschaft und Energie (BMWi) gefördert (Kennziffer 50 RA 2036 und 50 RA 2035).
Partner: Universität Bremen
Anwendungsfelder: Weltraumrobotik
Verwandte Projekte: Entern
Umgebungsmodellierung und Navigation für robotische Weltraum-Exploration (10.2014- 12.2017)
TransTerrA
Semi-autonome kooperative Exploration planetarer Oberflächen mit Errichtung einer logistischen Kette sowie Betrachtung terrestrischer Anwendbarkeit einzelner Aspekte (05.2013- 12.2017)
TransFIT
Flexible Interaktion für Infrastrukturaufbau mittels Teleoperation und direkte Kollaboration und Transfer in Industrie 4.0 (07.2017- 12.2021)
Verwandte Robotersysteme: ASGUARD IV
Advanced Security Guard V4

Projektdetails

Schematische Darstellung des INSYS Ansatzes für ein robustes, multimodales, robotisches System: Basierend auf Sensor(s) und Akutatorwerten des robotischen Systems kaskadieren unterschiedliche ML Ansätze hin zu den interpretierbaren multimodalen DNN und schlußendlich zur übergreifenden Konsistenzprüfug und Monitoring, welchs für unterschiedliche Teilaufgaben des robotischen Systems konzipiert wurde. Im Aufbau des gesamten Ansatzes wird zwischen der Sensorebene (Sensordatenvorverarbeitungen und Anomalieerkennungen) und Modellebene (Neuronale Netze, deren Ergebnisse und Erklärbarkeit) unterschieden.

Das Projekt INSYS beschäftigt sich mit der Interpretierbarkeit von gelernten Modellen und den daraus resultierenden Möglichkeiten zur Selbstüberwachung komplexer Robotersysteme, die mit multimodalen Daten arbeiten. Dazu werden neuartige Ansätze der XAI für multimodale Robotersysteme entwickelt, um die Analyse von Korrelationen von Ursache, in diesem Fall Eingangsdaten, und Wirkung, bzw. Modellausgabe, besser zu verstehen und erklärbar zu machen.

Auf dieser Basis können auch allgemeine Zusammenhänge innerhalb der Daten ohne viel Vorwissen analysiert werden. Für Robotersysteme bedeutet dies, dass auf Basis der von verschiedenen Sensoren generierten Daten und deren Konsistenzprüfungen neue Situationen, Anomalien oder Fehlfunktionen erkannt werden können und somit die korrekte Funktion bei der Ausführung verschiedener Aufgaben überwacht werden kann.

Gleichzeitig können die gewonnenen Informationen genutzt werden, um der Einsatzleitung die Analysen eines automatischen Systems nachvollziehbar darzustellen, so dass sie im Fehlerfall eingreifen kann.

Insofern lässt sich der Überwachungsprozess im Hinblick auf die Konsistenzprüfung in zwei grobe Ebenen aufteilen, die die gesamte Verarbeitungskette von der Sensorik über die Akutatorik bis hin zu tiefen, multimodalen neuronalen Netzen individuell von den Partnern verfolgt wird.

Die Universität Bremen verfolgt dabei erklärbare und interpretierbare multimodale neuronale Netze auf der Modellebene, wobei der Fokus auf der Verifikation der Ausgabewerte der gelernten Modelle einzeln oder im Verbund gemäß der Definition von Umweltbedingungen liegt.

Das DFKI RIC verfolgt die Implementierung von Monitoring und Konsistenzprüfung von multimodalen Robotersystemen auf der Sensorebene, wobei die Überprüfung von Sensorwerten und/oder einfachen Merkmalen dem aktuell erwarteten Verhalten und den gelernten Erwartungen entspricht.

Zurück zur Projektliste
© DFKI GmbH
zuletzt geändert am 24.09.2021
nach oben