Bestärkendes Lernen (Reinforcement Learning) kann in der Robotik verwendet werden, um Verhalten zu lernen und die Performance in einer Aufgabe zu verbessern. Dazu bekommt der Roboter Feedback über sein Abschneiden in Form eines Rewards, welcher maximiert werden soll. In dieser Arbeit soll die Eignung von EEG-Daten eines menschlichen Beobachters als Feedback für das Reinforcement Learning untersucht werden.
Wenn ein Mensch beispielsweise einen Roboter bei einer Aufgabe beobachtet und der Roboter einen Fehler macht, wird in den EEG-Daten des Beobachters ein Fehlerpotential (Error Related Potential, ErrP) evoziert. Diese ErrPs können mit einer Balanced Accuracy von 0,8 detektiert werden und eignen sich potentiell als Reward für einen Reinforcement Learning Algorithmus.
Ziel der Arbeit ist der Aufbau eines Versuchsszenarios, um AILA unter Verwendung der ErrP-Detektion eine einfache Aufgabe lernen zu lassen. Dazu wird dieser Ansatz zunächst als simuliertes Szenario in einer Studie mit mehreren Probanden evaluiert und schließlich mit dem realen Roboter AILA demonstriert.