Komplexere Lernprobleme erfordern häufig die Optimierung einer
großen Anzahl von Parametern. In diesem Vortrag soll ein Diplomarbeitsthema
vorgestellt werden, dass den Ansatz verfolgt die Gewichte für ein großen
Multilayer Perceptrons (MLP) durch eine Art Fourier-Transformation zu
komprimieren. Dadurch soll der "curse of dimensionality" bei der Optimierung
der Gewichte abgeschwächt werden. Es werden ein angepasstes
Backpropagation-Verfahren für ein MLP mit komprimierter Gewichtsrepräsentation
und eine Idee für ein inkrementelles Lernverfahren vorgestellt.
Anschließend werden Anwendungen aus den Bereichen Reinforcement Learning und
überwachtes Lernen besprochen.