Um das Verhalten von Robotern in realen Umgebungen möglichst realitätsnah zu simulieren werden Simulationen mit sehr detaillierten Bildern benötigt. Detailarme und ungenaue Simulationen sind zum Testen von Robotern nicht sinnvoll, da aufgrund der großen Diskrepanz zur realen Umwelt keine verlässlichen Ergebnisse für die Realität abgeleitet werden können. Die Problematik hierbei ist, je genauer und realistischer die Simulationen sein sollen, desto aufwändiger wird es auch, diese zu erstellen.
Es erscheint deshalb sinnvoll, neuronale Netze einzusetzen, um aus weniger realistischen, aber einfacher zu erzeugenden Simulationsumgebungen realistischere zu generieren. Als ein vielversprechender Ansatz zur Erzeugung und Manipulation von Simulationsbildern zeichnen sich Generative Adversarial Networks (GAN) ab, da diese bereits erfolgreich für die Generierung von Bildern eingesetzt werden. Insbesondere InfoGANs (Chen et al. 2016) bzw. Image-to-Image-Translations mithilfe von Conditional Adversarial Netzwerken (Isola et al. 2016) erscheinen hierfür geeignet. Unter der Bezeichnung GAN fasst man verschiedene Arten von konkurrierenden, generativen neuronalen Netzwerken zusammen. Diese bestehen aus einem Generator, der Daten aus einer Domäne generiert, und einem Diskriminator, dessen Aufgabe es dann ist, zwischen generierten und echten Daten zu unterscheiden. Ziel dieser Arbeit soll es sein, mithilfe eines GANs die Transformation einer simplen Simulationsumgebung zu einer realitätsnäheren zu automatisieren.