Vortragsdetails

Integration eines TensorFlow Modells auf einem FPGA

In den vergangenen Jahren wurden große Fortschritte im Bereich des Machine Learnings (ML), insbesondere bei Deep Neural Networks (DNNs), erzielt. Aufgrund dieser Entwicklung hat die Verwendung dieser Algorithmen in vielen verschiedenen Anwendungsfeldern zugenommen. Zum jetzigen Zeitpunkt werden diese ML-Programme meist auf großen Server- bzw. Computersystemen ausgeführt. Durch disen Entwicklungsfokus ist die Integration in kleinere mobile Systeme meist nicht möglich. Würden die Algorithmen in Hardware-basierten Programmen auf einem ASIC oder FPGA ausgeführt, könnte nicht nur die Baugröße reduziert werden, es ist auch ein reduzierter Energieverbrauch und eine allgemein gesteigerte Effizienz zu erwarten.

Ein wichtiger Aspekt beim Aufbau von ML-Systemen ist die Verwendung eines leistungsstarken Frameworks, durch den sich der Entwicklungsfokus von Softwareentwicklung auf Datenanalyse verlagert. Ein vielfach verwendeter Open-Source Framework für Machine Learning Projekte ist TensorFlow von Google.

Im Rahmen dieser Bachelorarbeit sollen TensorFlow Operationen erstellt werden, mit denen die zeitkritischen Berechnungen der Inferenz eines DNN (zum Beispiel Matrixmultiplikationen) als Hardware-Programm auf einem MPSoC durchgeführt werden.

In der Regel sind die Vorträge Teil von Lehrveranstaltungsreihen der Universität Bremen und nicht frei zugänglich. Bei Interesse wird um Rücksprache mit dem Sekretariat unter sek-ric(at)dfki.de gebeten.

© DFKI GmbH
zuletzt geändert am 31.03.2023