DE

Event

Embedded Machine Learning [WS212400137]

Type
seminar (S)
Präsenz/Online gemischt
Term
WS 21/22
SWS
Language
Deutsch/Englisch
Appointments
0
Links
ILIAS

Lecturers

Organisation

  • KIT-Fakultät für Informatik

Part of

Note

Dieses Seminar umfasst mehrere Themengebiete, die hier kurz vorgestellt werden. In diesem Seminar erörtern die Studenten die neusten Erkenntnisse der Forschung (Publikationen) zu den untenstehenden Themen. Die Erkenntnisse werden in einer Seminararbeit zusammengefasst und anderen Teilnehmern des Seminars präsentiert. Eigene Themenvorschläge sind gerne gesehen, aber nicht erforderlich. Das Seminar kann in Deutsch oder Englisch absolviert werden.

Machine Learning on On-Chip Systems

Maschinelles Lernen und On-chip Systeme bilden eine Symbiose, in der jede Forschungsrichtung von Fortschritten in der jeweils anderen profitiert. In diesem Seminar erörtern die Studenten die neuesten Erkenntnisse in beiden Forschungsbereichen.

Maschinelles Lernen (ML) findet mehr und mehr Einzug in alle Bereiche von Informationssystemen – von high-level Algorithmen, wie Bildklassifikation, bis hin zu hardwarenahem, intelligentem CPU-Management. Auch On-chip Systeme profitieren von Fortschritten in ML. Beispiele hierfür sind adaptives Resourcenmanagement oder die Vorhersage von Anwendungsverhalten. Allerdings profitieren umgekehrt auch ML-Techniken von Fortschritten in On-chip Systemen. Ein Beispiel hierfür ist die Beschleunigung von Training und Inferenz Neuronaler Netzwerke in aktuellen Desktopgrafikkarten und sogar Smartphoneprozessoren.

Die Studierenden sind in der Lage, selbstständig den Stand der Forschung zu einem speziellen Thema zu recherchieren. Dazu gehört auffinden und analysieren, sowie vergleichen und bewerten von Publikationen. Die Studierenden können den Stand der Forschung zu einem speziellen Thema schriftlich aufbereiten und präsentieren.

DNN Pruning and Quantization

As DNNs become more computationally hungry, their hardware implementation becomes more challenging, since embedded devices have limited resources. DNN compression techniques, such as pruning and quantization, can be applied for efficient utilization of computational resources. While pruning involves removing unimportant elements of a DNN structure (connections, filters, channels etc), quantization decreases the precision for representing DNN-related tensors (weights and activations). Both promise to trade-off some of the application’s accuracy for limited energy consumption and reduced memory footprint. Students will review state-of-the-art research works on hardware-aware DNN pruning and quantization. The findings will be summarized in a seminar report and presented to the other members of the course.