Event
Embedded Machine Learning Seminar [WS232400137]
Type
seminar (S)Präsenz/Online gemischt
Term
WS 23/24SWS
Language
Deutsch/EnglischAppointments
0Links
ILIASLecturers
Organisation
- KIT-Fakultät für Informatik
Part of
- Brick Seminar Informatics A | Information Systems (M.Sc.)
- Brick Seminar Informatics A | Information Systems (B.Sc.)
- Brick Seminar Informatics Master | Information Systems (M.Sc.)
- Brick Seminar Informatics A | Information Engineering and Management (B.Sc.)
- Brick Seminar Informatics A | Information Engineering and Management (M.Sc.)
- Brick Seminar Informatics Master | Information Engineering and Management (M.Sc.)
Note
Dieses Seminar umfasst mehrere Themengebiete, die hier kurz vorgestellt werden. In diesem Seminar erörtern die Studenten die neusten Erkenntnisse der Forschung (Publikationen) zu den untenstehenden Themen. Die Erkenntnisse werden in einer Seminararbeit zusammengefasst und anderen Teilnehmern des Seminars präsentiert. Eigene Themenvorschläge sind gerne gesehen, aber nicht erforderlich. Das Seminar kann in Deutsch oder Englisch absolviert werden.
Machine Learning on On-Chip Systems
Maschinelles Lernen und On-chip Systeme bilden eine Symbiose, in der jede Forschungsrichtung von Fortschritten in der jeweils anderen profitiert. In diesem Seminar erörtern die Studenten die neuesten Erkenntnisse in beiden Forschungsbereichen.
Maschinelles Lernen (ML) findet mehr und mehr Einzug in alle Bereiche von Informationssystemen – von high-level Algorithmen, wie Bildklassifikation, bis hin zu hardwarenahem, intelligentem CPU-Management. Auch On-chip Systeme profitieren von Fortschritten in ML. Beispiele hierfür sind adaptives Resourcenmanagement oder die Vorhersage von Anwendungsverhalten. Allerdings profitieren umgekehrt auch ML-Techniken von Fortschritten in On-chip Systemen. Ein Beispiel hierfür ist die Beschleunigung von Training und Inferenz Neuronaler Netzwerke in aktuellen Desktopgrafikkarten und sogar Smartphoneprozessoren.
Die Studierenden sind in der Lage, selbstständig den Stand der Forschung zu einem speziellen Thema zu recherchieren. Dazu gehört auffinden und analysieren, sowie vergleichen und bewerten von Publikationen. Die Studierenden können den Stand der Forschung zu einem speziellen Thema schriftlich aufbereiten und präsentieren.
DNN Pruning and Quantization
As DNNs become more computationally hungry, their hardware implementation becomes more challenging, since embedded devices have limited resources. DNN compression techniques, such as pruning and quantization, can be applied for efficient utilization of computational resources. While pruning involves removing unimportant elements of a DNN structure (connections, filters, channels etc), quantization decreases the precision for representing DNN-related tensors (weights and activations). Both promise to trade-off some of the application’s accuracy for limited energy consumption and reduced memory footprint. Students will review state-of-the-art research works on hardware-aware DNN pruning and quantization. The findings will be summarized in a seminar report and presented to the other members of the course.