Hands-on: Effiziente KI

Lernen Sie zentrale Konzepte verstehen und in kurzen Codingsessions umzusetzen.

Panel

Optimieren Sie KI-Modelle hinsichtlich Rechenleistung, Speicherverbrauch und Laufzeit. Lernen Sie Methoden zur Modellkompression und Effizienzsteigerung kennen. Wenden Sie Optimierungsstrategien praktisch auf bestehende Modelle an.

Panel

Nächster:

Länge:

Sprache:

Kostenfrei

nach Vereinbarung

8 Stunden

Deutsch

Optimieren Sie KI-Modelle hinsichtlich Rechenleistung, Speicherverbrauch und Laufzeit. Lernen Sie Methoden zur Modellkompression und Effizienzsteigerung kennen. Wenden Sie Optimierungsstrategien praktisch auf bestehende Modelle an.

Dieser Kurs zeigt, wie Deep-Learning-Modelle für Edge- und Embedded-Szenarien kleiner, schneller und sparsamer werden. Jede Einheit folgt dem Muster Theorie → Coding-Sessions in PyTorch: Wir starten mit effizienten Bausteinen wie Depthwise-Separable Convolutions, Grouped Convolutions, Bottlenecks/Inverted Residuals und DenseNet-Verbindungen und vergleichen sie mit einer Baseline. Anschließend komprimieren wir Modelle über Post-Training Quantization (PTQ) und Quantization-Aware Training (QAT), bevor wir Pruning (unstrukturiert & strukturiert) samt Fine-Tuning einsetzen. Abschließend verdichten wir Netze per Knowledge Distillation (Teacher-Student).

Effiziente Layer/Architekturen (Depthwise-Separable, Group Convs, Bottlenecks, DenseNet-Patterns) auswählen und in PyTorch umsetzen.

Quantisierung anwenden (PTQ, QAT) und deren Genauigkeits-/Latenz-Trade-offs bewerten.

Pruning durchführen (unstrukturiert & strukturiert) und die Genauigkeit per Fine-Tuning stabilisieren.

Knowledge Distillation (Teacher-Student) designen und implementieren.

Kontakt

Leo Buron
Projektleiter Academy
E-Mail

Voraussetzungen

Die Teilnahme an ZaKI.D Academy Kursen ist kostenfrei, eine Anmeldung ist jedoch erforderlich. Wir behalten uns vor Kurse abzusagen, wenn sich nicht ausreichend viele Teilnehmer anmelden.

  • Grundlegende Pytorch Kenntnisse in Python
  • Grundlegende Kenntnisse im Design und Training von neuronalen Netzen (Layern, Loss-Funktionen, Optimizern, Trainingsloop, Hyperparametern) (Hands-on: Deep Learning Crashkurs ausreichend)

Nächste Termine

Nach Abstimmung Duisburg TBD

Keinen passenden Termin gefunden? Melden Sie Sich trotzdem an!
Sobald genügend Teilnehmer durch eine Anmeldung ihr Interesse angekündigt haben, können wir mit Ihnen einen passenden, zusätzlichen Termin abstimmen.