Embedded AI Deployment für Mikrokontroller

Lernen Sie zentrale Konzepte verstehen und in kurzen Codingsessions umzusetzen.

Schulung mit Theorie und direkt anschließenden Mini-Codingsessions, in der wir ein kleines CNN in PyTorch für den Einsatz auf Mikrocontrollern mit INT8-Quantisierung und strukturiertem Channel-Pruning optimieren und für ExecuTorch aufbereiten.

Workshop

Länge: 8 Stunden
Datum: nach Bedarf
Kostenfrei

Dieser eintägige Kurs fokussiert das Ausführen von KI auf einem Mikrocontroller. Nach einem kompakten Setup trainieren und übernehmen wir ein kleines Baseline-CNN in PyTorch und erfassen Referenzwerte für Top-1-Accuracy, Batch-1-Latenz, Peak-RAM und geschätzten Flash-Footprint.
Im ersten Praxisblock wenden wir Post-Training-Quantisierung mit INT8 an, kalibrieren mit einem repräsentativen Datensatz und besprechen per-Tensor versus per-Channel-Skalierung sowie typische Genauigkeits-Trade-offs, wie sie sich in TFLite-Micro- oder ExecuTorch-Pipelines auswirken. Im zweiten Block führen wir strukturiertes Channel-Pruning durch, definieren sinnvolle Ziel-Sparsities, feintunen das Modell zur Stabilisierung der Genauigkeit und vergleichen die Effekte auf Latenz, RAM und Flash mit der rein quantisierten Variante.
Zum Abschluss kombinieren wir beide Techniken, untersuchen unterschiedliche Reihenfolgen (Pruning vor Quantisierung bzw. Quantisierung vor Pruning) und wählen den besten Kompromiss im Hinblick auf die Randbedingungen typischer Mikrocontroller-Plattformen. Das optimierte Modell bereiten wir abschließend so auf, dass es in einen TFLite-Micro- oder ExecuTorch-kompatiblen Exportpfad integriert werden kann. So entsteht ein kompakter, aber entscheidungsfähiger Workflow von der PyTorch-Baseline bis zum embedded-fähigen Modellartefakt.

Ein kompaktes CNN als Baseline aufsetzen und Metriken für Accuracy, Batch-1-Latenz, Peak-RAM und Flash erfassen.

INT8-Post-Training-Quantisierung mit Kalibrierung durchführen und per-Tensor/per-Channel-Skalierung im Kontext von TFLite Micro und ExecuTorch einordnen.

Strukturiertes Channel-Pruning planen, anwenden und durch Fine-Tuning Genauigkeit zurückgewinnen.

Quantisierung und Pruning sinnvoll kombinieren und die Reihenfolge anhand der Ziel-Constraints von Mikrocontrollern begründen.

Ein optimiertes Modell so vorbereiten, dass es in TFLite-Micro- oder ExecuTorch-basierte Deployment-Pipelines integriert werden kann.

Die Trade-offs zwischen Modellqualität, Latenz, RAM- und Flash-Verbrauch transparent dokumentieren und eine empfohlene Modellvariante für die Zielplattform auswählen.

Kontakt

Leo Buro
Projektleiter Academy
E-Mail

Voraussetzungen

Die Teilnahme an ZaKI.D Academy Kursen ist kostenfrei, eine Anmeldung ist jedoch erforderlich. Wir behalten uns vor Kurse abzusagen, wenn sich nicht ausreichend viele Teilnehmer anmelden.

  • Abgeschlossene Kurse: Efficient AI sowie Deep Learning Crashkurs
  • Sichere Python- und PyTorch-Grundlagen (Arbeiten mit Notebooks oder IDE)
  • Grundverständnis von Mikrocontroller-Randbedingungen (RAM/Flash, Latenz) ist hilfreich, aber nicht zwingend

Nächste Termine

    • Datum: Nach Abstimmung
    • Uhrzeit: Nach Abstimmung
    • Ort: TBD
    • Kostenfrei

    Sobald genügend Teilnehmer durch eine Anmeldung ihr Interesse angekündigt haben, werden wir mit den Teilnehmern einen passenden Termin abstimmen.