Eigener KI-Beschleuniger

Lernen Sie zentrale Konzepte verstehen und in kurzen Codingsessions umzusetzen.

Verstehen Sie, wie spezialisierte Hardware KI-Anwendungen beschleunigt und welche Architekturen dabei eingesetzt werden. Analysieren Sie den Aufbau und die Funktionsweise von KI-Beschleunigern anhand praktischer Beispiele. Bewerten Sie Einsatzmöglichkeiten für effiziente KI-Systeme in realen Anwendungen.

Workshop

Länge: 8 Stunden
Datum: nach Bedarf
Kostenfrei

Diese Schulung kombiniert fundierten theoretischen Background (Folien) mit praxisorientierten Codingsessions. Schritt für Schritt bauen die Teilnehmenden ein tiefes Verständnis für die Hardwareanforderungen von KI-Beschleunigern auf. Dabei lernen sie, welche Rechenprinzipien hinter modernen KI-Systemen stecken und warum spezialisierte Hardware eine entscheidende Rolle für Leistung, Energieeffizienz und Skalierbarkeit spielt. Darüber hinaus werden verschiedene Hardwarearchitekturen – von GPUs über ASIC-Lösungen bis hin zu rekonfigurierbaren Systemen – vorgestellt und im Hinblick auf ihre Stärken, Schwächen und Einsatzgebiete verglichen.

Ein besonderer Schwerpunkt liegt auf den Hardwarestrukturen, die für die effiziente Beschleunigung von KI-Berechnungen erforderlich sind. Die Teilnehmenden erhalten Einblicke in Speicherorganisation, Parallelisierungsstrategien, Datenflussarchitekturen sowie typische Engpässe im Deep-Learning-Processing. Dadurch entsteht ein Verständnis dafür, wie Hardwaredesign, Softwareoptimierung und neuronale Netze zusammenspielen.

Im zweiten Block wenden wir dieses Wissen unmittelbar praktisch an: Mit Hilfe des Tools elastic-AI.creator entwickeln und trainieren wir einen KI-Beschleuniger, der anschließend auf einem Field-Programmable-Gate-Array (FPGA) implementiert wird. Die Teilnehmenden programmieren einen eigenen Beschleuniger, testen dessen Funktionalität und analysieren die Auswirkungen verschiedener Hardware-Optimierungen auf die Ausführungszeit und Energieeffizienz. Auf diese Weise wird klar nachvollziehbar, wie aus einem Modell ein real einsetzbarer KI-Beschleuniger entsteht – von der Idee bis zur lauffähigen, hardwarebasierten Lösung.

Verständnis von KI-Hardwarearchitekturen
Teilnehmende können unterschiedliche Beschleunigerarchitekturen (z. B. GPU, FPGA, ASIC) vergleichen und deren Einsatzgebiete sowie Vor- und Nachteile fundiert beurteilen.

Analyse von Hardwareanforderungen für KI-Modelle
Sie erkennen typische Engpässe wie Speicherbandbreite, Datenfluss oder Parallelisierung und können daraus Anforderungen für effiziente KI-Beschleuniger ableiten.

Praktische Umsetzung eines KI-Beschleunigers auf einem FPGA
Sie können mithilfe des elastic-AI.creator Tools ein neuronales Netz so anpassen, dass es auf FPGA-Hardware lauffähig ist, und es dort als speziellen Beschleuniger implementieren.

Bewertung von Leistungs- und Energieeffizienzoptimierungen
Die Teilnehmenden sind in der Lage, die Performance ihrer Implementierung zu messen, Ergebnisse zu interpretieren und Optimierungsmaßnahmen gezielt umzusetzen.

Eigenständiger Entwicklungsprozess vom Modell zur Hardwarelösung
Sie kennen den vollständigen Workflow – von der Modellentwicklung über Training und Hardwaremapping bis hin zu Test und Validierung auf echter Hardware – und können diesen Prozess reproduzierbar anwenden.

Kontakt

David Federl
Projektleiter Academy
E-Mail

Voraussetzungen

Die Teilnahme an ZaKI.D Academy Kursen ist kostenfrei, eine Anmeldung ist jedoch erforderlich. Wir behalten uns vor Kurse abzusagen, wenn sich nicht ausreichend viele Teilnehmer anmelden.

  • Python-Grundlagen (Variablen, Funktionen, Schleifen, Module); alles wird in PyTorch implementiert.

Nächste Termine

    • Datum: Nach Abstimmung
    • Uhrzeit: Nach Abstimmung
    • Ort: TBD
    • Kostenfrei

    Sobald genügend Teilnehmer durch eine Anmeldung ihr Interesse angekündigt haben, werden wir mit den Teilnehmern einen passenden Termin abstimmen.