Weniger Hype, mehr Handwerk: Erfolgreiche Industrie-KI entsteht durch gute Daten, schlanke Modelle und praxisnahe Umsetzung auf Edge oder TinyML.
Künstliche Intelligenz hat in den letzten Jahren enorme Sprünge gemacht. Besonders deutlich wird dies in den Bereichen Sprachsynthese und -analyse, etwa bei Chatbots wie ChatGPT. Auch in der Bildverarbeitung wurden bedeutende Meilensteine erreicht, unterstützt durch den Zugriff auf umfangreiche und hochwertige Datensätze.
Doch während Algorithmen hervorragende Ergebnisse in kontrollierten Umgebungen oder mit standardisierten Datensätzen erzielen, sieht die Realität in der Industrie oft ganz anders aus. Hier sind Daten oft knapp, unvollständig, nicht genügend kontextualisiert oder von minderer Qualität und verursachen riesige Datenfriedhöfe. Außerdem sind die auftretenden Probleme spezifisch für einen ganz bestimmten Anwendungsfall und nur schwer generalisierbar. Daher fehlt es häufig an klaren Strategien, wie man robuste, praxistaugliche Modelle entwickelt. In vielen Unternehmen fehlt auch das technische Knowhow, um solche spezialisierten KI-Modelle zu entwickeln. Die Hürde, um eine KI-basierte Methode zu testen ist somit schon initial sehr hoch und wird somit nur in seltenen Fällen auch praktisch umgesetzt.
Wie gelingt es nun, KI-Projekte in der Industrie erfolgreich umzusetzen? Der Schlüssel liegt nicht nur in der Wahl des richtigen Algorithmus, sondern auch in der systematischen Analyse des Problems, der intelligenten Aufnahme und Kontextualisierung sowie der Aufbereitung der Daten und schließlich der Umsetzung der Lösung auf der richtigen technologischen Ebene.
Das Problem verstehen: Supervised, Unsupervised – oder was dazwischen?
Bevor man ein Modell trainiert, muss man also verstehen, welche Art von Problem vorliegt und welche Daten überhaupt verfügbar sind. In der Industrie stoßen wir oft auf zwei grundlegende Ansätze: Supervised Learning und Unsupervised Learning, wobei die Lösung in der Realität meist irgendwo dazwischen liegt.
Supervised Learning funktioniert nach dem Prinzip des Lernens mit „Lernkarten“. Hier werden dem Modell Input-Daten zusammen mit den dazugehörigen Outputs – den sogenannten Labels – präsentiert. Das Modell lernt, die richtigen Zusammenhänge zwischen beiden herzustellen. Typische Anwendungen sind Klassifikationsaufgaben, wie die Unterscheidung zwischen „gut“ und „schlecht“, oder Regressionen, bei denen kontinuierliche Werte vorhergesagt werden sollen. Doch in der Industrie gibt es ein zentrales Problem: Gelabelte Daten sind selten. Besonders bei seltenen Ereignissen wie Ausfällen oder Fehlfunktionen fehlen oft ausreichende Beispiele, um ein Modell zuverlässig zu trainieren.
Unsupervised Learning hingegen versucht, Muster in Daten zu erkennen, ohne dass vorab bekannte Outputs existieren. Das Modell sucht selbstständig nach Strukturen, Clustern oder Anomalien. Doch auch hier gibt es Herausforderungen: ohne klare Vorgaben lernt das Modell oft irrelevante Zusammenhänge oder scheitert am Rauschen in den Daten. Besonders in der Industrie, wo Sensordaten oft verrauscht oder unausgewogen sind, kann dies zu unbrauchbaren Ergebnissen führen.
In der Praxis zeigt sich daher, dass reine Supervised- oder Unsupervised-Ansätze selten ausreichen. Stattdessen sind hybride Lösungen gefragt, die Expertenwissen nutzen, um die Daten erst intelligent aufzubereiten und die Modelle dann gezielt zu trainieren.
Feature-Selection: Warum „mehr Daten“ oft „mehr Probleme“ bedeutet
Ein häufiger Fehler in der Entwicklung von KI-Modellen ist der Versuch, alle verfügbaren Sensordaten in das Training einzubeziehen – in der Hoffnung, dass die KI schon das Richtige lernt. Doch dieses Vorgehen führt oft zu unerwünschten Nebenwirkungen: Hoher Rechenaufwand für irrelevante Features, schlechtere Generalisierung, weil das Modell Rauschen statt Signal lernt, und unnötige Komplexität, welche die spätere Inferenz, also aus den vorhandenen Informationen durch logisches Schlussfolgern neue Erkenntnisse abzuleiten, verlangsamt. Das KI-Modell versucht nicht relevante Inputs abzuschwächen, was natürlich das Gesamtergebnis verschlechtert.
Die Lösung liegt in der intelligenten Auswahl und Aufbereitung der Daten. Statt blind alle Messwerte zu verwenden, sollte man sich auf die physikalisch und mathematisch relevanten Features konzentrieren. Expertenwissen ist hier unverzichtbar: Welche Sensoren messen die Größen, die mit dem gewünschten Ergebnis korrelieren bzw. welche der Rohdaten eines Messinstruments sind relevant für das zu lösende Problem? Und welche Daten sind redundant oder störanfällig? Erfahrene Mitarbeitende und Expertinnen und Experten sind somit unverzichtbar für den Einsatz von KI.
Ein weiterer kritischer Punkt ist die Datenqualität. In der Industrie sind Datensätze oft unausgewogen – es gibt viele Beispiele für den „Normalbetrieb“, aber nur wenige für seltene Ereignisse wie Ausfälle oder Anomalien. Durch Simulationen, Augmentierung oder gezielte Permutationen können künstliche Daten generiert werden, um diese Lücken zu schließen. Doch auch hier ist Vorsicht geboten: Ohne ein tiefes Systemverständnis entstehen schnell unrealistische oder verzerrte Datensätze, die das Modell in die Irre führen.
Das Ziel ist ein schlankes, erklärbares Modell, das nur die wirklich wichtigen Inputs nutzt und dennoch robuste Vorhersagen trifft.
Vom Labor in die Praxis: Wie bringt man KI in Field und Edge?
Selbst das beste Modell nützt nichts, wenn es nicht auf der vorhandenen Hardware läuft. In der Industrie gibt es drei Hauptansätze, um KI-Lösungen praxistauglich zu machen:
TinyML setzt darauf, KI direkt auf Mikrocontrollern oder kleinen Embedded-Systemen direkt im Mess- oder Stellgerät laufen zu lassen. Dafür werden die Modelle stark optimiert:
- Näherungen wie Integer-Arithmetik statt Gleitkomma (Float)-Berechnungen beschleunigen die Berechnung und verringern den Speicherbedarf
- Das Entfernen überflüssiger Knoten (Pruning) reduziert die Netzgröße
- In-Memory-Computing reduziert den Speicherbedarf
Die Vorteile von TinyML sind geringer Stromverbrauch, keine großen Datenmengen, die aus dem Feld in die IT-Welt fließen müssen, keine nötige Cloud-Anbindung und vor allem: Echtzeitfähigkeit.
Edge-Computing geht einen Schritt weiter und nutzt dedizierte Controller oder Gateways, um Daten vorzuverarbeiten, bevor sie in die IT-Welt des Betreibers oder eine Cloud gesendet werden. Diese Lösung eignet sich besonders für Anwendungen, bei denen eine schnelle Reaktion entscheidend ist und mehr Rechenleistung als von einem Mikrocontroller benötigt wird. Die Implementierung von großen Modellen (z.B. Modelle, die durch Neural Architecture Search (NAS) gefunden wurden oder 3D Convolutional Neural Networks (3DCNN)), übersteigt die Leistungsfähigkeit dieser immer noch eingebetteten Lösungen aber deutlich.
Plattformlösungen bieten schließlich die Möglichkeit, KI als Service bereitzustellen. Hier kommen abgespeckte Cloud-Dienste oder Deployment-Tools zum Einsatz, die Modelle automatisch optimieren und bereitstellen. Der Vorteil: Skalierbarkeit, Flexibilität durch einfachen Zugriff auf die Daten und eine einfache Wartung.
Unabhängig vom Ansatz gilt: Die Lösung muss zum Business Case passen. Nicht jedes Gerät benötigt ein neuronales Netz mit Millionen Parametern. Oft reichen kleine, effiziente Modelle, die genau auf die Anforderungen der Anwendung zugeschnitten sind.
Fazit: Erfolgreiche KI in der Industrie braucht solides Datenhandwerk
Die größten Herausforderungen für KI in der Industrie liegen selten in den Algorithmen selbst, sondern in der Datenqualität, der fehlenden Erfahrung im Umgang mit KI-Projekten und in einer unsauberen Umsetzung. Wer hier erfolgreich sein will, sollte das Problem gründlich analysieren, Domänen- und Methodenwissen gezielt kombinieren und Daten so aufbereiten, dass sie echten Mehrwert liefern. Gleichzeitig braucht es praxistaugliche Lösungen, ob durch TinyML, Edge-Computing oder flexible Plattformansätze.
Erfolgreiche industrielle KI entsteht nicht über Nacht. Man kann schnell starten und erste Nutzenpotenziale heben, doch nachhaltiger Erfolg stellt sich ein, wenn Lösungen Schritt für Schritt weiterentwickelt werden. Die Zukunft liegt nicht in der Menge an Daten oder Rechenleistung, sondern in der intelligenten Verbindung von Technologie, Erfahrung und Anwendungswissen.
Das ZaKI.D-Team unterstützt Unternehmen dabei, genau diesen Weg zu gehen – von der ersten Idee bis zur Umsetzung auf dem Gerät.





