Du hast vielleicht schon gehört, dass KI‑Modelle leistungsfähiger werden, je mehr Daten sie bekommen. Doch was passiert, wenn diese Daten sensibel sind und nicht geteilt werden dürfen, zum Beispiel in Krankenhäusern, Filialnetzen oder auf Smartphones? Genau hier setzt das föderierte Lernen an.
Was ist föderiertes Lernen?
Föderiertes Lernen ist eine Technik, bei der ein KI-Modell aus vielen Datenquellen gemeinsam lernt, ohne dass die Daten den Ort verlassen, an dem sie entstanden sind. Stell dir vor, viele Smartphones lernen gleichzeitig, Texte richtig zu klassifizieren. Jedes Gerät analysiert seine eigenen Daten lokal und sendet nur die Erkenntnisse, also kleine Updates für das Modell, an einen zentralen Server. Dieser kombiniert die Updates zu einem gemeinsamen Modell, das besser wird, ohne dass die persönlichen Daten der Nutzer jemals die Geräte verlassen.
Im technischen Kontext bedeutet das:
- Daten bleiben lokal auf den Geräten oder in der Organisation.
- Nur Modellupdates (also Veränderungen an dem lernenden KI‑Modell) werden gesammelt.
- Diese Updates werden zu einem globalen Modell kombiniert, das von allen genutzt wird.
Damit lässt sich ein leistungsfähiger KI‑Algorithmus trainieren, ohne sensible Daten zentral zu speichern oder zu übertragen.
Warum ist das wichtig?
In der Praxis gibt es viele Szenarien, in denen Daten nicht geteilt werden dürfen oder aus Sicherheits‑ und Datenschutzgründen nicht in einer zentralen Cloud liegen sollten. Gleichzeitig sollen die Vorteile der KI‑Modelle genutzt werden, die mit mehr Daten einfach besser werden.
Föderiertes Lernen verbindet also zwei wichtige Aspekte:
- Datenschutz – weil sensible Daten lokal bleiben.
- Lernfähigkeit – weil das Modell durch viele Quellen lernt und dadurch besser wird.
Ein Beispiel aus der Praxis
Im Rahmen einer Abschlussarbeit am Fraunhofer IMS wurde föderiertes Lernen auf einfache Hardware getestet: Raspberry Pi‑Geräte. Diese Mini‑Computer haben keine teure GPU und begrenzte Leistung, wie sie oft in der realen Welt vorkommen. Zum Einsatz kam dabei das State-of-the-Art-Framework Flower (flower.ai), das speziell für föderiertes Lernen entwickelt wurde. Es ermöglicht, verteilte Clients effizient zu koordinieren und Modellupdates zentral zu aggregieren.
Ziel war es, ein Modell zur Sentiment‑Analyse zu trainieren, also zu erkennen, ob ein Text positiv, negativ oder neutral ist.
Statt all diese Textdaten zentral zu sammeln, blieben sie auf den einzelnen Geräten. Jedes Gerät berechnete lokale Verbesserungen am Modell und sendete nur diese kleinen Ergebnisse an einen zentralen Server. Dieser kombinierte sie zu einem globalen Modell.
Durch diese Vorgehensweise konnte das Modell:
- ohne zentrale Datensammlung lernen,
- vergleichbare Ergebnisse zu traditionellen Trainingsmethoden erzielen und
sich sogar in einigen Fällen besser entwickeln, weil es vielfältige Daten aus verschiedenen Quellen nutzte.

Was sind die Vorteile?
- Datenschutz bleibt gewahrt, weil keine Rohdaten geteilt werden.
- Kommunikationsaufwand zwischen Geräten und Server bleibt gering, weil nur Modellupdates übertragen werden.
- Auch schwache Geräte (z. B. Edge‑Hardware) können am Lernprozess teilnehmen, weil nur kleine Teile des Modells angepasst werden müssen.
- Föderiertes Lernen schafft so eine realistische Möglichkeit, KI‑Modelle in Bereichen einzusetzen, in denen Datenschutz und verteilte Daten zentral sind.
Was kommt als Nächstes?
Föderiertes Lernen ist ein vielversprechender Ansatz, der Datenschutz und Effizienz vereint. Gleichzeitig gibt es weiterführende Techniken wie Secure Aggregation und Differential Privacy, die zusätzliche Datenschutzgarantien bieten können. Diese Methoden sorgen dafür, dass Updates selbst noch schwerer auf individuelle Daten zurückgeführt werden können.
In der Praxis bedeutet das: KI kann lernen, ohne dass wir unsere Daten preisgeben müssen – ein entscheidender Schritt, um KI in sensiblen Bereichen wie Medizin, Bildung oder Mobilität vertrauenswürdig und sicher einzusetzen.



