Machine Learning on the edge

Mit Maschinellem Lernen »on the edge« können persönliche Daten geschützt, Kommunikationskosten und Cyberattacken vermieden und Rechenzeiten verkürzt werden. Wie das Prinzip funktioniert und welche Vorteile es gegenüber dem Lernen in der Cloud bietet, erläutern wir in unserem Whitepaper am Beispiel des autonomen Fahrens.

Whitepaper »Machine Learning on the edge«

»Learning on the edge« bietet im Vergleich zum Lernen in der Cloud wichtige Vorteile für zahlreiche Anwendungen der Künstlichen Intelligenz – nicht zuletzt durch das datenschutzfreundliche Trainingskonzept und die erheblichen Einsparungen an Kommunikationsaufwand und -kosten. Eines von vielen Einsatzgebieten ist das Lernen in autonomen Fahrzeugflotten, das im vorliegenden Whitepaper genauer beleuchtet wird. Fraunhofer-Autorinnen und Autoren erklären auf Basis gemeinsamer wissenschaftlicher Veröffentlichungen mit Forschern des Volkswagen-Konzerns, wie das Prinzip »learning on the edge« funktioniert und welche Vorteile sich bieten, wenn nicht Rohdaten auf eine zentrale Big-Data-Plattform hochgeladen werden, sondern Modelle direkt auf Endgeräten trainiert und anschließend ausgetauscht werden. 

Hochautomatisierte Fahrzeuge erkennen Verkehrsschilder, halten Abstand zu anderen Fahrzeugen, bremsen vor Hindernissen rechtzeitig und finden ihren Weg zum Ziel ohne viel menschliches Zutun. Insbesondere mit Deep-Learning – einer Form des maschinellen Lernens auf großen Datenmengen, die mit tiefen neuronalen Netzen als Modellen arbeitet – erzielt die Forschung zurzeit vielversprechende Fortschritte.

Bisher findet das Training der neuronalen Netze vorwiegend in der Cloud statt: Auf einer zentralen Big-Data-Plattform werden historische Daten kontinuierlich durch neue Datensätze ergänzt, die im Einsatz gewonnen werden. Das Netz wird auf diesen Daten trainiert und verbleibt auch im Einsatz in der Cloud, so dass Anfragen an das trainierte Modell ebenfalls dorthin übermittelt werden. Dieses Paradigma ist jedoch in zahlreichen Anwendungen weder technisch wünschenswert noch rechtlich möglich: Wie im Gesundheitswesen spielt auch im Automotive-Umfeld der Datenschutz eine besondere Rolle und stellt einen gewichtigen Grund dar, um Kundendaten nicht an eine zentrale Plattform in der Cloud zu übermitteln und dort zu speichern. Hinzu kommen technische Hindernisse wie geringe Bandbreiten, hohe Kommunikationskosten, Gefahren des Datenabgriffs durch Cyberattacken sowie die Notwendigkeit kurzer Reaktionszeiten.

Die zentrale Idee des verteilten maschinellen Lernens »on the edge« ist es, trainierte Modelle anstelle von Rohdaten auszutauschen. Die Daten werden ausschließlich für lokales Modell-Training verwendet. Der Aufwand für den Austausch von Modellen ist im Vergleich zu den Rohdaten deutlich geringer. Neue Rohdaten werden vor Ort ohne Verzögerung verarbeitet und lange Übertragungszeiten vermieden. Im biomedizinischen Bereich wird dieser Ansatz bereits genutzt, zum Beispiel um für verschiedene Kliniken ein gemeinsames Modell zur Tumorerkennung zu lernen. Die sensiblen Patientendaten verlassen die jeweilige Klinik nicht. Die Gegebenheiten solcher Realeinsätze besser zu berücksichtigen und die Datenschutzfreundlichkeit des Ansatzes weiter zu erhöhen sind Schwerpunkte der aktuellen Forschungstätigkeiten im Bereich des verteilten Lernens. 

Im Falle des autonomen Fahrens entsprechen die Endgeräte den Fahrzeugen einer Flotte, weshalb auch von Flottenlernen (engl. »fleet learning«) gesprochen wird. Forscherinnen und Forscher des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS und des Volkswagen-Konzerns haben gemeinsam untersucht, wie die zentralen Herausforderungen des Flottenlernens bewältigt werden können und auf der European Conference on Machine Learning (ECML) 2018 in Dublin die Ergebnisse vorgestellt. (Paper »Efficient Decentralized Deep Learning by Dynamic Model Averaging«).

Wie verteiltes Lernen funktioniert, welche Herausforderungen dabei bestehen und welche Fortschritte bereits erzielt wurden, ist im vorliegenden Whitepaper in Kürze zusammengefasst.

Download Whitepaper

Wie können die Modelle auf einem lokalen Gerät von den Zusammenhängen profitieren, die auf anderen Geräten gelernt werden, ohne dass Rohdaten ausgetauscht oder in der Cloud zentralisiert werden müssen?

Autorinnen und Autoren

  • M.Sc. Joachim Sicking
  • Dr. rer. nat. Angi Voss
  • Dr. rer. nat. Tim Wirtz
  • M.Sc. Nathalie Paul