Cloud Computing

Andrea Gillhuber,

Edge Computing goes Machine Learning

Neue „Ready to Go“-Cloud-Box-Lösungen ermöglichen es den Unternehmen, die Macht über ihre Daten wieder zurückzubekommen, indem sie unter anderem mithilfe von Machine-Learning-Algorithmen direkt an der Produktionsstraße, sprich: im Edge Device, ausgewertet werden. Auch die Entscheidung über die Weiterleitung wird hier getroffen. 

Wenn die Anzahl der vernetzten Fertigungsmaschinen steigt, wird eine „Analytische Datenreduzierung und Auswertung (ADA)“ direkt an der Fertigungsstraße zunehmend sinnvoller. © IBM

Produktionsumgebungen wie Fertigungsstraßen liefern mit ihren zahlreichen Maschinen und integrierten Sensoren täglich Massen an Daten, die sich für viel mehr eignen als die Steuerung des aktuellen Produktionsprozesses. Viele dieser Daten werden heute aufgrund fehlender oder nicht vollständiger Datenmodelle noch gar nicht aktiv ausgewertet. Um vorbereitet zu sein und um keine Daten zu verlieren, werden eher zu viele Daten gespeichert. Data Lakes sind eine Teillösung hierfür, aber auch mit Kosten verbunden.

Bei Gesprächen mit Datenanalysten kam heraus, dass sie nicht immer alle Daten, die sie benötigen, auch bekommen. Das liegt unter anderem an den wachsenden Datenmengen und der damit verbundenen steigenden Auslastung der Netzwerke. Das haben bereits zahlreiche Industrieunternehmen erkannt und möchten diese Daten in Echtzeit auswerten. Public-Cloud-Lösungen boten sich anfangs als die optimale, schnelle Lösung an: Man schickt einfach alle Daten zur Datenauswertung in die Cloud. Je nach Anwendungsfall und Datenmenge funktioniert dieser Weg recht gut. Viele Unternehmen stellen jedoch vermehrt fest, dass weitere Anwendungsfälle mit wachsenden Datenmengen im Hinblick auf Datensicherheit, Latenzzeit und Echtzeitverarbeitung eine kombinierte Edge-/Cloud-basierte Infrastruktur benötigen.

Anzeige
Mit modernen „Ready to Go“-Cloud-Box-Systemen als ADA-Lösung direkt am Edge-Gerät können Unternehmen wieder allein entscheiden, was mit ihren Daten passieren soll. © IBM

Die Lösung: „Analytische Datenreduzierung und Auswertung (ADA)“ direkt an der Fertigungsstraße in einem auf Standards basierten Edge-Device, ohne auf alle Vorzüge einer Cloud-Umgebung verzichten zu müssen. Das bedeutet, das Unternehmen wertet die Daten am Entstehungsort im Edge-Device aus und entscheidet direkt vor Ort, wohin die Daten geschickt werden sollen. Dies kann unter anderem mithilfe eines Machine-Learning-Algorithmus oder auch eigenen Container-basierten Anwendungen erfolgen.

Neue „Ready to Go“-Cloud-Box-Lösungen können im Zusammenspiel mit modernen Containertechnologien genau dies leisten und noch mehr  – die Anwender gewinnen wieder mehr Kontrolle über ihre Daten, Datenmengen werden reduziert und die Sicherheit erhöht.

Nachdem das Machine-Learning-Modell auf Basis von aktuellen Produktionsdaten erstellt worden ist, nimmt es die Arbeit direkt an der Edge auf. In Verbindung mit modernen Integration-Bus-Technologien werden nur die relevanten Daten an die zentrale Datenanalyse-Plattform weitergeleitet und dort mit anderen Unternehmensdaten ausgewertet. Wenn gewünscht, können die nicht verwendeten „Rohdaten“ oder Teile davon dezentral gespeichert oder gepuffert werden. Neben der stark reduzierten Datenmenge ist diese Architektur zusätzlich noch ein großer Sicherheitsgewinn, denn sicherheitsrelevante Daten können schon am Entstehungsort verschlüsselt oder entsprechend weitergeleitet oder auch gelöscht werden.

Aktuelle auf Containertechnologie basierende ADA-Lösungen sind per Design flexibel und können je nach Bedarf angepasst werden. Dabei spielt die Anzahl, die Größe oder der Ort der Cloud-Instanzen keine Rolle, ein zentrales Management ist fast immer möglich. Dies funktioniert auch bei einer Kombination aus einer oder mehreren Public- oder Private-Cloud-Umgebungen.

Die Planung entscheidet

Wie bei allem ist die Planung sehr wichtig. Werden bestimmte Regeln bei der Entwicklung der Lösungen beherzigt, die später in Docker-Containern laufen sollen, sind der Flexibilität kaum Grenzen gesetzt. Die Container laufen auf fast allen aktuellen Cloud-Infrastrukturen (On-Prem, Off-Prem, Public oder Private). Lösungen aus dem Bereich Multi-Cloud-Management, Cloud Automation und Monitoring runden das Bild solch einer Multi-Cloud-Umgebung als einfach und effizient zu managen ab. Hierbei werden die Edge-Komponenten, basierend auf Standard-Cloud-Technologien, mit eingebunden.

IBM hat mit der „Cloud-in-a-Box“-ADA-EC-Lösung eine solche Ready-to-Go-Cloud-Lösung präsentiert, wie hier erstmalig im Mai 2019 auf der Think at IBM in Berlin. © IBM

Auch wenn das Bewusstsein für die Bedeutung von Produktionsprozessdaten groß ist, scheuten viele Unternehmen den Schritt, die Daten für weitere Auswertungen zu nutzen. Ein Grund dafür ist fehlendes Know-how rund um das Containermanagement, wie Kubernetes. Basiswissen rund um Docker ist in vielen Fällen bereits vorhanden und wird weiter aufgebaut. Diese Firmen haben angefangen, Lösungen basierend auf Docker zu entwickeln. Mit Voranschreiten der Entwicklung kamen auch Herausforderungen auf:

Steigt die Anzahl der Docker-Container, haben Unternehmen beispielsweise festgestellt, dass sie ein Docker-Management wie Kubernetes brauchen. Diese anfangs rein auf Docker entwickelten Lösungen funktionieren, sind aber nur sehr eingeschränkt oder mit hohen Kosten verbunden skalierbar. Mit steigender Zahl an Anwendungen wird darüber hinaus ein App-Katalog benötigt, damit per Push oder Pull die vorgefertigten Lösungen und Updates installiert und benutzt werden können.

Solche Infrastrukturen selbst aus einzelnen Open-Source-Komponenten zu erstellen, zu verteilen und zu betreiben, kann in einer überschaubaren Umgebung noch funktionieren. Bei einer größeren Anzahl von Anwendungen, Edge-Systemen und IoT-Devices, wird dies schnell zur Mammut-aufgabe.

Passende Infrastruktur für den schnellen Einsatz

Eine sichere, voll funktionsfähige Cloud sollte klein sein. Denn dies ist die Basis, um mehr Rechenleistung direkt an die Maschinen beziehungsweise in den Shopfloor zu bringen. Die aktuellen, sofort einsatzbereiten Cloud-in-a-Box-Lösungen bringen eine voll funktionsfähige Cloud mit der notwendigen Rechenleistung ans Endgerät und ermöglichen so die Ausführung von Machine-Learning-Modellen vor Ort. Die Ergebnisse fließen direkt in die Weiterentwicklung und Optimierung der Modelle  – ein Kreislauf entsteht. Diese standardisierten Cloud-Boxen wurden speziell für den Einstieg in KI-gestützte Fertigungslösungen entwickelt. Unternehmen können so ihr Ökosystem im Kerngeschäft erweitern und ausbauen.

Alle Cloud-Lösungen von IBM basieren auf Red Hat Openshift, sind auf allen gängigen Cloud-Umgebungen lauffähig und zentral verwaltbar. © IBM

Kernelement ist eine Cloud-Plattform basierend auf Open-Source-Frameworks wie Docker und Kubernetes mit App-Shop. Die Container-basierten Anwendungen und Updates können zusammengestellt und über diesen unternehmens-eigenen App-Shop verteilt werden. Um alle Vorteile einer privaten Cloud-Umgebung auszuschöpfen, ist auch das Erstellen von Machine-Learning-Modellen und die dafür verwendete Datenbasis zu betrachten. Auch dieser Teil des Machine-Learning-Lifecycles ist in der Produktionsumgebung Bestandteil der Cloud-in-a-Box-Lösung. Das jeweilige Bereitstellungsmodell unterscheidet sich hier am Markt. Idealerweise sollten Unternehmen, die ihre Daten in Echtzeit vor Ort auswerten lassen, diese bei jeder Anpassung, Ergänzung oder Änderung des Machine-Learning-Modells nicht erst zu einem Anbieter oder in eine Public Cloud schicken müssen.

Wird das Ganze mit einem leistungsstarken Industrie-PC für die Edge-Implementierung implementiert, geht das weit über die bisherigen reinen Infrastrukturlösungen hinaus, bei denen erste Analysen auf normalen Edge-Devices ausgeführt werden. Diese „Ready to Go“-Cloud-Boxen können hinter mehrere vorhandenen Edge-Devices geschaltet werden und lesen die Daten entweder von diesen oder direkt aus der Maschine aus. Die Daten von mehreren Endgeräten, Maschinen oder Fertigungsstraßen können auf diese Art zusammengeführt, ausgewertet und dort sogar für mehrere Tage gespeichert werden, um sie anschließend für Analysen und Machine-Learning-Anwendungen bereitzustellen. Wie die Architektur in der jeweiligen Umgebung zum Einsatz kommt, wird je nach Anforderung angepasst und umgesetzt.

Machine-Learning-Anwendungen am Rande der Cloud

Mit den aktuell am Markt erhältlichen Lösungen können eigene KI-Anwendungen entwickelt und in die Laufzeitumgebung wie IoT-Endgerät oder Cloud-Box verteilt werden. Die Software wird vorkonfiguriert geliefert und in die vorhandene Umgebung eingebunden. Unternehmen können damit auf ihre verteilten Daten zugreifen, diese physisch oder virtuell sammeln, organisieren und analysieren. Mit den damit zur Verfügung stehenden KI-Services ist dies die Basis für eigene KI-Anwendungen.

Über ein Selfservices-Portal werden Infrastruktur und bereitgestellte Anwendungen verwaltet. Je nach Anwendungsfall und Unternehmensstrategie können ausgewählte Anwendungen in einem App-Shop zur Verfügung gestellt werden. Neben Integrationen zur Datensammlung auf Basis von M2M-Protokollen wie OPC-UA, MQTT et cetera können dies auch Open-Source-Technologien für die Daten-Integration, -Transformation, -Analyse, -Visualisierung oder zur Erstellung von ML-Modellen sein. Im Anschluss daran wird die fertige Anwendung einfach in einen Container gepackt und über das Cloud-Netzwerk in alle Boxen verschickt (Push oder Pull), in denen sie fortan laufen soll.

Das Angebot beinhaltet zusätzlich eine Materna Managed-Services-Option für die Container-Infrastruktur und läuft auf standardisierten Industrie-PCs von Spectra. © IBM

Der Anwender allein entscheidet, welche Daten analysiert und weiterverarbeitet werden und welche Daten oder Auswertungen aus der Cloud-Box wohin fließen. Da viele Unternehmen bereits mit Cloud- und IoT-Plattformen verschiedener Anbieter arbeiten, ist der Überblick bezüglich der Datenzugriffe nicht immer gegeben. Die Container-Technologie ermöglicht es, dass nur ausgewählte Daten weitergeleitet werden. Die Zusammenarbeit der Maschinenhersteller, Nutzer oder auch Endbenutzer bekommt eine positive Bedeutung, denn jetzt entscheiden beide, welche Daten wohin fließen und können dies beidseitig kontrollieren. Die Datennutzung kann nun in Verträgen und Dokumenten festgelegt und kontrolliert werden.

Der Anwendungsfokus in Bezug auf Datenverarbeitung und -analyse in der Produktion wandert von der Cloud hin zum Werks- oder Edge-Level. Der Shopfloor selbst wird ab sofort zum neuen Datenzentrum, was das IT-Netzwerk wesentlich entlasten wird. In den nächsten zwei bis drei Jahren werden diese Datenmengen so stark ansteigen, dass selbst aktuell geplante 5G-Netze nur punktuell helfen können. Nicht jedes Unternehmen wird sich anfangs eine eigene 5G-Infrastruktur in allen Niederlassungen weltweit leisten können und wollen. Daher wird ADA-Edge-Computing eine immer größere Rolle spielen, denn allein durch die ständig wachsende Zahl der angeschlossenen Geräte wird es für das Netzwerk unumgänglich sein, die Daten unmittelbar am Entstehungsort zu verarbeiten. Mit „Ready to go“-Cloud-Box-Lösungen können Unternehmen nun frühzeitig umstellen.

Christian Wied, IBM Account Manager Cloud Software, Industrial Clients; Ralf Schoppenhauer, IBM Senior IT Architect, Hybrid Cloud, Internet of Systems, Machine Learning / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite