Datenanalyse in der Produktion

Andrea Gillhuber,

Sensordaten gezielt analysieren

Im Zuge des Internet of Things kommt eine wahre Datenflut auf die Industrie zu. Sensoren liefern unentwegt Daten aus der Produktion, Logistik und weiteren Bereichen. Um diese gewinnbringend zu nutzen, ist eine gezielte Datenanalyse ausschlaggebend.

Im Zuge der Digitalisierung liefern Sensoren unentwegt Daten aus der Produktion, Logistik und weiteren Bereichen. © Fotolia.com – Nirut Sangkeaw

Das Internet of Things (IoT) wird den Alltag von Grund auf verändern – und tut es heute schon. Das gilt für das Privatleben von Verbrauchern ebenso wie für Unternehmen und für ganze Branchen – sei es in der Smart City, in der selbstfahrende Autos über Sensoren mit ebenfalls vernetzten Ampeln und anderen Teilen der Infrastruktur kommunizieren. Sei es, wenn Daten aus einem Computertomografen darauf hinweisen, wann dieser wahrscheinlich ausfällt. Oder wenn Bewegungsdaten zu Fußballspielern prognostizieren, wann ein Tor fällt. Die Basis für all das ist Analytics-Software, die hilft, diese IoT-Daten zu deuten. Das ist eine erhebliche Herausforderung. Für die erfolgreiche Umsetzung von IoT-Projekten muss eine Vielzahl von Faktoren zusammenspielen. Dazu gehören natürlich erst mal Sensorik und Connectivity, ebenso aber Datenmanagement, Analytics und Algorithmen und nicht zuletzt auch unternehmerische Aspekte wie Change Management. Und ganz wichtig: Kein IoT-Projekt sollte umgesetzt werden, ohne den potenziellen Business Case zu kennen. Denn Technologie um der Technologie willen bringt keinen unternehmerischen Wert.

IoT-Daten sind zum Zeitpunkt ihrer Erfassung unbekannt oder nur wenig analysiert. Sie werden in einer extrem hohen Frequenz übertragen. Oft fehlen Werte, andererseits gibt es jede Menge irrelevante Werte (das sogenannte „Rauschen“). Zudem liegen Tausende von Variablen vor. Aufgrund dieser Datenkomplexität gilt es zu entscheiden: Welche Daten brauche ich? Welche Informationen sollen vom vernetzten Gerät an eine analytische Intelligenz gesendet werden beziehungsweise das Ergebnis dieser Analyse wieder zurück an das entsprechende Gerät? Welche Datenmenge soll gespeichert werden? Diese Fragen sind ausschlaggebend, da sie über Zeitbedarf und Kosten entscheiden.

Anzeige

Das Identifizieren starker Prädiktoren – also von Variablen, die möglichst zuverlässige Prognosen zu bestimmten Fragestellungen zulassen – gestaltet sich oft als sprichwörtliche Suche nach der Nadel im Heuhaufen. Manchmal gibt es nur wenige Fälle oder Ausreißer, wie bei der Vorhersage von Maschinenausfällen oder Betrugsversuchen, was es erschwert, Regeln und Muster zu erkennen. Der Dreiklang klassischer Analytics – Zugriff auf die Daten, speichern und analysieren (Access – Store – Analyze) – funktioniert im IoT nicht mehr. Stattdessen müssen Daten oft sehr schnell (womöglich sogar in Echtzeit) an Ort und Stelle beurteilt werden.

Der Analytics Lifecycle besteht aus drei Stufen: Daten, Modellierung, Anwendung. In Stufe eins wird Ordnung in das Datenchaos gebracht. Die „Fleißaufgabe“ besteht darin, die Daten zu transformieren, vorzuverarbeiten, intelligent zu filtern, die erkannten Dimensionen zu reduzieren und schließlich Merkmale zu extrahieren. In der zweiten Phase wird auf Basis dieser Daten ein Modell entwickelt, um Anomalien zu erkennen, zum Beispiel den Leistungsabfall einer Maschine.

Daten dort analysieren, wo sie entstehen

Steht das Modell, wird es direkt auf Streaming-Daten angewandt. Das heißt, diese werden mittels Event Stream Processing direkt während der Übertragung, also im Datenstrom und noch vor der Speicherung, analysiert – also am „Rand“ der Datenstrecke. Daher rührt die Bezeichnung „Edge Analytics“. Die Technologie funktioniert als intelligenter Filter, wodurch sich der Datentransport reduziert. Das ermöglicht dem analytischen System, potenzielle Probleme schon im Vorfeld abzuwenden, indem eine Maschine heruntergefahren, ein Alert ausgegeben oder eine andere Maßnahme in die Wege geleitet wird.

Eine Vielzahl neuer analytischer Verfahren dient dazu, Anzeichen für Anomalien frühzeitig zu entdecken. Eine sogenannte Support Vector Data Description beispielsweise kann dabei helfen, den Leistungsabbau bei Flugzeugturbinen zu identifizieren. Dafür wird ein „normales“ Mittel aus den vorhandenen Daten berechnet und alle neu generierten Daten werden in ihrer Abweichung von diesem Normalitätsmodell bewertet. Dann kann es sein, dass die Abweichung vom Normalwert immer mehr zunimmt, je mehr die Maschine ihrem Ende oder einem Ausfall zugeht. Nach Erreichen eines vorher festgelegten Schwellenwerts wird ein Alarm ausgelöst und die Turbine kann rechtzeitig ausgewechselt werden, bevor es zum Ausfall kommt. Das analytische Modell wird direkt auf die Streaming-Daten angewandt, der Schritt des Speicherns entfällt somit. Und nur die Daten, die für spätere Analysen wertvoll sein könnten, gelangen in den Datenspeicher, das Data Warehouse.

Edge Analytics in der Produktion

Viele Anwendungsfälle für Edge Analytics finden sich in der Produktion. Dort werden beispielsweise Fotos von den Produkten erzeugt, um deren Qualität zu bestimmen. In einer hohen Frequenz kann beispielsweise in der metallverarbeitenden Industrie festgestellt werden, ob das Material im Ofen richtig erwärmt wurde, davon ausgehend auf die Qualität geschlossen und entschieden werden, ob es sich um Ausschuss handelt oder ob das Produkt nochmals in den Produktionsprozess eingeschleust werden sollte. Konkret kann ein Anwendungsfall auch so aussehen: Ein Schokoladenfabrikant möchte bei seinem Produkt die weißen Verfärbungen an der Oberfläche der Schokolade kontrollieren, die zum Beispiel unter Kälteeinfluss entstehen. Dazu nimmt eine Kamera ein Bild jeder Schokotafel auf. Mittels Analytics lässt sich dann der Grad dieser „Verunreinigung“ bestimmen und Ware über einem bestimmten Schwellenwert als Bruch für den Sonderverkauf aussortieren.

Neue Daten erfordern neue Vorgehensweisen. Damit aus Sensor- und anderen IoT-Daten relevante Informationen gezogen werden können, die wiederum intelligenten Geschäftsentscheidungen dienen, sind innovative analytische Technologien erforderlich sowie eine neue Herangehensweise bei der Anwendung dieser Technologien. Manchmal muss der dritte Schritt dann auch vor dem zweiten folgen, sprich: Analyse vor dem Speichern. Um aus den gewonnenen Informationen frische Lösungsansätze für neue Probleme oder gar innovative Geschäftsmodelle zu entwickeln, muss zu den technologischen Voraussetzungen auch noch ein Umdenken kommen – und zwar in der Führungsetage ebenso wie bei dem Mitarbeiter in der Produktionshalle.

Wie IoT-Daten mit Analytics sinnvoll genutzt werden können, zeigte auch die diesjährige SAS Analytics Experience in Mailand. Praxisbeispiele reichten von Predictive Maintenance in der Produktion bis hin zu Vorhersagen für effiziente Supply-Chain-Prozesse.

Dr. Nicole Tschauder, Analytics-Expertin bei SAS DACH / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige

Editorial

Wettbewerbsfaktor Daten

Die Automatica brachte viele neue Eindrücke unter anderem in den Bereichen Mensch-Roboter-Kollaboration, Servicerobotik und Greiftechnik. Sie brachte aber auch neue Abläufe beim Visitenkartentausch mit sich.

mehr...
Anzeige

Datenanalyse

Die Datenqualität entscheidet

Eine hohe Datenqualität ist die Basis für erfolgreiche BI-ProjekteDer Einsatz von Business Intelligence (BI) gilt als Wettbewerbsvorteil, der über den langfristigen Erfolg eines Unternehmens entscheidet.

mehr...

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite