Datenanalyse in der Industrie

Andreas Mühlbauer,

Prozessdaten nutzbar machen, Wertschöpfung steigern

Die Analyse industrieller Prozessdaten macht Optimierungspotenziale sichtbar und kann einen Beitrag zur Steigerung des Unternehmenserfolges leisten.

Zu keiner Zeit wurden in der Industrie so viele Daten generiert wie heute. © Sputnik GmbH

Durch die zunehmende Digitalisierung in der Produktion stehen mehr Daten denn je zur Verfügung. Hier schlummert ein wertvoller Informationsschatz, der von vielen Anlagenbetreibern noch zu selten gehoben wird. Wie sind die Daten zu lesen, wie können sie ausgewertet werden, um die Wertschöpfungskette zu verbessern? Die Herausforderung besteht im Nutzbarmachen.

Temperaturen, Drücke oder Geschwindigkeiten: Maschinen und Rechnersysteme in modernen Produktionsanlagen tauschen solche Informationen permanent untereinander aus. Diese Prozessdaten dienen nicht nur dazu, dass vernetzte Maschinen den jeweiligen Ist-Zustand der mit ihnen in Verbindung stehenden Geräte kennen, um entsprechend darauf zu reagieren. Auch die Betreiber der Anlagen können wertvolle Erkenntnisse gewinnen – die richtige Interpretation der Daten vorausgesetzt. Erst recht wenn zusätzliche Daten wie etwa Qualitätsdaten, Wartungsberichte oder Auftragsdaten mit in die Analyse einfließen. Die Erkenntnisse lassen sich beispielsweise für Predictive Maintenance oder zur Verbesserung der Effizienz von Anlagen nutzen.

Ziele der Analyse von Prozessdaten

Neben den schon genannten Anwendungsmöglichkeiten sollen bei der industriellen Datenauswertung beispielsweise folgende Ziele erreicht werden:

Anzeige
  • die Reduzierung von Ausfällen und somit die gesteigerte Verfügbarkeit
  • eine höhere Produktqualität
  • die Steigerung der Produktionsleistung
  • das leichtere Engineering von effektiven Neuanlagen
  • die Entlastung der Mitarbeiter

Doch bevor eine zielgerichtete Analyse von Prozessdaten möglich wird, müssen diese zunächst nutzbar gemacht werden. Eine echte Herausforderung. Denn die verfügbaren Prozessdaten stammen in der Regel von vielen unterschiedlichen Quellen und sind daher von einer großen Heterogenität gekennzeichnet. Meist herrscht Unordnung.

Während der Wert und die Zeit noch eindeutig sind, beginnt die Variabilität bereits bei den Einheiten. Ein Beispiel: Die Temperatur wird in Grad Celsius angegeben, doch wird die Einheit mal mit C, mal mit C°,   Grad C usw. abgekürzt. Noch komplizierter stellt sich die Einordung weiterer Metadaten dar, die die Eigenschaften der jeweiligen Messstelle beschreiben. Diese wurden und werden nach unterschiedlichsten Konventionen (beispielsweise KKS, technische Plätze, AKS ...) vergeben, die zudem oft nicht strikt eingehalten und mit der Zeit weiterentwickelt werden.

Aber nicht nur Einheiten und Konventionen unterscheiden sich – auch die unterschiedlichen Systeme, in denen Daten erhoben werden, müssen bedacht werden. So werden Informationen aus Feldsystemen in einem kontinuierlichen Datenstrom gesendet, während Daten aus übergeordneten Systemen wie ERP oder MES als einzelne Datenpakete bereitgestellt werden. Des Weiteren liegen benötigte Daten möglicherweise in den Händen von Partnern. Es ist offensichtlich, dass sich daraus verschiedene Anforderungen für die Datenaggregation ergeben. Aus all den potenziell zur Verfügung stehenden Daten entsteht eine Flut an heterogenen Informationen, die in unstrukturierter Form kaum von Nutzen sind.

Schritt für Schritt zur effektiven Datennutzung

Zu keiner Zeit wurden so viele Daten im industriellen Umfeld generiert wie heute. Grundsätzlich ist dies ein Vorteil, doch in der Praxis zeigt sich, dass die Komplexität der Aufgabe in Abhängigkeit von der Datenmenge wächst. Ein Beispiel: Für eine industrielle Anlage soll ein Energiebericht erstellt werden. Das Vorgehen ist zwar fehleranfällig und aufwendig, kann aber grundsätzlich zum gewünschten Ergebnis führen. Handelt es sich aber um eine Anlage mit 50.000 Messstellen, von denen mehrere tausend Messungen von Energie- und Medienströmen vorliegen, wird die Aufgabe ungleich schwieriger. Denn nicht jede der Messstellen liefert Informationen, die für einen Energiebericht Relevanz besitzen und zudem ist die schiere Masse der Daten zu groß, um sie manuell ordnen zu können.

Es wird klar, dass hier ein strategisches Vorgehen gefragt ist: In einem ersten Schritt müssen die Messstellen strukturiert werden. Dazu ist es von entscheidender Bedeutung, die Metadaten in eine einheitliche Form zu bringen und die verschiedenen Konventionen auf eine allgemein gültige Abzubilden. Ein weiterer elementarer Bestandteil ist es, die topologischen Informationen der Messstellen in eine standardisierte Form zu bringen. Erst wenn diese Daten einheitlich und weitestgehend normiert und somit vergleichbar sind, lässt sich auf ihrer Basis ein automatisiertes Berichtswesen erstellen. Beispielsweise indem die Zusammenstellung der Energieberichte nach verschiedenen Aspekten algorithmisch und nicht mehr durch den Anwender händisch erfolgt. Langjährige Erfahrung und Know-how sind hierfür ebenso Voraussetzung wie die Nutzung einer entsprechenden technologischen Lösung.  

Unterstützung durch erfahrenen Partner 

Um die Prozessdaten effizient nutzen zu können, ist nicht allein die Implementierung eines leistungsfähigen Werkzeugs notwendig. Darüber hinaus ist die Begleitung durch einen erfahrenen Partner empfehlenswert. Anbieter, die einen nachhaltigen Erfolg ihrer Kunden anstreben, geben schon bei der Entwicklung einer passenden Strategie praktische Hilfestellung. Die zweite Komponente ist die schon angesprochene Software. Benötigt wird ein leistungsfähiges Tool, das die vorliegenden Daten aufräumt, strukturiert und mittels algorithmischer Verfahren in Standardinformationen umwandelt. Bei der Auswahl eines Anbieters sollten Anlagenbetreiber sich also nicht mit einer modern anmutenden Nutzeroberfläche zufrieden geben, die lediglich die manuellen Tätigkeiten erleichtert. Wichtiger ist eine genaue Prüfung des angebotenen Leistungsspektrums, denn im besten Falle automatisiert die Software diese Tätigkeiten.

Die wichtigsten Fragen sind: Welche Funktionen bildet das System ab? Reichen diese aus, um die Wertschöpfung effektiv zu steigern? Wie skalieren Arbeitsaufwände, Fehleranfälligkeit, Performance und Nachvollziehbarkeit mit einer rasant wachsenden Anzahl von Messpunkten? Und steht ein erfahrener Partner zur Verfügung, der vor, während und nach dem Kauf unterstützend tätig wird, wenn es nötig ist? Nur wenn diese Fragen bejaht werden können, wird die Analyse der Prozessdaten gewinnbringende Erkenntnisse liefern.

Marc Steinhaus, Prokurist bei Steinhaus Informationssysteme

Anzeige

Das könnte Sie auch interessieren

Anzeige

Datenanalyse

Messfehler automatisiert berechnen

Kistler bietet mit KiXact ein System an, mit der sich die Messunsicherheit sicher berechnen und interpretieren lässt. KiXact, das Teil des Datenerfassungssystem KiDAQ ist, berechnet die Unsicherheit automatisiert.

mehr...
Anzeige
Anzeige

Big Data Analytics

Auf der Suche nach dem Datenschatz

Aus einer Fülle an Produktionsdaten die richtigen Schlüsse ziehen, gleicht einer Detektivarbeit. Denn obwohl jeder Prozessschritt Unmengen an Daten erzeugt, bleibt ihr volles Potenzial häufig ungenutzt. Nexeed Data Analytics von Bosch kann hier...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite