Predictive Maintenance

Andrea Gillhuber,

Vorausschauende Wartung optimieren mit KI

Mit vorausschauender Wartung lassen sich die Ausfallzeiten von Produktionsanlagen um bis zu 50 Prozent und die Wartungskosten um 20 bis 40 Prozent senken. So jedenfalls die Einschätzung von McKinsey. Allerdings basiert Predictive Maintenance nicht auf statischen Modellen, sondern muss sich ständig den Gegebenheiten anpassen. Machine-Learning-Algorithmen können dabei helfen. Von Julian Mehne

Verschleißprozesse einer Maschine als Kurvendiagramm. © DoubleSlash

Voraussetzung für Predictive Maintenance ist die vernetzte Fabrik: Je mehr Maschinen und Anlagen mit Sensorik bestückt und datentechnisch vernetzt sind, desto größer der Effekt, der sich mit vorausschauender Wartung erzielen lässt. Algorithmen werten die erfassten Sensordaten aus und schließen daraus auf den tatsächlichen Verschleiß des jeweiligen Bauteils und seiner verbleibenden Lebensdauer. Je genauer das System arbeitet, desto genauer lässt sich bestimmen, wann welche Komponente ausgetauscht werden sollte: rechtzeitig vor einem Ausfall, aber eben erst, wenn es nötig ist.

Damit dies gelingt, müssen die gesammelten Mess-daten automatisch interpretiert werden. Mithilfe von Machine-Learning-Algorithmen lassen sich aus den Daten funktionale Zusammenhänge ableiten. Ziel ist es, jene Zusammenhänge zu finden, die eine verlässliche Zustandsdiagnose des überwachten Systems erlauben und die eine möglichst treffsichere Prognose seiner nutzbaren Restlebensdauer, der sogenannten Remaining Useful Life (RUL), möglich machen.

Anzeige

Mehr noch: Diese Algorithmen machen die Modelle lernfähig. Das heißt, sie automatisieren nicht nur die vorausschauende Wartung, sie sorgen auch für adäquate Ergebnisse, wenn sich Veränderungen im Verhalten der Maschinen, aber auch in den Rahmenbedingungen einstellen. Damit schaffen sie die Voraussetzung dafür, dass sich Wartungsvorgänge, -intervalle und Ersatzteilhaltung an die jeweils aktuellen Bedingungen anpassen lassen. Außerdem helfen sie, Abweichungen zu erkennen, ehe die jeweilige Maschine größeren Schaden nimmt oder nicht mehr voll funktionsfähig ist.

Je mehr Daten, desto besser

Wie aber sollten Unternehmen nun vorgehen, wenn sie ein Predictive-Maintenance-Projekt mithilfe von Machine Learning umsetzen wollen? Wichtigste Voraussetzung ist die Datenbasis; im Idealfall sind die Maschinen und Anlagen schon seit längerem mit Sensoren ausgestattet und vernetzt.

Zuerst kommt die Sichtung der Daten, zum Beispiel Zustands- beziehungsweise Messdaten der Maschine. Nur wer weiß, welche Maschinendaten verfügbar sind, kann die nächsten Schritte angehen. Häufig sind das Zeitreihen wie die Betriebstemperatur zu bestimmten Zeitpunkten. Auch unstrukturierte Daten wie Bilder oder Audiosignale sollten in der „Dateninventur“ berücksichtigt werden, ebenso statische Merkmale wie Herstellungsdatum, Firmwareversion oder Aufstellungsort der Maschine. Über die Verwertbarkeit der Daten entscheidet nicht zuletzt, wie sie gesammelt werden und wie vollständig sie sind. So gibt es Daten, die nur anhand bestimmter Ereignisse anfallen beziehungsweise erfasst wurden. Andere wiederum sind in durchgängigen Messreihen verfügbar – dabei ist wichtig, in welcher Frequenz sie gesammelt werden und ob sie lückenlos dokumentiert sind.

Auf die Inventur folgt die Datenaufbereitung. Die Datensätze müssen bereinigt, falsche Werte gelöscht, fehlende Werte aufgefüllt werden. Zugleich gilt es ein Verständnis dafür zu entwickeln, welche Daten wie und unter welchen Umständen erfasst wurden. Diese Arbeit ist entscheidend für den Erfolg eines Projekts.

Servicedaten sind wertvoll

Besonders wertvoll sind eventuell vorhandene Service- und Reparaturdaten. Sie sind die solideste Basis für eine Remaining-Useful-Life (RUL)-Prognose. Durch sie lässt sich feststellen, welche Maschine wann ausgefallen ist, was defekt war und was repariert wurde. Wenn die Servicedaten mit den Zustandsdaten in Verbindung gesetzt werden können, lassen sich anhand der Reparaturhistorie die Zustände vor und nach einer Reparatur abgleichen. Das erlaubt bereits erste einigermaßen belastbare Aussagen, die für künftige Prognosen wichtig sein können. Auf dieser Basis kann das System lernen, was „kaputt“ im Einzelfall überhaupt bedeutet.

Im nächsten Schritt ist es sinnvoll, die verfügbaren Servicedaten zu priorisieren: Welche Maschinentypen sind am häufigsten defekt? Welche Bauteile fallen am ehesten aus oder sind am teuersten zu reparieren? Sind solche Parameter bekannt, beginnt die Ursachenforschung: Welche Ereignisse oder physikalischen Messwerte zum Beispiel korrelieren mit dem Versagen eines Bauteils oder einer Maschine? Mit diesem Wissen lassen sich die verfügbaren Daten im Hinblick auf die Modellbildung sichten und bewerten: Was könnte relevant sein, was wird überhaupt gemessen? In dieser Phase müssen sich die IT-Spezialisten mit Experten zusammentun, die sich mit den Maschinen auskennen.

Sind die vorhandenen Daten gesichtet und deren grundsätzliche Relevanz geklärt, müssen Fragestellungen zum angestrebten Projektziel definiert werden. Dabei ist zu beachten, welche Fragen sich anhand des verfügbaren Datenmaterials überhaupt beantworten lassen. Höchste Priorität sollten Anwendungsfälle mit teuren Maschinen oder solche, die besonders häufig ausfallen oder durch Ausfälle besonders hohe Kosten verursachen, haben.

Überblick behalten

Damit jemand die Komplexität eines solchen Projekts überblickt, empfiehlt es sich, einen Data Scientist einzubinden. Er hält die Fäden in der Hand und kommuniziert mit Datensammlern, Entwicklern, Servicetechnikern und anderen Experten. Er bereitet deren Informationen auf und bringt sie in das Projekt ein.

Für das Erstellen eines „intelligenten“ Algorithmus gibt es mittlerweile eine Reihe an guten Tools:

Von IoT-Herstellern bereits integrierte Algorithmen oder vorgefertigte Services wie Azure Cognitive Services oder Amazon AWS AI Services bieten eine gute Grundlage für den schnellen Einstieg. Nachteil: Diese Tools sind relativ wenig anpassbar.

Öffentlich verfügbare KI-Programmierbibliotheken oder Algorithmen-Baukästen. Für eine schnelle Modellentwicklung wird häufig unter anderem auf die interpretierte Sprache Python zurückgegriffen.

Open-Source-Programmbibliotheken wie PyTorch und TensorFlow unterstützen die komplette Eigenentwicklung von Algorithmen.

Welche Tools zum Einsatz kommen, müssen die IT-Spezialisten, denen das Projekt anvertraut ist, anhand ihrer Vorlieben und Vorkenntnisse entscheiden.

Die Qualität einer Vorhersage hängt immer vom konkreten Einsatzszenario ab. Wichtig ist dabei vor allem: Welche Folgen eines falschen Ergebnisses sind akzeptabel und welche nicht? Beispiel: Das Vorhersagemodell initiiert die Wartung der Maschine, obwohl sie noch gar nicht erforderlich wäre (falsch-positives Ergebnis). Oder die Wartung erfolgt zu spät und die Maschine fällt aus (falsch-negatives Ergebnis). Das ist bei einer Flugzeugturbine sicher nicht akzeptabel.

Fest steht: Unternehmen, die ihre Wertschöpfung mit vorausschauender Wartung steigern wollen, kommen nicht daran vorbei, sich mit Künstlicher Intelligenz auseinanderzusetzen. Denn ohne Machine Learning ist wirksame Predictive Maintenance nicht möglich. Unternehmen, die ein solches Projekt aufsetzen wollen, sollten dafür einen Spezialisten einbinden, der über das erforderliche Know-how verfügt und alle Beteiligten sinnvoll einbindet.

Julian Mehne, Data Scientist Maschinelles Lernen bei DoubleSlash / ag

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem SCOPE Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite