A A A
| Sitemap | Kontakt | Impressum | Datenschutz
ETZ Logo VDE Verlag Logo

Proaktive Instandhaltung mit Edge Analytics

(Bild: stock.adobe.com_tashatuvango)

(Bild: stock.adobe.com_tashatuvango)

01 Der Synop Analyzer erkennt Zusammenhänge anhand von Bitmustern, die sich der menschlichen  Beobachtung verschließen, und liefert genaue Prognosen

01 Der Synop Analyzer erkennt Zusammenhänge anhand von Bitmustern, die sich der menschlichen Beobachtung verschließen, und liefert genaue Prognosen

02 Sobald ein geeigneter Key Performance Indicator (KPI) gefunden ist (hier Drehzahl einer Welle und  Häufigkeitsverteilung der Temperatur des Lagers) kann das Lebensdauerende des Verschleißteils in Abhängigkeit von der „Wanderungsgeschwindigkeit Temperaturwolke“ und des Betriebsstundenverlaufs prognostiziert werden

02 Sobald ein geeigneter Key Performance Indicator (KPI) gefunden ist (hier Drehzahl einer Welle und Häufigkeitsverteilung der Temperatur des Lagers) kann das Lebensdauerende des Verschleißteils in Abhängigkeit von der „Wanderungsgeschwindigkeit Temperaturwolke“ und des Betriebsstundenverlaufs prognostiziert werden

03 Die IIoT-Gateways der MRX-Baureihe werden in Kombination mit dem Synop Analyzer zum  Predictive-Maintenance-Router

03 Die IIoT-Gateways der MRX-Baureihe werden in Kombination mit dem Synop Analyzer zum Predictive-Maintenance-Router

Indem sie den Verschleiß prognostiziert, soll die Predictive Maintenance als vorausschauende Instandhaltungsstrategie unerwartete Ausfälle verhindern. Zudem lässt sich durch analytische Methoden Zeit und Geld sparen. So kann man mit Edge Analytics neue Geschäftsmodelle entwickeln – nachzulesen in der openautomation 1-2/2018. Dieser Beitrag erläutert die technische Umsetzung einer prognosegestützten Wartung. Im Idealfall sitzt der passende Algorithmus dafür direkt an der Maschine, sodass er alle relevanten Betriebsdaten in Echtzeit überwachen und sofort aktiv werden kann, wenn er eine Unregelmäßigkeit entdeckt.

Preventive Maintenance und Predictive Maintenance haben ein gemeinsames Ziel: Beide wollen Stillstandszeiten verhindern und die Maschinenverfügbarkeit erhöhen, dennoch unterscheiden sich die Konzepte grundlegend.
Die Entwicklung der Wartungskonzepte
Bei der früher üblichen reaktiven Instandhaltung wurde der Service erst nach dem Schadenseintritt als Troubleshooter aktiv. Die Strategie der zustandsorientierten Instandhaltung nutzte den Materialvorrat schon effizienter. Die höhere Maschinenverfügbarkeit erkaufte man sich durch häufigere Einsätze zur Überwachung sowie zur Pflege der Verschleißteile. Der nächste Fortschritt war die vorbeugende Instandhaltung (Preventive Maintenance). Hier ging die erhöhte Maschinenverfügbarkeit auf Kosten des Ersatzteilbudgets, weil die vorsorglich getauschten Teile noch mehr oder weniger lange ihren Dienst getan hätten.
Moderne Sensoren, omnipräsente Datenverbindungen, schlanke Protokolle für das Industrial Internet of Things (IIoT) und die fortschreitende Digitalisierung ermöglichen Condition Monitoring, einem der Grundsteine für die prognosegestützte Strategie des Predictive Maintenance. Dabei werden Verschleißteile erst kurz vor ihrem prognostizierten Lebensdauerende getauscht. So reduzieren sich sowohl die Troubleshooter-Einsätze als auch die Ersatzteilaufwendungen und die teuren,
außerplanmäßigen Stillstände. Dabei hilft Software, wie der Synop Analyzer (Bild 1) von Synop Systems. Diese In-Memory basierende Advanced- und Predictive-Analytics-Software ermöglicht es Daten großer zeitlich zusammenhängender Transaktionen oder Vorgänge zu analysieren. Allerdings gilt auch heute noch das Zitat von Karl Valentin, wonach „Prognosen immer dann besonders schwierig sind, wenn sie die Zukunft betreffen“. Dies wirft die Frage auf, wie der Prognose-Algorithmus zu seinem Wissen kommt.
Passender Algorithmus für eine verlässliche Prognose
Für eine möglichst genaue Vorhersage müssen zu Beginn alle relevanten Daten des Normalbetriebs und des Fehlerfalls bzw. Lebensdauerendes bestimmt, zeitsynchron erfasst, ausgewertet, klug kombiniert und in einen Algorithmus überführt werden. Wesentliche Aspekte der Valentin‘schen Schwierigkeiten sind erstens das Erheben der relevanten Rohdaten über Monate oder Jahre hinweg in der benötigten Menge und Granularität und zweitens deren geschickte Korrelation. Diffizil ist allerdings die Fragestellung, welche Parameter relevant für die Vorhersage sind und welche keinen Beitrag zur Modellierung der Algorithmen zu leisten vermögen. Ist diese Frage geklärt und liegen die entsprechenden Werte vor, lassen sich mit dem richtigen Algorithmus gute Prognosen treffen. Das Ergebnis kann so aussehen, wie in Bild 2. Das zeigt exemplarisch die reale Temperaturverteilung des Lagers einer Welle im Normalbetrieb (oben) sowie beim Erreichen des Lebensdauerendes (unten).
Großzügige Planung des Datenaufkommens
Dass die Datenübertragungsvarianten sowie der Speicherbedarf sinnvoll zu wählen sind, zeigt ein erfolgreich absolviertes Projekt aus dem Energiesektor. Dabei sollte der bestehende Algorithmus für den Stufenschalter von Ortsnetztransformatoren neu modelliert werden, um die Einhaltung der Spannungsbänder in den unterschiedlichen Netzebenen sicherzustellen. Dazu wurden nur alle 10 s 16 signifikante Werte von 77 Ortsnetztransformatoren (Spannungen, Ströme, Phasenlage, Zeitstempel etc.) ausgelesen. Im Projektzeitraum 2012 – 2013 wurden so 7,7 Mrd. Datensätze mit netto à ca. 200 Byte generiert, übertragen und ausgewertet. Dazu kam noch der Overhead der TCP/IP- und VPN-Protokolle. Beim Betrieb rund um die Uhr war das Datenaufkommen sehr gut planbar. Zum Datensammeln reichte ein kleiner HSPA-Mobilfunkrouter mit einer kundenspezifischen Datenvorverarbeitungs-App im Router, einer frühen Version Icom Data Suite von Insys.
Die Rechnung lässt sich mit Beispielen aus anderen Branchen beliebig variieren: Schon eine Aufzugsfahrt gibt etwa 200 Parameter preis und ein moderner Schiffsdieselmotor hat bis zu 500 Sensoren; hier bestimmen die Anzahl der Aufzugsfahrten und die Betriebsstunden das Datenaufkommen. Um sich anbahnenden Fehlern rechtzeitig auf die Spur zu kommen, können Messwerte im ms- oder μs-Bereich erforderlich sein. Mit dieser Kenntnis ist es möglich, die passenden Ressourcen der Datenübertragungsstrecken, des Zielspeichersystems sowie der Datenbearbeitungstools zu dimensionieren. Die Herausforderungen liegen aber auch bei der Abwägung zwischen Performance und Wirtschaftlichkeit von On-Premise- oder Outsourcing-Lösungen sowie einer sinnvollen Kombination von Cloud- und Edge-Computing.
Nur eines scheint sicher: Die Grenzen zwischen lokalen Datenzentren, Cloudlösungen und Edge-Computing-Anwendungen verwischen immer mehr, da die künstliche Intelligenz die Richtung für modere Service- und Instandhaltungskonzepte vorgibt. Deshalb erscheint auch der Schulterschluss mit einem Data Scientist zur Konzeption der Projekte ratsam.
Zeitsynchronität der Messwerte
Ein technisch lösbares, aber oft nicht bedachtes K.-o.-Kriterium bei dem Thema Edge Analytics ist die Zeitsynchronität der Rohdaten. Das heißt, dass jeder Messwert einen eindeutigen Zeitstempel seines Auftretens tragen muss – also weder den der Übertragung noch den der Speicherung im Zielsystem. Werden Messwerte aus unterschiedlichen Zeitzonen erfasst, wie bei Tsunami-Frühwarnsystemen, ist zum Ausschluss von Trugschlüssen die Verwendung der koordinierten Weltzeit (UTC) empfehlenswert. Nur so sind beim Data Mining sinnvolle Korrelationen möglich. Andernfalls sind die mühsam gesammelten Daten und die investierte Arbeitszeit wertlos!
Nun ist die Rohdaten-Synchronität aber von der Synchronität sowie der Genauigkeit der Systemzeit der Quellsysteme (Steuerungen, Industrie-PC, Datenlogger) abhängig; sie ist in Fertigungsnetzen eher gegeben als bei örtlich verteilten Messstellen, wie den beschriebenen Ortsnetztransformatoren, aber keinesfalls selbstverständlich.
Bei der Datenakquise mit der Icom Data Suite ist die Synchronität in jedem Fall sichergestellt, da die Router und IIoT-Gateways von Insys sich nicht nur über das Network Time Protocol (NTP) synchronisieren, sondern auch bei stark schwankenden Signallaufzeiten in Mobilfunknetzen eine sekundengenaue Systemzeit halten.
Zusammengefasst sind bis zum fertigen Algorithmus sieben Schritte notwendig:

  • Festlegen der vorherzusagenden Fehler,
  • Datenpunkte definieren und fehlende Datenpunkte schaffen,
  • Daten erfassen,
  • Daten sicher übertragen,
  • Daten auswerten und korrelieren (Data Mining),
  • Eintrittswahrscheinlichkeiten für bestimmte Ereignisse berechnen und
  • Algorithmen modellieren.

Router für alle Projektzyklen
Der fertige Algorithmus zum Predictive Maintenance kann prinzipiell überall laufen, sowohl dezentral in/an der Maschine (Edge Computing) als auch zentral (Cloud Computing, lokales Datenzentrum). Neben Industrie-PC bieten auch leistungsfähige, programmierbare Router sowie IIoT-Gateways die Möglichkeit der Datenerfassung und -verarbeitung direkt an der logischen Randstelle (engl. edge) eines Netzwerkes. Dank der programmierbaren Profi-Router von Insys (Bild 3) wird aus einem IIoT-Gateway ein Predictive Maintenance-Router für alle Projektzyklen:

  • zur massenhaften Gewinnung und Übertragung von Rohdaten, zum Beispiel durch die Icom Data Suite als App im Router,
  • zur Datenkonsolidierung,
  • zum Berechnen neuer Key Performance Indicators (KPI),
  • für Edge Analytics, zum Beispiel mit dem Synop Analyzer (als App im Router) für Echtzeit-Prognosen,
  • zum Melden festgelegter Ausreißer sowie
  • als sicherer Zugang für das Remote-Service-Team.

Fazit
Wer sich bei der Instandhaltung analytische Methoden zunutze macht, spart bares Geld. Die Predictive-Maintenance-Router von Insys Icom erledigen – beispielsweise in Kombination mit dem Synop Analyzer – die lokale Datenanalyse diskret und in Echtzeit. Sie werten produkt- und fertigungsspezifische Daten direkt an der Maschine aus und sind damit ein wesentliches Element eines künstliche Intelligenz-Systems. Gleichzeitig werden Betriebsgeheimnisse gewahrt sowie Kosten für Datenübertragung und Cloudspeicher gespart. Zudem besteht die Option, immer wieder aktuelle Rohdaten hochzuladen, um die Algorithmen zu optimieren und die App im Router mit dem aktuellsten Know-how auszustatten. So lassen sich Laufzeiten und Auslastung signifikant verbessern. (no)

Dipl.-Ing. (FH) Robert Torscht ist Technischer Redakteur im Marketing bei Insys Microelectronics in  Regensburg. rtorscht@insys-tec.de

Dipl.-Ing. (FH) Robert Torscht ist Technischer Redakteur im Marketing bei Insys Microelectronics in Regensburg. rtorscht@insys-tec.de