A A A
| Sitemap | Kontakt | Impressum | Datenschutz
ETZ Logo VDE Verlag Logo

Herausforderungen der intelligenten Vernetzung meistern

01 Wenn Industrieunternehmen wettbewerbsfähig bleiben wollen, führt an der Digitalisierung ihrer Produktion kein Weg vorbei (Bild: Getty Images_cozyta)

01 Wenn Industrieunternehmen wettbewerbsfähig bleiben wollen, führt an der Digitalisierung ihrer Produktion kein Weg vorbei (Bild: Getty Images_cozyta)

02 Bei der Datenakquise können IO-Systeme, wie das 750er-System von Wago, eine gute und einfache Lösung sein

02 Bei der Datenakquise können IO-Systeme, wie das 750er-System von Wago, eine gute und einfache Lösung sein

Sehr viele Unternehmen denken darüber nach, ihre Produktion zu vernetzen und zu digitalisieren, um die Wertschöpfung zu steigern und zu stabilisieren, auch in der Industrie. Die Geister scheiden sich daran, wie mit den Daten umzugehen ist: Denn wo OT und IT miteinander verschmelzen, treffen unterschiedliche Welten und Philosophien aufeinander. Anlagenbetreibern, die den ersten Schritt zur vernetzten Produktion unternehmen wollen, fällt die Orientierung dementsprechend schwer. Dabei können bereits kleine Projekte messbare Mehrwerte generieren.
Daten sind der Dreh- und Angelpunkt bei der der digitalen Transformation. Sie sind elementar, um Prozesse vernetzen und gezielt lenken zu können. Darum spielt das Einsammeln und Zurverfügungstellen von Daten aus der Feldebene eine Schlüsselrolle auf dem Weg zur smarten Fabrik (Bild 1). Nicht von ungefähr sind Data Akquisition, Big Data oder Analytics in aller Munde. Je mehr Daten gesammelt werden – so möchte man meinen – desto detaillierter wird der Überblick über die Assets einer Produktion, die Zusammenhänge innerhalb der Wertschöpfung und die Wirkweisen bestehender Prozesse und Regelkreise. Wer möglichst viele Daten gewinnt, sollte also den absoluten Durchblick haben, zuverlässig Vorhersagen treffen können, Korrelationen erkennen, Stillstände vermeiden, Ressourcen optimieren und die Effizienz steigern.
Daten sammeln – und dann?
Aber weit gefehlt! So vielversprechend die Aussichten sind, mit Big Data in der Industrie enorme Potenziale zu heben, so herausfordernd gestaltet sich die intelligente Vernetzung: Tatsächlich existieren bei den meisten Unternehmen zwar schon diverse Systeme innerhalb der Produktion, die jede Menge Daten liefern und sammeln, jedoch sind diese Daten insbesondere in der Industrie häufig sehr heterogen. Sie liegen auf diversen Systemen verteilt, in unterschiedlichen Formaten vor und sind häufig ohne ausreichende Zeitsynchronisation und ohne eine Definition der Semantik gespeichert. Zudem werden manche Werte aller Digitalisierung zum Trotz noch manuell abgelesen; insbesondere Werte, die nachträglich in das Leitsystem integriert werden müssen, erzeugen einen enormen Aufwand.
Ein weiteres Hindernis ist, dass OT und IT sich verschiedener Protokolle bedienen – sowohl was die Kommunikation betrifft als auch die Applikation selbst. Um Daten miteinander vernetzen zu können, müssen diese jedoch einheitlich vorliegen. Mit dem Einsammeln der Daten ist es also nicht getan. Es muss viel mehr darum gehen, Daten in einer standardisierten Form zu sammeln, um sie dann schnell und unproblematisch weiterverarbeiten zu können.
Einfache Lösung für die Datenakquise
In diesem Zusammenhang können IO-Systeme wie das 750er-System von Wago eine gute und einfache Lösung sein (Bild 2). Im Speziellen bietet dieses System drei ganz entscheidende Vorteile:
1. Mit mehr als 500 unterschiedlichen Modulen ermöglicht es, so gut wie jedes Signal einzusammeln, das in der Feldebene vorkommt – und das gilt insbesondere für Signale, wie sie in der Industrie vorkommen. Für extreme Umgebungsbedingungen und anspruchsvolle Anwendungen steht zudem die robuste Ausführung des IO-Systems 750 XTR zur Verfügung. Für explosionsgefährdete Bereiche, ob Stäube oder Gase, bietet Wago Module zur Aufnahme von Signalen aus Zone 1 und Zone 2 an. Diese Module sind ebenfalls in der XTR-Variante verfügbar.
2. Weil das as 750er-IO-System modular aufgebaut ist, kann sich der Anlagenbetreiber exakt der Performance bedienen, die er benötigt. Für jedes Signal, das eingesammelt werden soll, muss er lediglich ein Modul benutzen. Das System ermöglicht damit einen günstigen Einstieg in das Thema Digitalisierung und Vernetzung, der flexibel weiter ausgebaut werden kann.
3. Zum System gehört mit dem Controller PFC eine Steuerung, die auf Linux basiert und offen ist für diverse Kommunikationsprotokolle. Der PFC ist das Bindeglied zwischen OT und IT – die Programmierung einer IEC-Applikation mit der entsprechenden Bibliothek sowie IT-Technologien, wie Firewall und VPN, machen ihn zum IoT-Device. Konkret übersetzt der PFC die heterogenen Daten in eine einheitliche Sprache und übergibt diese problemlos über diverse Protokolle und Schnittstellen an übergeordnete Systeme.
Welche Daten sind entscheidend?
Die Frage wie die Daten aus der Feldebene gewonnen werden, ist auf dem Weg zur vernetzten Produktion also das vergleichsweise kleinste Problem. Die eigentliche Herausforderung besteht nicht darin, die Daten zu sammeln, sondern vielmehr darin, festzulegen, welche Datenpunkte für die Bildung der Leistungskennzahlen (Key Performance Indicators) wirklich erforderlich sind. Um Transparenz in einen Produktionsprozess zu bringen, ist es nicht zwingend nötig, alle Daten zu erfassen, derer man habhaft werden kann. Tatsächlich sorgt bei vielen Anlagenbetreibern exakt die Menge der gesammelten Daten oder der fachmännische Umgang mit den gesammelten Daten für das eigentliche Kopfzerbrechen: die Sorge darüber, dass keine qualifizierten Fachkräfte an Bord sind, denen es gelingt, die Datenflut zu beherrschen, oder die Angst, dass OT und IT auf dem Weg zur vernetzten Produktion nicht zielgerichtet miteinander arbeiten. Und diese Sorge ist nicht unbegründet. Denn exakt im Umgang mit den Daten manifestieren sich die sehr unterschiedlichen Herangehensweisen und Philosophien von IT und OT. Was dem einen die besseren Algorithmen und leistungsstärkeren Computer sind, sind dem anderen die schlauen Köpfe.
Cherry-Picking oder Hamstern?
„IT-Konzerne fahren den Ansatz, so viele Daten wie möglich zu sammeln und in diesen dann über Machine-Learning nach sinnvollen Erkenntnissen zu fahnden“, sagt beispielsweise Dr. Ralf-Michael Wagner von Siemens. Dazu allerdings brauche man entsprechende Experten. „Wenn ich dagegen von Anfang an weiß, welche Daten ich sammele, dann kann ich bereits über regelbasierte Anwendungen deutlichen Mehrwert erzielen,“ so Dr. R.-M. Wagner weiter. Die Suche nach den Datenschätzen dadurch effizienter gestalten, indem ich den Suchradius von vornherein einschränke? Oder anders: Mit dem Blick auf einen Ausschnitt beginnen und die Datenakquise dann zielgerichtet ausbauen.
Diese Herangehensweise macht Sinn: Soll im Produktionsprozess beispielsweise mit dem Blick auf das Thema der vorausschauenden Wartung eine Pumpe überwacht werden, dann benötigt man dazu keine komplexen Algorithmen, es reicht hier auch eine einfache mathematische Gleichung. Um die Pumpe im optimalen Arbeitsbereich zu halten oder Abweichungen zu erkennen und frühzeitig beheben zu können, sind lediglich wenige Werte zu erfassen: Die Pumpenkennlinie ist bekannt und die Anlagenkennlinie kann mit relativ geringem Aufwand abgebildet werden. Zieht man Ein- und Ausgangsdruck und die Ein- und Ausgangstemperatur der Pumpe sowie gegebenenfalls die Leistungsdaten des Antriebs hinzu, lässt sich der aktuelle Arbeitsbereich der Pumpe definieren und die Abweichung vom Arbeitspunkt bestimmen. Ob das Ergebnis der mathematischen Gleichung dann lediglich in das Prozessleitsystem gesendet würde oder aber in eine Cloud – das steht auf einem anderen Blatt, und sei einmal mehr von den individuellen Anforderungen des Anlagenbetreibers abhängig. Wesentlich ist jedoch, dass man im Prozessleitsystem oder in der Cloud keinen Datenfriedhof erzeugt, sondern lediglich aufbereitete oder ausgewertete Daten zur Verfügung stellt, die direkte Rückschlüsse auf die Anlage erlauben.
Mit überschaubarem Aufwand einsteigen
Exakt für einen solch überschaubaren Einstieg in Themen wie Datenakquise oder Predictive Maintenance haben diverse Unternehmen fertige Hardware-Software-Pakete im Programm. Beispielsweise bietet Wago eine Autoscan-Funktion, die den Aufbau des IO-Knotens bei Programmstart automatisch ausliest. Für die Verarbeitung der Daten, die danach vom IO-System erfasst werden, stellt Wago überdies fertige Softwarebausteine zur Verfügung. Insbesondere, wenn es sich um Standardapplikationen handelt. Für alle weiteren Applikationen ist die kundenindividuelle Anpassung möglich.
Mit diesen Bausteinen können Maschinenzustände einzelner Assets überwacht werden. Das gewährleistet, dass der Anlagenteil im optimalen Betrieb läuft oder eine vorausschauende Wartung möglich ist. Anhand solch kleiner überschaubarer Lösungen können Unternehmen den ersten Schritt zur vernetzten Produktion und Big Data tun. Sie sind damit in der Lage die Potenziale zu entdecken, die sich daraus ergeben, sowie die Erkenntnisse darüber zu gewinnen, wie und an welchen Stellen der weitere Ausbau der Vernetzung zielführend oder vielversprechend ist. Schlussendlich senkt dieser Weg – nämlich mit einer kleinen Lösung zu beginnen – die Schwelle, überhaupt in diese Themen einzusteigen.
Cloudanbindung im zweiten Schritt
Was für das Management einzelner Assets gilt, gilt ebenso, wenn es um das Management des gesamten Wertschöpfungsprozesses geht. Insbesondere, weil im Zusammenhang damit auch immer die Frage im Raum stehen wird, ob die Daten, die in der Produktion gesammelt sowie über eine Cloud verfügbar gemacht werden sollten oder nicht. Auch hier scheiden sich die Philosophien von OT und IT. Während IT dem Gedanken folgt, von extern auf Systeme zuzugreifen und diese zu steuern, denkt OT eher in geschlossenen Systemlandschaften. Für IT-ler, die überdies so viele Daten wie möglich sammeln möchten, sind Deep-Learning-Tools, wie Amazon AWS oder Microsoft Azure, in der Cloud unerlässlich. Während Automatisierer explizit Themen wie Maschinendatenüberwachung oder Predictive Maintenance über geeignete MES-Tools – und damit durchaus innerhalb der eigenen Fabrikgrenzen – lösen.
Ob eine Cloud-Anbindung erforderlich ist oder nicht, entscheidet letztendlich die Anforderung des Kunden. Aber bevor die Sicherheitsbedenken zu einem Todschlagargument für jegliche Vernetzung werden, sollte man auch hier über einen schrittweisen Ausbau nachdenken. Daten, die in einem ersten Schritt lediglich an ein MES-Tool angebunden sind, können im zweiten Schritt immer noch in die Cloud wandern – und das auch gekapselt von dem Weg, den die Daten in das unternehmensinterne Prozessleitsystem nehmen. Dafür ist lediglich darauf zu achten, dass die Hardware eben diesen Anforderungen gerecht wird. Der Controller PFC von Wago verfügt in der Regel über mehrere Schnittstellen, die gleichzeitig genutzt werden können. So kann parallel zur Datenaufnahme im Leitsystem auch eine verschlüsselte Kommunikation über ein weiteres Protokoll zur Cloud erfolgen. (no)
Benjamin Böhm ist Global Industry Manager Process bei der Wago Kontakttechnik GmbH & Co. KG in Minden. benjamin.boehm@wago.de