Welche Voraussetzungen müssen für Predictive Maintenance gegeben sein?
Grimsehl:
Zur Umsetzung von Predictive Maintenance beziehungsweise Predictive Analytics bedarf es leistungsfähiger Hard- und Softwaresysteme, die in der Lage sind, Prozess- und Zustandsdaten in Echtzeit zu interpretieren und zueinander in Beziehung zu setzen. Noch vor wenigen Jahren wären solche Datenvolumen aus wirtschaftlicher Perspektive schlichtweg nicht nutzbar gewesen. Eine Analyse hätte einfach zu lange gedauert.
Wo liegt da der Zusammenhang?
Rauscher:
Das sogenannte Condition Monitoring, also die Zustandsüberwachung von Einzelkomponenten einer Maschine, ist die Voraussetzung, um eine übergreifende Predictive Maintenance auf höherer IT-Ebene überhaupt zu ermöglichen. Dafür sind an der Maschine selbst Einzelkomponenten nötig, die eine Erfassung ihres eigenen Zustands unterstützen oder aber dediziert zum Condition Monitoring anderer Komponenten dienen. Wer also eine „gläserne“ Maschine baut, die größtmögliche Transparenz über ihren eigenen Status bereitstellt, bietet seinen Kunden damit gleichzeitig auch einen echten Wettbewerbsvorteil.
Können Sie uns dazu ein Beispiel geben?
Grimsehl:
Denken Sie an ein Kugellager in einer Produktionsmaschine: Die Kugeln darin unterliegen einem konstanten Verschleiß und bei völliger Abnutzung könnte im schlimmsten Fall ein kompletter Prozess zum Stillstand kommen. Da gilt dann mal wieder „kleine Ursache, große Wirkung“. Gerade solche Ausfälle sind aber vermeidbar. So kann etwa ein Sensor im Zusammenspiel mit einem speziellen Spannungs-Repeater-Modul eingesetzt werden, um den Verschleiß dieser Kugeln zu überwachen. Anhand charakteristischer Muster innerhalb der mechanischen Schwingungen der Kugeln zieht ein höhergelagertes Softwaresystem dann Rückschlüsse auf den Status des Lagers.
Rauscher:
Betrachtet man dieses Szenario mit Hinblick auf möglichst vollständig vernetzte Abläufe, könnte das IT-System anschließend einen komplett digitalisierten Bestellvorgang für ein neues Kugellager initiieren. Der Wartungstechniker würde dann automatisiert per Push-Benachrichtigung über das sich ankündigende Problem sowie den Liefertermin des Ersatzteils informiert werden. Das ist natürlich eine Anwendung, in der der Sensor ganz gezielt dem Condition Monitoring dient. Parallel werden aber überall in der industriellen Automation Sensoren eingesetzt, die klassische Schaltfunktionen in einem diskreten Fertigungsvorgang erfüllen und damit nicht dediziert die Überwachung anderer Bauteile übernehmen.
Bedeutet dies, dass in solchen Szenarien dann Sensoren zusätzlich zur Zustandsüberwachung von Sensoren nötig werden oder wie darf man sich das vorstellen?
Rauscher:
Nein, das ist nicht zwangsläufig der Fall. Wie das sehr intelligent und ohne zusätzliches Equipment umgesetzt werden kann, zeigen die optoelektronischen Distanzsensoren aus der Baureihe R100 von Pepperl+Fuchs. Diese hochmodernen Geräte liefern neben den eigentlichen Prozessdaten auch einen Wert mit, der Auskunft über die Signalqualität gibt, die sogenannte Funktionsreserve. Diese stellt ein Maß dafür dar, welcher Anteil des ausgesandten Lichtes auch wieder aufgenommen wurde. Wenn dieser Anteil abnimmt, liegt meist eine Verschmutzung vor. Diese kann nun beseitigt werden, bevor es zur Störung der korrekten Sensorfunktion kommt. Der Sensor überwacht sich also selbst. Dank IO-Link als immer relevanter werdendem Kommunikationsstandard auf der Feldebene profitieren Anwender heutzutage zunehmend von solchen Diagnosefunktionalitäten. Ein anderes Beispiel für intelligente, auf Predictive Maintenance hin entwickelte Produkte sind moderne Feldbusmodule, die Zählerfunktionen für die Verschleißüberwachung direkt im Modul abwickeln und bei Erreichen des Grenzwerts eine Wartungsmeldung an die Steuerung senden. So erreicht man die für die vorausschauende Wartung benötigte Informationstiefe und hat als Nebeneffekt sogar noch weniger Programmieraufwand in der SPS-Software.
Bei Predictive Maintenance spielt aber auch die Cloud eine zentrale Rolle. Wachsen damit klassische Automatisierungstechnik und IT-Branche enger zusammen denn je?
Rauscher:
Der Eindruck täuscht nicht, das spüren wir bei Pepperl+Fuchs natürlich und gestalten diese Entwicklung aktiv mit. Das zeigt auch unsere jüngste Ausgründung, die Neoception GmbH. Dort fokussiert man sich genau auf das Thema: Wie schaffe ich aus Big Data Mehrwerte für den Kunden? Dementsprechend verfügen die Kollegen bei Neoception über jede Menge Know-how aus der Software-Entwicklung.
Das wie eingesetzt wird?
Grimsehl:
Zum Beispiel haben wir bei Pepperl+Fuchs gerade eine neue Variante unseres Remote-I/O-Gateways in der Mache. Dieses Gerät dient dazu, die Verbindung zwischen I/O-Modulen und IP-basierter Buskommunikation herzustellen und ist so modular aufgebaut, dass hier ein von Neoception entwickelter Softwareagent implementiert werden kann. Der Agent übernimmt die Rolle eines intelligenten Übersetzers und Datensammlers. Er fragt Informationen von beliebigen Geräten oder Quellen, wie etwa dem HART-Protokoll ab, übersetzt sie und stellt sie an definierten Endpunkten zur Verfügung. Dazu gehören neben den eigentlichen Prozessgrößen dann auch Informationen wie Asset- und Zustandsdaten. Dank diesem möglichen zweiten Kommunikationspfad könnte mithilfe der gewonnenen Daten sichtbar werden, wie sich die Parameter einzelner Feldgeräte über die Zeit entwickeln.
Rauscher:
Hier sieht man, wie Hardware- und Softwareentwicklung in Zeiten von Industrial Internet of Things erfolgreich Seite an Seite im Dienste des Kunden arbeiten. Dieser Schulterschluss wird zukünftig immer enger werden, das zeichnet sich wirklich klar ab. Auch wird die Beratung des Kunden bei der Einführung von Lösungen zu Condition Monitoring und Predictive Maintenance immer wichtiger. Diese Vorhersagen erlaube ich mir jetzt mal ganz frei, ohne dafür ein stochastisches Analyse-Tool verwendet zu haben.