Big-Data-Analysen gelten als Schlüssel für zukünftige Industrie-4.0-Konzepte. Bei der praktischen Umsetzung und Einführung solcher Methoden stehen viele Anwender jedoch vor großen Herausforderungen. Was genau einer Big-Data-Analyse im Weg steht, wollte die Technische Universität München im Rahmen einer Umfrage unter Namur-Mitgliedern herausfinden. In der Interessengemeinschaft Automatisierungstechnik der Prozessindustrie sind derzeit 152 Unternehmen vertreten.
Rund zwei Drittel der Befragten sind davon überzeugt, dass die Datenanalyse prinzipiell dazu geeignet ist, Anlagen zu optimieren. An erster Stelle nannten sie dabei die Unterstützung von Operatoren im laufenden Betrieb, gefolgt von der Diagnose von Prozessen und Komponenten sowie einem verbesserten Verständnis für Zusammenhänge.
Fehlende Struktur ist das größte Hindernis
Die Umsetzung verläuft jedoch in den Betrieben eher schleppend: „Unstrukturierte Daten sind das größte Hindernis beim Einsatz von Big Data-Analysen in der Prozessindustrie“, erklärt Prof. Dr.-Ing. Birgit Vogel-Heuser, Leiterin des Lehrstuhls Automatisierung und Informationssysteme an der Technischen Universität München. „Dies bestätigen auch die Ergebnisse unserer Umfrage.“
Messgeräte in chemischen Anlagen produzieren eine Vielzahl an Nutzungs-, Wartungs- und Qualitätsdaten. Diese werden aber meist in verschiedenen Datenbanken gesammelt und selten mit einer synchronen Zeitstempelung versehen. Zusammenhänge sind im Nachhinein schwer auszumachen, oder sie müssen für eine Analyse meist händisch zusammengefügt werden. Dies sind aber nicht die einzigen Herausforderungen. Die Umfrageteilnehmer bemängelten auch die fehlende Definition eines allgemeinen Datenmodells, die Unterschiedlichkeit der Schnittstellen und den hohen Implementierungsaufwand.
Partner entwickeln Konzept für Big Data
Um die Herausforderung der unstrukturierten Daten besser zu meistern, entsteht derzeit mit SIDAP ein Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie. Daran arbeiten Betreiber (Bayer, Covestro, Evonik), Armaturenhersteller (Samson), Feldgerätehersteller (Krohne, Sick), IT-Unternehmen (Gefasoft, IBM) und die Technische Universität München zusammen. Hierbei sollen aus großen Datenmengen, die unter anderem von vorhandenen Messgeräten stammen, neue Zusammenhänge ermittelt werden. Gleichzeitig wird eine datengetriebene sowie serviceorientierte Integrationsarchitektur entwickelt.
„Damit werden Messdaten, Informationen aus der Instandhaltung sowie Daten aus dem Engineering und den Prozessleitsystemen unter Berücksichtigung ihrer unterschiedlichen Semantik in abstrahierter, integrierter und zugriffsgeschützter Form für interaktive Analysen zugänglich“, so Prof. Vogel-Heuser. Erklärtes Ziel ist es, mit aufbereiteten Daten aus heterogenen Quellen die Anlagenverfügbarkeit zu erhöhen, indem Ausfälle vermieden und die Wartung angepasst wird.