Ohne Digitalisierung und digitalen Zwilling ist ein IoT-Zeitalter nicht möglich. Und doch zeigt die Praxis, dass Vieles davon doch nur Theorie ist. Woran liegt das?
Aus meiner Sicht wird die Ära des IoT durch Konzepte wie den Digital Twin quasi „angekurbelt“, hängt aber nicht allein davon ab. Industrieanlagen, die seit 40 Jahren in Betrieb sind, sind die anspruchsvollsten für die Welt des IoT. Das fängt schon bei der Umsetzung verbesserter Betriebsbedingungen oder den neuen effizienten Lösungen für vorausschauende und präventive Wartung an. Bis die Bestandsanlagen soweit sind, braucht es noch Zeit. Deshalb entwickeln die Praktiker der Branche täglich neue Digitalisierungsmethoden und IoT-Lösungen. Und Theoretiker zeichnen ihr Zukunftsbild mit dem Weg zu einem vollständigen Digital Twin.
Datenbasierte Services wie Predictive Maintenance werden in Zukunft immer bedeutender. Doch viele dieser Prozesse finden in der Praxis nur wenig Anwendung. Was sind Voraussetzungen dafür, dass sich daran etwas ändert?
Die Verlässlichkeit von Daten und ihre direkte Verfügbarkeit sind die beiden Hauptfaktoren, um das Vertrauen von Anlagenbetreibern und Ingenieuren der alten Schule in neue digitale Lösungen zu gewinnen. Objektorientierung und zentrale Datenhaltung sind Voraussetzungen dafür, das „Öl des 21. Jahrhunderts“ optimal verwerten zu können. Dass Informationen in „toten“ PDF-Dokumenten nicht sinnvoll sind, muss verstanden werden.
Kaum sind Anlagen gebaut und in Betrieb genommen, werden Änderungen meist nicht in den digitalen Planungssystemen nachgeführt. Inwiefern kann die Namur Open Architecture (NOA) hier unterstützen?
NOA ist die Basis für das neutrale OPC-UA-Format, über das Anlagen direkt mit ihrem digitalen Zwilling, also der vollständigen Dokumentation, kommunizieren können. Dabei gilt übrigens wieder die zentrale Datenhaltung als Voraussetzung. Unsere Plattform Engineering Base (EB), die den digitalen Zwilling abbildet und über die er entwickelt wurde, „versteht“ OPC UA. Wenn etwa ein Gerät in der Anlage getauscht wurde, dann meldet das OPC-UA-fähige neue Objekt dies per OPC UA direkt über Webservice an EB. So wird der digitale Zwilling automatisch aktuell gehalten. Und Datenaktualität ist entscheidend für effiziente Wartung beispielsweise.
Das Geschäftsjahr 2018/19 war das erfolgreichste Jahr der 35-jährigen Geschichte Aucotecs. Wie hoch fällt der Anteil von Engineering Base dabei aus?
Seit vielen Jahren konzentrieren wir uns weitgehend auf die Weiterentwicklung dieser Plattform. Eine genaue Zahl dafür gibt’s nicht, aber klar ist, dass der weit überwiegende Anteil des Aucotec-Erfolgs auf der außergewöhnlichen Fähigkeit von Engineering Base beruht, eine echte Single Source of Truth für das gesamte Anlagenengineering zu bieten.
Inwiefern unterscheidet sich EB von anderen Engineering-Werkzeugen?
Die Plattform wurde tatsächlich von Anfang an dafür konzipiert, im kooperativen Anlagen-Engineering für alle Kerndisziplinen als diese Single Source zu dienen. Fast alle anderen Tools auf dem Markt sind Übernahmen und Kombinationen verschiedener Software-Produkte diverser kleinerer Unternehmen durch große Software-Anbieter. Sie werden als Engineering-Plattform dargestellt, sind aber eher Zusammenstellungen von Datensilos und Tools.
EB nimmt einen entscheidenden Bestandteil Ihres Erfolges ein. Das war aber nicht immer so: Vor einigen Jahren haben Unternehmen den Mehrwert eines objektorientierten und Datenbank-zentrierten Ansatzes noch nicht erkannt. Was sind die Gründe für ein Umdenken auf Seiten der Unternehmen gewesen?
Der wahre Wert von Daten und der Möglichkeit, sie in einer zentralen Quelle für alle Engineering-Disziplinen zu halten, wurde erst nach und nach immer deutlicher. Über Jahrzehnte hatte sich das Dokumenten-zentrierte Engineering etabliert, auch Aucotecs erste Software-Produkte waren so ausgelegt. CAD war ja ursprünglich zur Unterstützung des Zeichnens gedacht. Diese Dokumenten-Orientierung war lange fest verwurzelt, ein Paradigmenwechsel bedeutet ja auch immer Aufwand. Viele EPCs und Owner/Operator haben die großartigen digitalen Lösungen und Hypes, die Ingenieure in den letzten Jahren ausgemalt haben, verstanden und angenommen. Dennoch wurde die Voraussetzung für all diese Lösungen, die Datenverfügbarkeit, zu lange unterschätzt. Sie erlangt erst jetzt ihre eigentliche Bedeutung und Position.
Laut einer Studie des VDMA gemeinsam mit der Unternehmensberatung PWC werden datengesteuerte Services ihren Anteil im Vergleich zu heute verdreifachen. Welche Herausforderungen sehen Sie auf diesem Weg und wie könnten diese am besten bewältigt werden?
Auch hier ist die größte Herausforderung die schon erwähnte zentrale Datenverfügbarkeit. Daten an mehreren Orten zu haben, bedeutet immer viel Aufwand und führt zu Unstimmigkeiten, ist also unzuverlässig. Die künftigen Services brauchen aber Verlässlichkeit und vor allem direkte Datennutzbarkeit, ihre Anbieter müssen darauf vertrauen können. Nur die zentrale Single Source of Truth kann dieses Vertrauen schaffen und damit echte Anwendungen datenbasierter Lösungen voranbringen.
Meinen Sie, dass die aktuelle Corona-Krise ein Umdenken bewirken wird, sodass die eingangs erwähnten Schlagworte Digitalisierung und digitaler Zwilling nicht nur in der Theorie gelebt werden?
Ich glaube, in Richtung Digitalisierung zu gehen, ist eine strategische Entscheidung, die mit der Entwicklung von Industrie und Technologie zu tun hat. Ein pandemisches Desaster mit einer Zeitspanne von ein bis zwei Jahren kann die Notwendigkeit der Digitalisierung betonen, würde aber keinen bedeutenden Einfluss auf grundlegende, Jahrzehnte gültige Unternehmensstrategien haben, wenn nicht weitere Gründe dafür sprächen. So spielt der Coronavirus der Digitalisierung „nur“ in die Hände.