Im Mittelpunkt der Veranstaltung „Dine & Discover“ von Magic Software standen praktische Lösungsansätze, die mittelständische produzierende Unternehmen auf ihrem Weg zur digitalen Transformation und beim Erreichen von Operational Excellence unterstützen sollen. Frank Schuberth vom Fraunhofer IGCV, Fachreferent für KI und Big Data in der Produktion, konnte neben seinem Vortrag auch im Interview Einblicke in die digitale Transformation, Industrie 4.0 und KI vermitteln.
Herr Schuberth, welche Berührungsängste erleben Sie in Unternehmen, wenn es um die digitale Transformation geht?
Für Unternehmen ist es schwierig, das ganze Thema Digitalisierung zu fassen. Jeder hat davon gehört, manche haben auch schon die ersten Erfahrungen gesammelt. Aber was ist wirklich der konkrete Nutzen? Was sind die Herausforderungen oder welche Defizite hat man vielleicht noch? Wie verkauft man es dem Management? Wie leitet man Nutzen ab? Das sind die Fragestellungen, zu denen es Unsicherheit gibt und die zu gewissen Berührungsängsten führen.
Welche Rolle spielen jeweils Data Scientist, den Prozess- und IT-Experten und was ist entscheidend für eine effiziente Umsetzung digitaler Transformation?
Die größte Herausforderung beim Angehen von Big Data und KI-Projekten sind die ersten Schritte: Welche Daten liegen vor? Man muss diese sammeln, eine Zielgröße definieren und den Nutzen ableiten. Dafür sind verschiedene Stakeholder notwendig.
Zum einen der IT-Experte, der natürlich den Zugriff auf die Daten hat und diese zur Verfügung stellen kann. Dann der Prozess-Experte, der das notwendige Know-How hat. Und letztendlich natürlich der Data-Scientist oder der Data-Analyst, der das notwendige Wissen für die Algorithmen hat. Diese drei müssen zusammenspielen, um die nötigen Voraussetzungen für eine Analyse zu erfüllen.
Welche praktische Herangehensweise empfehlen Sie mittelständischen Unternehmen für den Start von Digitaler Transformation, Industrie 4.0 und KI?
Als praktische Herangehensweise empfiehlt es sich, erst mal kleine Schritte zu wählen. Am besten man sucht sich einen sogenannten „quick win“, bei dem die Laufzeit voraussichtlich nicht besonders lang ist und man sich aber schon mal intensiv mit den Daten beschäftigen muss: Datensilos aufbrechen, Daten sammeln, zusammenbringen und damit als „quick win“ vielleicht ein Dashboard füllen, das die Visualisierung der Daten und Prozesse ermöglicht. Darauf aufbauend kann man dann die nächsten Schritte angehen.
Welche Rolle spielen Datenverfügbarkeit und Echtzeit-Datenanalyse für eine erfolgreiche Industrie 4.0?
Natürlich muss man den aktuellen Status des Unternehmens berücksichtigen. Große Firmen haben schon eigene spezialisierte Big Data Abteilungen, sind also schon weiter und können dann die nächsten Schritte einläuten; während kleinere Firmen meistens noch die ersten Schritte planen müssen und sich erst mal mit dem Thema Daten intensiv auseinandersetzen müssen.
Daten sind natürlich das Schlüsselelement im Rahmen von Industrie 4.0 oder auch Big Data. Wenn die Datenqualität nicht stimmt, nicht ausreichend Daten vorhanden sind oder die Daten für den Anwendungsfall einfach nicht geeignet sind, kann man damit natürlich keine zielgerichtete Analyse fahren. Man muss sich also zuerst intensiv mit dem Datenbestand auseinandersetzen.
Die Datensilos oder die Datenlakes, je nachdem, wie die Daten gespeichert sind, analysieren und Defizite identifizieren. Vielleicht muss man auch bestimmte Versuche fahren, um noch mehr Daten zu integrieren und somit die vorgegebenen Zielgrößen besser analysieren zu können.
Wie ordnen Sie die Magic Integrationslösungen in diesem Umfeld ein?
Wir von Fraunhofer sind natürlich kein klassischer Industriebetrieb. Wir kommen aus der Forschung und sind deswegen besonders interessiert, was auf dem KMU-Markt passiert. Was die Herausforderung und was die Lösungen im Rahmen der Software und der Digitalisierung sind. Daher sind wir sehr froh, mit der Lösung von Magic in Kontakt zu kommen und zu sehen, was die nächsten gemeinsamen Schritte sein können und wie wir dazu beitragen können.