Noch vor zwei Jahren war die kognitive visuelle Inspektion ein sehr akademisches Thema. Data Scientists wurden auf Unternehmensseite vorausgesetzt, um die hochkomplexen neuronalen Netzwerke eines Modells zur Bildprüfung hausintern aufsetzen und trainieren zu können.
Zudem musste die jeweilige kundenspezifische Lösung aufwendig in die Produktionsstraßen integriert werden. Alles Faktoren, die dem Thema in der Praxis eher wenig Attraktivität verliehen, und dass trotz der stetig steigenden Qualitätsanforderungen in der Fertigung. Schließlich müssen Unternehmen darauf vertrauen können, ihre Produkte mit einer Null-Fehler-Toleranz produzieren zu können. Selbst dann, wenn mehr Flexibilität gefordert ist und sich die Produktionsmengen hin zur Losgröße 1 bewegen.
Der technologische Fortschritt sorgt jedoch auch im Bereich der Qualitätsprüfung durch kognitive visuelle Inspektion für eine Zeitenwende. Vor allem in den letzten Jahren hat sich einiges rund um den Einsatz des Edge Computing für die visuelle Inspektion an der Fertigungsstraße getan. Mittlerweile ist die Fertigungslösung deutlich praxisorientierter, sodass heute beinahe auf Knopfdruck spezialisierte Lösungen spielend einfach zu implementieren sind.
Visuelle Inspektion
Die visuelle Inspektion zu automatisieren ist in Zeiten von Industrie 4.0 naheliegend. Ein Algorithmus wird zur Mustererkennung soweit getestet und trainiert, um direkt an der Fertigungsstraße nicht nur das menschliche Auge zu unterstützen, sondern auch visuelle Details wie Farbschattierungen oder feinste Risse zu erkennen, die dem Auge schnell entgehen können – vor allem bei längerem Einsatz. So weit, so gut. Die Herausforderung in der Praxis war bislang, das aufgesetzte Modell auch am Einsatzort zu implementieren.
Noch vor wenigen Jahren musste die Anlagenumgebung aufwendig umgebaut und statisch so angepasst werden, dass standardisierte und leichter auswertbare Bilder entstehen konnten. Auch wurden traditionelle Ansätze noch manuell entwickelt, wodurch sie anwendungsabhängig waren und sich nicht auf neue Anwendungen ausweiten ließen.
Diese traditionellen Ansätze litten somit in der Regel unter mangelnder Flexibilität, sehr begrenzten Möglichkeiten zur Skalierung und erforderten oft kostenintensive und zeitaufwändige manuelle Anwendungsentwicklung durch Experten aus bestimmten Fachgebieten. Viele Unternehmen scheuten sich bei diesen aufwendigen Aussichten für die Implementierung der Automation in der Bilderverarbeitung, den Schritt zu wagen.
Heutzutage ist die Implementierung vereinfacht worden, zusätzliche Produkte, Oberflächen sowie Integrationsmöglichkeiten sind hinzugekommen. Vor allem lässt sich die visuelle Inspektion nun in kontinuierliche Kundenprozesse integrieren – dabei spielt KI eine ausschlaggebende Rolle. Das Modell kann nun zentral aufgesetzt, vortrainiert und so bereits standardisiert verfügbar gemacht werden. Ein Qualitätsprüfer vor Ort hat nun ebenfalls die Möglichkeit, neue Muster und Bilder in das Modell zu pflegen.
Was ist mit KI nun anders?
Der Zyklus der kognitiven visuellen Inspektion lässt sich weiterhin in drei Phasen herunterbrechen:
Schritt eins ist das zentrale Trainieren des Modells in der Cloud: In dieser Phase werden die Qualitätsstandards definiert. Zwar benötigt der Trainingsprozess weiterhin eine hohe Datenmasse und dementsprechend auch Ressourcen. Dank des KI-Einsatzes wurde diese Phase nun im Vergleich aber deutlich vereinfacht. Das KI-Modell zur kognitiven visuellen Inspektion benötigt im ersten Schritt nur einen Bruchteil der eigentlich nötigen Trainingsbilder, um bereits solide Ergebnisse zu erzielen. Vor allem Nuancen, Schattierungen, kleinste Mikro-Risse oder feinste Unregelmäßigkeiten, die das menschliche Auge nicht mehr wahrnehmen kann, können bei der Produktqualität erhebliche Unterschiede machen.
Ist das initiale Modell auf die visuelle Erkennung der Fehler vortrainiert, so kommt es im zweiten Schritt bereits zur Implementierung in der Fertigung. Das Modell wird via standardisierten Software-Containern an die Maschinen gebracht, sprich, die dezentrale Bilderverarbeitung wird „on the edge“ eingesetzt und bei Bedarf breit ausgerollt. Die richtige Hardware als geeignete Edge-Geräte, die an der Netzwerk-Peripherie ins Spiel kommen, sind mittlerweile extrem leistungsstark und hochspezialisiert. So werden die kleinen Grafikprozessoren als System-on-Module-Produkte wie beispielsweise der Nvidia Jetson Nano eingesetzt, mit dem mehrere neuronale Netzwerke für KI-Anwendungen zusammengeschaltet werden können. Der Jetson Nano kann in wenigen Watt eine halbe Billion Operationen pro Sekunde (TOPS) in der Verarbeitung für Aufgaben wie der Bilderkennung bereitstellen, ohne, dass eine Rechenleistung über die Cloud laufen muss.
Das Nachtrainieren des Modells bildet den dritten Schritt und macht die KI-gestützte visuelle Inspektion deutlich flexibler. Das Modell kann jederzeit zentral und vom geschulten Qualitätsprüfer vor Ort nachjustiert und nachtrainiert werden, um eine noch höhere Qualität durch höhere Treffsicherheit zu erreichen. Die vortrainierten Modelle sind heutzutage schon soweit elaboriert, dass die groben Parameter nicht weiter angepasst werden müssen, was dazu führt, dass kein Data Scientist mehr Voraussetzung ist. Allein durch die Bereitstellung von weiterem Bildmaterial, wird der Qualitätsmanager in die Lage versetzt, das Modell selbstständig weitertrainieren zu können.
Zudem müssen Produktionsanlagen nicht mehr zeitaufwendig und kostenintensiv umgebaut werden, um von den Vorteilen der kognitiven visuellen Inspektion zu profitieren. Eine Implementierung der KI-Anwendung in die vorhandene Fertigungsstruktur ist dank der neuen System-on-Module-Geräte nun schneller und einfacher zu realisieren.
Skalierbarkeit ist untertrieben
Mehr Effizienz in den drei Stufen ist aber längst nicht alles, denn der eigentliche Clou folgt erst noch: Ist das vortrainierte Modell erstmal aufgesetzt, so ist es nicht nur spezifisch für eine Anlage anwendbar, sondern kann nach Bedarf auf alle unternehmensweiten Anlagen ausgerollt werden, ganz gleich wo sich diese weltweit befinden.
Die Software ist dank der neuen autonomen Verwaltungslösung, dem IBM Edge Application Manager, zentral steuerbar. Dieser dient der Bereitstellung und Fernverwaltung von KI-, Analyse- und IoT-Workloads und liefert die Analysen und Einblicke in Echtzeit und in großem Maßstab. Die Lösung ermöglicht die gleichzeitige Verwaltung von bis zu 10.000 Edge-Knoten durch einen einzigen Administrator und basiert auf dem Open-Source-Projekt Open Horizon.
Das Verwaltungs-Rahmenwerk Open Horizon Framework von IBM zielt darauf ab, zentralisiert und kontrollierbar abgesicherte, dedizierte Workloads auf bestimmte Edge-Geräte im großen Stil verteilen zu können. So wird bereits einer einzigen Person die sichere, zentralisierte und vereinfachte Verwaltung eines umfangreichen Netzwerks von Edge-Geräten ermöglicht.
Nicht nur in der Produktion, in der ein klarer Trend zur Losgröße 1 besteht, sondern beispielsweise auch in der Erstellung von Gutachten, etwa bei unterschiedlichsten Lackschäden bei KFZ-Prüfstellen, kann mit der kognitiven visuellen Inspektion mithilfe von KI und Edge Computing automatisiert werden. Hier eignet sich die neue Flexibilität der kognitiven visuellen Inspektion dank KI besonders.
Ausblick mit 5G
Um intelligente Bildverarbeitungslösungen vollständig nutzen zu können, braucht es also mehr als Kameras und Sensoren. Die Software sowie die entsprechende Systeminfrastruktur sind mindestens genauso wichtig, wenn sie nicht sogar der Schlüssel zum reibungslosen Funktionieren der Algorithmen sind. Sensible Qualitätsprozesse über das Cloud Computing laufen zu lassen, ist möglich, macht es aber gerade in der Produktion stark von einer Internetverbindung abhängig. In der Praxis sind Disconnected-Edge-Architekturen noch in vielen Fällen nicht vorbreitet, bieten aber ein hohes Potenzial, unkompliziert, flexibel und kostengünstiger die KI in der visuellen Inspektion einzusetzen.
Laut einer Gartner-Studie aus 2018 werden zurzeit 10 Prozent der Daten on the edge verarbeitet, eine Zahl, die bis 2025 voraussichtlich auf 75 Prozent ansteigen wird, was das Wachstum und das Potenzial dieser neuen Technologie verdeutlicht. Zukünftig wird die Rolle der Edge-Kompetenten in einem Funkstandard wie 5G einen ganz eigenen Stellenwert haben. In der Spezifikation des Standards ist vorgesehen, dass an den jeweiligen physischen Stationen im Netzwerk Rechenknoten mit unterschiedlicher Rechenkapazität vorhanden sind, über die bestimmte Lasten bereits lokal abgearbeitet werden können.
5G ist dabei komplementär zu IBMs Open Horizon Framework zu betrachten: Während 5G die dezentrale Rechenkapazität spezifiziert, gibt das Open Horizon Framework an, welche Workloads die jeweiligen Komponenten leisten sollen.
Zentrale Verwaltungslösungen wie IBM Edge Application Manager oder das Open Horizon Framework gemeinsam mit hochfunktionalen leistungsstarken „kleinen Kisten“ wie dem Jetson Nano sowie ausgereiften Funkstandards wie 5G lassen das Edge Computing in der Produktion zur zukünftigen Realität werden. Schließlich steigern sie die Attraktivität bestimmter Anwendungen wie der kognitiven visuellen Inspektion deutlich. Und wer weiß – was heute die KI-gestützte visuelle Inspektion ist, kann morgen schon die gesamte Produktion á la Smart Factory on the Edge sein.