Embedded Vision ist in den letzten Jahren unglaublich gewachsen. Was sehen sie als Hauptgrund dafür?
Schaarschmidt:
Einer der Hauptgründe ist der Versuch, in der Applikation kompakter und bei entsprechenden Stückzahlen in der Produktion günstiger zu werden. Deep Learning sowie deutlich schnellere und günstige Embedded Boards sind Treiber dieser Entwicklung.
Was versteht SVS-Vistek unter Embedded Vision?
Waizmann:
Generell ist eine Embedded Entwicklung immer sehr nah an der meist spezialisierten Hardware und entsprechend in der Entwicklung aufwändig. Wir helfen unseren Kunden, indem wir den Vision-Teil der Hard- und Software sehr kompakt machen. Wir fassen die Steuerung von Licht, Objektiv und Kamera zusammen und bedienen alles über ein Interface. Anstelle dreier Hardwarekästen mit eigenen SDK's, die verkabelt und programmiert werden müssen, haben wir nur noch unsere Kamera als Master des Bildeinzugs. Mit der Kamera wird über GenICam gesprochen und so das Licht und Objektiv gesteuert. Wir bieten also nicht eine „Embeddisierung“ im Sinne von Spezialhardware, sondern eher durch die Komprimierung des Vision-Teils. Der vereinfachte Zugriff erfolgt dann über GenTL und Standard-Schnittstellen.
Sollte bei Embedded Vision mehr standardisiert sein?
Waizmann:
Die Frage ist, ob eine Standardisierung überhaupt geht. Embedded Vision hat immer davon gelebt, auf die Anwendung zugeschnitten zu sein. Es ist eine Spezialanfertigung und so etwas kann schwer standardisiert werden. Dennoch bieten wir genau das: Standards im Bereich Vision.
Welcher Standard setzt sich bei der Bildverarbeitung in Zukunft durch?
Schaarschmidt:
Das ist ganz eindeutig GenICam! Dieser wurde entwickelt, um mit einer Kamera zu sprechen und diese zu steuern. GenICam funktioniert bei vielen für Embedded Boards typischen Kameras nicht, daraus resultiert ein signifikanter Entwicklungsaufwand. Standards bilden den Unterschied zwischen einhundert Ingenieursstunden und einem halben „Mannjahr“ Entwicklungszeit. Hierbei müssen einerseits die Hardware-Standards, andererseits die Software-Standards beachtet werden. Speziell für die herstellerunabhängige Bild-Akquisition bieten wir zudem einen GenTL-Treiber an.
Was genau macht der GenTL?
Schaarschmidt:
GenTL ist ein auf GenICam basierender Transport Layer, ein einheitlicher Standard, mit dem Kamerabilder in die Applikation eingezogen werden können. Dieses fertige Modul ist für die Einbindung in beliebige Applikationen gedacht. GenTL dient lediglich als Schnittstelle für die Kamera. So kann ein Kamerabild eingezogen und übergeordnet durch die GenICam-Schnittstelle gesteuert werden.
Wie positionieren sie sich mit ihren Industriekameras?
Waizmann:
SVS-Vistek befindet sich im mittleren- bis High-End-Leistungssegment, mit Auflösungen bis zu 151 Megapixel (MP). Eine sehr gute Auflösung und Bildqualität bei hohen Geschwindigkeiten, aber auch optische Komponenten, wie Objektive und Beleuchtungen in der jeweiligen Applikation, gehören zu unseren Stärken. Viele Serienkameras modifizieren wir gemäß Kundenspezifikation. Die Embedded-Anwendungen unserer Kunden arbeiten meist mit Auflösungen von 2-20 MP. Mit unserer Erfahrung können wir Lösungswege aufzeigen oder fertige Lösungen vorschlagen. Unsere Produkte laufen oft in anspruchsvollen Nischen, die sich jeden Tag aufs Neue ergeben.
Wird ihrer Meinung nach die Hardware mittlerweile sogar wichtiger als die Software?
Schaarschmidt:
Findet eine Weiterentwicklung der Software statt, muss auch die Hardware mehr leisten können. Wenn die Ansprüche an die Aufgabe wachsen, wachsen auch die Ansprüche an die Software und Hardware. Streckenweise besteht Gleichstand, mal ist das Eine vorne, dann wieder das Andere. Ein Beispiel: Die SVS-Kameras prüfen in der Produktion eines Smartphones jedes einzelne Bildschirmpixel auf seine Farbrichtigkeit, Helligkeit und vieles mehr. Das wurde vor 10 Jahren auch schon gemacht, nur mit weniger Pixeln und in Schwarz-Weiß.
Im Zusammenhang mit EV fällt auch oftmals der Begriff KI, ist diese wirklich wichtig für den Prozess?
Waizmann:
Für KI gibt es in der Industrie tatsächlich immer mehr Anwendungsfälle und viele Aufgaben lassen sich damit auch leichter lösen. Betrachten wir als Beispiel einen Hersteller von Stoffen, der eine Applikation programmieren muss, die die Qualität dieser Stoffe sicherstellt. Angenommen die Stoffe haben alle unterschiedliche Muster, dann gestaltet es sich als schwierig, eine Standardapplikation ohne KI zu programmieren. Bei Stoffmustern kann das zur schieren Verzweiflung führen. Die KI bietet dafür innovative Ansätze. Denn der KI kann beigebracht werden, wie der Stoff und sein Muster aussehen. Damit können auch musterreiche Stoffe begutachtet und auf Webfehler, Farbfehler und Risse kontrolliert werden. Diese Kontrolle erfolgt auf Grundlage der von der KI zuvor erlernten möglichen Abweichungen. Hierfür wird ein sogenannter Klassifikator erstellt, der die genauen Spezifikationen in der Bildaufnahmephase vornimmt. Er sagt dem System was gut, noch akzeptabel und schlecht ist. Das System trainiert und wird mit der Zeit besser. Es ist jedoch ein großer Aufwand, dem System beizubringen, wie es zu bewerten hat.