Seit der Hersteller Adlink im vergangenen Jahr die Zusammenarbeit mit Nvidia als Jetson Preferred Partner besiegelt hat, wurden bereits etliche spezialisierte Controller und Systeme mit hoher Rechenleistung für KI-Anwendungen und maschinelles Lernen entwickelt. Dazu gehört auch der EOS-J mit integriertem Jetson-TX2-Chip und wahlweise vier Schnittstellen GigE oder USB-3.0 für den Anschluss von Kameras oder Frame-Grabbern.
Schnelle Entscheidungen durch Vision Computing
Verglichen mit dem sonst oft bevorzugten Cloud Computing ist das Edge Computing im industriellen Umfeld oft die effizientere Architektur. Denn die KI-Entscheidungen müssen direkt an der Maschine, am Roboter oder am autonomen Fahrzeug getroffen werden, also „on the edge“. Abhängig vom geplanten Einsatz ist dann die Datenkommunikation mit der Cloud weniger zweckmäßig.
Aktuelle Entwicklungstrends wie autonomes Fahren und Robotikanwendungen zeigen dies deutlich beim Thema Vision Computing. In beiden Fällen sind „Sehen“ und „Erkennen“ die wichtigsten Voraussetzungen für schnelle Entscheidungen vor Ort. Maschinelles Lernen und Deep Learning als Verfahren verbessern die Qualitätskontrolle mit optischer Inspektion, klassifizieren Fehler und ermöglichen Voraussagen und Trendentwicklungen bei der Maschinendiagnose.
Die jetzt von Acceed vorgestellten beiden Modelle des neuen Vision-Systems EOS-J unterscheiden sich nur durch ihre jeweils vier Kameraanschlüsse des Typs GigE oder USB 3.0. Kernelement des EOS-J ist der integrierte Jetson-TX2-Chip, der zusammen mit Kameras oder Frame Grabbern und den 32 isolierten industriegerechten IO-Schnittstellen ein kompaktes System bildet, das für den Einsatz im Edge Computing entwickelt ist.
Schnelle Verarbeitung von Bilddaten
Voraussetzung für das Vision Computing ist die schnelle und effiziente Verarbeitung von Bilddaten mit einem entsprechend leistungsstarken Grafikprozessor. Der EOS-J ist mit einer Quadro-GPU mit Pascal-Architektur von Nvidia ausgestattet. Die Cortex-A57-Prozessoren von ARM 256 CUDA Cores unterstützen robustes Deep Learning und Inferenz-Anwendungen. Das System ist damit für die Anforderungen vorbereitet, wie sie beispielsweise für die Fehlerinspektion oder die Objektklassifizierung in Fertigungsumgebungen formuliert sind.
Die Entwicklung anwendungsspezifischer Bildverarbeitungslösungen wird durch neuronale Modelle, die mit Tools von Nvidia (Digits oder TensorRT) verbessert wurden, erleichtert. Solche Entwicklungen lassen sich direkt auf dem EOS-J einsetzten. Ein Gigabit-Ethernet-Anschluss und zwei Kommunikationsanschlüsse sowie ein HDMI-Ausgang unterstützen die Integration im Feld. Als Betriebssystem ist Ubuntu vorgesehen.