Zu den Funktionalitäten gehören beispielsweise Bild- und Videodatenverarbeitung für visuelle Inspektion, Qualitätssicherung, Predictive Maintenance, Sortierung oder Objekterkennung, als stand-alone Gerät oder Gateway.
Direkt im Schaltschrank unterbringen
Mit der integrierten Google-Coral-Edge-TPU (Tensor Processing Acceleration Unit) mit bis zu 4 TOPS (trillion operations per second) erhöht sich die Geschwindigkeit gegenüber Anwendungen mit einfachen USB-Kameras ohne TPU um ein Vielfaches. Zudem unterstützt die TPU Small- und Low Power-Applikationen und benötigt nur ein Watt für zwei TOPS.
Anders als bei der Kontron AI-Plattform basierend auf dem NXP i.MX8M, die als Boardprodukt verfügbar ist, kann die KBox A-203-AI-GC ohne weitere Vorbereitung direkt im Schaltschrank untergebracht oder an eine Maschine gehängt werden. Die Gateway-Lösung basiert auf dem bewährten KBox-A-203-System, das in der Praxis für das Sammeln, Aufbereiten und Verteilen von Sensordaten genutzt wird.
Es vernetzt unterschiedliche Endgeräte und sorgt für die reibungslose und sichere Übertragung in eine übergeordnete Server-Infrastruktur. Mit dem AI-Beschleuniger können nun auch zusätzlich visuelle Informationen mit verarbeitet werden. Als Schnittstellen stehen zwei Front-USB-3.0-Ports zur Verfügung, Anschlüsse für Displays, zweimal GB-Ethernet und ein industrial 24 VDC Power Input. Hinzu kommen serielle Schnittstellen und eine Feldbus-Option.
Schnell eigene Software-Lösungen entwickeln
Im Umfeld von Deep Learning kommt es vor allem auf die enge konzeptionelle Verbindung von Hardware und Software an, um rechenintensive Aufgaben optimal zu lösen. Die AI-Plattform läuft auf Debian Linux, ist kompatibel zu TensorFlow Lite und schon mit Applikationsbeispielen ausgestattet.
Anwender können so von Anfang an vom breiten Anwendungsangebot der Google-AI profitieren. Auf dieser Basis lassen sich rasch und intuitiv eigene Software-Lösungen mit kurzer Time-to-Market entwickeln, die auf vortrainierten Modellen für den jeweiligen Anwendungsfall aufbauen.