Anwendungen im Bereich der Künstlichen Intelligenz (KI) gewinnen in fast allen Branchen zunehmend an Bedeutung. Beispiele finden sich in den Bereichen Automatisierung, Energiewirtschaft, Pharmazie und Gesundheitswesen. In Letzterem kann die KI beispielsweise den Zeitdruck in Prävention, Diagnose und Therapie mindern, da sich in kurzer Zeit riesige Datenmengen strukturieren und analysieren lassen.
Leistungsfähige Hard- und Softwarekomponenten sind unerlässlich, damit KI-Lösungen ihre Rolle als systemkritische Anwendungen in jeder Branche erfüllen können. Die Systeme müssen Terabytes von Daten in sehr kurzer Zeit bearbeiten. Diese Arbeit stützt sich bis zu einem gewissen Grad auf Hochleistungs-CPUs, aber die kritische Parallelverarbeitung wird von Graphics Processing Units (GPUs) geleistet, die die notwendige Rechenleistung für Deep Learning, Machine Learning und Inferencing bereitstellen.
Einsatz in leistungsstarkem Rackmount-Server
Kontron setzt in seinen Plattformen die GPUs von Nvidia ein, zum Beispiel im Rackmount-Server Kiss V3 4U SKX-AI. Dabei handelt es sich um den derzeit leistungsstärksten Rackmount-Server des Unternehmens. Der skalierbare Server ist mit zwei CPUs der Intel-Xeon-SP-Serie ausgestattet, die sich mit zwölf DIMM-DDR4-2666-Modulen und bis zu 768 GB System-RAM mit ECC-Unterstützung erweitern lassen.
Bis zu drei High-End-Grafikkarten mit doppelter Breite (zum Beispiel Nvidia V100 oder Nvidia T4 GPU) sorgen dabei für die hohe Grafikprozessor-Leistung, die für KI-Anwendungen unerlässlich ist. Die Nvidia V100 Tensor Core GPU basiert auf der Volta-Architektur und bietet 640 Tensor Cores und 5.120 CUDA Cores mit einer Double Precision Performance von 7 TeraFLOPS.
Die GPUs führen das parallele Multitasking aus, das etwa für das Rendern von Grafiken oder für das effiziente Training und Inferenzieren von neuronalen Netzwerken erforderlich ist. Für die Softwareentwicklung können Anwender Nvidias CUDA-Toolkit einsetzen.