Egal, ob Aerodynamik oder wasserabweisende Oberflächen: Im Grunde machen es so auch die Produktdesigner in anderen Bereichen und lernen von der Natur. Nur steht dabei in der Regel nicht der Mensch im Mittelpunkt. Anders bei NVIDIAs selbstfahrendem Auto. Der Wagen lernt, indem er dem menschlichen Fahrer zunächst auf die Finger schaut. Dafür wurden zunächst zwei Testfahrzeuge mit Kameras sowie zwei der hauseigenen Computersysteme Drive PX ausgestattet. Dann ging es ab auf die Straße.
Die Fahrstunde führte die Testautos innerhalb unterschiedlicher US-Staaten bei verschiedenen Wetterkonditionen über abwechslungsreiche Routen. 72 Stunden hat es gedauert, bis die Kameras eine ausreichende Massen an 3D-Daten gesammelt hatten und in GPU (Graphics Processing Units zu Deutsch Grafikprozessoren) gespeichert hatten. Dabei richteten die Techniker im Auto jeweils eine Kamera nach links, eine nach rechts und eine Linse fokussierte den vorderen Bereich. Darüber hinaus griff Drive PX die Daten vom Lenkrad ab.
Die Bilder mussten für das Drive-PX-System verständlich aufbereitet werden. Hier setzt NVIDIA auf Torch 7, ein Open-Source-Lernsystem für Maschinen. Dies zerlegte die pixelgenauen Daten in kleine Häppchen und übersetzte die Informationen für Drive PX. Das Resultat war ein autark agierendes Auto, in das der Fahrer beinahe nicht mehr eingreifen brauchte. In nur zwei von 100 Fällen war die Intervention des Menschen notwendig.
NVIDIAs Testfahrt mit Drive PX zeigt: Auch durch Zuschauen kann Technik lernen. Selbstfahrende Autos könnten also viel schneller massentauglich werden, als bisher angenommen. Sobald die Technologie ausgereift ist, sollen die NVIDIAs Smart Cars auf den Markt kommen. Ein entsprechender Wagen wird ab Werk mit je einer Kamera und Drive PX ausgerüstet. Ausführliche Fahrpraxis hat er dann aber bereits.