E&E:
Herr Schrader, welche Rolle spielt Simulation für das autonome Fahren?
Christian Schrader:
Autonome Fahrzeuge sind sehr komplex. Sie verfügen über verschiedene Sensoren, wie Kameras und Radar- und Lidarsysteme. Diese Mehrkanaligkeit soll sicherstellen, dass Umwelteinflüsse nicht eine bestimmte Kategorie von Sensoren stören und somit die Wahrnehmung des Fahrzeugs beeinträchtigen. Zu dieser Hardware kommt sehr viel Software hinzu. Zum Beispiel sind Kontrollprogramme notwendig, die die Wahrnehmungen kombinieren und deren Konsistenz überprüfen. Künstliche Intelligenz wertet die Daten aus und nimmt eine Reaktion vor. Das Zusammenspiel dieser Komponenten ist unglaublich kompliziert. Um dieser Komplexität Herr zu werden, bräuchte es Milliarden von Testkilometern, da extrem viele Situationen und Konstellationen von Faktoren durchgespielt werden müssen. Verkehrssituationen, Lichtbedingungen, Wetterlage – all solche Aspekte spielen dort eine Rolle. Die unzähligen möglichen Kombinationen und Wechselwirkungen dieser Faktoren lassen sich nicht alle real überprüfen. Das geht nur über Simulation.
Es geht somit nicht nur um die Simulation von einzelnen Komponenten, etwa der Hardware, sondern um die Zusammenführung der Einzelsysteme?
Exakt. Wir unterscheiden drei Ebenen. Zunächst wird der Sensor einzeln, praktisch im Vakuum, simuliert. Wie eine Kamera oder ein Radarsensor beispielsweise auf bestimmte Anregungen reagiert und welche Effekte sich in ihm ergeben. Diese Auswirkungen können dann verstärkt oder korrigiert werden. Die zweite Ebene ist die Installation im Fahrzeug. Je nachdem wo ein Radarsensor eingebaut und wie er ausgerichtet ist, kann das zu Interferenz- und Reflektionseffekten führen. Die dritte Ebene betrachtet dann die Gesamtperformance des Fahrzeugs unter Einbeziehung der Umgebung. Überprüft wird dabei das Zusammenspiel aller verbauter Sensoren, die sogenannte Sensorfusion, mit der Software und Umgebung.
Wie funktioniert Sensorfusion?
Die unterschiedlichen Sensoren liefern jeweils ihren Ausschnitt der Umgebungswahrnehmung. Eine Kamera liefert etwa ein 2D-Abbild der Fahrtrichtung. Mit Hilfe eines Mustererkennungsalgorithmus lassen sich darauf relevante Objekte identifizieren, wie Hindernisse und andere Verkehrsteilnehmer. Ein Radarempfänger gibt hingegen Rückmeldung über Objekte, die die Radarimpulse reflektieren. Die Aufgabe der Sensorfusion ist es, die visuellen Informationen der Kamera mit denen des Radarsensors in Bezug zu setzen und in Einklang zu bringen. Dadurch wird das System weniger fehleranfällig, weil zwei oder mehr gänzlich unterschiedliche Informationsquellen zur Verfügung stehen. Das sorgt für eine deutlich robustere und exaktere Wahrnehmung der vorliegenden Situation.
Welche Schwierigkeiten treten bei den verschiedenen Sensoren häufig auf?
Für Kameras ist direkte Sonneneinstrahlung ein Problem. Sie sorgt für Lens Flares oder gar White-Out-Effekte. Deshalb sollten sie nicht an Stellen platziert werden, an denen sie direkt der Sonne ausgesetzt sind. Gleichzeitig benötigen sie aber ein gutes Blickfeld, müssen also von außen zugänglich verbaut werden. Bei Radar und Lidar stellen Interferenz und Reflektion ein Problem dar. Sie können die Wahrnehmung verfälschen. Außerdem ist bei ihnen EMV-Interaktion mit anderen verbauten Bauteilen ein wichtiges Thema. Schließlich enthalten Fahrzeuge mittlerweile sehr viel Elektronik. Entscheidend ist bei allen aber noch ein weiteres Kriterium, nämlich die Verschmutzung. Es hilft schließlich nichts, wenn das System brillant funktioniert, aber nach zehn Fahrminuten die Sensoren wegen Schneefall, Schlamm oder Regen nicht mehr zu gebrauchen sind.
Besteht der größte Vorteil von Simulation in der schnelleren Entwicklung oder darin, dass sich damit viel einfacher sehr unterschiedliche Situationen und Einflüsse nachstellen lassen?
Beide Punkte sind wichtig. Sie lassen sich auch gar nicht so einfach voneinander trennen. Möchte man jede denkbare Situation nachstellen, müsste man wie gesagt Milliarden von Testkilometern zurücklegen. Das dauert Jahrzehnte. Indem die Simulation den Entwicklern die Möglichkeit gibt, diese unterschiedlichen Gegebenheiten nachzustellen, spart sie ihnen gleichzeitig sehr viel Zeit. Sie sind außerdem nicht an die Realzeit gebunden. Auch im Sommer sind damit beispielsweise Testfahrten im Schnee möglich.
Dient Simulation nur der Sicherstellung der korrekten Funktion?
Das ist nicht der einzige Aspekt. Nehmen wir als Beispiel eine Kamera. Dabei muss es sich nicht notwendigerweise um eine Kamera im optischen Spektrum handeln, auch im Infrarotbereich arbeitende sind denkbar. Sie fügen eine weitere Wahrnehmungsebene hinzu. Allerdings entstehen dadurch auch Kosten. Mit Simulation lässt sich validieren, welche Verbesserung sich durch das zusätzliche Kamerasystem ergeben. Ob es also ein gutes Kosten-Nutzen-Verhältnis bietet, oder nur ein paar Zehntel Prozentpunkte bringt.
Für akkurate Simulationen ist eine große Menge an Daten notwendig. Bieten Sie diese ebenfalls an oder müssen Ihre Kunden selbst über die Daten verfügen?
Wir bieten selbst keine Daten an, sondern integrieren unsere Programme in die Systeme der Nutzer. Es gibt verschiedene Tools auf dem Markt, die unsere Kunden nutzen, zum Beispiel SCANeR oder Carsim für die Strecken- und Verkehrssimulation. Außerdem arbeiten wir gerade mit der Firma Edge Case Research daran, die Bilddaten, die OEMs bei Testfahrten aufgenommen haben, in synthetische Daten zu konvertieren. Autos, Fußgänger, Straßen, Gebäude, Verkehrsschilder und andere Objekte werden dabei in ein 3D-Format überführt. Diese Modelle können dann in einer entsprechenden Simulations-Engine genutzt werden. Dadurch lassen sich verschiedene Situationen bei unterschiedlichem Licht, Straßenbelag und Wetter durchspielen.
Worin unterscheidet sich die Simulation von Hard- und Software?
Der große Unterschied ist, dass wir die Software gar nicht simulieren. Niemand möchte die Software simulieren. Tatsächlich wollen unsere Kunden die Software, die hinterher auf dem Steuergerät läuft, eins zu eins In-the-Loop testen und mit den herrschenden Umwelteinflüssen validieren. Dafür bieten wir die Scade Suite für die Entwicklung entsprechender Steuerungssoftware an. Damit ist modellbasierte Entwicklung von Steuergerätesoftware möglich. Das bedeutet, Ingenieure müssen nicht selber coden, sondern sie entwickeln entsprechend Modelle, die die benötigte Funktion repräsentieren. Diese liegt dann in einer Sprache vor, die dediziert für sicherheitskritische Anwendungen entworfen wurde. Sie ist gut reviewbar und lässt Probleme, die sich im Coding ergeben können, etwa Rekursionen oder Invalid-Memory-Accesses, gar nicht erst zu. Die erzeugten Scade-Modelle werden dann mit einem nach ISO 26262 qualifizierten Codegenerator in C-Code übersetzt.
Das bedeutet, die Software muss nicht einzeln geschrieben und danach getestet werden, sondern entsteht direkt während der Testphase des eigentlichen Systems?
Richtig. Die Entwickler erstellen ein Modell für ein bestimmtes Verhalten. Dafür erzeugt der Generator automatisch den entsprechenden Code. Dieser muss danach auch nicht mehr extra geprüft werden. Das bietet große Vorteile für unsere Kunden.
Wie genau das autonome Fahren in der Realität aussehen wird, ist aktuell noch vollkommen unklar. Gibt es dennoch Standards, auf die sich Entwickler stützen können?
Die ISO 26262 gibt an, welche Maßnahmen ergriffen werden müssen, um Defekte auszuschließen. Außerdem wird gerade eine Zusatznorm entwickelt, die sogenannte Safety of the Intended Functionality oder kurz SOTIF. Sie betrachtet genau die Aspekte, welche spezifisch für das autonome Fahren relevant sind. Schließlich müssen nicht nur die Einzelkomponenten korrekt arbeiten, sondern das Gesamtsystem ist entscheidend, damit das autonome Fahren sicher und komfortabel wird. Letzteres tritt gegenüber der Sicherheit oft in den Hintergrund. Es bringt aber nichts, wenn ein Fahrzeug Hindernisse korrekt erkennt und entsprechend bremst, also Unfälle vermeidet, sich dafür aber im Stotterschritt vorwärtsbewegt.
Wann werden die ersten vollautonomen Fahrzeuge auf den Straßen unterwegs sein?
Autos entsprechend dem SAE-Level 5 werden noch einige Zeit auf sich warten lassen. Als ersten kommen wahrscheinlich autonome Lkw. Diese werden dann in Kolonnen auf Autobahnen unterwegs sein. Dort sind der Straßenverkehr und die Umgebung am uniformsten und besten definiert. Es gibt keinen Querverkehr und keine Fußgänger. Die Verkehrsteilnehmer bewegen sich relativ gleichmäßig dahin. Natürlich existieren auch hier Ausreißer, wie Fahrzeuge, die mit 200 km/h unterwegs sind. Aber in der Regel verläuft alles in recht geregelten Bahnen. Stadtverkehr ist hingegen ungleich heterogener und deshalb komplexer. Parkende Autos, Kinder, Tiere – überall lauern potenzielle Gefahren. Das ist definitiv die Krone des autonomen Fahrens und wird deshalb erst ganz zum Schluss kommen.