Bis zur Straßentauglichkeit autonomer Mobilitätskonzepte müssen noch zahlreiche rechtliche, infrastrukturelle und technische Herausforderungen geklärt werden, wie etwa Fragen der Fahr- sowie der Datensicherheit. Fahrzeuge sollen in Zukunft alle möglichen Verkehrsszenarien beherrschen, und dies überall auf der Welt. Die Systeme müssen daher in Zukunft nicht nur verkehrssicher, sondern auch datensicher entwickelt sein, um mögliche Cyber-Angriffe abwehren zu können.
Um Fahrzeugführer dazu zu bewegen, die Kontrolle über ihr Vehikel abzugeben, müssen diese absolutes Vertrauen in das System für autonomes Fahren haben. Dieses Vertrauen speist sich aus der Sicherheit der Systeme und ihrer Fähigkeit, das Verkehrsgeschehen um sie herum vollständig erfassen, analysieren und in Echtzeit angemessen darauf reagieren zu können. In diesem Zusammenhang spielt die Art und Weise der Informationsgewinnung im laufenden Verkehr durch Sensoren eine entscheidende Rolle.
Fusion von Sensortechnologie
Den ersten Schritt zur Unterstützung von Fahrern haben Fahrerassistenzsysteme (ADAS = Advanced Driver Assistant System) bereits geliefert. Es gibt allerdings noch immer Debatten darüber, welche Art von Sensoren am besten für diese Systeme geeignet sind.
Zwar gibt es jeweils viele Befürworter von singulären Radar-, Lidar- und Kamerasensoren, doch es besteht ein wachsender Konsens darüber, dass sich letztendlich eine Kombination oder Fusion verschiedener Sensortechnologien durchsetzen wird. Die Datenzusammenführung erhöht nicht nur die Intelligenz der Systeme, sondern sorgt durch redundante Datenerfassung auch für mehr Sicherheit, falls es je zu Systemstörungen oder -ausfällen kommen sollte.
ADAS-Lösungen umfassen in der Regel eine Mischung aus mehreren Standard-Sicherheitsfunktionen, darunter Spurhalteassistent, Warnung vor Front- und Heckaufprall sowie Toter-Winkel-Erkennung. Hardwareseitig arbeiten Anbieter hier etwa mit FOV-40-Grad-Kameras (FOV = Field of View) aus dem Automobilbereich, die an ein Computer-Vision-System angeschlossen sind.
Neben der Bereitstellung zusätzlicher Funktionen, wie der dynamischen Erkennung bewegter Objekte sowie Lösungen zur Fahrerüberwachung, aktualisieren und verbessern Anbieter auch die KI-Algorithmen, die auf der Software-Ebene solche Funktionen unterstützen.
Ergänzung von ADAS-Systemen
Eine weitere Option, mit der die Genauigkeit der Systemlösungen verbessert werden kann, ist die Erweiterung der ADAS-Lösung um Radarsensoren im Zusammenspiel mit einer Technologie, die Daten von verschiedenen Sensortypen zusammenführt.
Bei Radar handelt es sich um eine ausgereifte Technologie, die es bereits vor dem Zweiten Weltkrieg gab und die einige Vorteile mit sich bringt. Bei der Technologie werden zunächst Radiowellen auf ein Ziel gerichtet und dann die Frequenz der Wellenreflexionen gemessen, um die Entfernung und Geschwindigkeit des Zielobjekts zu berechnen. Auf diese Weise kann ein mit Radar ausgestattetes Fahrzeug andere Fahrzeuge, Fußgänger oder Objekte auf der Straße erkennen und feststellen, wie weit sie entfernt sind und wie schnell sie sich bewegen.
Das liefert exakt die Daten, die für eine genaue Frontal-Kollisionswarnung (FCW/Forward Collision Warning) erforderlich sind. Das Problem mit Radarsystemen ist jedoch, dass sie dazu neigen, alles innerhalb ihres spezifischen Sichtfeldes oder ihrer Reichweite zu erfassen, einschließlich Bäumen, Gebäuden und sogar Grashalmen neben der Straße.
An dieser Stelle kommen Lösungen wie etwa das „VIA Mobile360 Sense“ System zum Zuge, die Daten verschiedener Sensortypen kombinieren und quasi vervollständigen können. Bei diesem System verwendet die an der Fahrzeugvorderseite angebrachte FOV-40-Grad-Kamera Objekterkennungsalgorithmen, die dem Radar helfen, sich nur auf Objekte zu konzentrieren, die für die Fahrsicherheit von Bedeutung sind (Autos, Lastwagen, Fußgänger usw.). Die Kamera erkennt das Zielobjekt und ermöglicht es dem Radar dann, Entfernung und Geschwindigkeit genau zu berechnen.
KI zur Unterstützung von Assistenzsystemen
Erwähnenswert ist auch, dass die Kameras KI-Algorithmen verwenden, um die Fahrspur zu erkennen, in welcher das Fahrzeug fährt. Dadurch kann das System Spurhalteassistenten (LDW = Lane Departure Warning) einsetzen, die den Fahrer warnen, wenn er aus der Fahrspur gerät, zum Beispiel aufgrund von Müdigkeit oder Ablenkung.
Der hierfür notwendige Radarsensor kann beispielsweise über der Stoßstange an der Vorderseite des Autos angebracht werden. Er kann im Nahbereichsmodus konfiguriert werden, was eine effektive Objekterfassung in Entfernungen von bis zu 60 Metern bei einem Sichtfeld von 90 Grad ermöglicht. Alternativ kann das Radarsystem im Langstreckenmodus konfiguriert werden, was eine Objekterfassung bis zu einer Entfernung von 127 Metern mit einem schmaleren Sichtfeld (FOV) von 20 Grad ermöglicht.
Verbesserter Annäherungswahrnehmung durch Ultraschall
Neben der Verbesserung von ADAS-Systemen mithilfe von Radarsensoren, bietet sich zudem die Möglichkeit, die Kameras von Fahrerassistenzsystemen mit Ultraschall-Näherungssensoren zu ergänzen, um eine 360-Grad-Rundum-Ansicht mit verbesserter Annäherungswahrnehmung zu erreichen. Auch hier geht es darum, die Sensordaten aus zwei Quellen zu integrieren, um dem System eine verbesserte „Intelligenz“ und ein klareres Bild von dem zu geben, was im Umfeld geschieht.
Surround View Systeme umfassen in der Regel mehrere FOV 190-Grad-Kameras, die auf jeder Seite des Fahrzeugs positioniert und beispielsweise über FAKRA-Kabel mit dem Computer-Vision-System verbunden sind. Mithilfe einer besonderen Bildverarbeitungstechnologie können die Aufnahmen der Kameras dann zusammengefügt werden, um eine einheitliche und klare Panoramasicht des Fahrzeugs von oben zu erhalten.
Diese Ansicht kann dem Fahrer dann etwa in Echtzeit über ein robustes, im Fahrzeug montiertes Display angezeigt werden. Die Fähigkeit, alle vier Seitenbereiche des Fahrzeugs einsehen zu können, ist natürlich nützlich, wenn man rückwärts um eine Kurve fährt oder andere komplizierte Fahrmanöver durchführt.
Aber in Wirklichkeit sind die Aufmerksamkeit und der Fokus des Fahrers die meiste Zeit auf die vor ihm liegende Straße gerichtet. Aus diesem Grund können akustische oder optische Abstandswarnungen eine sehr wichtige Nebenrolle bei der Vermeidung von Unfällen und Kollisionen spielen.
Ultraschallsensoren verwenden Schallwellen, die mit hohen Frequenzen abgestrahlt werden und für Menschen nicht zu hören sind. Der Sensor misst die Zeit zwischen der Reflexion und der Rückkehr der Schallwellen, ähnlich, wie Radarsensoren Radiowellen zur Erkennung von Objekten verwenden. Treffen die Schallwellen auf ein Objekt, wie beispielsweise einen Fußgänger oder ein Fahrzeug, kann dessen Position berechnet werden.
All dies geschieht fast ohne Zeitverlust. Einmal richtig konfiguriert, erkennen alle Sensoren zusammen sämtliche Objekte in der Umgebung. Die Daten der Ultraschall-Näherungssensoren können mit dem Surround-Videodatenstrom integriert und so Näherungsalarme visuell durch Linien dargestellt werden, wenn eine Person oder ein Objekt erkannt wird.
Zudem können Audiowarnungen den Fahrer auf Fälle aufmerksam machen, in denen sich ein Objekt gefährlich nahe am Fahrzeug befindet. Zur Unterstützung des Fahrers, der die vor ihm liegende Straße im Blickfeld hat, können akustische Warnungen so konfiguriert werden, dass der Fahrer auf jedes Objekt oder jede Person aufmerksam gemacht wird, das/die in den Sensorbereich eintritt, um Kollisionen zu vermeiden.
Resümee
Koordinative 360-Grad-Systeme führen Daten von verschiedenen Sensortechnologien in Echtzeit zusammen, um dem ADAS-System bzw. dem Fahrer ein klareres Bild der vor ihm liegenden Strecke sowie der gesamten Fahrzeugumgebung zu vermitteln. Solche Systeme sind damit die Voraussetzung für die Einführung vollautonomer Fahrzeuge.
Bereits heute dient diese Technologie als Grundlage für fahrzeuginterne Sicherheitssysteme für Kraftfahrer und ist damit ein wichtiger Schritt zur Vermeidung von Verkehrsunfällen und ein wichtiger Schritt für mehr Fahrsicherheit.