Die heutigen Schnittstellen in einem Fahrzeug werden mit jeder neuen Fahrzeugfunktion komplexer und vielfältiger. Ein Beispiel dafür ist das aktive Energiemanagement in Elektrofahrzeugen oder die neuartigen Fahrerassistenzfunktionen, die in einem immer größeren Umfang eingeführt werden. Verschiedene Bedienelemente wie das Kombiinstrument, Klima-steuerung und der Touchscreen für die Infotainmentsysteme bieten völlig unterschiedliche Darstellungs- und Bedienkonzepte an. Dar-über hinaus kann der Fahrer durch eine steigende Menge an Informationen, die durch die neuen Sensoren und Kommunikationskanäle gewonnen werden, überfordert werden.
Jetzige Mensch-Maschine-Schnittstellen basieren auf dem sogenannten vertikalen Ansatz: Dabei haben die Bedien-elemente einen direkten Einfluss auf die entsprechenden Fahrzeugsysteme - zum Beispiel Gaspedal und Gangschaltung auf der einen Seite und der Motor und das Getriebe auf der anderen Seite.
Die vertikale Steuerung betrifft aber nicht nur die Fahrzeugdynamik. Ein Blick auf die mittlere Konsole des heutigen Autos gibt eine Vielzahl an physikalisch getrennten Systemen und entsprechenden Bedienelementen preis. Ein solcher Ansatz ist historisch begründet und folgt einer kontinuierlich erweiterten Funktionalität innerhalb des Fahrzeugs [1].
Entwicklung der Mensch-Maschine-Schnittstelle
Um die wachsende Komplexität sowohl auf der Seite der Systemarchitektur als auch auf der Seite des Benutzers beherrschen zu können, schlagen wir das horizontale Design vor, das auf zwei Grundsätzen basiert:
�?� physisch hochintegrierte Schnittstellen
�?� mehr kontextabhängige Eingaben und Ausgaben.
Hochintegrierte Schnittstellen wie das virtuelle Dashboard [2] [3] oder die Sidesticks ermöglichen eine zentralisierte und einheitliche Kontrolle über mehrere Fahrzeugsysteme. Dieser Ansatz eröffnet wiederum neue Möglichkeiten, Feedback zu priorisieren und die Schnittstelle personalisiert auszuprägen.
Unsere Vision geht noch einige Schritte weiter zu einer Schnittstelle mit minimalem physikalischem Anteil und maximalem Einbinden des Fahrers. Das Fahrzeug wird dadurch zu einem autonomen Partner, ein erweiterter menschlicher Körper. Die Grenze zwischen Robotern und Fahrzeugen kann damit künftig mit Recht in Frage gestellt werden.
Eine erweiterte Realität, die sogenannte Augmented Reality mit Rückkopplung über ein Head-up-Display (HUD) spielt eine wichtige Rolle in einem solchen Gesamtbild. So können alle Daten von der Fahrzeug-Sensorik aus der Cloud über die Car2Infrastructure- und gegebenenfalls über die Car2Car-Kommunikation die menschliche Perzeption erweitern und den Fahrer während der Fahrt unterstützen.
Um optimales Feedback an den Fahrer gewährleisten zu können, müssen einige Bedingungen auf der Seite der System-architektur erfüllt werden. Der zentralen Fahrzeugintelligenz muss ein Gesamtbild des Systems einschließlich Kontext zur Verfügung gestellt werden, das den Fahrer, das Fahrzeug und die Umgebung beinhaltet. An diesem zentralen Punkt werden die Daten bearbeitet und hier werden verschiedene potenziell auftretende Fahrsituationen prädiktiv analysiert.
Ein Head-up-Display für den Innotruck
Der Innotruck stellt den ersten Schritt in diese Richtung dar und ist damit sowohl Wegweiser als auch grüne Wiese für die neuen Technologien von Mensch-Maschine-Schnittstelle (MMS) und Fahrerassistenzsystemen. Den Demonstrator baute Prof. Gernot Spiegelberg auf [4]. Wissenschaftliche Schwerpunkte sind System-architektur, Energiemanagement, Mensch-Maschine-Schnittstelle und Fahrerassistenzsysteme.
Zurzeit wird das Fahrzeug mithilfe von zwei Kugel-sidesticks und einer zentralen Konsole mit dem virtuellen Armaturenbrett gesteuert. Die Sidesticks sind in den Fahrersitz integriert und ermöglichen ein anstrengungsfreies Fahren von langen Strecken, da die Arme sich immer in einer natürlichen Position befinden. In der zentralen Konsole sind zusätzlich zwei kleine Bildschirme integriert, die den Rückspiegel ersetzen. Die Bilder von mehreren Kameras können auf dem Touchscreen angezeigt werden, wodurch der Fahrer stets einen umfassenden Überblick über die unmittelbare Umgebung des Trucks besitzt.
Der nächste Schritt ist der Übergang zum HUD-basierten Fahrerarbeitsplatz. Parallel dazu wird die zentrale Konsole von einem Tablet-Computer ersetzt, was aber keine funktionale �?nderung des virtuellen Armaturenbrettes darstellt.
Die (Er)Lösung aus der Luftfahrtelektronik
Eine HUD-Lösung, welche die ganze Frontscheibe des Inno-truck für Projektion verwenden würde, war technisch bedingt nicht möglich. Das liegt hauptsächlich an der Biegung und dem Material der Scheibe. Auf das äußere Design des Fahrzeugs nach den Entwürfen von Luigi Colani wollten wir auf keinen Fall verzichten und haben uns für eine Kompromiss-lösung entschieden.
Die Luftfahrtelektronik bietet verschiedene Lösungen, die mehr oder weniger Domänen-spezifisch und geschlossen sind. Andererseits gibt es in der Nische von kleineren Sportflugzeugen völlig anpassbare und erweiterbare HUD-Systeme. Während der Vorbereitungen für den Prototypaufbau waren offene Schnittstellen sehr wichtig. Am Ende haben wir uns für die Modifizierung des G-Hulp-Systems von PAT Avionics entschieden. Hierfür wird in dem Sichtfeld des Fahrers ein 80 Prozent durchsichtiges 7" x 3.5" Plexiglas-Sandwich angebracht.
Head-up-Display und Schnittstelle im Detail
Dank der oben erwähnten Überlegung bei der Auswahl der Einheit verlief deren Integration in das MMS-Modul im Wesentlichen nahtlos. Die Systemarchitektur des Innotruck basiert auf einem modularen Konzept, welches ursprünglich von Prof. Spiegelberg entwickelt wurde. Für das HUD ist nur das MMS-Modul von Bedeutung. Das Modul steuert unter anderem eine Reihe von Bildschirmen, die Beleuchtung innerhalb des Fahrzeuges und die zentrale Konsole mit dem virtual Dashboard. Die Intelligenz des Moduls befindet sich in der sogenannten Cockpit-MMS-Recheneinheit, einer x86-eingebetteten Plattform. Die Hauptteile des HUD-Systems sind: Central Unit, Laser Beam und Image-RX-Scheibe (IRXS). Die Zentraleinheit steuert den Laser Beam, der den Strahl direkt auf die IRXS projiziert.
Die Kommunikation zwischen der Central Unit und MMS-Recheneinheit erfolgt über Ethernet. Die Central Unit verfügt über eine Reihe von proprietären seriellen Schnittstellen aus dem Flugzeugbereich. Das Modifizieren dieser Schnittstellen wurde von Anfang an ausgeschlossen, um sie konsequent in die 5-Modul-Architektur einbinden zu können.
Die Central Unit verwendet normalerweise CANaerospace, ein Controller-Area-Network-basiertes Protokoll, auf dem Ethernet-Bus. Noch eine Ebene höher wird der National-Marine-Electronics-Association-Standard 0183 (NMEA) eingesetzt.
Der ganze bestehende Protokollstapel wurde mit einem XML-basierten Protokoll und einem erweiterten Sensor Web Enablement (SWE) ersetzt. Die Auswahl des Protokolls ist das Ergebnis der bereits abgeschlossenen Studie über die Datenflüsse innerhalb des Fahrzeuges [5].
Damit Fahrer und Umwelt verschmelzen können
In der nächsten Phase werden die neuen Unterstützungsmodi und Kooperationsmöglichkeiten zwischen Mensch-Maschine-Schnittstelle und Fahrerassistenzsystem erprobt. Insbesondere wird das Gestalten des Feedbacks des virtuellen Beifahrers weiter erforscht, einer der Hauptkomponenten des Fahrerassistenzsystem-Moduls. Die HUD-basierte Augmented Reality soll die Fähigkeiten des Fahrers erweitern können, ohne zusätzliche Ablenkungen im Sichtfeld zu erzeugen.
Nach der Behandlung der Daten auf der semantischen Ebene, Priorisierung und persönlicher Anpassung werden die Eigenschaften der menschlichen Sinne betrachtet. Nur durch solch einen holistischen Ansatz verschmelzen Fahrer und Umwelt zunehmend.
Weitere Informationen
[1] Christian Buckl, Alexander Camek, Gerd Kainz, Carsten Simon, Ljubo Mercep, Hauke Staehle, Alois Knoll: The software car: Building ICT architectures for future electric vehicles. In Electric Vehicle Conference (IEVC), 2012 IEEE International, pages 1-8, March 2012.
[2] Ljubo Mercep, Gernot Spiegelberg, Alois Knoll: Die Entwicklung einer zentralisierten Mensch-Maschine-Schnittstelle im Rahmen des Projekts Innotruck. In Automotive meets Electronics, VDE/VDI Gesellschaft Mikroelekonik Mikrosystem- und Feinwerktechnik (GMM) in Dortmund, February 2013.
[3] Garmin‘s K2 �??glass cockpit‘ will change the way you interact with your car, we go hands-on at CES, January 2013, Engadget article by Zach Honig, www.engadget.com/2013/01/08/garmins-k2-glass-cockpit-hands-on
[4] Innotruck Test Drive, 2012, Daily Planet Episode November 3rd-5th Part 2, Karlsdorf-Neuthard, Discovery Channel
[5] Jakob Stoeck, Ljubo Mercep, Gernot Spiegelberg, Alois Knoll: Platform-independent interface for the management of sensor-generated power and data flows in an automotive data-centric architecture. In 6. VDI/VDE Fachtagung USEWARE 2012 - Mensch-Maschine-Interaktion, pages 33-36, Deutsches Forschungszentrum für Künstliche Intelligenz DFKI Kaiserslautern, Dezember 2012.