Spätestens die tödlichen Unfälle mit Tesla-Fahrzeugen zeigen, wie wichtig die reibungslose Zusammenarbeit zwischen Mensch und System ist. Wenn Maschinen den Zustand des Menschen verstehen, könnten sie Fehlverhalten ausbessern oder gar verhindern. Beispiel Sekundenschlaf am Steuer: Eine Kamera beobachtet die Augen des Fahrers und löst Alarm aus, wenn sich diese länger als eine Sekunde schließen.
„Nicht immer ist der Zustand, in dem sich ein Mensch befindet, von einer Maschine so einfach zu erkennen wie hier“, sagt Jessica Schwarz vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE).
Komplexe Faktoren
In ihrer Doktorarbeit geht Schwarz den Fragen nach: Wie lässt sich der Zustand des Nutzers möglichst genau ermitteln? Welchen Einfluss hat dieser auf mögliches Fehlverhalten haben? Wie können automatisierte Systeme diese Information nutzen, um möglicherweise Leben zu retten?
„Bei komplexen Anwendungen reicht es nicht aus, sich auf einen Einflussfaktor zu konzentrieren“, betont die Forscherin. Beispielsweise deutet eine erhöhte Herzrate nicht zwangsläufig auf Stress hin. So unterscheidet Schwarz in ihrem ganzheitlichen Modell zwischen sechs Dimensionen, die die Leistungsfähigkeit des Menschen beeinflussen: Beanspruchung, Motivation, Situationbewusstsein, Aufmerksamkeit, Müdigkeit und den emotionalen Zustand. Diese Zustände erfasst sie mit verhaltensbasierten Messmethoden in Kombination mit Zusatzfaktoren wie Aufgabenstellung, Umgebungsbedingungen, individuellen Personenangaben und dem Automationsgrad.
Experimente mit Fluglotsen
Die theoretischen Erkenntnisse überprüfte die Doktorandin in Experimenten, in denen sie Probanden vor folgende Aufgabe stellte: Sie mussten sich in Fluglotsen hineinversetzen und in einer Computersimulation Flugzeuge sicher durch einen virtuellen Luftraum steuern. Dabei wurden als Stressfaktoren die Anzahl der Flugzeuge erhöht, Anweisungen der Lotsen nicht erwidert und Hintergrundlärm eingespielt.. EEG-Sensoren auf dem Kopf, ein Eyetracker und ein EKG-Brustgurt zeichneten die Körperdaten der Probanden auf.
So entstand eine Diagnoseschnittstelle, die in Echtzeit erkennt, wann einzelne Einflussfaktoren kritische Werte erreichen, und das der Maschine mitteilt. „Automatisierte Systeme erhalten so sehr genaue Informationen über die aktuelle Leistungsfähigkeit des Nutzers und können darauf reagieren“, erklärt Schwarz.