„Verantwortungsvolle KI“ Autonomes Fahren mithilfe von Künstlicher Intelligenz vorantreiben

Eine „verantwortungsvolle KI“ soll dafür sorgen, dass die notwendige Reife beim sicherheitskritischen autonomen Fahren erlangt wird.

Bild: iStock, gorodenkoff
20.11.2024

Künstliche Intelligenz (KI) hat die Automobilindustrie grundlegend verändert und ebnet den Weg für autonome Fahrzeuge und intelligente Mobilität. Doch während Fortschritte sichtbar sind, bleibt die flächendeckende Umsetzung hinter den Erwartungen zurück. DFKI-Experten sehen in „verantwortungsvoller KI“ den Schlüssel, um ethische, transparente und robuste Lösungen zu entwickeln, die das Vertrauen in sicherheitskritische Anwendungen wie das autonome Fahren stärken.

Die Automobilindustrie gilt als ein Wirtschaftsbereich, in dem die Künstliche Intelligenz (KI) bereits relativ früh und seitdem vergleichsweise nachdrücklich Einzug gehalten hat. KI revolutioniere die Automobilindustrie, ist schon seit längerem zu hören. Weil diese Technologie zum einen die Fertigung von Autos verbessert und dabei durch höhere Präzision die Qualität der Fahrzeuge steigert. Zugleich sorge eine intensivere Kommunikation zwischen den einzelnen Fahrzeugen, aber auch jener mit ihrem Umfeld, für mehr Sicherheit und werte das Fahrerlebnis auf, heißt es weiter. Diese intelligenten Autos der Zukunft und der Fortschritt des autonomen Fahrens sind ohne KI undenkbar. Schon heute gehören zahlreiche KI-gestützte Assistenzsysteme im Auto zu den Annehmlichkeiten, auf die viele Fahrer nicht mehr verzichten wollen.

Doch der „Durchmarsch“ der KI im Automobilsektor kommt nicht so voran, wie in etlichen Prognosen vor Jahren angenommen. Danach müsste autonomes Fahren heute schon eine weitverbreitete Realität auf den Straßen sein. Stattdessen findet es erst in wenigen ausgewählten Hotspots statt, die zudem noch recht experimentell sind, wie das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) feststellt. Zum Beleg verweisen die Forscher auf Meldungen etwa aus San Francisco, wo Robotaxis den Verkehr behindern und sogar Feuerwehreinsätze blockieren sollen. Darüber hinaus sorgten Unfälle mit Personenschäden durch autonome Fahrzeuge dafür, dass sich die hohen Erwartungen an das autonome Fahren noch nicht erfüllt hätten, konstatieren die Verfasser einer aktuellen DFKI-Studie zu verantwortungsvoller KI in der Automobilbranche.

Autonomes Fahren kommt nicht voran

Sie sehen die noch stockende Verbreitung des autonomen Fahrens nicht zuletzt dadurch verursacht, dass insbesondere in diesem Bereich die Erfolge des maschinellen Lernens trotz vieler Fortschritte hinter den Erwartungen zurückblieben. Die auf Deep Learning basierenden KI-Systeme seien noch nicht vertrauenswürdig und verantwortungsvoll genug, um in so hochkritischen Anwendungsbereichen wie dem autonomen Fahren zuverlässig eingesetzt werden zu können, begründen die DFKI-Experten ihre ernüchternde Diagnose.

Konkret moniert das KI-Forschungszentrum hierbei häufige Probleme in Bezug auf Erklärbarkeit, Robustheit und Generalisierbarkeit. Zudem benötige Deep Learning sehr große Mengen an Trainingsdaten und Energie. Deep Learning-Modelle seien zwar leistungsfähig, aber nicht in der Lage, ihre Entscheidungen zu erklären, führen die Autoren der aktuellen DFKI-Studie weiter aus. Darum könne man den Ergebnissen des maschinellen Lernens, insbesondere in sicherheitskritischen Anwendungsbereichen, noch nicht vollumfänglich vertrauen.

In einem gemeinsamen Whitepaper mit der Unternehmensberatung Accenture schlagen die DFKI-Fachleute deshalb neue technologische Ansätze vor, die dazu beitragen sollen, dass eine „verantwortungsvolle KI“ die für den Einsatz beim sicherheitskritischen autonomen Fahren notwendige Reife erlangt. Diese „Responsible AI“ definieren die Verfasser des Whitepapers als „Ansatz für die Entwicklung, den Aufbau und den Einsatz von KI-Systemen, die der Sicherheit Vorrang einräumen und sicherstellen, dass diese Systeme auf ethische, transparente und faire Weise entwickelt und eingesetzt werden“.

„Die Fortschritte in der autonomen Fahrzeugtechnologie zeigen die Potenziale, aber auch die Limitationen heutiger KI-Systeme“, konstatiert auch KI-Experte Prof. Marco Bahrenkamp. Das DFKI weise darauf hin, dass tiefgreifende strukturelle Mängel in Bezug auf Erklärbarkeit, Transparenz und Robustheit die breite Einführung des autonomen Fahrens verlangsamen, betont er. Dies mache es erforderlich, neue Wege zu beschreiten. „Und hier kommt Responsible AI ins Spiel“, erklärt der promovierte Wirtschaftsinformatiker. Denn diese KI biete eine vielversprechende Perspektive, um die Technologie sicherer und ethisch vertretbar zu machen. „Ein solch verantwortungsvoller Umgang mit KI stärkt nicht nur das Vertrauen der Gesellschaft in diese Systeme, sondern ist für die erfolgreiche Anwendung im sicherheitskritischen Bereich des autonomen Fahrens unverzichtbar“, macht Prof. Barenkamp deutlich.

Gesellschaftliche Auswirkungen berücksichtigen

Da sind sich die KI-Fachleute offenbar einig: „Verantwortungsvolle KI“ sollte auch aus Sicht des DFKI potenzielle Auswirkungen von KI-Systemen auf die Menschen und die Gesellschaft ebenso berücksichtigen wie gewährleisten, dass bei der Entwicklung von KI-Systemen die Privatsphäre von Personen sowie der Datenschutz berücksichtigt und dass diese Systeme nicht in einer Weise eingesetzt werden, die zu Vorurteilen oder Diskriminierung führt. Unter anderem also, dass diese KI-Modelle nicht die Privatsphäre Einzelner verletzt oder die menschliche Autonomie untergräbt.

Zusammengefasst soll das Ziel einer „verantwortungsvollen KI“ darin bestehen, KI-Modelle zu entwickeln, denen sowohl die Kunden als auch die Gesellschaft umfassender vertrauen können. Eine solche ethisch transparente Entwicklung und Nutzung von KI würde nach Einschätzung der Experten auch den betroffenen Unternehmen nützen, weil so das Vertrauen in der Bevölkerung gestärkt wird, dass die Systeme keine negativen Auswirkungen auf Individuen oder Gesellschaft haben.

Deshalb schlagen die Autoren des Whitepapers ein Konzept sogenannter neuroexpliziter KI vor. Darunter verstehen sie einen „hybriden Ansatz, der die Stärken neuronaler Netze mit symbolischer Argumentation und expliziter Wissensrepräsentation kombinieren“ soll. Neuroexplizite KI ziele darauf ab, Modelle zu schaffen, die transparenter, interpretierbarer und robuster sind, indem domänenspezifisches Wissen und physikalische Gesetze in den KI-Entscheidungsprozess integriert werden, erläutern die Fachleute. Zu diesem Zweck verwende neuroexplizite KI symbolische Argumente, um die getroffenen Entscheidungen zu erklären. Dadurch sollen KI-Entscheidungen transparenter und KI-Systeme zuverlässiger werden.

In dem Whitepaper diskutieren die Verfasser mehrere Anwendungsfälle, die das Potenzial der neuroexpliziten KI für das autonome Fahren demonstrieren sollen. Einer davon konzentriert sich etwa auf die Verbesserung der Wahrnehmung autonomer Fahrsysteme durch die Einbeziehung von Wissen über visuelle Merkmale. Dabei nutze das System hochrangige, symbolische Kenntnisse über die physikalischen Eigenschaften von Objekten, wie Lichtreflexionen, um die Genauigkeit der Objekterkennung zu erhöhen, berichten die DFKI-Experten. Durch die Integration solcher symbolischen Informationen in die Wahrnehmungsmodelle soll die Technologie demnach widerstandsfähiger gegenüber Störungen werden und auch komplexe visuelle Daten besser interpretieren können. Dies führe zu einer höheren Zuverlässigkeit und Sicherheit, betonen die Wissenschaftler.

KI-Reife erhöhen

Insgesamt betonen Accenture und DFKI in ihrem Leitfaden für „verantwortungsvolle KI in der Automobilbranche“ die Bedeutung solcher Praktiken, um eine notwendige KI-Reife zu erreichen. Diese zeichnet sich demnach durch die Entwicklung von KI-Systemen aus, die nicht nur technisch kompetent, sondern auch ethisch korrekt, fair und transparent funktionieren. Als unabdingbare Kriterien einer solchen „verantwortungsvollen KI“ heben die Autoren des Whitepapers mehrere Schlüsselprinzipien hervor, darunter Fairness, Transparenz, Erklärbarkeit, Rechenschaftspflicht und Nachhaltigkeit. Diese Grundsätze sollen sicherstellen, dass KI-Technologien der Gesellschaft zugutekommen und gleichzeitig Risiken wie Voreingenommenheit, Diskriminierung und Verletzung der Privatsphäre minimiert werden.

Verwandte Artikel