Entscheidungsfindung von KI verstehen Wie verlässlich ist Künstliche Intelligenz?

Vergangenen September war es das Bild eines Elefanten, das ein intelligentes Sehsystem während eines Tests aus dem Konzept brachte – doch warum?

19.12.2018

Künstliche Intelligenz führt heutzutage Aufgaben aus, die man einst nur Menschen zutraute. In vielen Bereichen unserer Gesellschaft ist intelligente Software bereits angekommen. Doch können wir ihr auch vertrauen? Der Informatiker Visvanathan Ramesh diskutiert Kriterien für verlässliche KI-Systeme.

Auch wenn im Zusammenhang mit Künstlicher Intelligenz immer wieder von einer Revolution gesprochen wird, handelt es sich um eine seit 60 Jahre andauernde Evolution. Diese erfolgte in drei Wellen:

  • 1. Welle: Es entstanden Expertensysteme, für die man menschliches Expertenwissen in fest definierte Regeln übersetzte. Die Systeme waren jedoch relativ unflexibel, da sie mit Mehrdeutigkeit und Unsicherheiten der realen Welt nicht gut zurechtkamen.

  • 2. Welle: Statistische Methoden des maschinellen Lernens kommen zum Einsatz. Die KI-Systeme lernen mithilfe großer Mengen von Trainingsdaten und werden durch Optimierungsalgorithmen immer besser. Heute führen tiefe neuronale Netzwerke eine Vielzahl eng gefasster Aufgaben der KI aus.

  • 3. Welle: Im Zuge der sogenannten kontextuellen Adaption treten die drei Eigenschaften Erklärbarkeit, Argumentation und Abstraktion in den Vordergrund.

Der Erfolg der zweiten KI-Welle - und damit einhergehend der explosionsartige Umfang ihrer Anwendungen - ist in den letzten zehn Jahren insbesondere durch den Fortschritt bei der Rechenleistung, Trainingsalgorithmen und weltweit verfügbare Computernetzwerke möglich geworden. Am wichtigsten ist jedoch nach wie vor eine stetig zunehmende Menge an gesammelten und gespeicherten Daten, die die Basis des Lernens bilden.

Ergebnisse nicht nachvollziehbar

Trotz aller Erfolge weist auch die zweite Welle der KI Unzulänglichkeiten auf. Denn wie und warum ein KI-System zu Ergebnissen kommt, kann oft nicht erklärt werden.

Erst im September gelang es einer Gruppe kanadischer Forscher, ein intelligentes Sehsystem zu narren. Sie forderten es auf, die Gegenstände in einem Wohnzimmer zu benennen. Das ging so lange gut, bis das Bild eines Elefanten in der Szene auftauchte. Das brachte die Software so aus dem Konzept, dass sie den Stuhl als „Sofa“ bezeichnete, den Elefanten als „Stuhl“ und blind wurde für Gegenstände, die sie zuvor gesehen hatte.

„Aus diesem Grund benötigen wir gründliche Analysen solcher Systeme, damit wir deren Leistungsfähigkeit und Zuverlässigkeit laufend überprüfen können“, meint Prof. Ramesh. Dazu müsse man wissen, wie das System die äußere Welt repräsentiert und wodurch es gestört wird, beispielsweise durch das Auftauchen unerwarteter Gegenstände. Um die Ursache des Problems zu verstehen und zu beheben, muss man es schließlich mit der spezifischen Systemarchitektur in Beziehung setzen können.

KI muss sich rechtfertigen können

Als logische Konsequenz treten in der dritten Welle der KI, der „kontextuellen Adaption“, die drei Eigenschaften Erklärbarkeit, Argumentation und Abstraktion in den Vordergrund. Gerade bei sicherheitsrelevanten Anwendungen wie dem autonomen Fahren ist es von enormer Bedeutung, genau verstehen und nachvollziehen zu können, warum ein Algorithmus zu einer bestimmten Entscheidung gelangt ist.

Das System muss seine eigene Verlässlichkeit selbst einschätzen können, um nötigenfalls auf eine sichere Alternative umsteigen zu können. Die zunehmenden Berührungspunkte zwischen künstlicher und menschlicher Intelligenz (zum Beispiel in Assistenzsystemen, der Mensch-Roboter-Interaktion oder beim autonomen Fahren) erfordern zudem, dass das System mit dem Menschen kommunizieren und seine Annahmen, Motivation und Argumentation nahtlos begründen kann.

Die drei Wellen vereinen

Als Professor für Software Engineering mit dem Schwerpunkt „Biologisch inspirierte Sehsysteme“ hat Visvanathan Ramesh von 2011 bis 2016 den „Bernstein-Focus: Neurotechnology“ an der Goethe-Universität und am Frankfurt Institute of Advanced Studies (FIAS) koordiniert. Aktuell hat er das EU-Projekt AEROBI abgeschlossen, in dem er System-Engineering für intelligente Sehsysteme weiterentwickelt und in automatisierte Werkzeuge integriert hat. Seine Gruppe verfolgt einen systemorientierten Ansatz, der alle Aspekte der drei KI-Wellen vereint.

Wie man sich das vorzustellen hat, erläutert Doktorand Tobias Weis: „In Fallstudien untersuchen wir beispielsweise Systeme zur Videoüberwachung, Bremslicht-Transitions-Detektion bei autonomen Fahrzeugen, Systeme, die Defekte an Bauten wie Brücken klassifizieren und sogar fußballspielende Roboter. Wir testen, wie diese Systeme Aufgaben lösen, besonders in komplexen Situationen, und schauen, ob wir Anomalien entdecken wie jene, die durch den Elefanten im Wohnzimmer ausgelöst wurde.“

Bildergalerie

Firmen zu diesem Artikel
Verwandte Artikel