Das ist für medizinisch-diagnostische und sicherheitskritische Bereiche unhaltbar. Nur wer versteht, wie neuronale Netze funktionieren, warum also ein Pferd als Pferd erkannt wird und nicht als Esel, kann den Ergebnissen vertrauen. Denn die von den vermeintlich hochintelligenten Systemen eingesetzten Lösungswege sind nicht immer nachvollziehbar.
Beispielsweise klassifizierte ein renommiertes KI-System Bilder anhand des Kontextes: Es ordnete Fotos der Kategorie Schiff zu, wenn viel Wasser im Bild zu sehen war. Die eigentliche Aufgabe, aus dem Bildinhalt Schiffe zu erkennen, löste es nicht, auch wenn die Mehrzahl der Bilder korrekt identifiziert war.
Mensch und KI als Partner
Die Penetration unseres Berufs- und Privatlebens durch Künstliche Intelligenz beruht auf der Verwendung neuronaler Netze, die – ähnlich der Funktionsweise unseres Gehirns – mathematisch definierte Einheiten miteinander verknüpfen. Sie unterstützen unsere Entscheidungsfindung; diese Hilfestellung für den Menschen (KI-Augmentation) wird laut dem Forschungs- und Beratungsunternehmen Gartner im Jahr 2021 weltweit 2,9 Billionen US-Dollar Geschäftswert (etwa 2,6 Billionen Euro) und 6,2 Milliarden Stunden Arbeitsproduktivität schaffen. Die Analysten definieren Augmented Intelligence als ein menschzentriertes Partnerschaftsmodell, bei dem Mensch und KI zusammenarbeiten, um die kognitive Leistungsfähigkeit zu verbessern. Das beinhaltet Lernen, Entscheidungsfindung sowie neue Erfahrungen.
Nachvollziehbare Lösungsfindung
Um nun die Denkweise des neuronalen Netzes nachvollziehen zu können, haben Forschende des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der TU Berlin eine Technik entwickelt, die erkennt, anhand welcher Kriterien KI-Systeme Entscheidungen fällen. Sie nennt sich SpRAy1 (spektrale Relevanzanalyse) und basiert auf der Technik LRP (Layer-Wise Relevance Propagation). An jedem Knotenpunkt des Netzes erkennt sie, wie Informationen durch das Netz fließen. Somit lassen sich sogar tiefe neuronale Netze untersuchen.
In der Praxis identifiziert die Technik einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wird also ein Gewebebild in ein KI-System eingegeben, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie „krebsartig“ oder nicht das Gewebebild ist, wird mit der Angabe der Basis für diese Klassifikation ergänzt. Nicht nur das Ergebnis soll korrekt sein, sondern auch der Lösungsweg.
Bislang wurden KI-Systeme als Black Box angewendet. Man hat darauf vertraut, dass sie das Richtige tun. Mit der LRP-basierten Open-Source-Software ist es gelungen, die Lösungsfindung von KI-Systemen nachvollziehbar zu machen, Neuronalnetze und andere komplexe Machine-Learning-Modelle zu visualisieren und zu interpretieren.
Auswirkungen auf die Gesellschaft?
Die grundsätzliche Problematik ist indessen nicht so neu, wie sich das zunächst anhört; die Frage der „richtigen Entscheidung“ ist so alt wie die Menschheit selbst. Schon seit Anbeginn der menschlichen Zivilisation haben sich unsere Vorfahren mit dem Prozess der Entscheidungsfindung und den Motiven von Entscheidungen beschäftigt.
Allerdings findet die Frage, welche Auswirkungen die outgesourcten und automatisierten Prozesse der (womöglich auch noch „ethisch richtigen“) Entscheidungsfindung und des Entscheidens auf Mensch und Gesellschaft haben können, bei der meist technologiegetriebenen Debatte, meines Erachtens noch viel zu wenig Beachtung. Das wäre doch gewiss jeden Denkaufwand wert!