Prof. Dr. Marco Huber war mit diesem Beitrag im A&D-Kompendium 2019/2020 als einer von 100 Machern der Automation vertreten.
Im Grunde nutzt Alpha Go das vom Menschen inspirierte Lernprinzip „Versuch und Irrtum“. Stellen Sie sich doch einmal ein Kleinkind vor, das gerade Laufen lernt. Es wird etliche Versuche benötigen, bis es überhaupt einmal ohne Festhalten stehen kann. Und bis es soweit ist, wird es viele Male hinfallen und daraus stetig lernen. Mit der Zeit wird so aus dem Stehen das Gehen. Die Schritte werden nach und nach sicherer, die Strecken weiter.
Dieses Prinzip nennt sich Reinforcement Learning. Übertragen auf die Produktion ist das für uns an der Uni Stuttgart und am Zentrum für Cyber Cognitive Intelligence mit dem Planen von Produktionsabläufen, der Durchführung von Instandhaltungsaufgaben zum richtigen Zeitpunkt oder der autonomen Programmierung von Industrierobotern gleichzusetzen.
Natürlich sind wir darauf bedacht, bei Versuch und Irrtum sehr systematisch vorzugehen. Etwas anderes wäre in der Produktion auch nicht praktikabel: Maschinen würden unnötig belastet, der Zeitaufwand wäre zu hoch, ausreichend Daten wären nicht immer vorhanden.
Daher kombinieren wir maschinelle Lernverfahren mit einem digitalen Zwilling. Letzterer umfasst ein digitales Abbild der Produktionsanlage sowie leistungsfähige Simulatoren, sodass Handlungen bereits virtuell erlernt und optimiert werden können. Und dies schneller als in Echtzeit. Das Gelernte lässt sich dann auf die reale Anwendung übertragen.
Neuronale Netze als Black Box
Beim Einsatz von KI möchten wir den Unternehmen transparent machen, was KI kann, wie sie etwas ausführt und warum sie es auf eine bestimmte Weise macht. Erlerntes Wissen wird vermehrt in tiefen neuronalen Netzen gespeichert, der momentan am weitesten verbreiteten Technologie des maschinellen Lernens.
Diese sind eine Black Box: Man gibt Daten hinein und erhält Ausgabedaten, aber wie der Algorithmus dazu kommt, ist schwer nachvollziehbar. Deshalb arbeiten wir an der Interpretierbarkeit eines neuronalen Netzes, um die Wirkmechanismen des Netzes nachvollziehbar zu machen. Und bei der Erklärbarkeit sollen Zusatzinformationen für einzelne Eingabedaten bereitstehen, die der Mensch verstehen kann.
Natürlich brauchen wir Transparenz nicht in jedem Fall: Bei der automatischen Textübersetzung reicht das Ergebnis. Aber bei einem Fehler in der Qualitätsprüfung beispielsweise möchte ich die Fehleinschätzung der KI nachvollziehen können. In der Medizin oder beim autonomen Fahren sind die Anforderungen noch höher.
Mehr Gelassenheit!
Das Potenzial von KI ist enorm. Aber ich fände ein wenig mehr Gelassenheit in der teils aufgeregten Debatte zu Möglichkeiten und Grenzen der KI wünschenswert. Künstliche Intelligenz wird weder Heilsbringer sein noch Wegbereiter manchen Untergangsszenarios. Maschinelles Lernen wird so intelligent werden, wie die Datenverfügbarkeit und -qualität sowie unsere Kreativität es zulassen.
Die Maschinen werden dort intelligent werden, wo dies Vorteile gegenüber dem Stand der Technik bringt. Maschinelles Lernen ist für mich auch kein Selbstzweck, sondern eine Technologie, die produzierenden Unternehmen konkrete Chancen eröffnet. Wir unterstützen Unternehmen dabei, den für sie geeigneten Anwendungsfall mit maschinellem Lernen zu entwickeln und umzusetzen.