KI im produzierenden Gewerbe RAG: Wissensmanagement und Effizienzboost mit KI

Potential für Produktivitätssteigerung durch KI bietet die effizientere, vernetzte und intelligentere Nutzung unternehmensinterner Wissensdatenbanken.

Bild: iStock, CASEZY
29.11.2024

Die Steigerung der Produktivität im produzierenden Gewerbe hat höchste Priorität. Viele Unternehmen ziehen deshalb den Einsatz von Künstlicher Intelligenz (KI) in Erwägung, um den dynamischen Anforderungen des Marktes zu begegnen. Doch lohnen sich die Investitionen in KI-Lösungen wirklich? Potenzial für Unternehmen sieht Bernhard Pflugfelder, Head of GenAI der appliedAI Initiative, aktuell definitiv im Bereich Wissensmanagement, basierend auf der KI-Technologie Retrieval Augmented Generation, kurz RAG.

Unternehmen im produzierenden Gewerbe stehen heutzutage im Wettbewerb mit Herstellern aus aller Welt. Die Produktivität steigern, um kosteneffizienter mit höherer Qualität zu produzieren als die Konkurrenz, lautet deshalb das Credo. Das Ergebnis sind niedrigere Preise, bessere Produkte und eine stärkere Marktposition. Doch wie kann das gelingen? Viele Unternehmen ziehen dazu vermehrt den Einsatz von KI-Lösungen in Erwägung. Doch die Investitionen in KI-Technologien können beträchtlich sein, und der Nutzen zeigt sich meist erst nach der Entwicklungszeit. Dadurch herrscht in Unternehmen eine große Unsicherheit, ob Investitionen in KI tatsächlich den erwünschten Mehrwert liefern und „ihr Geld wert sind“.

Produktivitätssteigerung durch KI-basiertes Wissensmanagement

Potential für Produktivitätssteigerung durch KI bietet die effizientere, vernetzte und intelligentere Nutzung unternehmensinterner Wissensdatenbanken. Dabei handelt es sich um Wissen, das entlang der Wertschöpfungskette eines produzierenden Unternehmens von der Produktentwicklung bis zur Produktion und zum Kundenservice gesammelt wird – in Form von technischen Produktdaten, Planungsdaten, Qualitätsdaten, verschiedener Prozessdaten, Best Practices, Kundeninformationen und weiterer relevanter Daten. Im Zusammenhang mit der Nutzung dieser Daten gibt es jedoch vorab üblicherweise drei Probleme zu lösen:

  1. Fragmentiertes Wissen: Die Suche nach relevanten Informationen ist zeitintensiv, da Daten oft in dezentralen Systemen, in Datensilos und nicht zentralen und leicht zugänglichen Systemen gespeichert werden.

  2. Veraltete oder unvollständige Informationen: Häufig sind die gespeicherten Daten veraltet oder nicht vollständig dokumentiert, was zu ineffizienten Arbeitsprozessen führen kann. Es mangelt meist an einer effektiven Data-Governance zur Sicherstellung der Datenqualität und -vollständigkeit.

  3. Aufwändige Datenverarbeitung: Oft können diese Daten aus den verteilten Wissenssystemen nicht effizient, bspw. über APIs abgefragt werden, und die Verarbeitung und Vernetzung der Daten ist mit hohem Aufwand verbunden.

Der Lösung dieser Probleme muss sich ein Unternehmen allerdings zuerst stellen, um dann mittels neuester KI-Technologien wie Large Language Models (LLMs) und Retrieval Augmented Generation (RAG) das Wissensmanagement zu revolutionieren. Doch welche Potentiale können durch diese KI-Technologien nun realisiert werden? LLMs haben in den vergangenen sieben Jahren seit des wissenschaftlichen Meilensteins mit der Veröffentlichung des Papiers „Attention is all you need“ die langjährigen Herausforderungen in der Verarbeitung und dem Verständnis von menschlicher Sprache (geschrieben wie gesprochen) praktisch gelöst. Die besten LLMs von heute können nicht nur Text und Sprache fast perfekt wiedergeben, sondern auch komplexe Inhalte korrekt verstehen und komplexe Schlussfolgerungen (englisch: Reasoning) ziehen. Dies beweist aktuell gerade wieder das neue Modell GPT-o1 von OpenAI beeindruckend. Alle diesen genannten Fähigkeiten sind gerade im Wissensmanagement von großer Bedeutung und unterscheiden diese neuen KI-Technologien von alten Such- oder Expertensystemen. LLMs können die Kontexte und Bedeutungen von Nutzeranfragen besser verstehen, um so relevante und nützliche Antworten in natürlicher Sprache (und verschiedenen Sprachen) zu generieren.

Herausforderungen bei der LLM-Nutzung

Nun gibt es aber zwei Herausforderungen bei der Nutzung von LLMs im Wissensmanagement:

  1. Die Nutzung von LLMs ist mit einigen Risiken verknüpft. Ein zentrales Risiko ist die grundlegende Tendenz von LLMs zum Halluzinieren, also der Generierung von scheinbar falschen oder gar sinnlosen Inhalten. Gerade im Wissensmanagement mit dem Anspruch an korrekte und verlässliche Antworten ist das Halluzinieren natürlich ein großes Problem.

  2. LLMs werden mit einer großen Menge an öffentlichen Daten trainiert, und haben eine „Wissenslücke“ hinsichtlich der Aktualität (englisch: knowledge cutoff) und sehr domänenspezifischen und nicht-öffentlichen Daten, wie eben Unternehmensdaten. Durch diese Wissenslücken können LLMs im Wissensmanagement eines Unternehmens womöglich auch keine korrekten und verlässlichen Antworten generieren.

Es gibt jedoch eine Lösung für beide Probleme beim Einsatz von LLMs im Wissensmanagement: die Anwendung von RAG. RAG kombiniert die Suche nach relevanten unternehmensinternen Daten anhand einer Nutzerfrage mit den Fähigkeiten von LLMs, um eine endgültige und korrekte Antwort zu generieren. Diese Vorauswahl relevanter Daten schließt die Wissenslücke der LLMs und reduziert das Halluzinieren, sodass robuste und verlässliche Lösungen realisiert werden können.

Wie funktioniert RAG? Die vier Stufen des RAG-Ansatzes

  1. In der Pre-retrieval Stage werden die vorhandenen Daten vorverarbeitet und indexiert. Dies kann auch das Zerlegen der Daten in kleinere Teile (Chunking) und das Erstellen ihrer semantischen Einbettungen umfassen.

  2. Gibt ein Mitarbeiter eine Anfrage in die interne Datenbank ein, werden relevante Dokumente basierend auf inhaltlichen Ähnlichkeiten, einem Ranking-Algorithmus oder anderen Methoden abgerufen – Retrieval.

  3. Nach dem Abruf der relevanten Inhalte werden diese in der Post-retrieval Stage verarbeitet. Dazu gehört zum Beispiel das erneute Ranking der Dokumente, um die besten und relevantesten Ergebnisse hervorzuheben.

  4. In der letzten Phase Augmentation & Generation Stage werden die nachbearbeiteten Dokumente mit der Anfrage kombiniert, und das LLM generiert die endgültigen Antworten. In dieser Phase findet die eigentliche Beantwortung der Anfrage statt, die auf den abgerufenen und verarbeiteten Informationen basiert.

Mit Hilfe von RAG kann man die Risiken Halluzination und Knowledge Cutoff von LLMs sehr gut technisch meistern. Aber ein weiterer, sehr wichtiger Vorteil für Unternehmen beim Einsatz von RAG ist, dass der Zugriff auf bestimmte Informationen innerhalb eines Unternehmens kontrolliert werden kann. Nur die Mitarbeitenden, die über die entsprechende Autorisierung oder Zugriffsrechte verfügen, können auf sensible Daten zugreifen. Die Datenschutzstufen können je nach Bedarf angepasst werden, um die Sicherheit und Vertraulichkeit der Daten zu gewährleisten.

Die Revolution des Wissensmanagements

Für eine nachhaltige Nutzung von Wissen für die Verbesserung von Prozessen in der Industrie sind RAG-Lösungen besonders wertvoll. Die KI-Lösung ermöglicht es Kunden wie Mitarbeitenden, gespeichertes, internes Wissen schnell, effektiv und zuverlässig abzurufen und Informationen über Produkte und Prozesse genauso einfach zu verwalten, wie sie es tun würden, wenn sie einen echten Menschen fragen würden. Die Verarbeitung natürlicher Sprache durch die generative KI ermöglicht es, auf komplexe und umfangreiche Wissensdatenbanken zuzugreifen und diese effizient zu nutzen. So können Unternehmen im produzierenden Gewerbe deutliche Effizienzgewinne erzielen. Es wird deutlich: Die Investition in KI lohnt sich durchaus, man muss es nur richtig angehen.

Bildergalerie

  • Bernhard Pflugfelder ist Head of Generative AI (GenAI) bei der appliedAI Initiative GmbH und verfügt über mehr als 15 Jahre Erfahrung im Bereich Künstliche Intelligenz, insbesondere im Natural Language Processing und GenAI. Er hat zahlreiche Anwendungsfälle begleitet, von der Ideenfindung über die Prototypisierung bis hin zur fertigen Lösung. Bernhard ist bekannt für seine Expertise in der strategischen und technischen Integration von KI in Unternehmen, insbesondere in den Bereichen Automotive und Manufacturing.

    Bernhard Pflugfelder ist Head of Generative AI (GenAI) bei der appliedAI Initiative GmbH und verfügt über mehr als 15 Jahre Erfahrung im Bereich Künstliche Intelligenz, insbesondere im Natural Language Processing und GenAI. Er hat zahlreiche Anwendungsfälle begleitet, von der Ideenfindung über die Prototypisierung bis hin zur fertigen Lösung. Bernhard ist bekannt für seine Expertise in der strategischen und technischen Integration von KI in Unternehmen, insbesondere in den Bereichen Automotive und Manufacturing.

    Bild: appliedAI Initiative

  • Die vier Stufen des RAG-Ansatzes.

    Die vier Stufen des RAG-Ansatzes.

    Bild: appliedAI Initiative

Firmen zu diesem Artikel
Verwandte Artikel