Einst auf Forschungslabore und Supercomputer beschränkt, ist künstliche Intelligenz (KI) heute ein zunehmend wichtiger Bestandteil von Produkten und Dienstleistungen für Endverbraucher, beispielsweise IoT-Produkten. Hin und wieder wird KI zwar als Modewort missbraucht, in den meisten Fällen ermöglicht sie jedoch innovative Funktionen. So umfasst der neueste iPhone-Prozessor von Apple, der A11, eine sogenannte Neural-Engine – zwei Prozessorkerne, die Algorithmen für maschinelles Lernen ausführen und die nötige Intelligenz für Funktionen wie Face-ID zur Erkennung von Gesichtsausdrücken bereitstellen. Auch der Elektronikkonzern LG hat KI-Anwendungen im Programm – darunter einen Robotik-Staubsauger, einen Kühlschrank, eine Klimaanlage und eine Waschmaschine. Und das US-amerikanische Start-Up Buoy bringt demnächst eine Wasserpumpe auf den Markt, die mithilfe von Algorithmen für maschinelles Lernen den Wasserfluss optimiert, ungewöhnliche Situationen wie Lecks erkennt und im Notfall die Wasserversorgung automatisch abschaltet.
Zahlreiche moderne Apps oder Hardware nutzen KI, um Anfragen von Menschen besser zu verstehen und natürlicher darauf zu reagieren. Schon bald könnten sich Alltagsgeräte wie Ventile, Babyfon, Kameras oder Kopfhörer moderne KI-Technologien zunutze machen, um differenzierter auf Ereignisse reagieren und Daten effizienter verarbeiten zu können als ihre „unintelligenten“ Gegenstücke. Aber wie gelangt KI aus den Forschungslaboren in den Alltag? Mehrere Trends treiben diesen tiefgreifenden Wandel an.
Videospiele als Trendsetter
In den letzten zehn Jahren haben bedeutende wissenschaftliche Durchbrüche die Effektivität von KI-Software gesteigert. Dank der neuen Deep-Learning-Methoden zum Training neuronaler Netzwerke ist aus einem interessanten Spielzeug ein leistungsstarkes Tool geworden, das mittlerweile schon hin und wieder die Intelligenz von Menschen übertrifft. Die Folgen dieser wissenschaftlichen Sensation wurden durch zwei weitere Entwicklungen verstärkt:
die Menge an realen Trainingsdaten aus dem Internet;
leistungsstarke Parallelverarbeitungshardware, die ursprünglich für 3D-Videospielgrafik entwickelt wurde, sich jedoch bestens für KI eignet.
Seit die praktischen Anwendungen der modernen KI-Forschung den Sprung aus den Laboren in die Industrie geschafft haben, wurden auch Software-Tools nutzerfreundlicher gestaltet, Schulungsprogramme entwickelt und die Dokumentationen enorm verbessert. Mittlerweile haben Entwickler, Designer und Ingenieure ein ziemlich umfassendes Verständnis von KI-Methoden und deren Anwendbarkeit.
Zentrale Rolle der GPU
Ein entscheidender Faktor für eine effektive KI sind Grafikprozessoren (GPU). Heute entwickeln immer mehr GPU-Hersteller speziell auf KI zugeschnittene Funktionen und Software-Tools. Die erste Welle dieses Trends stützte sich auf die Parallelverarbeitungsfunktionen von GPUs. Doch die nächste Welle umfasst bereits Allzweckprozessoren für KI-Software, GPUs und spezielles KI-Silizium. Ein Beispiel sind die neuen CPU-Neural-Engine-Cores im iPhone von Apple. Auch ARM und Qualcomm arbeiten an KI-orientierten Prozessoren und Prozessorkernen. Solche dedizierten Chips können KI-Funktionen energiesparender und kompakter bereitstellen, weshalb sie sich ideal für Mobilgeräte, IoT und eingebettete Geräte eignen.
Onboard oder in der Cloud?
Um Probleme mit der Konnektivität, den Latenzzeiten und dem Datenschutz zu verhindern, wird KI bevorzugt in die Geräte integriert. Dem Datenschutz kommt dabei eine besondere Bedeutung zu, da KI auch personenbezogene Daten wie Kamera- und Audio-Input verarbeitet. Doch selbst wenn eine direkte Integration nicht möglich ist, kann heute dank der allgegenwärtigen Internetkonnektivität mit geringen Latenzzeiten und hoher Bandbreite fast jedes Gerät von zentralisierter KI in Rechenzentren profitieren. So können Übersetzungs- oder Navigations-Apps für Mobiltelefone die Verarbeitung auf zentrale Server auslagern, und Personal-Assistant-Apps können Daten zum Teil in der Cloud verarbeiten.
Cloud-Computing-Anbieter wie Amazon Web Services werben damit, dass ihre virtualisierten GPU-Instanzen in der Lage sind, Deep-Learning-Anwendungen auszuführen. Derzeit liegt es noch am Kunden, eine geeignete Software für solche Cloud-Services bereitzustellen. Doch es ist abzusehen, dass es früher oder später „KI as a Service“ geben wird. Bei diesem Modell sendet ein Gerät Daten an vorgefertigte KI-basierte Verarbeitungsdienste, die zu energieintensiv für eine lokale Ausführung sind, und erhält in Sekundenbruchteilen Ergebnisse.
Verändertes Debugging
Unternehmen, die KI in ihre Produkte integrieren möchten, müssen sich jedoch damit abfinden, dass es derzeit an erfahrenen Ingenieuren und Software-Entwicklern in diesem dynamischen Bereich fehlt. Zwar besteht Grund zur Hoffnung, dass sich der Fachkräftemangel im Laufe der Zeit erübrigen wird. Doch in der Zwischenzeit werden die Einstellungskosten für qualifizierte KI-Entwickler überdurchschnittlich hoch sein, und vielen Entwicklern fehlt es noch immer an praktischer Erfahrung.
Aber KI bringt noch eine weitere große Herausforderung mit sich: Sie erfordert grundlegende Veränderungen beim Debugging. Jedes Programm kann Fehler haben, doch KI erhöht das Risiko von Ergebnissen, die weit außerhalb der erwarteten Parameter liegen! Entsprechend hoch ist die Gefahr, dass KI unvorhersehbares Verhalten verursacht, und Hersteller können unmöglich garantieren, dass ihre Produkte immer erwartungsgemäß funktionieren.
Blick in die KI-Blackbox
Einige Entwickler betrachten fortschrittliche KI als mysteriöse Blackbox, die Daten einliest und Entscheidungen trifft. Dabei verstehen nicht einmal die Entwickler genau, was im Inneren der Box passiert. Sameep Tandon, der Mitbegründer und CEO von Drive.ai, einem Software-Entwickler für autonome Fahrzeuge, sieht ein erstzunehmendes Problem in diesem Blackbox-Dilemma. In einem Interview mit IEEE Spectrum skizziert er einige Methoden, mit deren Hilfe sich Risiken einzudämmen, ein Blick in die Blackbox werfen und Fehler in KI-basierten Systemen beheben lassen. Statt eine gewaltige KI für autonomes Fahren zu schaffen, kombiniert Drive.ai einzelne Module mit spezifischen Funktionen, die nicht alle zwangsläufig auf KI basieren. Durch diesen modularen Ansatz lassen sich problematische Komponenten einfacher isolieren und reparieren.
Zudem versucht das Unternehmen, beim Testen seiner Systeme die Eingabedaten einzuschränken. So wird bei Bilderkennungstests ein Großteil einer Szene ausgeblendet, um die Reaktion des Systems auf bestimmte Details untersuchen zu können. Dieser Isolationsansatz erinnert an traditionelles Debugging. Drive.ai kombiniert ihn aber mit umfassenden Simulationen, um verschiedenste geringfügige Abweichungen für Fahrszenarien zu testen, die Probleme bezüglich der eingesetzten KI verursachen. So erforscht das Unternehmen ungewöhnliches Verhalten und trainiert das System im Hinblick auf eine optimale Funktionsweise.
KI erfordert Umdenken
Es steht außer Frage, dass KI enormes Verbesserungspotenzial birgt. Da die Anwendungen jedoch nicht wie konventionelle Programme „geschrieben“, sondern in einem Lernprozess „trainiert“ werden, kann unerwartetes Verhalten auch in Zukunft ein Problem darstellen. Sicherheitskritische Anwendungen erfordern womöglich Redundanzen – mindestens zwei separate Programme oder Geräte, die sich über die beste Vorgehensweise abstimmen oder zumindest gegenseitig ihr Verhalten überwachen. Bei der Entwicklung neuer KI-basierter Produkte müssen Design- und Entwicklungsingenieure neue Wege gehen. Auch Endnutzer werden mehr von KI-basierten Tools profitieren, wenn sie sie nicht wie traditionelle Geräte verwenden, sondern als grundlegend neue Technologie anerkennen. Diese veränderte Wahrnehmung erfordert ein gut durchdachtes Design und Marketing sowie eine umfangreiche Schulung der Endnutzer.
Lesen Sie hier die ganze Ausgabe mit dem Fokusthema Künstliche Intelligenz