„Ich bin begeistert von den Fortschritten, die wir bereits im ersten Jahr erzielt haben“, sagt Professor Dr. Mario Fritz, CISPA-Faculty und Koordinator von Elsa, beim Treffen des Konsortiums zum einjährigen Jubiläum Ende September. Dieses erste gemeinsame Jahr, in dem Top-Experten auf den Gebieten des maschinellen Lernens und der Künstlichen Intelligenz ihr Wissen und ihre Erfahrung geteilt haben, ist erst der Auftakt. „Wir haben noch viel vor, um Künstliche Intelligenz robuster, sicherer und vertrauenswürdiger zu machen und sie so zum Wohl der Gesellschaft einsetzen zu können“, sagt Fritz.
ChatGPT und Co. schlagen hohe Wellen
Ein Thema, das viele Forschende im Elsa-Netzwerk intensiv beschäftigt hat und weiterhin beschäftigten wird, sind sogenannte Large Language Modelle. Mit Veröffentlichung von ChatGPT und anderen Chatbots, wurden sie der breiten Öffentlichkeit zugänglich. Die moderne Lerntechnologie, die darin steckt, muss laut Fritz nachhaltig und sicher zum Erfolg gebracht werden. „Wie wir gesehen haben, haben die Modelle bislang aber noch enorme Schwächen.“
Fritz und sein Team konnten im Frühjahr zusammen mit CISPA-Faculty Prof. Dr. Thorsten Holz und dem Saarbrücker IT-Unternehmen Sequire Technology kritische Schwachstellen aufdecken, die die Modelle manipulier- und angreifbar machen. Die Veröffentlichung ihres Papers hat unter anderem dazu geführt, dass das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) ein ausführliches Positionspapier zu dem Thema mit dem Titel „Große KI-Sprachmodelle - Chancen und Risiken für Industrie und Behörden“ verfasste.
Strategische Aufstellung der Netzwerke
So wie in Elsa viele intelligente Köpfe ihre Kräfte bündeln, tun das auch die NoEs. Gemeinsam haben sie eine Joint Research Agenda verfasst, die aufzeigt, wie sie gemeinsam den Weg für den sicheren Einsatz Künstlicher Intelligenz ebnen wollen. Elsa fokussiert sich dabei auf drei große Herausforderungen: technisch robuste und sichere KI-Systeme zu entwickeln, datenschutzfreundliches und robustes kollaboratives Lernen zu ermöglichen und menschliche Kontrollmechanismen für den ethischen und sicheren Einsatz von KI zu entwickeln.
Die konkreten Anwendungsfälle, die Elsa in den Blick nimmt, sind Gesundheit, autonomes Fahren, Robotik, Cybersicherheit, Medien und Dokumentenintelligenz. Das Elsa-Netzwerk verfolgt dabei einen grundlegenden, transparenten und interdisziplinären Ansatz. Die von Elsa im November veröffentlichte strategische Forschungsagenda gibt Interessierten eine Übersicht, wie Elsas Arbeit an diesen Herausforderungen ganz konkret aussehen wird.
KI sicher „auf die Straße bringen“ – Elsa setzt Maßstäbe
Um die von Elsa-Forschenden entwickelten Technologien und Methoden unter realen Bedingungen zu testen und ihre Anwendungsreife bewerten zu können, hat Elsa 2023 eine Benchmarks-Plattform veröffentlicht. Über diese Plattform werden innerhalb des Netzwerks Daten und Metriken geteilt und sogenannte „Competitions“ zu den sechs Elsa-Use-Cases veröffentlicht. Das sorgt dafür, dass das Netzwerk messbare Fortschritte erzielt und immer wieder die Forschungsaktivitäten mit realen Bedürfnissen und Anwendungen verknüpft werden.
Im Mai hat Elsa zudem kleine und mittelständische Unternehmen sowie Start-ups aufgerufen, sich um Förderung zu bewerben und zusammen mit Elsa-Forschenden an Methoden, Benchmarks und Softwarelösungen zu arbeiten und diese in die industrielle Anwendung zu bringen.
Sechs Startups wurden dazu kürzlich von einem Experten-Gremium ausgewählt. Sie erhalten über Elsa jeweils rund 60.000 Euro EU-Förderung und werden zusammen mit ausgewählten Konsortiumsmitgliedern an konkreten Projekten arbeiten. Im Januar 2024 wird Elsa verkünden, welche jungen Unternehmen es sind, die mit ihren Vorschlägen im Industry Call überzeugen konnten.
Auftakt geglückt
Ein Netzwerk dieser Größe aufzubauen, ist keine leichte Aufgabe. Das Jahr 2023 zeigt allerdings, dass Elsa enormes Potenzial hat, die komplexen Herausforderungen moderner KI-Lösungen erfolgreich anzugehen. Elsa-Konsortiumsmitglied Battista Biggio, Associate Professor an der Universität Cagliari und Mitbegründer des Cybersicherheitsunternehmens Pluribus One, sagt: „Die Arbeit von Elsa im Bereich der sicheren KI schreitet in rasantem Tempo voran, insbesondere was das Testen, die Verifizierung und die zertifizierbare Robustheit von KI betrifft.“
Doch es braucht auch politischen und gesellschaftlichen Willen, um die Sicherheit von KI-Systemen ganz oben auf die Agenda zu heben. „Es wird derzeit viel in die Weiterentwicklung Künstlicher Intelligenz investiert, mindestens genauso viel, wenn nicht sogar deutlich mehr, müsste in die Sicherheit dieser Technologien fließen“, sagt Fritz. Dazu braucht es gemeinsame Kraftanstrengungen. Dass diese sich lohnen, hat das Elsa-Netzwerk 2023 mehr als deutlich gezeigt.