Nicht selten hat man es beim Einsatz von KI in KRITIS mit sensiblen Daten zu tun: Trainingsdaten kommen etwa aus CT-Scans und medizinischen Diagnosen. Eine Manipulation im Machine-Learning-Lebenszyklus, der zu einer falschen Klassifikation führt, hätte unter Umständen fatale Auswirkungen. Auch das geistige Eigentum trainierter Modelle will geschützt sein.
All dies macht es notwendig, KI-Anwendungen gegen verschiedenste Arten von Angriffen zu schützen. Welche potenziellen Angriffe auf den Machine-Learning-Lifecycle es gibt, was die entsprechenden Auswirkungen wären, und welche Gegenmaßnahmen getrofen werden können zeigte Dr. Carmen Kempka, Wibu-Systems, in ihrem Vortrag „Schutz für KI-Anwendungen und Modelle“.
Vita
Dr. Carmen Kempka studierte Informatik mit den Schwerpunkten Kryptographie und Quantencomputing an der Universität Karlsruhe (TH), heute KIT. Nach ihrer Promotion am KIT im Bereich Kryptographie war sie für zwei Jahre als Postdoctoral Researcher in den Secure Platform Laboratories bei NTT in Japan. Ende 2016 begann sie ihre Tätigkeit bei der WIibu-Systems, wo sie nun als Leiterin der Abteilung Corporate Technology mit ihrem Team ihre Kollegen in allen Fragen rund um Kryptographie und Product Security unterstützt.