Spätestens seit ChatGPT hat das Thema Künstliche Intelligenz (KI) eine breite Öffentlichkeit erreicht. Der Chatbot machte auch vielen, bislang an KI weniger bis gar nicht interessierten Menschen deutlich, was mit diesen Technologien alles schon möglich ist, welches Potenzial darin steckt.
Inzwischen referiert sogar Bundeskanzler Olaf Scholz im TV in einem KI-generierten Werbespot über die „Bild“-Zeitung. Das demonstriert beispielhaft, welche Optionen der Beeinflussung mittels Fakes sich durch KI auftun, wenn auf die Manipulationen nicht wie im Fall der Bild-Werbekampagne hingewiesen wird.
Ausmaß der Deep Fakes
Da kann es nicht verwundern, dass in den Debatten um KI auch deren Auswirkungen auf Politik und Gesellschaft immer breiteren Raum einnehmen. Zumal die Medien immer öfter über gezielte Desinformationskampagnen berichten: etwa im Zusammenhang mit anstehenden Wahlen in verschiedenen Ländern oder der Berichterstattung über kriegerische Auseinandersetzungen.
Immerhin erlaubt KI bereits niedrigschwellig tiefgreifende Veränderungen an Bildern, Videos und Tonaufzeichnungen. Schon ohne größere Fachkenntnisse sind inzwischen Deep Fakes machbar, die Manipulationen bis hin zu groben Fälschungen zulassen.
Diese Entwicklung beunruhigt unterdessen immer mehr Bundesbürger. In einer repräsentativen Umfrage des Meinungsforschungsinstituts Forsa im Auftrag des TÜV-Verbands gab jetzt eine relative Mehrheit von 46 Prozent der Befragten an, dass nach ihrer Meinung Künstliche Intelligenz eine Gefahr für die Demokratie darstelle. Auf der anderen Seite sehen 43 Prozent dieses Risiko derzeit nicht, wie der TÜV-Verband mitteilte. Und 11 Prozent antworteten unsicher mit „weiß nicht“. Für die Erhebung wurden 1.008 Personen ab 16 Jahren befragt.
Europäische KI-Verordnung
Mit dem Ziel, einen europäischen Rechtsrahmen für sichere und vertrauenswürdige KI zu schaffen, haben sich die EU-Staaten jetzt auf das weltweit erste Gesetz zur Künstlichen Intelligenz, die sogenannte europäische KI-Verordnung (AI Act) verständigt. Der TÜV-Verband begrüßte die Zustimmung des Rats zu dem KI-Gesetz, das der Anwendung von KI auf europäischer Ebene „klare Leitplanken“ setzen soll, „um die Entwicklung und den Einsatz Künstlicher Intelligenz zu leiten“, wie es EU-Kommissionschefin Ursula von der Leyen formulierte.
Nach Einschätzung des TÜV-Verbands ist insbesondere der risikobasierte Ansatz bei der Bewertung von KI positiv zu sehen. Danach haben nur KI-Systeme, die als hoch riskant eingestuft werden, verpflichtende Sicherheitsanforderungen zu erfüllen. Hierzu zählen etwa KI-Systeme in den Bereichen Medizinprodukte oder kritische Infrastrukturen.
Aus Sicht des TÜV-Verbands ist es wichtig, dass hoch riskante KI-Systeme zwingend von einer unabhängigen Prüfstelle geprüft werden müssen. Denn nur so könne sichergestellt werden, dass alle Anforderungen an Transparenz, Datenqualität oder Cybersicherheit eingehalten werden, argumentiert der Verband.
Dagegen vertritt Prof. Dr. Marco Barenkamp, Gründer, langjähriger Vorstandsvorsitzender und seit 2023 stellvertretender Aufsichtsratsvorsitzender der auf KI-Entwicklungen spezialisierten Osnabrücker Unternehmens LMIS, die Ansicht, dass eine KI-Verordnung nicht zwingend nötig gewesen wäre. Denn viele der Hochrisikoanwendungsszenarien seien bereits über geltende Verordnungen reguliert, stellt der KI-Experte fest.
Er wirft zudem die Frage auf, wer die Einhaltung der jetzt definierten Vorgaben später kontrollieren soll? Der Aufbau des dafür vorgesehenen Verwaltungsapparats koste viel Steuergeld, gibt Prof. Barenkamp zu bedenken, wenn überhaupt Menschen für eine solche Aufgabe gefunden würden, die das technisch und fachlich beurteilen könnten.
Dennoch hält es der promovierte Wirtschaftsinformatiker und Wirtschaftsjurist für gut, auch wenn es für ihn selbst widersprüchlich klingt, dass es jetzt einen Kompromiss hinsichtlich einer KI-Regulierung in der EU gibt. Denn letztlich gebe sie den betroffenen Unternehmen Rechtssicherheit, argumentiert Prof. Barenkamp. Die Alternative wäre ein weiteres Verharren in einer Art „Parkzustand“, der bislang einen Investitions- und Umsetzungsstau in diesem Bereich zur Folge hatte, meint der Experte.
Sorge in der Bevölkerung
Nicht zuletzt soll die europäische KI-Verordnung auch die Bedenken vieler EU-Bürger in Bezug auf Künstliche Intelligenz und ihre gesellschaftlichen Auswirkungen zerstreuen. Die wurden in der TÜV-Erhebung deutlich, in der immerhin 91 Prozent der Befragten ihrer Befürchtung Ausdruck verliehen, dass etwa kaum noch erkennbar sei beziehungsweise sein werde, ob Fotos oder Videos echt oder gefälscht sind.
Auch der Wahrheitsgehalt von Texten, die mithilfe von KI erzeugt wurden, sei nicht mehr nachvollziehbar, sagen 83 Prozent. Und 81 Prozent der Befragungsteilnehmer erwarten, dass KI die Verbreitung von „Fake News“ massiv beschleunigen wird.
Neben den nachweislich großen Chancen in Bereichen wie etwa der Medizin, der Mobilität oder der Robotik, die sich durch Künstliche Intelligenz ergeben, werde die Technologie unterdessen auch als eine gesamtgesellschaftliche Herausforderung wahrgenommen, erklärte dazu der Geschäftsführer des TÜV-Verbands, Dr. Joachim Bühler, jüngst anlässlich des World Economic Forums in Davos. Denn KI-Systeme könnten dafür genutzt werden, Desinformation zu verbreiten und die Polarisierung der Gesellschaft weiter zu verstärken.
In dem Zusammenhang hob Bühler die im sogenannten Superwahljahr 2024 anstehenden Wahlen in den USA und auch in Europa hervor. Dabei dürfe KI nicht zur „Achillesferse der Demokratie“ werden, warnte der TÜV-Geschäftsführer.
Desinformation gab es schon immer, aber...
Obwohl Manipulationen und Fälschungen schon immer ein Teil politischer Kommunikation gewesen seien, verschiebe generative KI hier die Gewichte, stellt auch die Bundesanstalt für politische Bildung (BPB) fest. Denn viel mehr Akteure als früher erhielten durch die Anwendungen von KI die Möglichkeit, auch komplexe Medienarten schnell und täuschend echt zu verändern. Und gerade diesen Formaten schreibt die BPB einen besonders großen Einfluss auf den öffentlichen Diskurs zu. Denn das, was man sieht oder hört, mache oft einen größeren Eindruck als das, was man liest, heißt es zur Begründung.
Mit der Qualität manipulativer Eingriffe nimmt danach sowohl die Schwierigkeit zu, Desinformationen zu entdecken, als auch das Problem, diese dann erfolgreich zu kontern. Insofern könnten gerade strategisch agierende Akteure von generativer KI profitieren und die entstehenden Potenziale ausnutzen, um etwa Radikalisierungsprozesse zu vertiefen, warnt die BPB.
Auch in dieser Beziehung soll der europäische AI Act einen Sicherheit gebenden Rechtsrahmen schaffen, um die notwendige Akzeptanz bei den EU-Bürgern zu erreichen, die notwendig ist für die weitere Entwicklung und den Einsatz Künstlicher Intelligenz in der Gemeinschaft.
Mit dem risikobasierten Ansatz der KI-Verordnung schaffe der EU-Gesetzgeber die richtige Balance zwischen Innovationsoffenheit und dem notwendigen Schutzniveau, kommentierte TÜV-Geschäftsführer Bühler die Zustimmung des Europäischen Rates zur KI-Regulierung. Bühler geht daher davon aus, dass der AI Act den Erfolg europäischer KI-Anbieter unterstützen wird, „indem er Sicherheit und Vertrauen als wichtiges Alleinstellungsmerkmal von KI ‚Made in Europe‘ fördert.“
Markteintritt erschwert
In dem Zusammenhang gibt Prof. Barenkamp allerdings zu bedenken, dass gerade die „Großen“ der Branche den AI Act als Erfolg werten dürften, da die Verordnung beachtliche Markteintrittsbarrieren aufbaue, die Unternehmen wie Google, OpenAI & Microsoft oder auch Meta und so weiter bereits genommen hätten.
Auch könnten diese Schwergewichte im Markt leicht die finanziellen Mittel aufbringen, um die geforderten zusätzlichen Maßnahmen umzusetzen, fügt der KI-Fachmann hinzu. Dabei bezieht er sich konkret auf die Auflagen im Bereich der General Purpose AI sowie der für Hersteller sogenannter Foundation-Modelle, die zwar nicht als Hochrisiko-Anwendung kategorisiert sind, aber ähnliche Auflagen haben.
Als „Foundation Modell“ werden Deep-Learning-Algorithmen bezeichnet, die nicht für eine einzige Aufgabe trainiert werden, sondern als „Basismodell“ für eine Vielzahl verschiedener Aufgaben genutzt werden können. Solche Foundation-Modelle sind insofern vielseitig anwendbar, aber auch sehr kostenintensiv in der Erstellung.
Wenn sich Europa damit abfinde, bei den Foundation-Modellen im Grunde genommen von außer-europäischen Lösungen abhängig zu sein, ähnlich wie bei Office- und Betriebssystemen, dann biete der Rechtsrahmen des AI Act Möglichkeiten, tragfähige Geschäftsmodelle auf Basis der Grundtechnologie zu entwickeln, meint Prof. Barenkamp.
„Wir müssen dafür aber meiner Einschätzung nach die geltende Datenschutzverordnung als USP (Unique Selling Point – Alleinstellungsmerkmal, die Red.) und nicht als Hindernis sehen, um tatsächlich hochqualitative KI-Lösungen mit dem Claim „Digitally Made in Germany“ zu exportieren, ähnlich wie wir es seit Dekaden etwa im Maschinenbau taten und konnten“, mahnt der Unternehmer und Wirtschaftswissenschaftler.
Hoffnungen setzt er insbesondere auf die Entwicklung der Quanten-Computer, die als „Schlüsseltechnologie der Zukunft mit enormem Potenzial für unsere Gesellschaft und Wirtschaft“ gelten, wie es Bundesforschungsministerin Bettina Stark-Watzinger formuliert. Bei der Entwicklung dieser „nächsten IT-Revolution“ gilt Deutschland als gut positioniert. „Hier haben wir aus meiner Sicht gute Resultate erzielt“, sagt Prof. Barenkamp, „vielleicht schaffen wir es ja, daraus etwas zu machen...“