Moderne Videotechnologie gepaart mit Künstlicher Intelligenz ergibt eine Mischung, die einen Krieg entscheiden oder zumindest die Bevölkerung auf einen solchen einschwören kann. Viele Menschen tragen die Technologie dazu in ihrer Hosentasche mit sich herum. Und das Netz vergisst nicht so einfach.
Dass Fotomaterial sich fälschen lässt, ist nicht neu. Seit Fotografen mit Glasplatten, Silberiodid und Äther hantierten, um ihre Bilder zu machen, gibt es Manipulationen und Fälschungen. Von der Tilgung Leon Trotzkis aus Fotos durch das Stalinistische Regime bis hin zu angeblichen Beweisen für die Abschüsse feindlicher Flugzeuge.
Wo früher noch Negative mit haarfeinen Pinseln, Mikroskop und speziellen Farben umgearbeitet wurden, kann heute jeder auch an einem älteren Laptop auf einer Bahnfahrt täuschend echt anmutende Manipulationen an digitalen Bildern produzieren. Seit einigen Jahren gilt das auch für Videos, die lange Zeit noch als „unantastbar“ galten, wenn es um Fälschungen ging. Denn es war ganz einfach zu aufwändig und zu teuer.
Lange Zeit war es daher den großen Filmstudios in Hollywood vorbehalten, in monatelanger und millionenteurer mühevoller Feinarbeit längst verstorbene Schauspieler und Schauspielerinnen wieder auferstehen zu lassen. Prominenteste Beispiele der jüngeren Vergangenheit: Peter Cushing und Carrie Fisher, die in den letzten „Star Wars“-Filmen wieder auf der großen Leinwand zu sehen waren.
Rezept für einen Deepfake
Eine qualitativ hochwertige Fälschung zu erstellen, braucht auch heute noch Zeit. Doch die Technologie ist mittlerweile erschwinglich genug, dass sie sich selbst Privatpersonen leisten können. Wer heute Deepfakes erstellt, muss zudem weit weniger Aufwand betreiben. Denn im Gegensatz zu den Hollywood-Produktionen muss ein Deepfake nur auf einem kompakten Smartphone-Display oder maximal einem Fernseher bestehen und nicht auf der großen Kinoleinwand. Alles, was es dazu braucht, ist die richtige Software, ausreichend Bild- und Tonmaterial – und eben Zeit.
Es sind gerade Personen des öffentlichen Lebens, die besonders gute Vorlagen für Deepfakes abgeben. Denn von ihnen gibt es in der Regel das beste Ausgangsmaterial in Form von Bildern und Videos – und auch Tonaufnahmen. Je weniger Bewegung im Bild ist, desto einfacher wird es. Kontrollierte Beleuchtungssituationen mit wenig Variation versprechen hier den meisten Erfolg. Und gerade Politiker und Politikerinnen sind nicht dafür bekannt, sich am Rednerpult viel zu bewegen. Perfekte Voraussetzungen also für überzeugend wirkende Fälschungen.
Auch im aktuellen Ukraine-Krieg spielten Deepfakes bereits eine Rolle. So tauchte ein Video auf, in dem der ukrainische Präsident Wolodymyr Selenskyj seine Landsleute angeblich aufforderte, die Waffen niederzulegen. Das Video war zwar schnell als Fälschung enttarnt, zeigte aber deutlich die Geschwindigkeit, in der gegnerische Konfliktparteien solche vermeintlichen Nachrichten lancieren
Pionierarbeit
Eine der wesentlichen Grundlagen, die Deepfakes erst so realistisch erscheinen lassen, ist die Gesichtserkennung. Nebenbei bemerkt ist das eine Technologie, bei der ausgerechnet ein ukrainisches Startup-Unternehmen Pionierarbeit geleistet hat und das 2015 für 150 Millionen Dollar von Snapchat übernommen wurde. Dort fand die Gesichtserkennungstechnologie Verwendung in Snapchat-Filtern, mit denen sich Menschen in Videos etwa selbst Hüte oder Sonnenbrillen aufsetzen oder ihr Gesicht verfremden konnten – und all das in Echtzeit. Ein lustiger, harmloser Spaß eben. Doch die Technologie kann mehr – viel mehr.
Auch Privatpersonen sind vor Deepfakes nicht sicher: Die australische Juristin Noelle Martin hat sich beispielsweise mit der Tatsache befassen müssen, dass ohne ihr Wissen oder ihr Zutun ihr Konterfei in Pornofilmen auftauchte, für die sie erwiesenermaßen nie vor der Kamera stand. Überhaupt hat die Pornoindustrie die technische Entwicklung und Verbreitung von Deepfakes massiv beschleunigt – auch wenn diese Tatsache unbequem erscheinen mag. Ein solcher Fake kann schlimmstenfalls auch das Privatleben schädigen und die berufliche Laufbahn von Menschen zerstören.
Stimme der (Un-)Vernunft
Hersteller wie etwa Adobe haben Beeindruckendes auf dem Gebiet geleistet. So ist etwa das 2016 auf einer Adobe-Konferenz vorgestellte Programm „Voco“ (lateinisch „Ich rufe“) dazu geeignet, Menschen Worte in den Mund zu legen, die diese nie gesagt haben. Alles, was dafür benötigt wird, ist genug Ausgangsmaterial. Daraus kann das Programm eine synthetische und täuschend echte Version der Stimme erstellen. Es genügen bereits etwa 20 Minuten Tonmaterial. Einmal erstellt, plappert Voco alles nach, was der Anwender in einem Texteingabefeld eingibt.
So könnte man beispielsweise Bundeskanzler Olaf Scholz Witze erzählen oder einen Präsidenten eines angegriffenen Landes die Kapitulation erklären lassen. Seit 2018 ist es still um Voco geworden. In der englischsprachigen Ausgabe von Wikipedia heißt es, Voco wäre als „research prototype“ gedacht gewesen und nie für eine Veröffentlichung vorgesehen gewesen. Nicht zuletzt auch aufgrund ethischer Bedenken gilt es als unwahrscheinlich, dass das Programm je auf den Markt kommen wird.
Doch andere Anbieter haben parallel dazu bereits Programme auf den Markt gebracht, die ähnliche Fähigkeiten haben. Wie gut und überzeugend diese Stimm-Fakes sind, davon zeugen einige Video-Demonstrationen, in denen Barack Obama vermeintlich den zu dieser Zeit amtierenden US-Präsidenten Donald Trump vor laufender Kamera als kompletten Vollidioten („complete dipshit“) bezeichnet.
Wahrheitsfindung 2.0
Doch wie lässt sich Wahres von Unwahrem unterscheiden? Natürlich existieren auch sehr krude Fälschungen, die schnell zu enttarnen sind. Einfach kopierte Bildelemente und offensichtliche Bildfehler lassen sich oft schon mit bloßem Auge erkennen. Doch ein wirklich gut gemachter Fake, ist auch für das geübte Auge kaum zu entlarven. Hier spielt mit dem Internet auch der Verbreitungsweg eines Fake-Videos eine Rolle. Mit jedem erneuten Upload einer Kopie des Originals gehen Daten verloren, die bei der Enttarnung eines Fakes helfen können. Je öfter ein Video heruntergeladen, kopiert und erneut geteilt wird, desto weniger wahrscheinlich ist es, dass die Fälschung auffliegt. Videoartefakte, die gerade bei niedrigen Auflösungen unvermeidbar sind, machen jeden Versuch der Analyse zu einem Glücksspiel.
Das ist in etwa vergleichbar mit dem Qualitätsverlust eines Bildes beim Fotokopieren. Wird immer die Kopie einer Kopie einer Kopie vervielfältigt, ist irgendwann nur noch wenig erkennbar. Die momentan einzige Möglichkeit besteht darin, Deepfakes mit ihren eigenen Werkzeugen zu schlagen: Die mit Hilfe künstlicher Intelligenz geschaffenen Fakes durch eine andere künstliche Intelligenz zu analysieren und letztlich zu entlarven. Doch selbst dem sind Grenzen gesetzt. Ein zigfach kopiertes Video ist selbst für eine ausgereifte KI nicht mehr zuverlässig als Fälschung erkennbar.
Ein anderer, ebenfalls diskutierter Ansatz ist die Nutzung von Blockchain-Technologien zur Nachverfolgung von Videos im Netz, die aber in diesem Zusammenhang wenig praktikabel sein dürfte. Selbst wenn wir von der mangelnden Wirtschaftlichkeit und dem immensen Energieverbrauch einmal absehen.
Auf eine zeitnahe Berücksichtigung in der deutschen Rechtsprechung sollten wir nicht hoffen. Bisher gibt es keine Rechtsvorschriften, die sich speziell auf Deepfakes beziehen, auch wenn das Thema bereits seit Jahren an Bedeutung gewinnt. Es sind bis dato immer Einzelfallbetrachtungen, in denen die Auslegung eine Hauptrolle spielt.
Deepfake als Risikotechnologie
Alles in allem ist die gesamte Deepfake-Technologie mit unkalkulierbar hohen Risiken behaftet. Zum einen untergraben Deepfakes nachhaltig das Vertrauen von Menschen in Informationen. Manch einer mag sich fragen, was man überhaupt noch glauben kann. Das ist jedoch nicht zu verwechseln mit einer gesunden Skepsis, mit der Informationen behandelt werden sollten. Wer zum anderen gar nichts mehr glaubt, ist implizit – und verständlicherweise – verunsichert und tendenziell empfänglich für Narrative, die keinen Bezug mehr zur Realität haben.
Vielfach belächelte Verschwörungsmythen basieren auf genau diesem Gefühl der Verunsicherung und Angst. Verbunden mit einem empfundenen Exklusivitätsanspruch, der aus einem vermeintlichen Informationsvorteil erwächst, werden mit Deepfakes unterfütterte Falschmeldungen zu gesellschaftlichem und sozialem Sprengstoff. Und der macht Meinungen, beeinflusst Wahlen – und lenkt auch Kriege.