Angst vor disruptiven Cyberangriffen So wird Künstliche Intelligenz in der Cyberkriminalität genutzt

Mit Hilfe von Künstlicher Intelligenz könnten die Art der Cyberangriffe in Zukunft noch unberechenbarer und gefährlicher werden.

Bild: iStock, wildpixel
24.06.2024

Generative KI-Tools haben das Potenzial, in naher Zukunft wirklich disruptive Cyberangriffe zu ermöglichen. Doch gibt es schon heute neue kriminelle LLMs oder Angebote von ChatGPT-ähnlichen Fähigkeiten in Hacking-Software? Eine Analyse von Trend Micro zeigt die neuesten Entwicklungen und beleuchtet, welche Bedrohungen in der nahen Zukunft zu erwarten sind.

Während KI-Technologien in der Wirtschaft rasch an Akzeptanz gewinnen, gab es im vergangenen Jahr in der Welt der Cyberkriminalität zwar Versuche, eigene cyberkriminelle Large Language Models (LLMs) zu entwickeln, doch diese wurden weitgehend aufgegeben. Stattdessen verlegten sich die Kriminellen darauf, bestehende Modelle zu „jailbreaken“, das heißt, sie mit speziellen Tricks dazu zu bringen, ihre integrierten Sicherheitsvorkehrungen zu umgehen.

So gibt es inzwischen Angebote wie Jailbreaking-as-a-Service. Hierbei nutzen Kriminelle raffinierte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die eigentlich blockiert werden sollten. Diese Techniken reichen von Rollenspielen über hypothetische Szenarien bis hin zur Nutzung fremder Sprachen. Dienstanbieter wie OpenAI oder Google arbeiten daran, diese Sicherheitslücken zu schließen. Cyberkriminelle Nutzer wiederum müssen deshalb auf raffiniertere Jailbreaking-Prompts zurückgreifen. So ist ein Markt für eine neue Klasse von kriminellen Diensten in Form von Chatbot-Angeboten für Jailbreaking entstanden.

Untersuchung in kriminellen Untergrundforen

David Sancho, Senior Threat Researcher bei Trend Micro, sagt: „Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht. Deshalb hat sich Trend Micro in die kriminellen Untergrundforen begeben, um herauszufinden, wie Cyberkriminelle KI tatsächlich nutzen und einsetzen, um ihre Ziele zu erreichen und welche Art von KI-gestützten kriminellen Dienstleistungen angeboten werden. Dazu haben wir uns die Untergrundgespräche über KI angeschaut und festgestellt, dass das Interesse an generativer KI den allgemeinen Markttrends gefolgt ist, die Akzeptanz jedoch hinterherzuhinken scheint. Wir haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen. Darunter FraudGPT, DarkBARD, DarkBERT und DarkGPT, die viele Ähnlichkeiten aufweisen. Aus diesem Grund vermuten wir, dass sie höchstwahrscheinlich als Wrapper-Dienste für den legitimen ChatGPT oder Google BARD funktionieren – wir nennen sie Jailbreaking-as-a-Service-Dienste. Wir haben auch andere möglicherweise gefälschte kriminelle LLM-Angebote untersucht: WolfGPT, XXXGPT und Evil-GPT. Dabei befassen wir uns auch mit Deepfake-Diensten für Kriminelle: Wir haben Preise und einige frühe Geschäftsmodelle rund um diese KI-gestützten gefälschten Bilder und Videos gesehen.“

Deepfake-Services auf dem Vormarsch

Zwar gibt es Deepfakes schon länger, aber erst kürzlich wurden echte cyberkriminelle Angebote entdeckt. Kriminelle bieten Deepfake-Dienste an, um Systeme zur Identitätsüberprüfung zu umgehen. Besonders im Finanzsektor wird dies zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen.

Die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Dabei reicht oft schon ein gestohlenes Ausweisdokument, um ein überzeugendes Fake-Bild zu erstellen.

Was bedeutet das für die Zukunft?

Die Entwicklungen zeigen, dass Kriminelle immer neue Wege finden, KI-Technologien zu missbrauchen. Obwohl die große Disruption bisher ausgeblieben ist, ist es nur eine Frage der Zeit, bis ernsthaftere Angriffe zu erwarten sind. Unternehmen und Privatpersonen müssen deshalb wachsam bleiben und ihre Cybersicherheitsmaßnahmen stetig verbessern, um gegen diese Bedrohungen gewappnet zu sein. Drei grundlegende Regeln cyberkrimineller Geschäftsmodelle werden dabei ausschlaggebend sein, wann bösartige Akteure in großem Stil auf GenAI setzen:

  1. Kriminelle wollen ein leichtes Leben: Ziel ist es, mit möglichst geringem Aufwand und niedrigem Risiko ein bestimmtes wirtschaftliches Ergebnis zu erreichen.

  2. Neue Technologien müssen besser sein als vorhandene Tools: Kriminelle übernehmen neue Technologien nur, wenn die Rendite höher ist als bei den bestehenden Methoden.

  3. Evolution statt Revolution: Kriminelle bevorzugen schrittweise Anpassungen statt umfassender Überarbeitungen, um neue Risikofaktoren zu vermeiden.

Fazit

Der Bedarf an einem sicheren, anonymen und nicht nachverfolgbaren Zugang zu LLMs bleibt bestehen. Dies wird kriminelle Dienste dazu veranlassen, sich immer wieder neue LLMs zunutze zu machen, die einfacher zu jailbreaken oder auf ihre speziellen Bedürfnisse zugeschnitten sind. Derzeit gibt es mehr als 6.700 leicht verfügbare LLMs auf der KI-Community-Plattform Hugging Face.

Es ist auch davon auszugehen, dass immer mehr alte und neue kriminelle Tools GenAI-Funktionen integrieren werden. Cyberkriminelle haben gerade erst begonnen, an der Oberfläche der tatsächlichen Möglichkeiten zu kratzen, die GenAI ihnen bietet.

Firmen zu diesem Artikel
Verwandte Artikel