Googles Threat Intelligence Group (GTIG) hat eine bedeutende Veränderung in der globalen Cyber-Bedrohungslandschaft aufgedeckt und enthüllt, dass Angreifer künstliche Intelligenz (KI) nicht länger ausschließlich für Produktivität oder Automatisierung verwenden. Stattdessen integrieren sie jetzt KI direkt in aktive Operationen und schaffen Malware, die ihren eigenen Code umschreiben und sich in Echtzeit anpassen kann.

Eine neue Phase KI-gestützter Angriffe

In ihrer neuesten Bedrohungsanalyse bestätigte GTIG, dass staatlich unterstützte und kriminelle Gruppen begonnen haben, große Sprachmodelle (LLMs) zu nutzen, um während der Ausführung bösartigen Code dynamisch zu erzeugen, zu modifizieren und zu verschleiern. Diese Entwicklung markiert, was Google als „eine neue operative Phase des KI-Missbrauchs“ bezeichnet, in der Werkzeuge in der Lage sind, ihr Verhalten während der Laufzeit anzupassen.

Der Bericht erweitert Googles Veröffentlichung vom Januar 2025, „Adversarial Misuse of Generative AI“, und beschreibt im Detail, wie Gegner mit KI über den gesamten Angriffszyklus hinweg experimentieren — von Aufklärung und Phishing bis hin zu Kommando- und Kontroll-Operationen.

„Diese Erkenntnisse zeigen, dass Bedrohungsakteure KI-gestützte Werkzeuge einsetzen, die Verhalten während der Ausführung dynamisch verändern“, schrieb GTIG und beschrieb einen kritischen Wendepunkt für die Cybersicherheit.

Der Aufstieg der „Just-in-Time“-Malware-Generierung

Zum ersten Mal identifizierte Google Malware-Familien wie PROMPTFLUX und PROMPTSTEAL, die sich auf LLMs verlassen, um bösartige Skripte bei Bedarf zu erstellen. GTIG nennt diesen Prozess „Just-in-Time-Code-Erstellung“. Anstatt bösartige Funktionen direkt in Binärdateien einzubetten, fragen diese Programme LLMs wie Gemini oder Qwen2.5-Coder während der Laufzeit ab, um ihre Logik zu erzeugen oder zu verändern.

Dieser Ansatz macht Erkennung erheblich schwieriger. Jede neue Instanz kann ihren Code regenerieren, wodurch signaturbasierte Abwehrmaßnahmen praktisch wirkungslos werden. Laut Google könnte diese sich entwickelnde Technik den Beginn autonomerer, KI-gesteuerter Malware-Ökosysteme signalisieren.

PROMPTFLUX: Das sich selbst umschreibende VBScript

Der Bericht von GTIG beschreibt PROMPTFLUX als eine frühe, experimentelle Malware-Familie, die in VBScript geschrieben ist. Sie kommuniziert mit der Gemini-API, um bei jeder Ausführung benutzerdefinierte Verschleierungstechniken anzufordern und so „Just-in-Time“-Selbstmodifikation zu ermöglichen.

Die Schlüsselkomponente der Malware, bekannt als das „Thinking Robot“-Modul, fragt regelmäßig Gemini ab, um VBScript-Code zu erhalten, der darauf ausgelegt ist, Antiviren-Erkennung zu umgehen. Während der Ausführung verwendet sie einen hartcodierten API-Schlüssel, um POST-Anfragen an Geminis Endpoint zu senden, wobei stets die neueste Modellversion gemini-1.5-flash-latest aufgerufen wird.

Obwohl PROMPTFLUX derzeit in der Entwicklung ist und nicht in der Lage ist, Geräte zu kompromittieren, betont Google, dass das Design der Malware auf die Absicht hinweist, einen adaptiven, metamorphischen Code-Generator zu schaffen, der sich unbegrenzt selbst umschreiben kann, um Erkennung zu widerstehen.

GTIG bemerkte, dass mehrere Iterationen von PROMPTFLUX bereits erschienen sind, wobei einige das „Thinking Robot“-Feature durch neue Funktionen wie „Thinging“ ersetzt haben, die das LLM anweisen, den gesamten Quellcode jede Stunde neu zu generieren.

PROMPTSTEAL: KI-gesteuerter Datendiebstahl

Ein weiterer Stamm, PROMPTSTEAL, wurde mit der russisch staatlich unterstützten Gruppe APT28 (auch bekannt als FROZENLAKE) in Verbindung gebracht und in Angriffen gegen die Ukraine verwendet. Die Malware nutzt das Modell Qwen2.5-Coder-32B-Instruct, das auf Hugging Face gehostet wird, um Befehle zu generieren, die sensible Dokumente und Systeminformationen sammeln.

Anstatt spezifische Befehle in ihrem Code einzubetten, tarnt sich PROMPTSTEAL als harmloses Bildgenerierungsprogramm. Hinter den Kulissen fragt es eine API ab, um Einzeilen-Windows-Befehle zum Exfiltrieren von Benutzerdaten zu erstellen und führt sie dann automatisch aus.

GTIG identifizierte Prompts, die das Modell anweisen, Folgendes zu tun:

  • Verzeichnisse erstellen und Systeminformationen sammeln
  • PDF-, TXT- und Office-Dokumente aus lokalen Ordnern kopieren
  • Die Daten in einer einzigen Datei für Exfiltration verpacken

Diese Anfragen stellen die ersten beobachteten Beispiele für Malware dar, die ein LLM nutzt, um während Live-Operationen ausführbaren Code zu erzeugen.

Breiterer Missbrauch und Gegenmaßnahmen

Der Bericht hebt auch Versuche von Bedrohungsakteuren aus China, Nordkorea und Iran hervor, LLMs wie Gemini für Phishing-Inhalte, Infrastrukturaufbau und Exploit-Entwicklung auszunutzen. Einige Angreifer verwendeten sogar Social-Engineering-Prompts und rahmten ihre Anfragen als harmlose „Capture-the-Flag“-Wettbewerbe, um Sicherheitsfilter zu umgehen.

Google sagt, es habe sofort Maßnahmen ergriffen, um diese bösartigen Operationen zu stören, indem es Konten und Assets deaktivierte, die mit KI-Missbrauch in Verbindung stehen. Die DeepMind-Abteilung des Unternehmens hat ebenfalls Geminis interne Schutzmechanismen verstärkt, Modellklassifikatoren und Prompt-Moderation aktualisiert, um ähnlichen Missbrauch zu verhindern.

„Bei Google sind wir verpflichtet, KI verantwortungsvoll zu entwickeln, und ergreifen proaktive Schritte, um bösartige Aktivitäten zu stören, indem wir Projekte und Konten von böswilligen Akteuren deaktivieren“, heißt es im Bericht.

Sichere und verantwortungsvolle KI aufbauen

Google betonte, dass diese Erkenntnisse die Bedeutung unterstreichen, KI mit robusten Sicherheitsvorkehrungen zu entwickeln. Durch Initiativen wie das Secure AI Framework (SAIF) arbeitet das Unternehmen daran, Best Practices für die Absicherung von Machine-Learning-Systemen zu etablieren, während es der Branche ermöglicht, KI-gesteuerte Bedrohungen zu erkennen und zu mildern.

Der Aufstieg von „Just-in-Time“-Code-generierender Malware zeigt, dass Gegner genauso schnell innovieren wie Verteidiger. Wie GTIG anmerkt, wird die Herausforderung für Cybersicherheit in Zukunft darin bestehen, sicherzustellen, dass KI-Modelle, die dazu bestimmt sind, Menschen zu befähigen, nicht zu Werkzeugen der automatisierten Schädigung werden.

Amazon und OpenAI kündigen $38-Milliarden-Partnerschaft an, um die nächste Generation von KI anzutreiben | HODLFM.DE
Amazon und OpenAI schließen einen $38-Mrd-Deal, um modernste…
hodl-post-image

Haftungsausschluss: Alle Materialien auf dieser Seite dienen nur zu Informationszwecken. Keines der Materialien sollte als Anlageberatung interpretiert werden. Bitte beachten Sie, dass trotz der Art vieler Materialien, die auf dieser Website erstellt und gehostet werden, HODLFM.DE keine Finanzreferenzressource ist und die Meinungen von Autoren und anderen Mitwirkenden ihre eigenen sind und nicht als finanzielle Beratung aufgefasst werden sollten. Wenn Sie eine solche Beratung benötigen, empfiehlt HODLFM.DE dringend, sich an einen qualifizierten Fachmann der Branche zu wenden.