Gemini: Wie Cyberkriminelle Googles KI als Waffe nutzen

Google warnt vor dem gezielten Missbrauch seines KI-gestützten Assistenten Gemini durch staatlich unterstützte Hackergruppen. Die Bedrohungsanalyse von Googles Threat Intelligence Group (GTIG) zeigt, dass diese Akteure die KI nutzen, um Angriffsziele effizienter zu identifizieren und ihre Methoden zu verfeinern.
Gemini als Werkzeug für Cyberkriminelle
Gemini dient den Angreifern vor allem zur Verbesserung ihrer Arbeitsabläufe, nicht jedoch zur Entwicklung neuer Angriffsformen, die klassische Sicherheitsmechanismen umgehen. Laut dem Bericht des Sicherheitsportals Bleeping Computer setzen vor allem Advanced Persistent Threat (APT)-Gruppen aus China, dem Iran, Nordkorea und Russland auf das KI-Tool.
Die identifizierten Anwendungsbereiche, in denen Hacker-Gruppen Googles KI-System Gemini einsetzen, sind vielfältig und zeigen, wie fortschrittliche Technologien missbraucht werden können. Ein zentraler Anwendungsfall ist die Unterstützung bei der Entwicklung von Angriffsskripten und Malware. Durch die Nutzung von Gemini können Cyberkriminelle effizienter schädlichen Code erstellen und optimieren, was die Angriffe komplexer und schwerer zu erkennen macht.
Ein weiterer Bereich ist die Recherche zu bekannten Sicherheitslücken. Gemini ermöglicht es Hackern, schnell und gezielt Schwachstellen in Software oder Systemen zu identifizieren, die für Angriffe ausgenutzt werden können. Darüber hinaus wird die KI zur Übersetzung und Analyse technischer Dokumentationen genutzt, um Zugang zu spezialisiertem Wissen zu erhalten, das für die Planung und Durchführung von Cyberangriffen erforderlich ist.
Nutzung je nach geopolitischer Strategie
Die Einsatzschwerpunkte von Hackergruppen variieren deutlich je nach Herkunftsland und spiegeln oft die geopolitischen und strategischen Interessen ihrer Heimatstaaten wider. Iranische Advanced Persistent Threats (APTs) konzentrieren sich vor allem auf Aufklärungsmissionen, gezielte Phishing-Kampagnen und Desinformationsoperationen. Diese Aktivitäten zielen darauf ab, sensible Informationen zu sammeln und die öffentliche Meinung zu beeinflussen, oft im Kontext regionaler oder internationaler Spannungen.
Chinesische Hackergruppen richten ihre Angriffe hingegen primär auf US-Militär- und Regierungsorganisationen. Dabei kombinieren sie Schwachstellenanalysen mit Techniken zur Rechteausweitung, um tief in die Systeme ihrer Ziele einzudringen und langfristigen Zugriff zu erhalten. Diese Vorgehensweise unterstreicht den strategischen Fokus auf die Sammlung von nachrichtendienstlich relevanten Daten.
KI-Sicherheitsmaßnahmen weiter unter Druck
Zwar beobachtet Google immer wieder Versuche, Gemini durch Jailbreaks oder manipulative Prompts für Angriffe nutzbar zu machen, bislang jedoch ohne Erfolg. Ähnliche Warnungen hatte OpenAI bereits 2024 für ChatGPT ausgesprochen.
Der zunehmende Einsatz generativer KI-Modelle durch Cyberakteure stellt eine wachsende Herausforderung für IT-Sicherheitsabteilungen dar. Insbesondere Modelle mit unzureichenden Schutzmechanismen – wie etwa DeepSeek R1 oder Alibabas Qwen 2.5 – zeigen, dass Beschränkungen oft leichter umgangen werden können, als es den Entwicklern lieb ist.
Unternehmen und Behörden müssen sich darauf einstellen, dass generative KI künftig fester Bestandteil moderner Cyberangriffe sein wird – und ihre Sicherheitsstrategien entsprechend anpassen.