Leider kann das Potenzial von künstlicher Intelligenz und großen Sprachmodellen nicht nur für gute Zwecke genutzt werden. Wenn sie in die falschen Hände geraten, können sie leicht zur Entwicklung spezialisierter Phishing-Software oder sogar zur Entwicklung raffinierterer Angriffsformen verwendet werden, da sie dazu dienen, potenziell ausnutzbare Schwachstellen leichter zu identifizieren. Einem aktuellen OpenAI-Bericht vom Oktober 2024 zufolge gab es in der letzten Zeit offenbar mehr als 20 Cyberangriffe, bei denen Cyberkriminelle ChatGPT eingesetzt haben, um ihr Ziel, an die begehrten Daten zu gelangen, noch effektiver zu erreichen.
Cisco Talos hat bereits bestätigt, dass zwei Cyberangriffe tatsächlich mit ChatGPT durchgeführt wurden. Einer davon wurde von einem chinesischen Team gegen Regierungsinfrastrukturen in verschiedenen asiatischen Ländern gestartet. Bei diesem Angriff handelte es sich um ein so genanntes Spear Phishing, bei dem gezielt bestimmte Organisationen oder Personen angegriffen wurden, um an wertvolle Daten zu gelangen. Die Ausführung war raffiniert: Es wurde eine ZIP-Datei empfangen, die eine Datei mit bösartigem Code enthielt und darauf wartete, geöffnet zu werden. Sobald die Datei heruntergeladen und geöffnet wurde, wurde eine Infektionskette in Gang gesetzt, um an die Daten zu gelangen. Der Angriff mit der Bezeichnung "SweetSpecter" wurde nach Angaben der OpenAI-Experten mit ChatGPT erstellt. Die Cyberkriminellen nutzten mehrere Benutzerkonten, um die erforderlichen Skripte zu erstellen, und ChatGPT, um die Schwachstellen zu entdecken, die für den Angriff genutzt werden konnten.
Der zweite Cyberangriff wurde nicht von einem chinesischen, sondern von einem iranischen Team, den "CyberAv3ngers", durchgeführt, die ChatGPT verwendeten, um Schwachstellen zu finden, und dieses große Sprachmodell auch dazu nutzten, Benutzerdaten (Benutzername und Passwort) von macOS-basierten Computern zu stehlen. Ein weiterer Cyberangriff wurde von einem anderen iranischen Team mit dem Namen "Storm-0817" durchgeführt, das nicht auf PCs, sondern auf Android-basierte Geräte abzielte und dafür Malware mit ChatGPT entwickelte. Diese Malware stahl dann die Kontaktliste, rief den Anrufverlauf ab, erhielt den Browserverlauf, ermittelte den genauen Standort des Geräts und griff auf verschiedene auf dem Gerät gespeicherte Dateien zu.
Bei all diesen Angriffen wurden dieselben bewährten Methoden verwendet, die Cyberkriminelle schon immer zur Erstellung von Malware und zur Planung von Cyberangriffen eingesetzt haben, aber ChatGPT hat dazu beigetragen, dass bösartiger Code einfacher, schneller und effizienter erstellt werden kann und Schwachstellen leichter zu erkennen sind. Dies setzt natürlich auch voraus, dass der betreffende Cyberkriminelle weiß, wie man ChatGPT für böswillige Zwecke einsetzt. Während Sicherheitsforscher versuchen, Entwickler generativer KI davon abzuhalten, ChatGPT für ähnliche Zwecke zu nutzen, finden Cyberkriminelle immer noch Schlupflöcher - zumindest im Moment.
Um eine sicherere Nutzung generativer KI zu gewährleisten, müssen die großen Akteure unbedingt Regeln und Einschränkungen einführen, um zu verhindern, dass große Sprachmodelle für solche Zwecke verwendet werden - oder um es Cyberkriminellen zumindest zu erschweren, dies zu tun.