Cyberkriminelle missbrauchen ChatGPT für die Entwicklung und Verbesserung von Malware

Künstliche Intelligenz (KI) hat in vielen Bereichen bereits erhebliche Fortschritte ermöglicht, doch leider wird sie zunehmend auch von Cyberkriminellen missbraucht, so das 8com Cyber Defense Center. Wie OpenAI kürzlich bestätigte, wurde der KI-gestützte Chatbot ChatGPT in über 20 dokumentierten Fällen zur Entwicklung und Verbesserung von Malware verwendet. Diese Vorfälle unterstreichen das wachsende Risiko, das durch den Missbrauch von KI-Tools entsteht.

Cyberkriminelle missbrauchen ChatGPT: Über 20 bestätigte Malware-Fälle
Cyberkriminelle missbrauchen ChatGPT: Über 20 bestätigte Malware-Fälle. AI generated picture by ©onlinemarktplatz.de

Missbrauch von ChatGPT: Mehr als 20 bestätigte Fälle

Cyberkriminelle haben ChatGPT genutzt, um Malware zu debuggen, Erkennungsmechanismen zu umgehen und Phishing-Angriffe durchzuführen. OpenAI erklärte, dass es sich in den meisten Fällen um Versuche handelte, die Effektivität von Angriffen durch den Einsatz der KI zu steigern. Diese Erkenntnisse stammen aus einem aktuellen Bericht, der einen deutlichen Einblick in die missbräuchliche Nutzung von ChatGPT bietet.

Erster Verdacht: Hackergruppe TA547

Bereits im April 2024 äußerte das Sicherheitsunternehmen Proofpoint den Verdacht, dass Hacker die Möglichkeiten von KI-Tools nutzen. Die Gruppe TA547, auch bekannt als „Scully Spider“, wurde beschuldigt, einen PowerShell-Loader für die Infostealer-Malware Rhadamanthys entwickelt zu haben, der angeblich mithilfe einer KI geschrieben wurde. Dies war ein erster Hinweis darauf, dass Cyberkriminelle KI-gestützte Tools zur Verbesserung ihrer Malware einsetzen könnten.

Cyberangriffe auf französische Nutzer

Im September 2024 berichteten Sicherheitsforscher von HP Wolf Security über einen weiteren Fall, bei dem Cyberkriminelle gezielt französische Nutzer angriffen. Dabei wurden KI-Tools genutzt, um Skripte zu schreiben, die in mehrstufigen Infektionsketten verwendet wurden. Diese Vorfälle sind Teil eines besorgniserregenden Trends, bei dem KI zunehmend in kriminellen Aktivitäten eingesetzt wird.

Chinesische und iranische Hackergruppen im Visier

Der Bericht von OpenAI identifiziert zwei prominente Hackergruppen, die ChatGPT in ihren Angriffen verwendet haben: die chinesische Gruppe „SweetSpecter“ und die iranische Gruppe „Storm-0817“. „SweetSpecter“ wurde erstmals im November 2023 von Cisco Talos als Cyberspionage-Gruppe dokumentiert, die asiatische Regierungen ins Visier nimmt. In einem aktuellen Fall griff die Gruppe OpenAI direkt an, indem sie Spear-Phishing-E-Mails mit infizierten ZIP-Anhängen an OpenAI-Mitarbeiter versandte. Diese Angriffe führten dazu, dass die Malware „SugarGh0st RAT“ auf den Systemen der Opfer installiert wurde.

Die iranische Gruppe „Storm-0817“ nutzte ChatGPT, um Malware zu debuggen und benutzerdefinierte Skripte zu erstellen. Dazu gehörte auch die Entwicklung von Malware für Android-Plattformen, die Daten von infizierten Geräten stehlen und die Kontrolle über das Gerät übernehmen kann.

Maßnahmen von OpenAI gegen den Missbrauch

OpenAI hat schnell auf diese Bedrohungen reagiert und alle Konten, die von den identifizierten Hackergruppen genutzt wurden, gesperrt. Darüber hinaus wurden die IP-Adressen und andere relevante Daten mit Cybersicherheits-Partnern geteilt, um eine weitere Verbreitung dieser Aktivitäten zu verhindern. Trotz dieser Maßnahmen zeigt der Bericht, dass KI-basierte Tools wie ChatGPT das Potenzial haben, die Fähigkeiten von Cyberkriminellen zu erweitern und Angriffe effizienter zu gestalten.

KI bietet Chancen und Risiken

Die zunehmende Verwendung von KI in der Cyberkriminalität ist eine alarmierende Entwicklung, die deutlich macht, dass generative KI-Tools sowohl für nützliche als auch für schädliche Zwecke verwendet werden können. Obwohl die Hackergruppen durch den Einsatz von KI keine neuen Fähigkeiten erlangt haben, zeigt der Bericht des 8com Cyber Defense Center, dass die Effizienz ihrer Angriffe deutlich gesteigert werden konnte. Es bleibt abzuwarten, wie Sicherheitsbehörden und KI-Anbieter auf diese Bedrohung reagieren werden.

Frank