Die kriminelle Nutzung von ChatGPT – ein abschreckendes Beispiel für den Einsatz komplexer Sprachmodelle

Als Reaktion auf die wachsende öffentliche Aufmerksamkeit, die ChatGPT zuteil wurde, organisierte das Europol Innovation Lab eine Reihe von Workshops mit Fachexperten aus ganz Europol, um zu untersuchen, wie Kriminelle umfangreiche Sprachmodelle (LLMs) wie ChatGPT missbrauchen können und wie es Ermittlern bei ihrer täglichen Arbeit helfen kann.

Depositphotos 641505804 S
Die kriminelle Nutzung von ChatGPT – ein abschreckendes Beispiel für den Einsatz umfangreicher Sprachmodelle. ©Depositphotos

Ihre Erkenntnisse sind im ersten Tech Watch Flash-Bericht von Europol zusammengefasst, der heute veröffentlicht wurde. Unter dem Titel “ChatGPT – the impact of Large Language Models on Law Enforcement” (ChatGPT – die Auswirkungen von großen Sprachmodellen auf die Strafverfolgung) gibt dieses Dokument einen Überblick über den potenziellen Missbrauch von ChatGPT und bietet einen Ausblick auf das, was noch kommen könnte.

Ziel dieses Berichts ist es, das Bewusstsein für den potenziellen Missbrauch von LLMs zu schärfen, einen Dialog mit Unternehmen im Bereich der künstlichen Intelligenz (KI) zu eröffnen, um ihnen zu helfen, bessere Schutzmaßnahmen einzubauen, und die Entwicklung sicherer und vertrauenswürdiger KI-Systeme zu fördern.

Eine längere und detailliertere Version dieses Berichts wurde nur für Strafverfolgungsbehörden erstellt.

Was sind komplexe Sprachmodelle?

Ein komplexes Sprachmodell ist eine Art von KI-System, das Text verarbeiten, manipulieren und generieren kann.

Beim Training eines LLMs werden große Datenmengen wie Bücher, Artikel und Websites eingespeist, damit es die Muster und Verbindungen zwischen Wörtern lernen kann, um neue Inhalte zu erzeugen.

ChatGPT ist ein LLM, das von OpenAI entwickelt und im November 2022 im Rahmen einer Forschungsvorschau für die breite Öffentlichkeit freigegeben wurde.

Das derzeit öffentlich zugängliche Modell, das ChatGPT zugrunde liegt, ist in der Lage, menschenähnlichen Text als Reaktion auf Benutzeraufforderungen zu verarbeiten und zu erzeugen. Insbesondere kann das Modell Fragen zu einer Vielzahl von Themen beantworten, Text übersetzen, Gespräche führen (“chatten”), neue Inhalte generieren und funktionalen Code erzeugen.

Die dunkle Seite der komplexen Sprachmodelle

Während die Fähigkeiten von LLMs wie ChatGPT aktiv verbessert werden, bietet die potenzielle Ausnutzung dieser Art von KI-Systemen durch Kriminelle einen düsteren Ausblick.

Die folgenden drei Kriminalitätsbereiche gehören zu den vielen Bereichen, die von den Europol-Experten als besorgniserregend eingestuft wurden:

  • Betrug und Social Engineering: Die Fähigkeit von ChatGPT, sehr realistische Texte zu verfassen, macht es zu einem nützlichen Werkzeug für Phishing-Zwecke. Die Fähigkeit von LLMs, Sprachmuster nachzubilden, kann genutzt werden, um den Sprachstil bestimmter Personen oder Gruppen zu imitieren. Diese Fähigkeit kann in großem Umfang missbraucht werden, um potenzielle Opfer dazu zu verleiten, ihr Vertrauen in die Hände von kriminellen Akteuren zu legen.
  • Desinformation: ChatGPT zeichnet sich dadurch aus, dass es in kürzester Zeit und in großem Umfang authentisch klingende Texte produziert. Dies macht das Modell ideal für Propaganda- und Desinformationszwecke, da es den Nutzern ermöglicht, mit relativ geringem Aufwand Nachrichten zu erstellen und zu verbreiten, die ein bestimmtes Narrativ widerspiegeln.
  • Cyberkriminalität: ChatGPT ist nicht nur in der Lage, menschenähnliche Sprache zu erzeugen, sondern auch Code in einer Reihe verschiedener Programmiersprachen. Für einen potenziellen Kriminellen mit geringen technischen Kenntnissen ist dies eine unschätzbare Ressource zur Erstellung von bösartigem Code.

Da die Technologie fortschreitet und neue Modelle verfügbar werden, wird es für die Strafverfolgungsbehörden immer wichtiger, mit diesen Entwicklungen Schritt zu halten, um Missbrauch zu erkennen und zu verhindern.

Lesen Sie die Empfehlungen von Europol und die vollständigen Ergebnisse des Berichts hier.

Wichtiger Hinweis

Das LLM, das in den Workshops untersucht wurde, war ChatGPT. ChatGPT wurde ausgewählt, weil es das bekannteste und am häufigsten verwendete LLM ist, das derzeit der Öffentlichkeit zur Verfügung steht. Der Zweck der Übung bestand darin, das Verhalten eines LLM zu beobachten, wenn es mit kriminellen und Strafverfolgungsfällen konfrontiert wird. Dies wird den Strafverfolgungsbehörden helfen zu verstehen, welche Herausforderungen derivative und generative KI-Modelle darstellen könnten.

Europol