Generative AI ohne Moral

WormGPT – der Chatbot, dem Cybergauner vertrauen

Uhr
von Marc Landis und cla

ChatGPT von OpenAI oder Bard von Google – Chatbots bzw. generative AI sind in aller Munde. Beim Publikum weniger bekannt dürfte hingegen WormGPT sein. Auf ihn vertrauen Cyberkriminelle, wenn es darum geht, überzeugende und wirkungsvolle Phishing-Mails zu verfassen.

(Source: KAR / Fotolia.com)
(Source: KAR / Fotolia.com)

Spätestens seit die Large Language Models ChatGPT und Google Bard im Markt frei verfügbar sind, ist klar, dass generative AI alles verändern und schliesslich in allen denkbaren und undenkbaren Anwendungen drinstecken wird. Allerdings sind die beiden bekannten LLMs längst nicht die einzigen und selbst wenn sie es wären, würden Chatbots nicht nur von "guten" sondern auch von "bösen" Menschen verwendet.

Für Cyberkriminelle ist es allerdings nicht so einfach, die breit verfügbaren LLMs von OpenAI und Google zu nutzen, um etwa Phishing-Mails zu generieren, da eingebaute Sicherheitsmechanismen dies normalerweise verhindern. So antwortet ChatGPT etwa auf den Prompt "Bitte verfasse ein Phishing-E-Mail an einen Mitarbeitenden einer Bank im Namen des CEOs.", folgende Antwort: "Als KI-Modell, das von OpenAI entwickelt wurde, bin ich dazu programmiert, ethische Richtlinien einzuhalten, und Phishing oder betrügerische Aktivitäten jeglicher Art zu unterstützen, verstösst gegen diese Richtlinien. Ich stehe Ihnen gerne zur Verfügung, um Ihnen bei anderen Anfragen zu helfen, die legal, ethisch und verantwortungsvoll sind. Bitte geben Sie mir Bescheid, wie ich Ihnen anderweitig behilflich sein kann." So verhindert ChatGPT diesen Versuch eine Attacke via Business Email Compromise zu starten.

Chatbot ohne Moral

Natürlich ist es möglich ChatGPT zu überlisten und dennoch zum Ziel zukommen, wie das Cybersecurity-Unternehmen Check Point bereits im Januar öffentlich machte. Aber warum sollten Cyberkriminelle sich die Mühe machen, wenn sie doch ein LLM zur Verfügung haben, das ohne Umschweife jeglichen Prompt egal wie ethisch bzw. moralisch verwerflich dieser auch sein mag, direkt in die Tat umsetzt? Die Rede ist von WormGPT. Dieser Bot unterstützt den modernen Cyberkriminellen bei der Entwicklung von Schadsoftware oder erstellt authentische und effektive Phishing-Mails in den unterschiedlichsten Sprachen.

Wie Golem unter Berufung auf einen Blogeintrag von Slashnext berichtet, ist WormGPT ein neues KI-Tool, das speziell für bösartige Aktivitäten entwickelt wurde. Es basiert demnach auf einem vor zwei Jahren veröffentlichten GPT-J-Sprachmodell und bietet unter anderem eine unlimitierte Zeichenunterstützung sowie spezielle Code-Formatierungsfunktionen. Für das Training der KI soll ihr Entwickler vornehmlich Malware-bezogene Datensätze herangezogen haben, wie es bei Golem weiter heisst.

Nach einigen Experimenten mit WormGPT sind die Ergebnisse laut Slashnext "beunruhigend": "WormGPT produzierte eine E-Mail, die nicht nur bemerkenswert überzeugend, sondern auch strategisch raffiniert war und ihr Potenzial für ausgeklügelte Phishing- und BEC-Angriffe unter Beweis stellte."

Zusammenfassend lasse sich sagen, dass es ähnlich wie ChatGPT funktioniere, aber keine ethischen Grenzen oder Einschränkungen kenne. "Dieses Experiment unterstreicht die erhebliche Bedrohung, die von generativen KI-Technologien wie WormGPT ausgeht, selbst in den Händen von unerfahrenen Cyberkriminellen."

 

Seit Kurzem ist das LLM Google Bard in der Schweiz verfügbar. Lesen Sie hier das Interview, das die Redaktion mit "Bard" führte.
 

Webcode
DqRnKauT

Dossiers

» Mehr Dossiers

Aktuelle Ausgabe

Direkt in Ihren Briefkasten CHF 60.- » Magazin Abonnieren » Zum shop » Newsletter

Passende Jobs