SPONSORED-POST Fachbericht von G Data

Künstliche Intelligenz: Eine Gefahr für die IT-Sicherheit?

Uhr
von G Data

Der Einsatz von künstlicher Intelligenz (KI) hat in letzter Zeit für viel Aufsehen gesorgt. Zahlreiche Menschen sind besorgt, dass die KI zu neuen und möglicherweise vollständig maschinell erzeugten Formen krimineller Angriffe führen könnte. Sind das realistische Szenarien oder ist das Schwarzmalerei?

(Source: zVg)
(Source: zVg)

Obwohl der erste KI-generierte Cyberangriff offiziell noch nicht dokumentiert worden ist, ist davon auszugehen, dass künstliche Intelligenz die IT-Sicherheit grundlegend verändern wird. Tatsächlich nutzen Cyberkriminelle bereits KI, etwa zur Feinabstimmung von Phishing-E-Mails. Die Fähigkeit von Programmen wie ChatGPT, überzeugend menschlich klingende Texte zu generieren, ist dabei zweifellos hilfreich. Und wahrscheinlich werden neue Bedrohungen dank der KI noch schneller auf Unternehmen und Privatpersonen zukommen. Wie können wir uns dagegen wappnen?

Um diese Frage zu beantworten, müssen wir zunächst einen Blick auf den aktuellen Stand der Dinge in Bezug auf KI und Cyberkriminalität werfen. Denn obwohl noch kein vollständiger KI-generierter Cyberangriff stattgefunden hat – zumindest nach aktuellem Wissensstand –, ist die Möglichkeit einer so genannten Prompt-Injection-Attacke sehr real. Dabei werden Large Language Models (LLMs) –, also Algorithmen, die auf Basis grosser Datensätze neue Inhalte generieren –, durch bestimmte Aktionen zu Handlungen "überredet", für die das Modell ursprünglich nicht entwickelt wurde.
 

Datenklau mit Bing-Chat

Einem deutschen Forscher ist es etwa gelungen, den Bing-Chat von Microsoft in einen Social Engineer zu verwandeln, der persönliche Informationen sucht und exfiltriert, – ohne Verdacht zu erregen. Der Nutzer oder die Nutzerin muss weder nach der Website fragen noch irgendetwas anderes tun, als mit Bing-Chat zu interagieren, während die Website im Browser geöffnet ist. Der Chatbot fragt dann nach den persönlichen Daten und Kreditkartenangaben des Website-Besuchers.

Auch wenn dies nicht völlig neu ist, weil Banking-Trojaner seit Jahren auf diese Weise vorgehen, ist die Prompt- Injection eine ernsthafte Sicherheitsbedrohung, die mit zunehmender Anzahl von Modellen und Schnittstellen zu weiteren Systemen stark ansteigt. Aber die Bedeutung der Sicherheitsgrenzen zwischen vertrauenswürdigen und nicht vertrauenswürdigen Eingaben für LLMs wird derzeit zu oft unterschätzt – wenn sie überhaupt erwähnt wird.

Die Anbieter von KI-Lösungen müssen hier eine verantwortungsvolle Rolle einnehmen. Erfreulicherweise sehen wir, dass viele Hersteller bereits Massnahmen ergreifen, um die Gefahren einzudämmen. So blockiert Microsoft beispielsweise Versuche der Prompt Injection, und auch OpenAI, das Unternehmen hinter ChatGPT, tut viel für den Datenschutz.

Wachsam bleiben

Aber es ist nicht so, dass nur KI-Hersteller in der Lage sind, mögliche Angriffe durch KI-Cyberkriminalität zu verhindern. Auch Unternehmen sowie Nutzerinnen und Nutzer, die diese Technologien einsetzen, können Massnahmen ergreifen. Zurzeit geht es dabei vor allem darum, sich auf mögliche Varianten bereits bekannter Cybercrime-Methoden vorzubereiten. Schliesslich kann niemand in die Zukunft blicken und mit absoluter Sicherheit vorhersagen, wie sich die Cyberkriminalität entwickelt, auch nicht die KI. Auch wenn man ein paar begründete Vermutungen anstellen kann. Im Moment liegt die Gefahr vor allem in verstärkten Phishing-Angriffen und anderen Versuchen des Datendiebstahls.

Aber das Prinzip, auf dem LLM und KI beruhen, bietet Instrumente für einen verantwortungsvollen Umgang. Denn KI erfindet nichts selbst, sondern stützt sich auf Datenquellen. Es ist daher ratsam, sich genau zu überlegen, welche Daten wir mit wem (oder was) teilen. Wir sollten KI nicht schlauer machen, als sie ist. Mit anderen Worten: Geben Sie einem KI-Dienst auf einer Website nicht alle Informationen über sich oder das Unternehmen. Denn Sie wissen nicht, ob diese später missbraucht werden können. Apropos Weitergabe von Daten: In manchen Fällen hilft ein Blick in die EULA und die Datenschutzrichtlinien einer neuen Software oder eines neuen Dienstes. Oft erlauben diese dem Hersteller, alle Eingaben zur "Verbesserung der Dienste" zu verwenden. Und mit Blick auf KI-Technologien könnte dies auch die Erlaubnis beinhalten, alle Eingaben als Trainingsdaten für KI-Systeme zu verwenden. 

Wer das Sicherheitsbewusstsein seiner Angestellten schult und verbessern will, sollte daher auf diesen Aspekt achten: Mitarbeitende müssen nicht nur vor Phishing-E-Mails auf der Hut sein, sondern auch im verantwortungsvollen Umgang mit KI-Tools geschult werden. Das Sicherheitsbewusstsein dreht sich auch um unser eigenes Online-Verhalten und somit darum, welche Informationen wir teilen und online stellen. Cyberkriminalität ist kein passives, einseitiges Spiel, bei dem die Angreifergruppe die Kontrolle hat. Auch die eigene Rolle muss kritisch hinterfragt werden, um Risiken zu verringern. Fangen wir besser heute als morgen damit an!
 

Dossiers

» Mehr Dossiers

Aktuelle Ausgabe

Direkt in Ihren Briefkasten CHF 60.- » Magazin Abonnieren » Zum shop » Newsletter