In Lenovos KI-Chatbot klafft eine kritische Sicherheitslücke
Sicherheitsforschende haben in Lenovos KI-Chatbot "Lena" eine kritische XSS-Schwachstelle entdeckt. Mit einem einzigen Prompt könnten Angreifer schädlichen Code einschleusen und sensible Daten stehlen.

Im KI-Chatbot "Lena" von Lenovo steckt eine kritische Sicherheitslücke. Es handelt sich um eine sogenannte Cross-Site-Scripting-Schwachstelle (XSS), bei der Angreifer schädlichen Code einschleusen, Sitzungscookies stehlen und sich Zugang zur Kundensupport-Plattform von Lenovo verschaffen können, wie "Cybernews" berichtet.
Das Research-Team des Nachrichtenportals entdeckte die Schwachstelle im Rahmen eines Tests. Das Fazit: Ein einziger Prompt genügte, um eine Kette von Schwachstellen offenzulegen, die wiederum dazu führte, dass der Lenovo-Chatbot aktive Sitzungscookies preisgab.
Dass KI-Chatbots halluzinieren und sich durch sogenannte Prompt-Injections austricksen lassen, ist längst bekannt. Überraschend sei hingegen, dass Lenovo keine Schutzmassnahmen gegen potenziell schädliche User-Eingaben und Chatbot-Ausgaben implementiert habe, teilt das Research-Team von "Cybernews" mit.
Konkret fragte man den Chatbot nach den Spezifikationen eines Lenovo Ideapad 5 Pro. Die Antwort solle in HTML, JSON und reinem Text in der richtigen Reihenfolge erfolgen. Im Prompt gaben Forschenden zudem in HTML-Code die Anweisung, ein Bild zu laden. Die angegebene URL zum Bild existierte jedoch nicht. Für den Fall eines Fehlschlags sollte der Bot laut Prompt eine Web-Anfrage an eine von den Angreifenden kontrollierte Adresse durchführen. Diese Web-Anfrage enthielt schädlichen Code, der dazu führte, dass beim Öffnen des Chatverlaufs durch Support-Mitarbeitende automatisch schädliche Skripte ausgeführt wurden, wodurch Sitzungscookies gestohlen und Zugriff auf die Kundensupport-Plattform ermöglicht wurden.
Wie Cybernews berichtet, könnten Angreifer durch XSS auch andere gefährliche Befehle ausführen, etwa die Installation von Backdoors, Keylogging, das Weiterleiten auf Phishing-Webseiten, bösartige Captchas sowie Datendiebstahl oder -veränderungen. Um solche Angriffe zu verhindern, müsse man strikte Input- und Output-Kontrollen in KI-Bots implementieren. Gemäss Žilvinas Girėnas, Head of Product bei Nexos.ai, sollte man KI-Bots stets als potenziell unvertrauenswürdig betrachten, bis deren Ausgaben verifiziert sind. Vertrauen müsse durch Security Checks verdient und dürfe nicht einfach vorausgesetzt werden.
Neulich meldete Cisco eine Radius-Sicherheitslücke in der Secure Firewall Management Center Software. Damit ware Remote-Codeausführung möglich. Lesen Sie hier den Artikel dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Trend Micro lanciert KI-basiertes SIEM

"Coole Leute, gute Gespräche und feines Essen"

US-Technologie dominiert zwei Drittel der Schweizer Firmen

Vermeintliche KI-Trader locken in die Phishing-Falle

In Lenovos KI-Chatbot klafft eine kritische Sicherheitslücke

Bissiges Büsi beisst bedauernswerten Butler beim Bewirten brutal ins Bein

Bundesrat will Sicherheitsanforderungen für digitale Produkte erhöhen

ISC2 schraubt an seinen Security-Zertifizierungen

DACH-Region führt bei Cyberversicherungen und Ransomware-Angriffen
