Warum KI-generierte Passwörter nur scheinbar sicher sind
Lange, komplex und mit Sonderzeichen - Passwörter von KI-Modellen wie ChatGPT sehen sicher aus. Tatsächlich sind sie aber gefährlich vorhersagbar. Eine Untersuchung zeigt, wie die auf Vorhersage trainierte KI die Sicherheit von Passwörtern untergräbt und dadurch neue Angriffsvektoren entstehen.
Wer ein grosses Sprachmodell (LLM) wie ChatGPT, Claude oder Gemini bittet, ein sicheres Passwort zu generieren, erhält auf den ersten Blick ein beeindruckendes Ergebnis: eine lange Zeichenkette, gespickt mit Gross- und Kleinbuchstaben, Ziffern und Symbolen. Doch der Eindruck täuscht: Solche KI-generierten Passwörter sind aufgrund der Funktionsweise von LLMs fundamental unsicher, wie aus einer Untersuchung des IT-Sicherheitsdienstleisters Irregular hervorgeht.
Das Kernproblem liegt in der Architektur der KI. Während ein sicheres Passwort auf echter Zufälligkeit basieren muss, sind Sprachmodelle darauf trainiert, Muster zu erkennen und das wahrscheinlichste nächste Wort oder Zeichen vorherzusagen. Ein starkes Passwort erzeugt üblicherweise ein kryptografisch sicherer Zufallszahlengenerator - ein Verfahren, das gezielt unvorhersehbare Zeichenfolgen erzeugt. Ein LLM tut jedoch genau das Gegenteil: Es produziert das, was es für eine plausible und wahrscheinliche Zeichenfolge hält.
Vorhersagbare Muster statt Zufall
In ihren Tests forderten die Forschenden von Irregular führende KI-Modelle wiederholt auf, Passwörter zu erstellen. Die Ergebnisse sind alarmierend. Das Modell Claude Opus 4.6 generierte bei 50 Versuchen nur 30 einzigartige Passwörter. Ein und dasselbe Passwort, nämlich "G7$kL9#mQ2&xP4!w", wiederholte sich dabei 18 Mal. Andere Modelle wie ChatGPT und Gemini zeigten ähnliche Tendenzen: Die Passwörter begannen überproportional oft mit denselben Buchstaben, nutzten nur eine kleine Auswahl an Sonderzeichen und wiesen klare, wiederkehrende Muster auf.
Die Stärke eines Passworts messen Fachleute in Entropie-Bits. Dieser Wert gibt vereinfacht an, wie viele Versuche ein Angreifer im Schnitt für einen Brute-Force-Angriff - also das systematische Durchprobieren aller Möglichkeiten - benötigt. Ein KI-generiertes Passwort, das laut gängigen Tools eine Entropie von über 100 Bits zu haben scheint (was Billionen von Jahren zum Knacken bräuchte), besitzt laut der Analyse von Irregular in Wirklichkeit oft nur 20 bis 30 Bits. Das reduziert die benötigte Zeit zum Knacken auf wenige Sekunden oder Minuten.
Die unsichtbare Gefahr durch Coding-Assistenten
Besonders brisant wird das Problem durch den Einsatz von KI-gestützten Programmier-Assistenten. Im sogenannten Vibe-Coding, bei dem die User eine KI ganze Code-Blöcke erstellen lassen, ohne jede Zeile im Detail zu prüfen, generieren diese Agenten oft selbstständig Passwörter für Datenbanken oder Dienste. Statt auf sichere Standardmethoden zurückzugreifen, lassen sie diese häufig direkt vom Sprachmodell erstellen.
So gelangen extrem schwache Passwörter unbemerkt in den Quellcode von Anwendungen. Die Forschenden von Irregular fanden bei Suchen auf Plattformen wie Github bereits zahlreiche Beispiele für solche im Code fest verankerten, KI-generierten Passwörter.
Brute-Force-Angriffe erleben eine Renaissance
Dieses Phänomen eröffnet Angreifenden neue Möglichkeiten. Statt rein zufällige Kombinationen zu probieren, können sie nun spezielle "Wörterbuch-Angriffe" mit den am häufigsten von KIs generierten Passwörtern durchführen. Ein Angreifer, der vermutet, dass ein Dienst mithilfe von KI entwickelt wurde, kann gezielt diese wahrscheinlichen Passwörter testen.
Irregular rät daher dringend davon ab, Passwörter von Sprachmodellen erstellen zu lassen. Stattdessen sollten User auf etablierte Passwort-Manager zurückgreifen. Wer in der Softwareentwicklung auf KI-Assistenten setzt, sollte den generierten Code sorgfältig auf fest einprogrammierte Zugangsdaten prüfen und sicherstellen, dass die KI-Agenten kryptografisch sichere Methoden zur Passwort-Erstellung verwenden.
Die Untersuchung macht ein grundlegendes Dilemma deutlich: KI ist hervorragend darin, plausible Ergebnisse zu erzeugen, die korrekt aussehen. In der IT-Sicherheit zählt jedoch nicht die Plausibilität, sondern die nachweisbare Korrektheit.
Passwortmanager bieten allerdings weniger Schutz als versprochen, wie Forschende der ETH Zürich zeigen - mehr dazu lesen Sie hier. Und mehr über die Grundlagen der Passwortsicherheit erfahren Sie im Hintergrundbeitrag: Wie ein Passwort nicht nur stark, sondern auch sicher ist.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
Google schliesst kritische Sicherheitslücke in Chrome
Okta geht mit Agent Discovery gegen Schatten-KI vor
Voldemorts Frozen-Solo
Programmierer baut sich versehentlich eine Armee von Staubsauger-Spionen
Microsoft Copilot liest E-Mails, die er nicht lesen sollte
Warum KI-generierte Passwörter nur scheinbar sicher sind
KI-Fehler soll bis 2028 G20-Land lahmlegen
Katze könnte an Olympia teilnehmen
90 Prozent der Ransomware-Angriffe umgehen Firewalls