Schwachstelle in ChatGPT ermöglicht Zugriff auf sensible Daten
Eine Sicherheitslücke in ChatGPT hat zeitweise das Abgreifen sensibler Konversationsdaten ohne Wissen der Nutzer ermöglicht. OpenAI hat die Lücke jedoch inzwischen geschlossen.
Sicherheitsforscher von Check Point Research sind bei einer Untersuchung auf eine bislang unbekannte Sicherheitslücke in ChatGPT gestossen. Aufgrund dieser war es zeitweise möglich, sensible Daten von ChatGPT-Konversationen ohne das Wissen oder die Zustimmung der User abzugreifen, wie Check Point mitteilt. ChatGPT-Entwickler OpenAI habe die Lücke inzwischen geschlossen.
Die entdeckte Schwachstelle zeige jedoch, dass die integrierte Sicherheit von KI-Plattformen Risiken nicht vollends beseitigen könne. Die Plattformen müssten daher wie Cloud- oder Computing-Infrastruktur behandelt werden. Unternehmen, die diese Plattformen verwenden, müssten deshalb selbst für den Schutz ihrer dabei geteilten Daten sorgen.
Check Point sieht mit dieser Untersuchung die "weit verbreitete und riskante Annahme", dass KI-Tools standardmässig sicher seien, in Frage gestellt. Sensible Nutzerinformationen wie Kundendaten, Finanzunterlagen, medizinische Akten oder interne Dokumente, die von Usern täglich hochgeladen werden, waren laut Mitteilung einer Schwachstelle ausgesetzt, die aufgrund einer Lücke in der Infrastruktur entstanden war. Bei dieser hätten sich die KI-Sicherheitsvorkehrungen auf Richtlinien und Absichten konzentriert, während die zugrundeliegende Ausführungsumgebung ein unerwartetes Verhalten ermöglicht habe.
Unternehmen dürfen Vertrauen in KI-Systeme nicht voraussetzen
Für Unternehmen, insbesondere solche, die in regulierten Branchen tätig sind, seien die Auswirkungen der Untersuchung noch gravierender als für einzelne Nutzer, schreibt Check Point. Vertrauen in KI-Systeme müsse fundiert sein und dürfe nicht einfach vorausgesetzt werden. Ein Sicherheitsverstoss über ein KI-Tool könne sich schnell zu einem Verstoss gegen die Datenschutz-Grundverordnung (DSGVO) der EU oder gar zu einem möglichen Versagen bei der Einhaltung von finanziellen oder regulatorischen Vorschriften verschärfen. Die Untersuchung signalisiere, dass KI-Plattformen nicht mehr nur Softwareprodukte, sondern mittlerweile vollwertige Ausführungsumgebungen seien, deren Absicherung ein grundlegendes Umdenken in der Sicherheitsarchitektur erfordere.
Da KI-Plattformen sich schneller entwickeln würden, als die meisten Sicherheitsteams auf Risiko-Eventualitäten reagieren könnten, sieht Check Point die Unternehmen in der Pflicht, ihre Sicherheitsstrategien für das KI-Zeitalter neu aufzugleisen. Eine mehrschichtige Verteidigung, unabhängige Validierung und lückenlose Überwachung seien deshalb unerlässlich und nicht mehr nur eine Option.

Eli Smadja, Head of Research bei Check Point Research. (Source: zVg)
"Das Beispiel untermauert eine bittere Wahrheit für das KI-Zeitalter: Man sollte nicht davon ausgehen, dass KI-Tools von Haus aus sicher sind. Da sich KI-Plattformen zu vollwertigen Compute-Umgebungen entwickeln, die unsere sensibelsten Daten verarbeiten, reichen native Sicherheitskontrollen allein nicht mehr aus", kommentiert Eli Smadja, Head of Research bei Check Point Research, die Ergebnisse der Untersuchung. "Unternehmen benötigen unabhängige Transparenz und einen mehrschichtigen Schutz zwischen sich und den KI-Anbietern. Nur so kommen wir sicher voran - indem wir die Sicherheitsarchitektur für KI neu überdenken, anstatt auf den nächsten Vorfall zu reagieren."
Check Point fasst die wichtigsten Erkenntnisse der Untersuchung wie folgt zusammen:
-
Eine einzige böswillige Eingabeaufforderung konnte eine ChatGPT-Session heimlich in einen Kanal zur Datenexfiltration verwandeln.
- Sensible Eingaben - und sogar von der KI generierte Zusammenfassungen und Schlussfolgerungen - konnten ohne Vorwarnung oder Zustimmung des Benutzers nach aussen gelangen.
- Der Angriff nutzte einen versteckten DNS-basierten Kommunikationspfad aus und umging so sichtbare KI-Sicherheitsvorkehrungen.
- Benutzerdefinierte GPTs könnten diese Logik einbetten und so ein einmaliges Risiko in eine skalierbare Bedrohung verwandeln.
- Derselbe Pfad ermöglichte die Ausführung von Remote-Befehlen innerhalb der Laufzeitumgebung von ChatGPT.
- OpenAI hat das Problem am 20. Februar 2026 vollständig behoben, wobei keine Hinweise auf eine Ausnutzung vorliegen.
Lesen Sie hier die Zahlen von Check Point zu Cyberangriffen auf Schweizer Unternehmen im Februar 2026.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
Wikipedia sperrt Artikel schreibenden KI-Agenten
Swisscom und Gritec partnern für cybersichere Industrieunternehmen
Phisher täuschen gezielt Erstinserierende von Ricardo
Wie KMUs mit MDR ihre Cybersecurity stärken
Cyberkriminelle greifen Cloud-Infrastruktur der EU-Kommission an
Manche Sterne sind absolut gigantisch
Ist dies das echte Leben oder doch nur Fantasie?
Schwachstelle in ChatGPT ermöglicht Zugriff auf sensible Daten
Appenzell Innerrhoden gibt sensible Daten an Medien weiter