Sammelklage gegen OpenAI und Microsoft wegen massiven Datenmissbrauchs
In Kalifornien wurde eine Sammelklage gegen OpenAI und Microsoft eingereicht. Die Kläger geben an, dass die Entwickler von ChatGPT gestohlene private Informationen illegal ausnutzen, um ihre Large Language Models zu trainieren.
Wenn es um die Herkunft von Daten geht, halten sich die Anbieter von KI-Tools wie ChatGPT, Midjourney oder Dall-E bedeckt. Die Daten nutzen sie, um diese sogenannten Large Language Models (LLM) zu trainieren.
Um zu verhindern, dass diese mit Twitter-Inhalten gefüttert werden, ergriff der Eigentümer und Ex-CEO des sozialen Netzwerks, der Milliardär Elon Musk, eine Reihe von Massnahmen: Verifizierte Accounts (mit Abonnement) dürfen maximal 6000 Tweets pro Tag lesen, während nicht verifizierte Accounts 600 Nachrichten lesen dürfen.
Der Widerstand gegen die Datenauswertung durch generative KIs, allen voran OpenAI, schlug sich auch in einer Sammelklage nieder. Die am 28. Juni von 16 anonymen Personen eingereichte Klage gegen OpenAI - aber auch gegen dessen Partner Microsoft - nennt als Grund "das illegale und schädliche Verhalten der Angeklagten bei der Entwicklung, Vermarktung und Nutzung ihrer KI-Produkte, einschliesslich ChatGPT-3.5, ChatGPT-4.0, Dall-E und Vall-E, die gestohlene private Informationen, einschliesslich persönlich identifizierbarer Informationen, von Hunderten von Millionen Internetnutzern, einschliesslich Kindern aller Altersgruppen, ohne deren informierte Zustimmung oder Wissen verwenden".
Die Verfasser der Klage sind ausserdem der Ansicht, dass "OpenAI ohne diesen beispiellosen Diebstahl von privaten und urheberrechtlich geschützten Informationen, die realen Personen gehören", nicht Milliarden von Dollar hätte einnehmen können.
"Nachdem [die LLM-Vorlagen] aus gestohlenen Daten gebildet worden waren, sahen die Angeklagten das unmittelbare Gewinnpotenzial und brachten die Produkte übereilt auf den Markt, ohne angemessene Garantien oder Kontrollen einzuführen, um sicherzustellen, dass sie keine schädlichen oder böswilligen Inhalte und Verhaltensweisen produzieren oder unterstützen, die weiter gegen das Gesetz verstossen, Rechte verletzen und Leben gefährden könnten", heisst es weiter in dem 157 Seiten umfassenden Dokument, das die Kläger beim Bundesgericht in San Francisco, Kalifornien eingereicht haben.
Das könnte Sie auch interessieren: ChatGPT und Co. bringen nicht nur Datenschutzbedenken mit sich. Von den grenzenlos scheinenden Möglichkeiten dieser Chatbots können nämlich auch Cyberkriminelle Gebrauch machen. Was also bedeutet der Chatbot für die Security? Dieser Frage gingen Netzmedien und Check Point in einem gemeinsamen Webinar nach. Lesen Sie hier mehr dazu.
Apple schliesst bereits ausgenutzte Sicherheitslücke in Dynamic Link Editor
Spam macht 2025 fast die Hälfte des E-Mail-Verkehrs aus
Wie Cyberkriminelle KI-Assistenten missbrauchen
ISE 2026: Deshalb sollte die AV-Branche IT-Sicherheit stärker fokussieren
Wie "Subscription Bombing" Sicherheitswarnungen verdeckt
Gefälschte KI-Extensions spähen 260'000 Chrome-User aus
Phisher ködern mit Gratisangebot nach gefälschter Galaxus-Umfrage
Update: Bund überarbeitet revidierte Überwachungsverordnungen
Wie die SCSD 2026 digitale Souveränität sichtbar, vergleichbar und erlebbar machen