Google, Microsoft, OpenAI & Co. akzeptieren KI-Sicherheitsregeln
Sieben führende KI-Firmen, darunter OpenAI, haben Richlinien für die sichere Entwicklung von Technologie akzeptiert. Dies erfolgt auf Forderungen des Weissen Hauses hin.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI - die Liste der Firmen, deren Vertreter am 21. Juli im Weissen Haus zu Gast waren, kann sich sehen lassen. Bei einem Treffen mit US-Präsident Joe Biden verpflichteten sich die Unternehmen formell zu neuen, freiwilligen Sicherheitsstandards in der Entwicklung von KI-Anwendungen, wie unter anderem die "New York Times" berichtet.
Zu den Vereinbarungen gehöre unter anderem die Prüfung von Produkten auf Sicherheitsrisiken und die Verwendung von Wasserzeichen, um KI-generiertes Material zu kennzeichnen. Ähnliches beschloss die Europäische Union im Mai im Rahmen des "AI Act", des weltweit ersten KI-Gesetzes.
"Wir müssen uns über die Bedrohungen im Klaren sein, die von neuen Technologien ausgehen, die unsere Demokratie und unsere Werte gefährden können - nicht müssen, aber können", wird der US-Präsident zitiert. Die freiwilligen Schutzmassnahmen seien jedoch nur ein erster, zaghafter Schritt in diese Richtung, schreibt die "New York Times".
"Wir freuen uns, diese freiwilligen Verpflichtungen zusammen mit anderen in diesem Sektor einzugehen", wird indes Nick Clegg, Präsident für globale Angelegenheiten bei Meta, zitiert. "Sie sind ein wichtiger erster Schritt, um sicherzustellen, dass verantwortungsvolle Leitplanken für die KI geschaffen werden, und sie schaffen ein Modell, dem andere Regierungen folgen können."
Als Teil der Vorkehrungen hätten die sieben Firmen auch Sicherheitstests zugestimmt, die von unabhängigen Experten durchgeführt werden. Teil des Beschlusses sei auch die Forschung zu Vorurteilen und Datenschutzbedenken, Informationsaustausch über Risiken mit Regierungen und anderen Organisationen sowie die Entwicklung von Instrumenten zur Bekämpfung gesellschaftlicher Herausforderungen wie dem Klimawandel.
Die gemeinsam beschlossenen Regeln könnten jedoch je nach Firma unterschiedlich ausgelegt werden, befürchtet die "New York Times". So hätten sich die Unternehmen auch zu strengen Cybersicherheitsmassnahmen für die Daten verpflichtet, die zur Erstellung von Sprachmodellen für generative KI-Programme zum Einsatz kommen. Es gebe jedoch keine Angaben dazu, was das genau bedeute. Zudem hätten Firmen wohl ohnehin Interesse daran, sich vor Cyberangriffen zu schützen - wenngleich mit Mühen: Chinesische Hacker konnten erst vor wenigen Tagen wichtigen Code von Microsoft stehlen und damit in Mail-Konten amerikanischer Beamter eindringen.
Übrigens: Forschende in den USA haben über Monate hinweg GPT-generierte Antworten untersucht. Statt dazuzulernen scheint sich das Sprachmodell verschlechtert zu haben - mehr erfahren Sie hier.

Eine Zeitreise mit Harry Potter

Sind Robben auf dem Weg, sich zu Walen zu entwickeln?

Die bisher wohl grösste Supply-Chain-Attacke - doch die Täter gehen leer aus

Bildungssektor wehrt sich erfolgreich gegen Ransomware

Update: Staatsanwaltschaft untersucht Datenleck in Zürcher Justizbehörde nicht weiter

JustAskJacky: Wie künstliche Intelligenz Trojaner auf ein neues Bedrohungslevel hebt

Phisher geben sich - mal wieder - als Swisscom aus

Was macht eine Taube, die nicht fliegen kann? Sie wird Teil des Hunderudels!

Was Versicherungen, Behörden und die Armee in der Cybersicherheit umtreibt
