Diese Risiken gilt es bei ChatGPT und Co. zu beachten
Wer generative KI-Modelle nutzt, sollte sich deren Risiken bewusst sein. In einem Merkblatt listet Swico sieben Fallstricke auf und sagt, wie ChatGPT und Co. gewinnbringend und verantwortungsvoll eingesetzt werden können.
 
  Seit der Veröffentlichung von ChatGPT tauchen am laufenden Band neue Anwendungen in Zusammenhang mit generativer künstlicher Intelligenz auf. Doch Gen-AI-Anwendungen bringen auch Risiken mit sich, wie der Swico ausführt. Die Applikationen können etwa "täuschend echt wirken und Menschen in die Irre führen oder sogar manipulieren", warnt der Branchenverband.
Sieben Fallstricke
Mit einem Merkblatt (PDF) will der Swico nun praxisnahe Orientierungshilfen für den ethischen Einsatz solcher Technologien bieten. Darin führt der Verband sieben Schlüsselfallstricke in Zusammenhang mit Gen-AI-Anwendungen auf, sowie dazu passende Lösungsansätze, um diese Anwendungen gewinnbringend und verantwortungsvoll einsetzen zu können.
Wer Gen-AI-Anwendungen nutzt oder solche anbietet, sollte demnach folgendes beachten:
- 
	Wahrheitsgehalt prüfen: Generierte Inhalte immer auf ihre Richtigkeit überprüfen, da sie auf Wahrscheinlichkeiten basieren und fehlerhaft sein können. 
- 
	Vorurteile erkennen: Auf Stereotypen und Verzerrungen in KI-generierten Inhalten achten, um Diskriminierung zu vermeiden. 
- 
	Inhaltsfilter verstehen: Wissen, dass KI-Tools Inhaltsfilter haben, aber diese nicht unfehlbar sind und umgangen werden können. 
- 
	Transparenz bei Kommunikation: Sicherstellen, dass Nutzerinnen und Nutzer verstehen, dass sie mit einer KI und nicht einem Menschen interagieren. 
- 
	Gegen Manipulation schützen: Vorsicht bei realistisch wirkenden KI-Inhalten, um Desinformation und Täuschung zu vermeiden. 
- 
	Datenschutz gewährleisten: Sensible und persönliche Daten schützen und Vorsicht bei der Eingabe solcher Daten in KI-Systeme. 
- 
	Urheberrechtsfragen beachten: Sich der komplexen Urheberrechtssituation bei KI-generierten Inhalten bewusst sein und angemessen handeln. 
Im Global Risks Report 2024 führt das World Economic Forum KI-generierte Fehlinformation als eines der grössten Risiken der nächsten Jahre auf. Mehr dazu lesen Sie hier.
Derartige Tools bieten auch Cyberkriminellen viele Möglichkeiten. In einem gemeinsamen Webinar gingen Netzmedien und Check Point der Frage nach, was ChatGPT für die Cybersicherheit bedeutet. Lesen Sie hier mehr dazu.
 
Schweizer Bevölkerung vertraut KI etwas mehr und dem Datenschutz etwas weniger
 
Meerschweinchen frisst verschiedene Snacks
 
Einladung zum Webinar: Wie KI, Robotik und Drohnen unser Vertrauen herausfordern
 
Unterwegs im Auto mit Mutti
 
Cyberkriminelle geben sich als Visana aus
 
Wo die Stärken, Chancen und Risiken im Schweizer Cybersecurity-Ökosystem sind
 
Wie Datendiebe auf Beutejagd gehen
 
BACS präsentiert Konzept für koordinierte Bewältigung von Cyberangriffen
 
Bundesrat prüft den Datenverkehr der Bundesverwaltung
 
 
     
 
 
