BACS warnt vor KI-Imitationen

Cyberkriminelle täuschen mit bekannten Persönlichkeiten

Uhr
von Seraina Huber und cka

Mit KI-erstellten "Deepfakes" werden vermehrt bekannte Persönlichkeiten imitiert. Das Bundesamt für Cybersicherheit warnt vor Kriminellen, die mittels gefälschter Inhalte auf Investitionsplattformen locken. Betroffen sind dabei insbesondere Amtspersonen.

(Source: Romolo Tavani/ stock.adobe.com)
(Source: Romolo Tavani/ stock.adobe.com)

Künstliche Intelligenz wird immer häufiger als Betrugsmasche eingesetzt. Das Bundesamt für Cybersicherheit (BACS) warnt vor trügerischer Werbung, die Bundespräsidentin Karin Keller-Sutter zeigt. Darin soll sie angeblich für lukrative Investitionsplattformen werben, wie das BACS meldet. Bekannte Persönlichkeiten werden immer öfter verwendet, um die Bevölkerung zu unüberlegten Handlungen zu verleiten. Hochrangige Amtspersonen wie Keller-Sutter sollen dabei vertraut und glaubwürdig wirken.

KI kann bestehende Bild-, Video- und Tonaufnahmen manipulieren. Aufnahmen bekannter Persönlichkeiten sind online schnell auffindbar. Das macht es Cyberkriminellen einfach, gefälschte Inhalte zu generieren. Bekannte Techniken sind hierbei das sogenannte "Face Swapping" und "Voice Cloning". Dabei wird das Gesicht in einer bestehenden Aufnahme ausgetauscht und die Stimme einer Person nachgebildet. 

Der Bund rät zur Skepsis gegenüber Onlineinhalten. Zu gute Angebote oder untypische Aussagen bekannter Persönlichkeiten sollten stets kritisch hinterfragt werden. Zusätzlich wird empfohlen, die Inhalte immer mit seriösen und offiziellen Informationsquellen abzugleichen. 

Das BACS gibt folgende Empfehlungen ab:

  • Klicken Sie keine Links in der Anzeige an und geben Sie keine persönlichen Daten ein. Leiten Sie das Video oder die Werbung nicht weiter.
  • Melden Sie den Inhalt beim BACS und bei der Plattform, auf der er veröffentlicht wurde.
  • Falls Sie einen finanziellen Schaden erlitten haben, melden Sie es umgehend bei Ihrer zuständigen kantonalen Polizeibehörde. 

 

Nicht nur Amtspersonen sind von KI-Imitationen betroffen. Betrüger drängen Opfer auch durch falsche CEO-Stimmen zu Geldüberweisungen. Lesen Sie hier mehr dazu.

Webcode
Ru7uVchY

Dossiers

» Mehr Dossiers

Aktuelle Ausgabe

Direkt in Ihren Briefkasten CHF 60.- » Magazin Abonnieren » Zum shop » Newsletter