Wieso die KI nur in Albträumen zum wahren Schrecken wird
Die künstliche Intelligenz (KI) hat sich für viele rasch zu einer unverzichtbaren Helferin im Alltag entwickelt. Andere jedoch sehen in ihr die Bringerin der Apokalypse und malen sich verschiedene Möglichkeiten aus, wie die KI den Untergang der Menschheit herbeiführen könnte. Eine Übersicht.

Im Jahr 1984 ist wohl einer der bekanntesten Filme mit Arnold Schwarzenegger ins Kino gekommen: "Terminator". Arnold Schwarzenegger spielt darin einen mörderischen Roboter. Dieser reist aus der Zukunft in die Gegenwart, um Sarah Connor zu töten. Denn ihr späterer Sohn soll einst den Menschen zum Sieg in einem Krieg gegen die intelligenten Maschinen verhelfen. Der düstere Science-Fiction-Streifen bot damals die perfekte Balance aus Unterhaltung und Denkanstoss. Die Vorstellung einer künstlichen Intelligenz, die alle Menschen auf der Welt vernichten will, schien vielleicht möglich, aber noch sehr weit entfernt. Wie viel boshafte KI passt schon auf eine Floppy Disk?
Original-Trailer zum Film "Terminator" aus dem Jahr 1984. (Source: Amazon MGM Studios / Youtube)
Mehr als 40 Jahre später sieht die Welt ganz anders aus. Die KI ist der Science-Fiction entwachsen und hat sich in unserem Alltag eingenistet. Egal ob auf dem PC oder auf dem Smartphone – zahlreiche Anwendungen haben bereits einen dedizierten Button, mit dem man eine generative KI um Hilfe bitten kann. Die Dystopie einer mörderischen KI scheint heute sehr viel näher.
Die Angst vor der KI war schon 2023 so gross, dass über 350 Führungskräfte, Forschende und Ingenieure einen offenen Brief mit einer Warnung unterschrieben haben, darunter Microsoft-Gründer Bill Gates, Google-Deepmind-CEO Demis Hassabis, OpenAI-CEO Sam Altman und Anthropic-CEO Dario Amodei. Der lakonische Brief bestand aus nur einem einzigen Satz: "Das Risiko einer möglichen Auslöschung durch die künstliche Intelligenz zu verringern, sollte weltweit ebenso hohe Priorität haben wie der Umgang mit anderen globalen Bedrohungen wie Pandemien oder einem Atomkrieg." Auf die individuellen Horrorszenarien, die diese Personen dazu brachten, zu unterschreiben, geht der Brief nicht ein.
Eigene Ziele
Was ist also das Allerschlimmste, das eine KI herbeiführen könnte? Einer der Unterzeichner, Geoffrey Hinton, der auch als der "Vater künstlicher neuronaler Netzwerke" bekannt ist, beschrieb sein Albtraumszenario in einem Interview mit der "BBC": "Ein Bedrohungsakteur gibt Robotern die Fähigkeit, eigene Unterziele zu setzen. Dies könnte dazu führen, dass die denkenden Maschinen sich selbst Unterziele setzen wie: 'Ich muss mehr Macht erlangen'", warnt der Wissenschaftler.
Geoffrey Hinton, der "Vater künstlicher neuronaler Netzwerke". (Source: Nobel Prize)
Das klingt vielleicht harmlos – bis man Büroklammern hinzufügt. Eine KI muss nämlich nicht boshaft sein, um eine Apokalypse herbeiführen zu können. So zeigt etwa das als "Paperclip Maximizer" bekannte Gedankenspiel des schwedischen Philosophen Nick Bostrom auf, wie ein harmloser erster Befehl fatale Konsequenzen haben könnte. Das Gedankenspiel lautet folgendermassen:
"Angenommen, wir haben eine KI, deren einziges Ziel es ist, so viele Büroklammern wie möglich herzustellen. Die KI würde schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, da Menschen möglicherweise beschliessen könnten, sie abzuschalten. Wenn das geschieht, würden weniger Büroklammern produziert werden. Ausserdem bestehen menschliche Körper aus vielen Atomen, die zu Büroklammern verarbeitet werden könnten. Die Zukunft, auf die die KI hinarbeiten würde, wäre also eine mit sehr vielen Büroklammern, aber ohne Menschen."
Der schwedische Philosoph Nick Bostrom. (Source: Future of Humanity Institute / Wikimedia Commons / CC BY 4.0)
Das Ende der Menschheit – sollte es dazu kommen – könnte sehr wohl aufgrund einer Fehlkonfiguration bevorstehen: Eine KI versteht die Ziele oder Strategien, die sie lernen sollte, nicht oder falsch und führt daher unerwartete und potenziell schädliche Aktionen aus. Der australische Philosoph Toby Ord nennt eine fehlkonfigurierte KI in seinem Sachbuch "The Precipice" daher auch den wahrscheinlichsten Grund für das Aussterben der Menschheit in diesem Jahrhundert.
Von KI designte Kriegswaffen
Dass die künstliche Intelligenz ein Selbstbewusstsein entwickeln und der Menschheit überdrüssig werden könnte, so wie es in "Terminator" passiert, ist generell nicht die Befürchtung. Eines der Szenarien weicht aber nur etwas davon ab. Der Mensch scheint allerdings auch bei seinem eigenen Untergang unersetzlich zu sein. Die Befürchtung ist, dass KI auch die Entwicklung von biologischen und chemischen Waffen auf ein neues Level heben könnte.
Aktuelle KI-Systeme könnten "Anleitungen und Hilfestellungen zur Reproduktion bekannter biologischer und chemischer Waffen liefern sowie neuartige toxische Verbindungen entwerfen", heisst es etwa in einem Bericht des Department for Science, Innovation and Technology (DSIT) der Regierung des Vereinigten Königreichs. In Experimenten übertraf ein KI-Modell in einzelnen Fällen sogar menschliche Expertinnen und Experten mit Internetzugang. In den Versuchen ging es darum, Pläne zur Herstellung biologischer Waffen zu generieren. Der Bericht beschwichtigt aber zugleich: Die tatsächliche Entwicklung solcher Waffen in der realen Welt würde weiterhin erhebliche zusätzliche Ressourcen und Fachwissen erfordern.
Destabilisierung von Staaten
Die künstliche Intelligenz muss aber für den Niedergang der Welt nicht einmal zu Waffen greifen. Eine möglicherweise viel effizientere Methode ist die Manipulation. Und dieses Szenario ist wohl schon teilweise Realität. Schon heute können KI-generierte Inhalte gezielt Menschen in die Irre führen. Dies muss nicht bei kleineren Betrügereien bleiben: KI-Systeme erleichtern die massenhafte Erstellung von täuschendem Content, heisst es im Bericht des DSIT. Dies könnte genutzt werden, um die öffentliche Meinung zu beeinflussen – etwa mit dem Ziel, politische Entscheidungen oder Wahlausgänge zu manipulieren. Eine akute und unmittelbare Bedrohung für die Demokratie und die Staaten, die diese aufrechterhalten wollen. KI ist hierfür nicht zwingend notwendig – doch mit ihr können solche Bestrebungen extrem skaliert werden.
Thomas Süssli, Korpskommandant und Chef der Schweizer Armee, auf der Bühne der Swiss Cyber Security Days 2025. (Source: zVg)
Dieses Thema, die kognitive Kriegsführung, wurde auch an den diesjährigen Swiss Cyber Security Days intensiv besprochen. So referierte etwa Thomas Süssli, noch bis Ende 2025 Chef der Armee, darüber, wie andere Staaten mit Desinformation und Sabotage im Cyberraum versuchen, Europa zu destabilisieren. Weitere Experten gingen in einem Panel später auf die Risiken und (fehlenden) Abwehrmassnahmen ein. Lesen Sie hier im Eventbericht zu den Swiss Cyber Security Days 2025 mehr dazu.
Homo homini lupus
Es gibt aber noch eine viel unmittelbarere und schleichendere Bedrohung durch KI: eine langsame Verblödung, wie Morton Swimmer, Principle Threat Researcher bei Trend Micro, in einem Interview mit der Redaktion erklärte. Er mache sich Sorgen, dass die Menschheit durch ein übermässiges Vertrauen in die KI immer dümmer werden könnte, da sie nicht mehr selbst denken müsse. "Werden wir irgendwann nicht mehr wissen, wie diese Technologie funktioniert – oder auch nur, wie man einen Computer repariert? Sogar wenn nur sehr wenige Menschen diese Technologie wirklich verstehen, haben wir ein echtes Problem für die Gesellschaft", sagte Swimmer. Eine Lösung dafür habe er nicht.
Und trotzdem: Ein gewisses Mass an Vorsicht und Skepsis ist zwar immer vernünftig, zu viel Angst oder gar Panik vor KI ist nicht angebracht. Was heute als künstliche Intelligenz vermarktet wird, ist im Grunde genommen nur die Illusion einer Intelligenz. Die schlimmsten Albtraumszenarien setzen eine Superintelligenz voraus. Also eine KI, die im Gegensatz zu ChatGPT und Co. tatsächlich denken und verstehen kann. Etwas, das heute noch nicht einmal ansatzweise existiert. ChatGPT und Co. sind nämlich sehr fortschrittliche Wahrscheinlichkeitsrechnungen. Die Systeme wurden darauf trainiert, anhand einer Abfolge von Wörtern das wahrscheinlichste nächste Wort in der Reihe vorherzusagen. Indem man diesen Prozess immer und immer wieder anwendet, kann die KI ganze Sätze und Texte zusammensetzen – ohne zu wissen, was sie eigentlich geschrieben hat. "Da die Antworten stimmig und logisch wirken, hat man das Gefühl, dass ChatGPT eine eigene 'Meinung' hat", erklärte HWZ-Experte Tony Kümin in einem Interview mit der Hochschule. Aber dahinter stecken nur Wahrscheinlichkeiten und eine Wort für Wort zusammengesetzte Rückmeldung.
Es ist keineswegs sicher, dass so eine Superintelligenz bald (oder überhaupt) existieren wird. Swimmer von Trend Micro etwa glaubt nicht daran, dass die Menschheit eine Superintelligenz oder auch nur eine Artificial General Intelligence (eine Stufe unter der Superintelligenz) erschaffen wird, wie er sagt. "Solange wir diese Systeme nicht in echte, mobile Roboter aus Fleisch stecken, fehlt ihnen der Kontext, den Lebewesen wie wir haben, um eine echte Intelligenz zu erreichen."
Zumindest vorläufig (sofern keine technologische Innovation erfolgt) bleiben diese Szenarien von der Horror-KI à la "Terminator" also blosse Albträume und Fiktion; keine reale Gefahr, sondern nur in unserer Vorstellung bedrohlich. Ist der Traum vorbei oder der Film zu Ende, verflüchtigt sich der Schrecken wieder. Und die grösste echte Gefahr für den Menschen bleibt der Mensch selbst.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Schwachstelle macht aus KI-Agenten gefährliche Plaudertaschen

Cyberkriminelle geben sich als Logistikdienstleister aus

Graubünden ernennt Leiterin der neuen Aufsichtsstelle Datenschutz

Fast Schweizerdeutsch - aber eben nur fast

Warum Kontext so wichtig ist

Durchblick im KI-Dschungel: Mitarbeitende für KI-Nutzung fit machen

St. Galler Kantonalbank sucht Leiter Cybersecurity & IAM

Bund und Schweizer Finanzsektor vertiefen ihre Zusammenarbeit für mehr Cybersicherheit

3AM-Ransomware-Gruppe setzt auf virtuelle Maschine für verdeckte Angriffe
