Germany

Krieg in der Ukraine: Kommen bald KI-gesteuerte Waffen zum Einsatz?

Sie sind die Hauptfiguren in jedem dystopischen Horrorszenario: Killerroboter, die von künstlicher Intelligenz (KI) gesteuert werden. Und laut Informatiker und KI-Pionier Toby Walsh, 58, ist es “nur eine Frage der Zeit”, bis solche Waffen in der realen Kriegsführung eine unverzichtbare Rolle spielen, wie er dem SPIEGEL erklärt.

„Längst ist ein globales KI-Wettrüsten im Gange, das von der Öffentlichkeit kaum wahrgenommen wird“, warnt Walsh. Die USA arbeiten am Roboterpanzer Atlas und am Roboterkriegsschiff Sea Hunte, in Australien werden halbautonome Kampfjets getestet und China entwickelt KI-gesteuerte Luftkörper.

Russland arbeitet auch an einem unbemannten U-Boot namens Poseidon, das ebenfalls mit Atomwaffen ausgerüstet werden könnte. “Es ist ein Albtraum”, sagte Walsh. „Können Sie sich etwas Schrecklicheres vorstellen als ein U-Boot, in dem anstelle eines Kommandanten ein Computerprogramm entscheidet, ob ein Atomkrieg beginnt?

Nach Erdrutsch: Aufräumarbeiten bei Blatten VS auf Hochtouren (00:39)

Die POM-3 zerfetzt ihre Opfer in der Luft

POM-3 wurde bereits in Russland entwickelt. Laut Walsh basierte dies auf dem Splitterminendesign der deutschen Wehrmacht. Sie nennen sie scherzhaft Bouncing Betty. Auf den ersten Blick klingt es harmlos. Aber die springende Mine hat es in sich. Sie reagiert auf den Schock der Schritte. Zuerst springt sie in die Luft und explodiert dann in einer Höhe von einem Meter, um so viele Soldaten wie möglich zu zerfetzen.

Brandminen seien „brutal“, sagt Walsh. „Sie reißen Menschen wahllos auseinander und treffen oft Kinder. Deshalb werden sie international geächtet.“ 164 Länder haben bereits zugesagt, sie nicht einzusetzen, darunter die Ukraine. Russland nicht.

Und Russland plant, die zerstörerischen Fähigkeiten der Terrorwaffe POM-3 mit der tödlichen Präzision der KI zu kombinieren – eine erschreckende Aussicht, sagt Walsh. «Künstliche Intelligenz-Software kann genau unterscheiden, ob sich russische eigene Einheiten nähern, dann wird sie nicht explodieren; oder wenn es feindliche Soldaten sind, dann geht es hoch”, erklärt der Experte.

KI-Waffen sind gefährlicher als Atomwaffen

Walsh prophezeit eine düstere Zukunft: “Autonome Waffen sind vielleicht sogar gefährlicher als Atombomben.” Denn während man viel Know-how, „hervorragende Physiker und Ingenieure“ und viel Geld braucht, um eine Atombombe zu bauen, sieht das bei KI-Waffen ganz anders aus.

„Oft reichen konventionelle Waffensysteme aus; Mit den passenden Computerchips, Software und Zubehör aus dem 3D-Drucker werden sie dann zu autonomen Waffen modifiziert. Im schlimmsten Fall können solche Do-it-yourself-Waffen Kriege entfachen.

Zudem ist der Einsatz solcher Waffen sehr problematisch. Russland behauptet beispielsweise, beim Angriff auf die Ukraine eine Hyperschallwaffe eingesetzt zu haben. „Den Verteidigern bleibt in einem solchen Fall kaum noch Zeit, um zu reagieren oder einen Fehlalarm abzustellen.“

Das habe den Krieg massiv beschleunigt, erklärt Walsh. „Es könnte einen ‚Blitzkrieg‘ geben, einen Blitzkrieg von Computersystemen, die sich in sehr kurzer Zeit gegenseitig verstärken.“

Ein Ausweg aus der KI-Dystopie ist kaum möglich

Sind solche Killer-KI-Waffen bereits im Einsatz? “Es gibt viele Spekulationen”, sagt Walsh. Aber es sieht so aus, als ob die Türkei bereits autonome Drohnen „auf der Suche“ an die syrische Grenze geschickt hat. Walsh macht jedoch keine Angaben zu solchen Operationen in der Ukraine.

Sobald KI-Waffen eingesetzt sind, wird es kaum noch Gelegenheit geben, die Verantwortlichen zur Rechenschaft zu ziehen, sagte Walsh. Eine Möglichkeit besteht darin, die Waffen zu verbieten, ähnlich wie es im Vertrag über die Nichtverbreitung von Kernwaffen geschieht. “Ein Verbot funktioniert vielleicht nicht immer perfekt, aber es kann Schlimmeres verhindern.”

Und die Killerroboter einfach ausschalten? Leider ist es nicht so einfach. Gerade in Zukunft werden noch viel mehr Roboter und KI zum Einsatz kommen. „Wir können sie nicht loswerden. Wir können nur versuchen sicherzustellen, dass die in die KI einprogrammierten Werte mit den Werten unserer Gesellschaft übereinstimmen.“ Ob das gelingt, bleibt abzuwarten. (chs)