Autonome Waffensysteme : "Als würden wir Atomwaffen im Supermarkt anbieten"

Stuart Russell hält ein internationales Abkommen über tödliche autonome Waffensysteme für ähnlich wichtig wie den Atomwaffensperrvertrag.

In Pocket speichern vorlesen Druckansicht 9 Kommentare lesen

Das Blowfish A3 Combat Swarm System des chinesischen Herstellers Ziyan kann autonom Ziele in bis zu 60 Kilometer Entfernung angreifen.

(Bild: AFP / Getty Images)

Lesezeit: 3 Min.

Er vergleicht autonome Waffensysteme mit Atombomben und ist einer der Wortführer der internationalen Kampagne für ein Verbot von "Lethal Autonomous Weapon Systems": Stuart Russell. Der gebürtige Brite forscht und lehrt seit 1986 an der University of California, Berkeley. Vielfach ausgezeichnet, gilt Russell als einer der führenden Wissenschaftler auf dem Feld der Künstlichen Intelligenz. Im Interview mit MIT Technology Review erklärt er, warum er sich dafür einsetzt, die kommerzielle Produktion autonomer Waffensysteme zu untersagen.

Der KI-Pionier Stuart Russell lehrt und forscht seit 1986 an der University of Berkeley.

(Bild: Polaris/laif)

Zwei metallische Beine, zwei Arme und darin eine Waffe: Viele haben ein bestimmtes Bild von einem "Killerroboter" vor Augen, wenn es um autonome Waffen geht. Doch in der Regel fallen unter die Bezeichnung Fluggeräte, etwa Drohnen mit Propellerantrieb oder kleine Quadcopter. Ein vollständig autonomes Waffensystem sei in der Lage, seine Ziele selbst zu identifizieren, so Russell. "Das bedeutet, eine einzelne Person kann eine Million Waffen gegen eine ganze Bevölkerung einsetzen. Dadurch reden wir über Waffen, die eine ähnliche Vernichtungskraft besitzen wie Atombomben, zugleich aber viel billiger herzustellen sind und deren Verbreitung sich kaum überwachen lässt. Simple Modelle sind bereits weltweit verfügbar. Es ist fast so, als würden wir beschließen, die Kontrolle über Atomwaffen aufzugeben und sie in jedem Supermarkt anzubieten." So gefährlich schätzt Russell die Lage mittlerweile ein.

Um die Bedrohung zu illustrieren, konzipierte Russell zusammen mit dem Future of Life Institute 2017 den Kurzfilm "Slaughterbots". Neben der Gefahr, dass autonome Waffensysteme eines Tages leicht verfügbar sein könnten, ging es Russell bei dem Film darum, zu zeigen, "welchem Risiko wir uns aussetzen, wenn wir die Entwicklung solcher Systeme nicht stoppen".

Dieser Text stammt aus MIT Technology Review 7/2023

Früher schlug man sich mit einem C64 mit einer Datasette und verpixelter Grafik von Spielen herum, heute sind in aktuellen VR-Brillen nicht einmal mehr Pixel zu erkennen. Und jetzt betritt auch noch Apple den Markt für räumliches Computing mit einem klaren Bekenntnis zu Augmented Reality. Wird das der VR- / AR-Technik zum Durchbruch verhelfen?​ Dieser Frage geht die neue Ausgabe von MIT Technology Review nach. Highlights aus dem Heft:

Obwohl ein internationales Abkommen zur Regulierung von autonomen Waffensystemen nur schleppend vorankommt, ist Russell "vorsichtig optimistisch" bezüglich einer Einigung, wie er im Interview sagt. "Das Problem ist: Zu den Staaten, die kein Verbot wollen, gehören auch Russland und die USA. Und wenn ein Abkommen etwas bewirken soll, müssen zumindest die Vereinigten Staaten mitmachen."

Russell ist derweil bewusst, dass ein staatliches Verbot auch seine Grenzen hat, etwa wenn es um Terrorgruppen wie den IS geht. Würde jedoch eine kommerzielle Produktion untersagt, dann wären solche Gruppen darauf angewiesen, sich ihre Killerdrohnen selbst zu basteln. "Das würde Angriffe mit Massenwirkung stark erschweren, denn es ist natürlich weitaus komplizierter, Millionen tödliche Waffen in Eigenproduktion herzustellen, und fast unmöglich, dabei nicht entdeckt zu werden."

(wst)