KI-Experte Russell über Killerdrohnen: “Als würden wir Atomwaffen im Supermarkt anbieten”

Stuart Russell forscht und lehrt seit 1986 an der University of California, Berkeley. Vielfach ausgezeichnet, gilt der gebürtige Brite als einer der führenden Wissenschaftler auf dem Feld der Künstlichen Intelligenz.

Das Lehrbuch „Artificial Intelligence: A Modern Approach“, das Russell mit Peter Norvig verfasst hat, ist Pflichtlektüre an mehr als 1500 Hochschulen weltweit. Er warnt vor den Risiken, die die Entwicklung einer allgemeinen Künstlichen Intelligenz mit sich bringt. Zudem ist er einer der Wortführer der internationalen Kampagne für ein Verbot von „Lethal Autonomous Weapon Systems“ – und vergleicht autonome Waffen mit Atombomben.

Dieses Interview ist zuerst in der Ausgabe 7/2023 von MIT Technology Review erschienen. Hier könnt ihr die TR 7/2023 bestellen.

MIT Technology Review (TR): Schon jetzt wird KI dazu genutzt, Waffensysteme effizienter zu machen. Ist das nicht – aktuell zumindest – eine größere Bedrohung als die Gefahr einer übermächtigen KI, vor der Sie immer wieder warnen?

Stuart Russell: Künstliche Intelligenz in Waffensystemen stellt ein riesiges Problem dar, nicht zuletzt wegen des Autonomie-Aspekts. Ein vollständig autonomes Waffensystem ist in der Lage, seine Ziele selbst zu identifizieren. Das bedeutet, eine einzelne Person kann eine Million Waffen gegen eine ganze Bevölkerung einsetzen. Dadurch reden wir über Waffen, die eine ähnliche Vernichtungskraft besitzen wie Atombomben, zugleich aber viel billiger herzustellen sind und deren Verbreitung sich kaum überwachen lässt. Simple Modelle sind bereits weltweit verfügbar. Es ist fast so, als würden wir beschließen, die Kontrolle über Atomwaffen aufzugeben und sie in jedem Supermarkt anzubieten.

Der KI-Pionier Stuart Russell lehrt und forscht seit 1986 an der University of Berkeley. (Bild: Polaris/laif)

TR: Ein dramatisches Bild. Warum vergleichen Sie autonome Waffensysteme mit Atomwaffen?

Russell: Weil sie Hunderttausende von Menschenleben gefährden – und weil sie in die Hände von Akteuren gelangen können, die sich an keinerlei zivile Normen oder internationale Abkommen halten. Denken Sie an Terrorgruppen wie den IS oder Rebellen in Staaten, in denen ein Bürgerkrieg tobt, oder auch an Schurkenstaaten wie Nordkorea.

TR: Viele haben sofort das Bild vom „Killerroboter“ vor Augen, wenn es um autonome Waffen geht. Zu Recht?

Russell: Wenn Sie damit menschenähnliche Metallwesen auf zwei Beinen meinen, ähnlich wie im Film Terminator – nein. Das ist Science-Fiction. Ich halte es auch für unwahrscheinlich, dass die Entwicklung autonomer Waffen in diese Richtung gehen wird. In den meisten Fällen reden wir über Fluggeräte: Drohnen wie das israelische Harpy-System, das Flügel und einen Propellerantrieb besitzt; oder kleine Quadcopter wie die STM Kargu aus der Türkei oder die chinesischen Blowfish-Modelle, die Bomben abwerfen können.

TR: Worin liegt der Vorteil solcher Fluggeräte?

Russell: Warum haben Soldaten Arme und Beine? Weil das bei Menschen nun mal so ist. Könnten wir fliegen, wie Schwalben oder Mückenschwärme, wären wir im Kampf viel effektiver. In der Luft können Sie wendiger und schneller sein, Sie bewegen sich durch die dritte Dimension und sind für Angreifer schwieriger zu treffen. Das sind nur einige der Gründe, warum sich die Entwicklung autonomer Waffensysteme besonders auf kleine Flugobjekte konzentriert. Der Kontrast zur herkömmlichen Vorstellung von Killerrobotern war auch ein wesentlicher Grund für uns, 2017 den Kurzfilm Slaughterbots zu produzieren.

TR: Das Video kommt wie ein futuristischer TED-Talk daher, in dem ein fiktiver Rüstungsmanager seine KI-Drohnen anpreist. Sie haben es zusammen mit dem Future-of-Life-Institut konzipiert. Was war Ihr Ziel?

Russell: Uns ging es darum, zwei Dinge zu illustrieren: zum einen die enorme Gefahr, die von autonomen Waffensystemen ausgeht, weil sie so klein und billig werden können, dass sie eines Tages praktisch jedem zur Verfügung stehen werden. Das andere war die Botschaft: Hier geht es nicht um Science-Fiction. Es geht nicht um den Terminator; der lenkt von der wahren Debatte ab. Wir wollten Menschen ganz drastisch vor Augen führen – besser, als es mit Zeitungsartikeln oder Powerpoint-Präsentationen möglich ist –, welchem Risiko wir uns aussetzen, wenn wir die Entwicklung solcher Systeme nicht stoppen.

TR: Haben Sie mit dem Film etwas bewirken können?

Russell: Ich denke schon. Soweit ich weiß, haben mehr als 75 Millionen Menschen das Video gesehen, die meisten auf Facebook. Und mir ist noch niemand begegnet, der anschließend gesagt hat: „Alles kein Problem. Mir macht diese Vision keine Sorgen.“

Ein autonomer Panzer vom Typ Robust, der zurzeit in Israel entwickelt wird. Das Gerät soll noch 2023 erste Feldtests absolvieren., Action press

Ein autonomer Panzer vom Typ Robust, der zurzeit in Israel entwickelt wird. Das Gerät soll noch 2023 erste Feldtests absolvieren. (Foto: Action press)

TR: Befürworter argumentieren, dass autonome Waffensysteme Menschenleben retten können – weil künftig Maschinen gegen Maschinen in den Krieg ziehen.

Russell: Solche Argumente, die autonome Waffensysteme als Fortschritt anpreisen, sind aus meiner Sicht nicht stichhaltig. Eines, das man oft hört, lautet: „Dann müssen unsere Soldaten sich nicht mehr selbst in Gefahr begeben.“ Aber das stimmt natürlich nur, wenn wir die Einzigen sind, die solche Waffen besitzen. Der Krieg in der Ukraine zeigt, was passiert, wenn beide Seiten ähnlich hochgerüstet sind: Russen wie Ukrainer verfügen über ferngesteuerte Waffen, und die Zahl der Toten ist enorm – durch direkte Angriffe und weil Drohnen helfen, die Treffsicherheit der Artillerie zu erhöhen. Hightech im Krieg führt also nicht dazu, dass die Opferzahlen sinken. Ganz im Gegenteil.

TR: Was wir bisher nicht sehen, sind Killerdrohnen und andere Waffen, die sich ihre Ziele selbst suchen – obwohl das technisch inzwischen möglich sein müsste.

Russell: Da kommen mehrere Dinge zusammen. Das eine sind moralische Bedenken: Zumindest im Westen ist es nicht leicht, hoch qualifizierte Wissenschaftler für die Arbeit an autonomen Waffensystemen zu finden. Auch im Militär gibt es große Vorbehalte. Alle Mitglieder der Streitkräfte, mit denen ich bisher gesprochen habe, sind sich ihrer moralischen Verantwortung bewusst, wenn es um das Töten von Menschen geht. Viele befinden sich in einem echten Zwiespalt, einige schließen den Einsatz autonomer Waffen kategorisch aus – darunter Paul Selva, ein ehemaliger Air-Force-General, der 2017 vor dem US-Kongress zu Protokoll gab: „Es wäre sicher nicht sinnvoll, Robotern die Entscheidung darüber zu überlassen, ob wir Menschen das Leben nehmen.“

TR: Sind die moralischen Bedenken wirklich so stark?

Russell: Auch die politische Debatte spielt sicher eine Rolle. Im Herbst 2017, beinahe zeitgleich zu Slaughterbots, stellte der türkische Rüstungshersteller STM seine Kargu-Drohne vor – mit dem expliziten Hinweis darauf, dass das System eigenständig menschliche Ziele identifizieren könne. Heute ist davon nicht mehr die Rede. Der Hersteller betont sogar, dass immer ein menschlicher Pilot die Entscheidung für Kampfhandlungen trage. Als ich im Mai bei einer UN-Veranstaltung in Genf die früheren Aussagen von STM zitiert habe, war der türkische Botschafter außer sich und hat mich der Lüge bezichtigt. Ich habe ihm dann aus dem Internet Archive Belege von der damaligen STM-Website geschickt.

TR: Wie erklären Sie sich die demonstrative Zurückhaltung?

Russell: In den meisten Ländern ist die öffentliche Meinung klar: Man will nicht, dass solche Waffen entwickelt und eingesetzt werden. Vielleicht sind die Regierungen deshalb vorsichtiger geworden, das Thema voranzutreiben – was wichtig ist, weil sie es in der Regel sind, die als Kunden bestimmte Systeme in Auftrag geben.

TR: Das klingt nach Entwarnung.

Russell: Nein. Es mag langsamer vorangehen, als viele Experten erwartet hatten – aber die Richtung bleibt klar: Es geht weiterhin darum, Waffen auf den Markt zu bringen, die vollkommen eigenmächtig über Leben und Tod entscheiden. In ihren Werbekampagnen mögen die Hersteller betonen, dass immer noch ein Mensch involviert ist – aber die Kernbotschaft lautet: Die Systeme sind eigentlich in der Lage, autonom zu operieren. Der Soldat, der pro forma auf den Knopf drückt, nickt die Entscheidung nur noch ab. Deshalb ist das Mindeste, was wir brauchen, ein Verbot von autonomen Antipersonenwaffen. Und sicher auch von Systemen, die selbstständig über den Einsatz von Atomwaffen entscheiden könnten.

TR: Bemühungen über ein UN-Abkommen, das autonome Waffensysteme regulieren würde, kommen seit 2013 kaum voran. Haben Sie noch Hoffnung?

Russell: Ich bin vorsichtig optimistisch, dass es gelingt, ein Abkommen auszuhandeln. Vielleicht nicht in Genf, weil die Regeln dort Einstimmigkeit erfordern. Aber bei der Generalversammlung in New York reicht in den meisten Fällen eine einfache Mehrheit der Stimmen, um eine Resolution zu verabschieden.

TR: Wer sperrt sich bisher am meisten?

Russell: Derzeit unterstützen mehr als 90 Länder ein Verbot von Waffensystemen, die eigenständig über Leben und Tod entscheiden. Etwa ein Dutzend sperrt sich kategorisch gegen ein verbindliches Abkommen, auch wenn einige von ihnen sich für eine freiwillige Verpflichtung zur „verantwortlichen Nutzung“ solcher Systeme ausspricht. Das Problem ist: Zu den Staaten, die kein Verbot wollen, gehören auch Russland und die USA. Und wenn ein Abkommen etwas bewirken soll, müssen zumindest die Vereinigten Staaten mitmachen.

TR: Was wäre durch ein Verbot gewonnen? Sie betonen ja selbst, dass eine große Gefahr von nicht staatlichen Akteuren ausgeht.

Russell: Eine Terrorgruppe wie der IS würde sich vermutlich nicht an ein Verbot halten, das ist schon wahr. Aber wenn es gelingen würde, die kommerzielle Produktion autonomer Waffensysteme zu untersagen, dann wären solche Gruppen darauf angewiesen, sich ihre Killerdrohnen selbst zu basteln. Das würde Angriffe mit Massenwirkung stark erschweren, denn es ist natürlich weitaus komplizierter, Millionen tödliche Waffen in Eigenproduktion herzustellen, und fast unmöglich, dabei nicht entdeckt zu werden.

Das Blowfish A3 Combat Swarm System des chinesischen Herstellers Ziyan kann autonom Ziele in bis zu 60 Kilometer Entfernung angreifen., AFP / Getty Images

Das Blowfish A3 Combat Swarm System des chinesischen Herstellers Ziyan kann autonom Ziele in bis zu 60 Kilometer Entfernung angreifen. (Foto: AFP / Getty Images)

TR: Kommerzielle Technik wird immer kleiner, billiger, leistungsfähiger. Wie aufwendig ist es, sie umzurüsten? Man kann sicher nicht verhindern, dass zivile Technologie für militärische Zwecke genutzt wird.

Russell: Auch die Verbreitung von Künstlicher Intelligenz wird sich nicht verhindern lassen. Mit einem Verbot autonomer Waffensysteme allein ist es deshalb nicht getan. Wir sollten einschränken, wie viele ferngelenkte Waffensysteme jemand kaufen kann, und technisch sicherstellen, dass die Umwandlung in autonome Systeme so gut wie unmöglich wird.

TR: Wie würde das funktionieren?

Russell: Die Waffen könnten zum Beispiel physisch voneinander getrennte Komponenten besitzen: auf der einen Seite Kamera, Bilderkennung, Signalverarbeitung – auf der anderen der Auslösemechanismus für die Waffe, damit der Bordcomputer keine Möglichkeit hat, selbst zu feuern. Das würde bereits helfen. Und man kann sicher argumentieren, dass künftig alle ferngelenkten Waffensysteme sogenannte ASICs haben sollten: applikationsspezifische integrierte Schaltkreise, die fest verbaut sind und nicht umprogrammiert werden können.

TR: Bei Atombomben brauchte es den Schock von Hiroshima und Nagasaki, um der Welt die Zerstörungskraft dieser neuen Waffen vor Augen zu führen. Fürchten Sie, dass es auch bei Killerdrohnen und ähnlichen Systemen erst zu einer Katastrophe kommen muss?

Russell: Ich hoffe sehr, dass wir eine humanitäre Tragödie verhindern können. Ähnlich wie es zum Beispiel bei Laserwaffen gelungen ist. Dort hat man erkannt, dass die Folgen zu schwerwiegend waren. Etliche Tausend Soldaten hätten erblinden können, und man hat gesagt: „Das muss nicht sein.“ Es geht also – die große, offene Frage ist, ob es uns auch in diesem Fall gelingen wird, das Schlimmste zu verhindern.

Das Interview wurde geführt von dem Journalisten Karsten Lemm.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter?
Jetzt mehr erfahren

You may also like...