Autonome Waffensysteme – Bundestag gegen Ächtung

Das folgende Thema rückt ein bisschen vom eigentlichen Schwerpunkt dieses Blogs – der Privatsphäre im digitalen Zeitalter – ab; es bewegt mich aber sehr, so dass ich diese Plattform für eine persönliche Einordnung nutzen möchte. Das Thema ist nicht minder wichtig: Es geht um den Frieden im digitalen Zeitalter.

Die Große Koalition hat sich am Freitag gegen eine Ächtung tödlicher autonomer Waffensysteme ausgesprochen, also Waffen, die alleine über den Abschuss von Zielen entscheiden. Zwei Anträge von den Grünen und der Linken, die sich für eine deutsche Positionierung gegen die Waffentechnologie stark machen, wurden von CDU/CSU, SPD sowie teilweise der FDP und AFD abgelehnt. Details zu den Anträgen in der Zusammenfassung von heise.de – und die Bundestagsdebatte im Video hier.

Ich halte die Ablehnung für ein schlimmes Zeichen. Zum einen sieht der Koalitionsvertrag von 2013 und 2018 eine Ächtung der tödlichen Waffensysteme vor, auch die KI-Enquete-Kommission des Bundestages forderte dies Ende 2019. In der Bundestagsdebatte am Freitag führte eine CDU-Abgeordnete jedoch aus, „ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können,“ seien unerlässlich.
Die Mehrheit der Abgeordneten hat also wider der Experteneinschätzung entschieden – und die Große Koalition eine Chance verstreichen lassen, den Koalitionsvertrag zu erfüllen.
Vor allem aber sind tödliche auvon tonome Waffen eine der schrecklichsten Gefahren für den Frieden in der Welt. Mehr als 23.000 Personen, unter Ihnen Noam Chomsky, Stephen Hawking, Elon Musk und Steve Wozniak, haben seit 2015 einen offenen Brief unterschrieben, der die Ächtung dieser Waffensysteme fordert. Dafür sprechen sich nach Angaben der Kampagne Stop Killer Robots auch 30 Länder aus, 130 NGOs, 4.500 KI-Forscher*innen, der UN-Generalsekretär, das EU-Parlament, das UNHCR, 26 Nobelpreisträger*innen – und 61 % der Bevölkerung in 26 Ländern.

Werbevideo für den südkoreanischen autonomen Roboter „SGR-A1“

Den Argumenten (für und) gegen autonome Waffen widmet sich ein Kapitel meines Buchs „Künftige Intelligenz – Menschsein im KI-Zeitalter„. Hier seien die wesentlichen Punkte angerissen:

  1. Autonom schießende Waffen sind schon einsatzbereit. Bereits heute sind an der innerkoreanischen Grenze Roboter im Einsatz, die zu eigenmächtigem Abschießen in der Lage sind. Auch Russland und die USA haben oder planen Roboter bzw. Drohnen, die dazu in der Lage sind, Israel forscht ebenso intensiv.
  2. Kommt es zu keiner internationalen Ächtung und die Waffensysteme werden tatsächlich erstmals eingesetzt, werden bei den anderen Staaten, die an der Technologie forschen, die Skrupel verschwinden die Waffen selbst „scharf zu stellen“.
  3. So wie alle Waffentechnologien werde auch die autonomen Waffensysteme auch in die Hände von Diktatoren, Despoten und innerstaatlichen Aufrührern fallen. Der völkerrechtswidrige Einsatz und Einsatz in Bürgerkriegen ist nicht zu verhindern.
  4. Die Waffen werden nicht in der Lage sein, rechtlich und moralisch einwandfrei zu funktionieren. Wie soll ein Algorithmus Freund von Feind unterscheiden, wenn eine herannahende Person keine Uniform trägt? Wie kann sichergestellt werden, dass ein autonomes Waffensystem den Genfer Konventionen folgend einen Feind gefangen nimmt, wenn der sich ergibt? Kann ein autonomes Waffensystem moralisch abwägen, wenn der Feind auf dem Dach eines Waisenhauses steht?
  5. Wenn auf beiden Seiten des Konfliktes autonome Waffen agieren, ist die Gefahr eines Flash Wars real: Dann werden Aktionen und Reaktionen der hochcomputerisierten Systeme beider Seiten so schnell auf einander folgen, dass kein Mensch ihnen folgen kann. Weder die Kommandanten noch die Bürger in den jeweiligen feindlichen Gebieten.
  6. Wer trägt die Verantwortung für die Entscheidungen, die die Waffen treffen? Wer hält den Kopf hin, wenn sie fehlprogrammiert sind oder gehackt werden und die Falschen töten? Hier gibt es ein Verantwortungsvakuum.
  7. In den Waffensystemen sitzen hochentwickelte neuronale Netze (Künstliche Intelligenzen), deren Entscheidungen grundsätzlich nicht nachvollzogen werden können. Bis heute sind KI-Anwendungen Black Boxes, deren Entscheidungsweg nicht einmal von ihren Programmierern erklärt werden kann. Wenn es um Leben und Tod geht, ist das eine Ungeheuerlichkeit: Wer kann damit leben, dass es für den Tod eines Angehörigen nicht nur keinen (im rechtlichen Sinne) Verantwortlichen oder einen (im moralischen Sinne) Schuldigen gibt, sondern nicht einmal erklärt werden kann, warum er getötet wurde?

Mein Fazit: Dass sich alle Bundestagsfraktionen außer die der Grünen und der Linken gegen die längst überfällige eindeutige Positionierung gegen autonome Waffen ausgesprochen haben, ist eine unverantwortliche vertane Chance. Ich vermute, die meisten Abgeordneten verstehen die grundsätzliche Funktionsweise neuronaler Netze nicht, deren sämtliche Risiken in tödlichen autonomen Waffensystemen zum Vorschein kommen. Neben Deep Fakes (denen ich auch ein Buchkapitel widme) gehören diese Waffen zu den größten akuten Gefahren, die uns durch die Künstliche Intelligenz drohen – und die die vielfältigen Vorteile der Technologie relativieren.

Weitere Informationen zu der Thematik gibt es beim Future of Life Institute und der Initiative Stop Killer Robots. Äußerst sehenswert ist der Kurzfilm Slaugtherbots, der die Missbrauchsmöglichkeiten autonomer Waffen eindrücklich vor Augen führt.

Kommentare sind geschlossen.