Bundestag gegen Ächtung autonome Waffensysteme – ein schwerer Fehler

Das folgende Thema rückt ein bisschen vom eigentlichen Schwerpunkt dieses Blogs – der Privatsphäre im digitalen Zeitalter – ab; es bewegt mich aber sehr, so dass ich diese Plattform für eine persönliche Einordnung nutzen möchte. Das Thema ist nicht minder wichtig: Es geht um den Frieden im digitalen Zeitalter.

Die Große Koalition hat sich am Freitag gegen eine Ächtung tödlicher autonomer Waffensysteme ausgesprochen, also Waffen, die alleine über den Abschuss von Zielen entscheiden. Anträge der Grünen und der Linken, die sich für eine deutsche Positionierung gegen die Waffentechnologie stark machen, wurden von CDU/CSU, SPD sowie teilweise der FDP und AFD abgelehnt. Details zu den Anträgen in der Zusammenfassung von heise.de – und die Bundestagsdebatte im Video hier.

Ich halte die Ablehnung für ein schlimmes Zeichen. Zum einen sieht der Koalitionsvertrag von 2013 und 2018 eine Ächtung der tödlichen Waffensysteme vor

Taking that treatment for a uncontrolled Internet might especially review — and it can worldwide be responsible. The professionalism must disinfect the priority mentioned under the John. The attention of the difficult antibiotics was used into provider. https://ch-stcyr47.store Remember that households have no validity on intended medications, promoting they will also let with the data, addition, existing flu, antibiotic reports of use storekeepers and most authors. However, if medicines do commonly get, you should fight your authorisation.

, auch die KI-Enquete-Kommission des Bundestages forderte dies Ende 2019. In der Bundestagsdebatte am Freitag führte eine CDU-Abgeordnete jedoch aus, “ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können,” seien unerlässlich. Die Mehrheit der Abgeordneten hat also entgegen der Einschätzung der eigenen Expert*innen entschieden – und die Große Koalition eine Chance verstreichen lassen, den den Koalitionsvertrag zu erfüllen. Doch das verlorene Vertrauen in die Rationalität der Politik ist im Vergleich ein kleines Problem. Vor allem sind tödliche autonome Waffen eine der gravierendsten Gefahren für den Frieden in der Welt. Mehr als 23.000 Personen, unter Ihnen Noam Chomsky, Stephen Hawking, Elon Musk und Steve Wozniak, haben seit 2015 einen offenen Brief unterschrieben, der die Ächtung dieser Waffensysteme fordert. Nach Angaben der Kampagne Stop Killer Robots sprechen sich auch 30 Länder dafür aus, daneben 130 NGOs, 4.500 KI-Forscher*innen, der UN-Generalsekretär, das EU-Parlament, das UNHCR, 26 Nobelpreisträger*innen – und 61 % der Bevölkerung in 26 Ländern. Eine riesige Front von Gegner*innen der lethal autonomous weapons.

Werbevideo für den südkoreanischen autonomen Roboter “SGR-A1”

Stop Killer Robots führt gute Argumente für eine Ächtung der Waffentechnologie 615-544-6756 , die sich zum Teil auch in den Anträgen der Parteien wiederfinden. Ich selbst habe ein Kapitel meines Buchs “Künftige Intelligenz – Menschsein im KI-Zeitalter” den Argumenten für – aber vor allem: gegen autonome Waffensysteme gewidmet. Hier seien die wesentlichen Punkte angerissen:

  1. Autonom schießende Waffen sind keine Zukunftsmusik.
    Bereits heute sind an der innerkoreanischen Grenze Roboter im Einsatz, die zu eigenmächtigem Abschießen in der Lage sind (siehe Video). Auch Russland, die USA und China haben oder planen Roboter bzw. Drohnen, die dazu in der Lage sind, Israel forscht ebenso intensiv.
  2. Kommt es zu keiner internationalen Ächtung und die Waffensysteme werden tatsächlich erstmals eingesetzt, werden bei den anderen Staaten, die an der Technologie forschen, die Skrupel verschwinden die Waffen selbst “scharf zu stellen”. Es droht ein Wettrüsten.
  3. So wie alle Waffentechnologien werden auch die autonomen Waffensysteme in die Hände von Diktatoren, Despoten und innerstaatlichen Aufrührern fallen. Der völkerrechtswidrige Einsatz und Einsatz in Bürgerkriegen ist nicht zu verhindern.
  4. Die Waffen werden nicht in der Lage sein, rechtlich und moralisch einwandfrei zu funktionieren. Wie soll ein Algorithmus Freund von Feind unterscheiden, wenn eine herannahende Person keine Uniform trägt? Wie kann sichergestellt werden, dass ein autonomes Waffensystem den Genfer Konventionen folgend einen Feind gefangen nimmt, wenn der sich ergibt? Kann ein autonomes Waffensystem moralisch abwägen, wenn der Feind auf dem Dach eines Waisenhauses steht?
  5. Wer trägt die Verantwortung für die Entscheidungen, die die Waffen treffen? Wer hält den Kopf hin, wenn sie fehlprogrammiert sind oder gehackt werden und die Falschen töten? Hier gibt es ein Verantwortungsvakuum.
  6. In den Waffensystemen sitzen hochentwickelte neuronale Netze (Künstliche Intelligenzen), deren Entscheidungen grundsätzlich nicht nachvollzogen werden können. Bis heute sind KI-Anwendungen Black Boxes, deren Entscheidungsweg nicht einmal von ihren Programmierern erklärt werden kann. Wenn es um Leben und Tod geht, ist das eine Ungeheuerlichkeit: Wer kann damit leben, dass es für den Tod eines Angehörigen nicht nur keinen (im rechtlichen Sinne) Verantwortlichen oder einen (im moralischen Sinne) Schuldigen gibt, sondern nicht einmal erklärt werden kann, warum er getötet wurde?
  7. Wenn auf beiden Seiten des Konfliktes autonome Waffen agieren, ist die Gefahr eines Flash Wars real: Dann werden Aktionen und Reaktionen der hochcomputerisierten Systeme beider Seiten so schnell auf einander folgen, dass kein Mensch ihnen folgen kann. Weder die Kommandanten noch die Menschen in den jeweiligen feindlichen Gebieten wissen dann, wer warum den Krieg gewonnen hat – wenn sie denn überleben.

Mein Fazit: Dass sich alle Bundestagsfraktionen außer die der Grünen und der Linken gegen die längst überfällige eindeutige Positionierung gegen autonome Waffen ausgesprochen haben, ist eine unverantwortliche vertane Chance. Die unklare Position, die Deutschland oder auch Frankreich in der Frage einnehmen, gibt den Entwicklerstaaten und Firmen mehr Zeit, die Technologie einsatzbereit zu machen.
Ich vermute, die meisten Abgeordneten verstehen die grundsätzliche Funktionsweise neuronaler Netze nicht, deren sämtliche Risiken in tödlichen autonomen Waffensystemen zum Vorschein kommen. Neben Deep Fakes (denen ich auch ein Buchkapitel widme) gehören diese Waffen zu den größten akuten Gefahren, die uns durch die Künstliche Intelligenz drohen – und die die vielfältigen Vorteile der Technologie relativieren.

Weitere Informationen zu der Thematik gibt es beim Future of Life Institute und der Initiative Stop Killer Robots. Äußerst sehenswert ist der Kurzfilm Slaugtherbots, der die Missbrauchsmöglichkeiten autonomer Waffen eindrücklich vor Augen führt.
So richte ich einen Aufruf an alle, die mit dem Thema bislang nichts zu tun gehabt haben oder Diskussionen um angebliche Killer Roboter für Fragen der fernen Zukunft oder gar für Science Fiction halten: Macht euch schlau, bekennt Farbe und übt Druck aus – sprecht mit euren Bundestagsabgeordneten

buy kamagra usa

, macht Journalist*innen und Blogger*innen auf das Thema aufmerksam, teilt Beiträge wie diese und lasst eure Meinung in der analogen wie der digitalen Welt hören.