Bundestag gegen Ächtung autonome Waffensysteme – ein schwerer Fehler

Das folgende Thema rückt ein bisschen vom eigentlichen Schwerpunkt dieses Blogs – der Privatsphäre im digitalen Zeitalter – ab; es bewegt mich aber sehr, so dass ich diese Plattform für eine persönliche Einordnung nutzen möchte. Das Thema ist nicht minder wichtig: Es geht um den Frieden im digitalen Zeitalter.

Die Große Koalition hat sich am Freitag gegen eine Ächtung tödlicher autonomer Waffensysteme ausgesprochen, also Waffen, die alleine über den Abschuss von Zielen entscheiden. Anträge der Grünen und der Linken, die sich für eine deutsche Positionierung gegen die Waffentechnologie stark machen, wurden von CDU/CSU, SPD sowie teilweise der FDP und AFD abgelehnt. Details zu den Anträgen in der Zusammenfassung von heise.de – und die Bundestagsdebatte im Video hier.

Ich halte die Ablehnung für ein schlimmes Zeichen. Zum einen sieht der Koalitionsvertrag von 2013 und 2018 eine Ächtung der tödlichen Waffensysteme vor, auch die KI-Enquete-Kommission des Bundestages forderte dies Ende 2019. In der Bundestagsdebatte am Freitag führte eine CDU-Abgeordnete jedoch aus, „ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können,“ seien unerlässlich. Die Mehrheit der Abgeordneten hat also entgegen der Einschätzung der eigenen Expert*innen entschieden – und die Große Koalition eine Chance verstreichen lassen, den den Koalitionsvertrag zu erfüllen. Doch das verlorene Vertrauen in die Rationalität der Politik ist im Vergleich ein kleines Problem. Vor allem sind tödliche autonome Waffen eine der gravierendsten Gefahren für den Frieden in der Welt. Mehr als 23.000 Personen, unter Ihnen Noam Chomsky, Stephen Hawking, Elon Musk und Steve Wozniak, haben seit 2015 einen offenen Brief unterschrieben, der die Ächtung dieser Waffensysteme fordert. Nach Angaben der Kampagne Stop Killer Robots sprechen sich auch 30 Länder dafür aus, daneben 130 NGOs, 4.500 KI-Forscher*innen, der UN-Generalsekretär, das EU-Parlament, das UNHCR, 26 Nobelpreisträger*innen – und 61 % der Bevölkerung in 26 Ländern. Eine riesige Front von Gegner*innen der lethal autonomous weapons.

Werbevideo für den südkoreanischen autonomen Roboter „SGR-A1“

Stop Killer Robots führt gute Argumente für eine Ächtung der Waffentechnologie, die sich zum Teil auch in den Anträgen der Parteien wiederfinden. Ich selbst habe ein Kapitel meines Buchs „Künftige Intelligenz – Menschsein im KI-Zeitalter“ den Argumenten für – aber vor allem: gegen autonome Waffensysteme gewidmet. Hier seien die wesentlichen Punkte angerissen:

  1. Autonom schießende Waffen sind keine Zukunftsmusik.
    Bereits heute sind an der innerkoreanischen Grenze Roboter im Einsatz, die zu eigenmächtigem Abschießen in der Lage sind (siehe Video). Auch Russland, die USA und China haben oder planen Roboter bzw. Drohnen, die dazu in der Lage sind, Israel forscht ebenso intensiv.
  2. Kommt es zu keiner internationalen Ächtung und die Waffensysteme werden tatsächlich erstmals eingesetzt, werden bei den anderen Staaten, die an der Technologie forschen, die Skrupel verschwinden die Waffen selbst „scharf zu stellen“. Es droht ein Wettrüsten.
  3. So wie alle Waffentechnologien werden auch die autonomen Waffensysteme in die Hände von Diktatoren, Despoten und innerstaatlichen Aufrührern fallen. Der völkerrechtswidrige Einsatz und Einsatz in Bürgerkriegen ist nicht zu verhindern.
  4. Die Waffen werden nicht in der Lage sein, rechtlich und moralisch einwandfrei zu funktionieren. Wie soll ein Algorithmus Freund von Feind unterscheiden, wenn eine herannahende Person keine Uniform trägt? Wie kann sichergestellt werden, dass ein autonomes Waffensystem den Genfer Konventionen folgend einen Feind gefangen nimmt, wenn der sich ergibt? Kann ein autonomes Waffensystem moralisch abwägen, wenn der Feind auf dem Dach eines Waisenhauses steht?
  5. Wer trägt die Verantwortung für die Entscheidungen, die die Waffen treffen? Wer hält den Kopf hin, wenn sie fehlprogrammiert sind oder gehackt werden und die Falschen töten? Hier gibt es ein Verantwortungsvakuum.
  6. In den Waffensystemen sitzen hochentwickelte neuronale Netze (Künstliche Intelligenzen), deren Entscheidungen grundsätzlich nicht nachvollzogen werden können. Bis heute sind KI-Anwendungen Black Boxes, deren Entscheidungsweg nicht einmal von ihren Programmierern erklärt werden kann. Wenn es um Leben und Tod geht, ist das eine Ungeheuerlichkeit: Wer kann damit leben, dass es für den Tod eines Angehörigen nicht nur keinen (im rechtlichen Sinne) Verantwortlichen oder einen (im moralischen Sinne) Schuldigen gibt, sondern nicht einmal erklärt werden kann, warum er getötet wurde?
  7. Wenn auf beiden Seiten des Konfliktes autonome Waffen agieren, ist die Gefahr eines Flash Wars real: Dann werden Aktionen und Reaktionen der hochcomputerisierten Systeme beider Seiten so schnell auf einander folgen, dass kein Mensch ihnen folgen kann. Weder die Kommandanten noch die Menschen in den jeweiligen feindlichen Gebieten wissen dann, wer warum den Krieg gewonnen hat – wenn sie denn überleben.

Mein Fazit: Dass sich alle Bundestagsfraktionen außer die der Grünen und der Linken gegen die längst überfällige eindeutige Positionierung gegen autonome Waffen ausgesprochen haben, ist eine unverantwortliche vertane Chance. Die unklare Position, die Deutschland oder auch Frankreich in der Frage einnehmen, gibt den Entwicklerstaaten und Firmen mehr Zeit, die Technologie einsatzbereit zu machen.
Ich vermute, die meisten Abgeordneten verstehen die grundsätzliche Funktionsweise neuronaler Netze nicht, deren sämtliche Risiken in tödlichen autonomen Waffensystemen zum Vorschein kommen. Neben Deep Fakes (denen ich auch ein Buchkapitel widme) gehören diese Waffen zu den größten akuten Gefahren, die uns durch die Künstliche Intelligenz drohen – und die die vielfältigen Vorteile der Technologie relativieren.

Weitere Informationen zu der Thematik gibt es beim Future of Life Institute und der Initiative Stop Killer Robots. Äußerst sehenswert ist der Kurzfilm Slaugtherbots, der die Missbrauchsmöglichkeiten autonomer Waffen eindrücklich vor Augen führt.
So richte ich einen Aufruf an alle, die mit dem Thema bislang nichts zu tun gehabt haben oder Diskussionen um angebliche Killer Roboter für Fragen der fernen Zukunft oder gar für Science Fiction halten: Macht euch schlau, bekennt Farbe und übt Druck aus – sprecht mit euren Bundestagsabgeordneten, macht Journalist*innen und Blogger*innen auf das Thema aufmerksam, teilt Beiträge wie diese und lasst eure Meinung in der analogen wie der digitalen Welt hören.

Datenschutzbeschwerde: Sind Whatsapp-Metadaten persönliche Daten?

Meine Beschwerde über Facebook wegen der mangelnden Auskunftspflicht über die in Whatsapp erhobenen Daten liegt seit einigen Monaten bei der irischen Datenschutzaufsicht DPC, weil Facebook dort seine Europazentrale hat. Ich hatte den Fall hier bereits geschildert, hier ebenfalls.
Kurz: Ich halte es für unzureichend, dass man beim Datenexport aus Whatsapp (Auskunftsrecht laut DSGVO) keine Metadaten über seine Kommunikation erhält, also z. B. mit wem man wann von welchem Standort aus kommuniziert.

Auf Anordnung der irischen Datenschützer hat Facebook/Whatsapp diesbezüglich nun erstmals direkt mit mir Kontakt aufgenommen (nachdem alle meinen bisherigen Mails an das Unternehmen unbeantwortet blieben). Die Argumentation:

WhatsApp hat RYI [Die Datenexport-Funkion, Anm. d. Autors] entwickelt, um WhatsApp-Benutzern den sicheren Zugriff auf ihre persönlichen Daten zu ermöglichen. Andere Metadaten können in nicht abrufbarer Form in unserem Offline-Data-Warehouse gespeichert werden.
WhatsApp bietet keinen Zugriff auf Informationen, die nicht in den Geltungsbereich der Zugriffsrechte nach GDPR [engl. Bezeichnung für DSGVO, Anm. d. Autors] fallen, keine personenbezogenen Daten darstellen oder anderweitig den geltenden gesetzlichen Ausnahmeregelungen unterliegen, und ist auch nicht dazu verpflichtet.

Aus der Mail von Facebook an mich, 31. Jan. 2020, Übersetzung durch mich.

Heißt: Wir als Facebook/Whatsapp geben im Datenexport alle Daten aus, die wir laut DSGVO ausgeben müssen.
Ich sehe das nach wie vor anders, was ich Facebook bereits mitgeteilt hatte – und worin mich auch der Bundesbeauftragte für Datenschutz unterstützt. Mein Argument: Weil die Metadaten im Facbeook-Netzwerk in personifizierter Weise weiterverwendet werden (z. B. in Form von Werbung oder als Kriterium für die Sortierung der Timeline in FB/Instagram), sind sie persönliche Daten und müssen deshalb auf Anfrage zur Verfügung gestellt werden.
Ich habe die DPC um eine Stellungnahme gebeten und werde hier darüber berichten.

Die 2020er – das Jahrzehnt der Tarnkappen?!

Der Investor und Risikokapital-Experte Fred Wilson hat eine Prognose über die Herausforderungen des neuen Jahrzehnts erstellt. Qua Job müsste er ein ziemlich guten Blick auf die Zukunft haben. Seine zehn Thesen sind allesamt lesens- und bedenkenswert. Eine hat es mir aber besonders angetan:

Die Massenüberwachung durch Regierungen und Unternehmen wird in diesem Jahrzehnt normal werden, und die Leute werden sich zunehmend neuen Produkten und Dienstleistungen zuwenden, um sich vor der Überwachung zu schützen. Die größten verbrauchertechnologischen Erfolge dieses Jahrzehnts werden im Bereich des Datenschutzes liegen.

Fred Wilson, www.avc.com; Übersetzung M. Brendel
Anlasslose Maskenüberwachung?

Das ist schon eine krasse Hypothese: Massenüberwachung wird normal werden? Es mag blauäugig scheinen, aber ich glaube, derzeit ist die Gesellschaft im Blick auf Überwachung so kritisch wie nie – zumindest Teile der Gesellschaft. Das BND-Gesetz ist vor dem Bundesverfassungsgericht, die EU-Kommission erwägt öffentliche Gesichtserkennung zu verbieten, die zu den gefährlichsten Überwachungstechniken gehört. auch Google-Chef Pichai hat sich wiederholt kritisch zu der Technologie geäußert. Auf der anderen Seite wurden gleichzeitig die Machenschaften von Clearview bekannt, die 3 Mrd. Portraitfotos aus dem Netz gefischt und für ihre Kunden kategorisiert haben. Und Indien will die Gesichtserkennung flächendeckend einführen.

Ich kann Fred Wilson also nicht widersprechen. Möglicherweise wird die neue Dekade das Jahrzehnt der Tarnkappe. Bereiten wir uns darauf vor. Dieser Blog wird an der Freiheit, Selbstbestimmtheit und Würde des*der Einzelnen in der analogen und digitalen Gesellschaft festhalten.
Happy new Years!