Kampf gegen Corona: Mit KI und Metadaten?

Seit sich der Coronavirus über die Welt ausbreitet, grüble ich, ob ich meine Haltung zur digitalen Privatsphäre unter Umständen überdenken muss. Ein Gedankenexperiment.

Konkret frage mich, ob die in unseren Smartphones massenweise erhobenen und auf diesen Seiten leidenschaftlich bekämpften Metadaten letztlich nicht doch ihren Sinn haben. Möglichweise könnten ein Schlüssel zur Eingrenzung der Epidemie sein. Das Robert-Koch-Institut (RKI) überlegt beispielsweise, die Standortangaben von Smartphones zu nutzen, um den Weg des Virus ohne aufwändige Befragungen nachzeichnen zu können. Doch die Möglichkeiten einer (grundsätzlich kritischen, möglicherweise aber gebotenen) Auswertung von Metadaten enden hier nicht. Die beispielweise von Whatsapp gesammelten Infos, wer wann wo mit wem kommuniziert, könnten dabei helfen, bei Verdachtsfällen Kontaktpersonen zu ermitteln. Lange Chat-Konversationen zu später Stunde von zu Hause aus deuten auf vertraute Personen hin (Familie/Freund*in/Partner*in), vereinzelte, von außerhalb des Hauses gesendete Nachrichten an Werktagen zwischen 9 und 17 Uhr auf berufliche oder schulische Kontakte.

Weitere Möglichkeiten zur Epidemie-Bekämpfung bietet [das Maschinelle Lernen, genannt:] Künstliche Intelligenz: Die Vorteile der darin verwendeten Künstlichen Neuronalen Netze liegt darin, in großen Datenmengen Muster zu erkennen. In meinem Buch erläutere ich die Funktionsweise und Anwendungsgebiete anhand einiger Beispiele. Auch im Blick auf Corona wird die Technologie eingesetzt. In China wird ein KI-System getestet, auf CT-Aufnahmen einer Verdachtsperson den Virus auszumachen. Dazu gleicht es die Bilder in Sekundenschnelle mit den Aufnahmen von bestätigten Fällen ab. Zum Vergleich: Ein normaler Coronatest dauert mehrere Stunden.

Doch was wäre, wenn ein Computersystem, das mit Maschinellem Lernen arbeitet, sämtliche Metadaten aus den Handys der Bevölkerung z. B. Deutschlands erhielte? Es könnte vermutlich in Echtzeit aufzeigen, wo das Virus besonders aktiv ist, in welche Region es sich ausbreitet und wo die Infektionen zurückgehen. Mit den richtigen Parametern ausgestattet könnte das System erkennen, welche Personengruppe mit bestätigten Infizierten Kontakt hatte, woraufhin diese Menschen dann von den Behörden direkt kontaktiert werden können (die Handynummer liegt ja vor). Die KI würde darstellen, wo sich das Virus auf Risikogruppen zubewegt, die dann vorbereitet oder auch abgeschottet werden könnten.
Eine KI könnte also helfen, dass Virus einzudämmen, schwere Krankheits- und Sterbefälle zu verhinden und die Bevölkerung zu schützen. Selbst für mich als überzeugtem Datenschützer und KI-Skeptiker ist diese Perspektive so reizvoll, dass ich überzeugt bin, dass wir diese Chance nicht ungenutzt lassen dürfen. Konkret: Wir müssten probieren a) an die Daten zu kommen und b) die Daten dementsprechend zu nutzen.
Doch jetzt kommen die „Abers“.

  1. Es müsste sichergestellt sein, dass die Smartphonenutzer*innen mit der Datenverwendung einverstanden sind. Dazu verpflichtet die DSGVO, aber auch der gesunde Menschenverstand. Doch zunächst müssten die Bürger*innen darüber informiert werden, dass die kommerzielle Datensammlung in einem solch großen Maße überhaupt stattfindet. Dann müsste ihnen versichert werden, dass die nachstehenden weiteren Prämissen erfüllt werden. Wer schon einmal eine DSGVO-Einverständiserklärung ausgefüllt hat, weiß, worauf das hinausläuft.
    Voraussetzung: kaum erfüllbar.
  2. Es müsste geklärt werden, wem die Metadaten gehören. Ich bin der Ansicht: den Nutzer*innen (weshalb ich mich immer noch mit Whatsapp kloppe); vermutlich betrachten Facebook, Google & Co. diese Daten aber als ihr Eigentum. Darüberhinaus haben die Unternhemen sicherlich kein Interesse daran, dass das Thema (Meta-)Datensammlung so breit in die Öffentlichkeit kommt. Nicht, dass sie womöglich ethische gegen kommerzielle Überlegungen abwägen müssten…
    Voraussetzung: nur erfüllbar, wenn die App-Hersteller mitmachen.
  3. Die Entwicklerfirmen der Betriebssysteme Android und iOS, Google und Apple, müssten eine Schnittstelle für den Export der Daten liefern. Updates auf den Smartphones wären nötig – die viele Nutzer*innen aber nicht regelmäßig machen.
    Voraussetzung: kaum erfüllbar.
  4. Die Entwickler*innen von Android und iOS müssten überhaupt an die Daten kommen – die zum Glück aber meist auf verschlüsselten Smartphones liegen. Apple und Google besitzen die Schlüssel zum Dekodieren nicht, also kämen sie nur durch Hacking an die Daten.
    Damit als Voraussetzung: auszuschließen.
  5. Die Alternative zu 3) und 4) wäre, eine Schnittstelle zu den Servern aller metadaten-sammelnden Servern herzustellen, d. h. zu Facebook, Google, Amazon und Co. Ich bin sicher, da würden schnell Sicherheitsbedenken im Blick auf Firmengeheimnisse laut.
    Voraussetzung: immerhin nicht unerfüllbar.
  6. Die Daten müssten an einem sicheren Ort gespeichert werden. Doch wo liegt dieser sichere Ort? Im Bundestag, wo es bereits mehrere Hackerangriffe gab? Bei der Telekom, die zwar sichere Rechenzentren hat, letztlich aber ein kommerzieller Telekommunikationsanbieter ist? Oder bei den Datenkraken Google, Facebook, Amazon und Co.? Voraussetzung: Erfüllbarkeit unklar.
  7. Es müsste sichergestellt werden, dass die Geheimdienste nicht an diese Daten gelangen. Nach allem, was wir über die Methoden der NSA, des GCHQ und des BND und deren Rückendeckung durch die Politik wissen, ist diese
    Voraussetzung: unerfüllbar
  8. Das KI-System müsste von unabhängigen Programmierer*innen oder zumindest von unabhängigen Stellen überwachten Programmierer*innen aufgesetzt werden. Die Coder*innen gibt es beispielweise an Universtitäten und Hochschulen, überwachen könnten bspw. Expert*innen des RKI, das Bundesamt für Sicherheit in der Informationstechnologie (BSI) und und der Datenethikkommission.
    Voraussetzung: erfüllbar.
  9. Die Ergebnisse der KI müssten gesichtet werden, bevor konkrete Aktionen ergriffen werden. Denn immerhin könnten die Eingangsdaten von den Smartphones falsch sein, z. B. wenn ein Handynutzer einen VPN-Dienst zur Verschleierung seines Standorts nutzt (was ich grundsätzlich jedem empfehle).
    a) Doch zu dieser Nachkontrolle fehlt den Behörden Manpower, immerhin sind die Gesundheitsämter bereits jetzt personell an der Grenze. Noch gravierender ist das Problem, dass Menschen für die Überprüfung in Sekundenschnelle erzeugter Computerausgaben Zeit brauchen. Die uns das Coronavirus nicht gibt.
    Voraussetzung: nicht erfüllbar.
    b) Zum anderen sind die Entscheidungswege in Machine Learning-Prozessen nicht transparent. Bis heute gibt es keine verlässliche Möglichkeit nachzuvollziehen, wie eine KI zu ihrem Ergebnis gekommen ist. An der sogenannten Explainable AI wird intensiv geforscht, so dass hier in den kommenden Jahren mit einem Durchbruch zu rechnen ist. Doch auch hier: Soviel Zeit lässt uns Corona nicht.
    Voraussetzung: nicht erfüllbar.
  10. Die Daten müssten hinterher sicher gelöscht werden. Unter Aufsicht und Kontrolle des BSI und seiner Forensiker*innen ist das möglich, also
    Voraussetzung: erfüllbar.

Fazit: Nur zwei von zehn Prämissen sind erfüllbar. Damit ist mein Gedankenspiel leider nicht mehr als ebendieses.
Die globalen Datensammler ließen sich möglicherweise überzeugen, immerhin leiden sie selbst wg. des Virus‘ ja unter Produktionsausfall. Vielleicht fände sich auch ein sicherer Speicher-Ort für die Metadaten. Doch der Black-Box-Charakter von KI-Systemen zum einen und die nötige Aufklärungskampagne zum anderen machen die Umsetzung leider unmöglich, bzw. erst zu spät möglich.

Ich bin nichtsdestotrotz überzeugt, dass wir über solche Ideen (die ich nicht nur für mich reklamiere) nachdenken und sprechen sollten. Möglicherweise liegt in der Epidemie die Chance, dass wir Bürger*innen, unsere Zivilgesellschaft und die Politik endlich zu einer konkreten Positionierung zu den Themen Datensammlung, Massenüberwachung, Künstliche Intelligenz und dem Nutzen von Technologie für die Gesellschaft kommen. Vielleicht liegt die Chance auch darin, dass diejenigen, die bereits eine Haltung dazu haben, vielleicht ihre Positionswechsel auslöst. Ich selbst stand der Datensammlung noch nie so ambivalent wie heute gegenüber.

Bundestag gegen Ächtung autonome Waffensysteme – ein schwerer Fehler

Das folgende Thema rückt ein bisschen vom eigentlichen Schwerpunkt dieses Blogs – der Privatsphäre im digitalen Zeitalter – ab; es bewegt mich aber sehr, so dass ich diese Plattform für eine persönliche Einordnung nutzen möchte. Das Thema ist nicht minder wichtig: Es geht um den Frieden im digitalen Zeitalter.

Die Große Koalition hat sich am Freitag gegen eine Ächtung tödlicher autonomer Waffensysteme ausgesprochen, also Waffen, die alleine über den Abschuss von Zielen entscheiden. Anträge der Grünen und der Linken, die sich für eine deutsche Positionierung gegen die Waffentechnologie stark machen, wurden von CDU/CSU, SPD sowie teilweise der FDP und AFD abgelehnt. Details zu den Anträgen in der Zusammenfassung von heise.de – und die Bundestagsdebatte im Video hier.

Ich halte die Ablehnung für ein schlimmes Zeichen. Zum einen sieht der Koalitionsvertrag von 2013 und 2018 eine Ächtung der tödlichen Waffensysteme vor, auch die KI-Enquete-Kommission des Bundestages forderte dies Ende 2019. In der Bundestagsdebatte am Freitag führte eine CDU-Abgeordnete jedoch aus, „ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können,“ seien unerlässlich. Die Mehrheit der Abgeordneten hat also entgegen der Einschätzung der eigenen Expert*innen entschieden – und die Große Koalition eine Chance verstreichen lassen, den den Koalitionsvertrag zu erfüllen. Doch das verlorene Vertrauen in die Rationalität der Politik ist im Vergleich ein kleines Problem. Vor allem sind tödliche autonome Waffen eine der gravierendsten Gefahren für den Frieden in der Welt. Mehr als 23.000 Personen, unter Ihnen Noam Chomsky, Stephen Hawking, Elon Musk und Steve Wozniak, haben seit 2015 einen offenen Brief unterschrieben, der die Ächtung dieser Waffensysteme fordert. Nach Angaben der Kampagne Stop Killer Robots sprechen sich auch 30 Länder dafür aus, daneben 130 NGOs, 4.500 KI-Forscher*innen, der UN-Generalsekretär, das EU-Parlament, das UNHCR, 26 Nobelpreisträger*innen – und 61 % der Bevölkerung in 26 Ländern. Eine riesige Front von Gegner*innen der lethal autonomous weapons.

Werbevideo für den südkoreanischen autonomen Roboter „SGR-A1“

Stop Killer Robots führt gute Argumente für eine Ächtung der Waffentechnologie, die sich zum Teil auch in den Anträgen der Parteien wiederfinden. Ich selbst habe ein Kapitel meines Buchs „Künftige Intelligenz – Menschsein im KI-Zeitalter“ den Argumenten für – aber vor allem: gegen autonome Waffensysteme gewidmet. Hier seien die wesentlichen Punkte angerissen:

  1. Autonom schießende Waffen sind keine Zukunftsmusik.
    Bereits heute sind an der innerkoreanischen Grenze Roboter im Einsatz, die zu eigenmächtigem Abschießen in der Lage sind (siehe Video). Auch Russland, die USA und China haben oder planen Roboter bzw. Drohnen, die dazu in der Lage sind, Israel forscht ebenso intensiv.
  2. Kommt es zu keiner internationalen Ächtung und die Waffensysteme werden tatsächlich erstmals eingesetzt, werden bei den anderen Staaten, die an der Technologie forschen, die Skrupel verschwinden die Waffen selbst „scharf zu stellen“. Es droht ein Wettrüsten.
  3. So wie alle Waffentechnologien werden auch die autonomen Waffensysteme in die Hände von Diktatoren, Despoten und innerstaatlichen Aufrührern fallen. Der völkerrechtswidrige Einsatz und Einsatz in Bürgerkriegen ist nicht zu verhindern.
  4. Die Waffen werden nicht in der Lage sein, rechtlich und moralisch einwandfrei zu funktionieren. Wie soll ein Algorithmus Freund von Feind unterscheiden, wenn eine herannahende Person keine Uniform trägt? Wie kann sichergestellt werden, dass ein autonomes Waffensystem den Genfer Konventionen folgend einen Feind gefangen nimmt, wenn der sich ergibt? Kann ein autonomes Waffensystem moralisch abwägen, wenn der Feind auf dem Dach eines Waisenhauses steht?
  5. Wer trägt die Verantwortung für die Entscheidungen, die die Waffen treffen? Wer hält den Kopf hin, wenn sie fehlprogrammiert sind oder gehackt werden und die Falschen töten? Hier gibt es ein Verantwortungsvakuum.
  6. In den Waffensystemen sitzen hochentwickelte neuronale Netze (Künstliche Intelligenzen), deren Entscheidungen grundsätzlich nicht nachvollzogen werden können. Bis heute sind KI-Anwendungen Black Boxes, deren Entscheidungsweg nicht einmal von ihren Programmierern erklärt werden kann. Wenn es um Leben und Tod geht, ist das eine Ungeheuerlichkeit: Wer kann damit leben, dass es für den Tod eines Angehörigen nicht nur keinen (im rechtlichen Sinne) Verantwortlichen oder einen (im moralischen Sinne) Schuldigen gibt, sondern nicht einmal erklärt werden kann, warum er getötet wurde?
  7. Wenn auf beiden Seiten des Konfliktes autonome Waffen agieren, ist die Gefahr eines Flash Wars real: Dann werden Aktionen und Reaktionen der hochcomputerisierten Systeme beider Seiten so schnell auf einander folgen, dass kein Mensch ihnen folgen kann. Weder die Kommandanten noch die Menschen in den jeweiligen feindlichen Gebieten wissen dann, wer warum den Krieg gewonnen hat – wenn sie denn überleben.

Mein Fazit: Dass sich alle Bundestagsfraktionen außer die der Grünen und der Linken gegen die längst überfällige eindeutige Positionierung gegen autonome Waffen ausgesprochen haben, ist eine unverantwortliche vertane Chance. Die unklare Position, die Deutschland oder auch Frankreich in der Frage einnehmen, gibt den Entwicklerstaaten und Firmen mehr Zeit, die Technologie einsatzbereit zu machen.
Ich vermute, die meisten Abgeordneten verstehen die grundsätzliche Funktionsweise neuronaler Netze nicht, deren sämtliche Risiken in tödlichen autonomen Waffensystemen zum Vorschein kommen. Neben Deep Fakes (denen ich auch ein Buchkapitel widme) gehören diese Waffen zu den größten akuten Gefahren, die uns durch die Künstliche Intelligenz drohen – und die die vielfältigen Vorteile der Technologie relativieren.

Weitere Informationen zu der Thematik gibt es beim Future of Life Institute und der Initiative Stop Killer Robots. Äußerst sehenswert ist der Kurzfilm Slaugtherbots, der die Missbrauchsmöglichkeiten autonomer Waffen eindrücklich vor Augen führt.
So richte ich einen Aufruf an alle, die mit dem Thema bislang nichts zu tun gehabt haben oder Diskussionen um angebliche Killer Roboter für Fragen der fernen Zukunft oder gar für Science Fiction halten: Macht euch schlau, bekennt Farbe und übt Druck aus – sprecht mit euren Bundestagsabgeordneten, macht Journalist*innen und Blogger*innen auf das Thema aufmerksam, teilt Beiträge wie diese und lasst eure Meinung in der analogen wie der digitalen Welt hören.