Corona-App: Eine Frage des Vertrauens

Wie wird die offizielle deutsche Corona-App aussehen, und welche Bedeutung wird ihr im Kampf gegen die Pandemie zukommen? Zumindest scheinen mit der App zu sein, die wir Smartphonenutzer*innen möglicherweise in den kommenden Wochen installieren können, viele Hoffnungen verbunden zu sein. Doch sind die Erwartungen erfüllbar?

Die Bundesregierung hat gestern bekannt gegeben, die von den Nutzer*innen-Smartphones gesammelten Daten nun doch nicht zentral speichern und auswerten zu wollen. Bislang war eine Meta-Auswertung zur Beobachtung der Epidemie geplant. Nun wird die deutsche Corona-App offenbar doch einen dezentralen Ansatz verfolgen, bei dem die Daten auf den Smartphones bleiben. Doch mit diesem Zugeständnis an den Datenschutz, so wichtig wie er ist, ist noch längst nicht klar, dass die App ein Erfolg wird. Ich möchte einige Fragen in die Diskussion einbringen bzw. stark machen:

1. Wie zuverlässig ist die Bluetooth-Messung?
Die App bestimmt mit Hilfe der Bluetooth-Technologie die Nähe zweier Smartphones zueinander und protokolliert enge, länger andauernde Kontakte. Sie wird allerdings auch von einem Kontakt ausgehen, wenn ich auf der einen Seite der Wand auf meinem Sofa sitze und mein Nachbar auf der anderen Seite. Der Bluetooth-Kontakt ist da, obwohl das Infektionsrisiko bei null liegt. Viele IT-Profis, unter ihnen der Informatiker Henning Tillmann, warnen vor falscher Sicherheit. Ich frage mich: Relativieren solche Fehlmessungen, denen die Gesundheitsämter natürlich erstmal auf die Spur kommen müssen, nicht die Arbeitsentlastung der Behörden, die die App eigentlich bringen soll?

Zum anderen ist das, was ein Handy als Nähe zu einem anderen Handy angibt, kein fixer Wert. Entfernungsmessungen per Bluetooth sind nicht geeicht. Der Informatikprofessor Florian Gallwitz weist auf eine Studie hin, die bei verschiedenen Smartphones höchst unterschiedliche Signalstärken gemessen hat. Gallwitz‘ Fazit:

2. Zu wenig Vertrauen in Technik
Wenn ich Kontaktperson eines Infizierten identifiziert wurde und meine App mich bittet, das Gesundheitsamt anzurufen – werde ich das tun? Ich meine, mein Smartphone spinnt doch in letzter Zeit immer so, klingelt manchmal ganz unvermittelt… das könnte doch eine Fehlfunktion sein, oder?
Folge ich also der Aufforderung der Corona-App?
Wenn ich es mache, wird das Gesundheitsamt vermutlich einen Test anordnen – ohne, dass dort irgendjemand weiß oder mir sagen kann, ob ich wirklich mit einer*einem Infizierten in Kontakt gekommen bin (oder ob ich nur an der falschen Wand gesessen habe) – ist ja alles anonym.
Also: Fahre ich dann wirklich zum Testzentrum? Akzeptiere ich die notwendige Quarantäne, die mir während der Auswertung meines meines Test auferlegt wird? Was ist, wenn ich mir todsicher bin, dass ich in den letzten Tagen das Haus nicht verlassen habe?
Ich befürchte, dass das Misstrauen in die eigenen technischen Geräte und in nicht konkret nachvollziehbare Entscheidungen zu einer geringen Verbindlichkeit des Corona-Alarms führt.

3. Zu viel Vertrauen in Technik
Andersherum käme es hingegen noch schlimmer, wenn die App nämlich im blinden Vertrauen auf die Technik zu Leichtsinn ermuntert: die Nutzer*innen im Blick auf ihre persönlichen Kontaktbeschränkungen, die Politiker*innen im Blick auf weitere Lockerungen des Lockdowns.
(Auf das paradoxe Verhältnis zwischen Menschen und technischen Geräten gehe ich in meinem aktuellen Buch näher ein.)

4. Medienbildung first, Vertrauen second!
Die App bringt nur etwas, wenn Sie von vielen Menschen freiwillig installiert wird. Expert*innen sprechen von 60 % der Deutschen, die mitmachen müssen. Dazu braucht es natürlich Vertrauen, dass die persönlichen Daten sicher sind und nicht zu anderen Zwecken verwendet werden. Mit der Kehrtwende der Regierung ist dieses Vertrauen sicherlich leichter zu erreichen. Doch: Wissen die Nutzer*innen der App genug über die ganz normale Datensammlung auf ihren Handys, dass sie diese Entscheidung pro oder contra Corona-App mündig treffen können? Dass also das Vertrauen in diese Bundes-App gerechtfertigt ist?
Wenn nicht – Wer sagt ihnen, welche Macht Metadaten haben, was Profiling ist, womit Data Broker Geld verdienen?
Vertrauen braucht Aufklärung, und Aufklärung braucht Bildung. Und Bildung findet wg. Corona gerade nur sehr eingeschränkt statt.

5. Vertrauen in den Staat?
Die letzte Frage berüht ein durchgängiges Motiv dieses Blogs: den aus meiner Sicht mangelhaften Schutz unserer Freiheitsrechte durch die Bundesregierung. Ich frage ganz im Ernst: Können wir einer Regierung (oder von mir aus: einem Staat) vertrauen, der uns nicht vor ausländischer Massenüberwachung schützt und selbst in unserer Handys einbrechen will (Staatstrojaner)?

Ich hoffe, meine (teils als Sorgen enttarnten) Fragen erübrigen sich in den kommenden Wochen. Ich hoffe, unsere Gesellschaft kommt zu einer verantwortungsvollen Nutzung der Corona-App, die nur dem Zwecke der Pandemiebekämpfung dient und als solche erfolgreich ist. Und ich hoffe, die aktuelle Diskussion um die App führt zu einer breiteren Aufmerksamkeit für den Wert persönlicher Daten.
Dann hätte Corona doch etwas Gutes.

Kampf gegen Corona: Mit KI und Metadaten?

Seit sich der Coronavirus über die Welt ausbreitet, grüble ich, ob ich meine Haltung zur digitalen Privatsphäre unter Umständen überdenken muss. Ein Gedankenexperiment.

Konkret frage mich, ob die in unseren Smartphones massenweise erhobenen und auf diesen Seiten leidenschaftlich bekämpften Metadaten letztlich nicht doch ihren Sinn haben. Möglichweise könnten ein Schlüssel zur Eingrenzung der Epidemie sein. Das Robert-Koch-Institut (RKI) überlegt beispielsweise, die Standortangaben von Smartphones zu nutzen, um den Weg des Virus ohne aufwändige Befragungen nachzeichnen zu können. Doch die Möglichkeiten einer (grundsätzlich kritischen, möglicherweise aber gebotenen) Auswertung von Metadaten enden hier nicht. Die beispielweise von Whatsapp gesammelten Infos, wer wann wo mit wem kommuniziert, könnten dabei helfen, bei Verdachtsfällen Kontaktpersonen zu ermitteln. Lange Chat-Konversationen zu später Stunde von zu Hause aus deuten auf vertraute Personen hin (Familie/Freund*in/Partner*in), vereinzelte, von außerhalb des Hauses gesendete Nachrichten an Werktagen zwischen 9 und 17 Uhr auf berufliche oder schulische Kontakte.

Weitere Möglichkeiten zur Epidemie-Bekämpfung bietet [das Maschinelle Lernen, genannt:] Künstliche Intelligenz: Die Vorteile der darin verwendeten Künstlichen Neuronalen Netze liegt darin, in großen Datenmengen Muster zu erkennen. In meinem Buch erläutere ich die Funktionsweise und Anwendungsgebiete anhand einiger Beispiele. Auch im Blick auf Corona wird die Technologie eingesetzt. In China wird ein KI-System getestet, auf CT-Aufnahmen einer Verdachtsperson den Virus auszumachen. Dazu gleicht es die Bilder in Sekundenschnelle mit den Aufnahmen von bestätigten Fällen ab. Zum Vergleich: Ein normaler Coronatest dauert mehrere Stunden.

Doch was wäre, wenn ein Computersystem, das mit Maschinellem Lernen arbeitet, sämtliche Metadaten aus den Handys der Bevölkerung z. B. Deutschlands erhielte? Es könnte vermutlich in Echtzeit aufzeigen, wo das Virus besonders aktiv ist, in welche Region es sich ausbreitet und wo die Infektionen zurückgehen. Mit den richtigen Parametern ausgestattet könnte das System erkennen, welche Personengruppe mit bestätigten Infizierten Kontakt hatte, woraufhin diese Menschen dann von den Behörden direkt kontaktiert werden können (die Handynummer liegt ja vor). Die KI würde darstellen, wo sich das Virus auf Risikogruppen zubewegt, die dann vorbereitet oder auch abgeschottet werden könnten.
Eine KI könnte also helfen, dass Virus einzudämmen, schwere Krankheits- und Sterbefälle zu verhinden und die Bevölkerung zu schützen. Selbst für mich als überzeugtem Datenschützer und KI-Skeptiker ist diese Perspektive so reizvoll, dass ich überzeugt bin, dass wir diese Chance nicht ungenutzt lassen dürfen. Konkret: Wir müssten probieren a) an die Daten zu kommen und b) die Daten dementsprechend zu nutzen.
Doch jetzt kommen die „Abers“.

  1. Es müsste sichergestellt sein, dass die Smartphonenutzer*innen mit der Datenverwendung einverstanden sind. Dazu verpflichtet die DSGVO, aber auch der gesunde Menschenverstand. Doch zunächst müssten die Bürger*innen darüber informiert werden, dass die kommerzielle Datensammlung in einem solch großen Maße überhaupt stattfindet. Dann müsste ihnen versichert werden, dass die nachstehenden weiteren Prämissen erfüllt werden. Wer schon einmal eine DSGVO-Einverständiserklärung ausgefüllt hat, weiß, worauf das hinausläuft.
    Voraussetzung: kaum erfüllbar.
  2. Es müsste geklärt werden, wem die Metadaten gehören. Ich bin der Ansicht: den Nutzer*innen (weshalb ich mich immer noch mit Whatsapp kloppe); vermutlich betrachten Facebook, Google & Co. diese Daten aber als ihr Eigentum. Darüberhinaus haben die Unternhemen sicherlich kein Interesse daran, dass das Thema (Meta-)Datensammlung so breit in die Öffentlichkeit kommt. Nicht, dass sie womöglich ethische gegen kommerzielle Überlegungen abwägen müssten…
    Voraussetzung: nur erfüllbar, wenn die App-Hersteller mitmachen.
  3. Die Entwicklerfirmen der Betriebssysteme Android und iOS, Google und Apple, müssten eine Schnittstelle für den Export der Daten liefern. Updates auf den Smartphones wären nötig – die viele Nutzer*innen aber nicht regelmäßig machen.
    Voraussetzung: kaum erfüllbar.
  4. Die Entwickler*innen von Android und iOS müssten überhaupt an die Daten kommen – die zum Glück aber meist auf verschlüsselten Smartphones liegen. Apple und Google besitzen die Schlüssel zum Dekodieren nicht, also kämen sie nur durch Hacking an die Daten.
    Damit als Voraussetzung: auszuschließen.
  5. Die Alternative zu 3) und 4) wäre, eine Schnittstelle zu den Servern aller metadaten-sammelnden Servern herzustellen, d. h. zu Facebook, Google, Amazon und Co. Ich bin sicher, da würden schnell Sicherheitsbedenken im Blick auf Firmengeheimnisse laut.
    Voraussetzung: immerhin nicht unerfüllbar.
  6. Die Daten müssten an einem sicheren Ort gespeichert werden. Doch wo liegt dieser sichere Ort? Im Bundestag, wo es bereits mehrere Hackerangriffe gab? Bei der Telekom, die zwar sichere Rechenzentren hat 615-544-5748 , letztlich aber ein kommerzieller Telekommunikationsanbieter ist? Oder bei den Datenkraken Google, Facebook, Amazon und Co.? Voraussetzung: Erfüllbarkeit unklar.
  7. Es müsste sichergestellt werden, dass die Geheimdienste nicht an diese Daten gelangen. Nach allem, was wir über die Methoden der NSA, des GCHQ und des BND und deren Rückendeckung durch die Politik wissen, ist diese
    Voraussetzung: unerfüllbar
  8. Das KI-System müsste von unabhängigen Programmierer*innen oder zumindest von unabhängigen Stellen überwachten Programmierer*innen aufgesetzt werden. Die Coder*innen gibt es beispielweise an Universtitäten und Hochschulen, überwachen könnten bspw. Expert*innen des RKI, das Bundesamt für Sicherheit in der Informationstechnologie (BSI) und und der Datenethikkommission.
    Voraussetzung: erfüllbar.
  9. Die Ergebnisse der KI müssten gesichtet werden, bevor konkrete Aktionen ergriffen werden. Denn immerhin könnten die Eingangsdaten von den Smartphones falsch sein, z. B. wenn ein Handynutzer einen VPN-Dienst zur Verschleierung seines Standorts nutzt (was ich grundsätzlich jedem empfehle).
    a) Doch zu dieser Nachkontrolle fehlt den Behörden Manpower, immerhin sind die Gesundheitsämter bereits jetzt personell an der Grenze. Noch gravierender ist das Problem, dass Menschen für die Überprüfung in Sekundenschnelle erzeugter Computerausgaben Zeit brauchen. Die uns das Coronavirus nicht gibt.
    Voraussetzung: nicht erfüllbar.
    b) Zum anderen sind die Entscheidungswege in Machine Learning-Prozessen nicht transparent. Bis heute gibt es keine verlässliche Möglichkeit nachzuvollziehen, wie eine KI zu ihrem Ergebnis gekommen ist. An der sogenannten Explainable AI wird intensiv geforscht, so dass hier in den kommenden Jahren mit einem Durchbruch zu rechnen ist. Doch auch hier: Soviel Zeit lässt uns Corona nicht.
    Voraussetzung: nicht erfüllbar.
  10. Die Daten müssten hinterher sicher gelöscht werden. Unter Aufsicht und Kontrolle des BSI und seiner Forensiker*innen ist das möglich, also
    Voraussetzung: erfüllbar.

Fazit: Nur zwei von zehn Prämissen sind erfüllbar. Damit ist mein Gedankenspiel leider nicht mehr als ebendieses.
Die globalen Datensammler ließen sich möglicherweise überzeugen, immerhin leiden sie selbst wg. des Virus‘ ja unter Produktionsausfall. Vielleicht fände sich auch ein sicherer Speicher-Ort für die Metadaten. Doch der Black-Box-Charakter von KI-Systemen zum einen und die nötige Aufklärungskampagne zum anderen machen die Umsetzung leider unmöglich, bzw. erst zu spät möglich.

Ich bin nichtsdestotrotz überzeugt, dass wir über solche Ideen (die ich nicht nur für mich reklamiere) nachdenken und sprechen sollten. Möglicherweise liegt in der Epidemie die Chance, dass wir Bürger*innen, unsere Zivilgesellschaft und die Politik endlich zu einer konkreten Positionierung zu den Themen Datensammlung, Massenüberwachung, Künstliche Intelligenz und dem Nutzen von Technologie für die Gesellschaft kommen. Vielleicht liegt die Chance auch darin, dass diejenigen, die bereits eine Haltung dazu haben, vielleicht ihre Positionswechsel auslöst. Ich selbst stand der Datensammlung noch nie so ambivalent wie heute gegenüber.