OK Google – kann ich dir trauen?

Hätte ich vor einem Jahr gedacht, dass in meinem Haus je Sprachassistenten zum Einsatz kommen würden? Sicher nicht. Seit dem Herbst tun sie es jedoch; vier kleine Lautsprecher, die auf das Kommando „Hey Google“ reagieren, haben Einzug in unsere Familie gehalten.

Die Smart Speaker geben mir die Möglichkeit, auf Zuruf beim Duschen Classic Rock zu hören, beim Putzen Rockhits der 80er und beim Spülmaschine-Ausräumen das Radiomagazin „Echo des Tages“. Meine Kinder haben so selbständigen Zugriff auf ihre Lieblingslieder und Hörspiele, die in unserem seit langem CD-freien Haushalt ansonsten (im Zweifel von meiner Frau oder mir) von der Netzwerkfestplatte gekramt werden müssten. Kurzum: Die Smart Speaker bieten der ganzen Familie Komfort. Ein „Hey Google“ genügt (was bei unserer Kleinen noch ein „Hey Dudel“ ist, was sie fürchterlich aufgegt, denn dann reagieren die Dinger natürlich nicht).

Der Komfort steht auf der einen Seite. Ich habe dennoch kräftig abgewogen, ob ich die Lautsprecher in unser Haus lasse. Denn Smart Speaker sind aus Datenschutzsicht höchst umstritten:

  1. Um auf Kommando aktiv werden können, hören die Speaker dauerhaft den Raum ab. Bei uns sogar mehrere Räume. Da kommen eine Menge Informationen zusammen, die Google als einen der größten Datensammler natürlich interessieren. Im Gegensatz zu anderen Firmen, und das habe ich auf diesem Blog schon mehrfach gewürdigt, geht Google mit der Datensammelei aber vergleichsweise transparent um. Vor allem gibt der Konzern den Nutzer*innen die Möglichkeit an die Hand, die Datensammlung zu begrenzen – und damit den Umsatz, den sie dem Unternehmen bescheren. Über die Privatsphäre-Einstellungen des Google-Kontos, das für die smarten Lautsprecher ebenso nötig ist wie beispielsweise für die Einrichtung eines Android-Handys, kann die Nutzung der Daten für individueller Werbeeinblendungen untersagt werden. Noch relevanter ist, dass auch die Anzeige von personalisierten Google-Suchergebnissen deaktiviert werden kann, die das Problem der „Filterblase“ und die Gefahr einer verzerrten Weltwahrnehmung mit sich bringt. Ich verweise hier gerne noch einmal auf mein Buch „Die Mensch-App„, die diese Zusammenhängen beleuchtet.
    Im Privatsphäre-Menü des Google-Kontos können alle Situationen, in denen Googles Sprachassistenten (auch die auf dem Smartphone genutzten) aktiviert wurden, nachgehört und gelöscht werden. Zuguterletzt ist die Verknüpfung mit Googlemail und den Google-Kalendereinträgen (an die der Speaker z. B. erinnern kann) optional – und bei mir ausgeschaltet, nicht zuletzt deshalb, weil ich die Dienste nicht nutze.
  2. Solche Möglichkeiten bietet Amazons Alexa / Echo-Lautsprecher nicht. Deren Spracheingaben können zwar seit einigen Wochen nachgehört und gelöscht werden. Die Verwendung der Daten in Amazons Empfehlungsalgorithmus kann aber nicht deaktiert werden, geschweigedenn der Empfehlungsalgorithmus grundsätzlich – also das Pendant zu Googles personalisierter Werbung / Suchergebnissen. So populär Alexa und ihre Schwestern sind: Sie sind nichts anderes als smarte Verkaufsassistenten – und zwar für einen Laden, der die Menschenwürde seiner Beschäftigten mit Füßen tritt.
  3. Ein Herausforderung bringen jedoch alle Sprachassistenten mit sich; auch die von Apple müssen hier genannt werden, denn der Konzern ist ebenfalls mit seinen „Homepod“-Speakern am Markt und dessen Dienst „Siri“ auf vielen Iphones und Ipads installiert. Das Problem: Die Aktivierungswörter („Alexa“, „Hey Siri“ oder eben „OK Google“) werden nicht immer richtig verstanden und ähnlich klingende Begriffe lösen häufig die Aufnahme aus (hier eine interessante Studie dazu). So werden auch Gespräche, Informationen, Inhalte mitgeschnitten, die nicht für den Sprachassistenten bestimmt sind. Gerade dann, wenn Fremde Teil der Konversation sind, die also nicht über die Assistenten Bescheid wissen (beispielsweise Besucher im Wohnzimmer), kann das tatsächlich zu Verletzungen der Privatsphäre führen. In unserem Haushalt umgehen wir dieses Problem mit einer altmodischen, aber sehr effektiven Methode: schaltbaren Steckdosen. Wenn der Assistent nicht lauschen soll, wird ihm einfach der Saft abgedreht.
    Doch bei Sprachassistenten, die auf dem Handy laufen, also Siri, dem Google Assistant oder Alexa, geht das natürlich nicht. Wenn sich der Assistent während eines intimen Gesprächs im Restaurant aktiviert, nur weil man zwischen durch einen Daiquiri („Hey, Siri“) bestellt, werden sensible Infos aufgenommen. Und wer informiert seinen Gesprächspartner schon darüber, dass in seinem Handy ein smarter Assistent auf Befehle wartet?
  4. Daneben wurden bzw. werden die Sprachkommandos und Reaktionen der Assistenten hin und wieder anonymisiert von echten Menschen überprüft. Wegen deutlichem juristischen Gegenwind haben Google und Apple die Überprüfung letztes Jahr ausgesetzt, Google will sie künftig nur mit ausdrücklicher Zustimmung der*des Nutzer*in wieder einführen; Alexa bietet immerhin die Möglichkeit, die grundsätzlich erlaubte Verwendung abzuschalten. Doch das Geschmäckle bleibt natürlich, gerade im Blick auf mögliche „Fehlauslösungen“ (auch wenn diese durch die menschliche Analyse gerade minimiert werden sollen.)

Ich habe es mir also nicht leicht gemacht und hadere tatsächlich hin und wieder mit mir, ob die Anschaffung meiner vier Google-Speaker richtig war – das aber vor allem aus medienpädagogischen Überlegungen. Wie wachsen meine Kinder auf, wenn Informationen und Medienkonsum nur einen Ruf entfernt sind? Was müssen Sie über die dahinter stehende Technik, den möglichen Missbrauch und die Geschäftsmodelle des Herstellers wissen? Doch das sind offenkundig Themen für einen anderen Blog….

Kampf gegen Corona: Mit KI und Metadaten?

Seit sich der Coronavirus über die Welt ausbreitet, grüble ich, ob ich meine Haltung zur digitalen Privatsphäre unter Umständen überdenken muss. Ein Gedankenexperiment.

Konkret frage mich, ob die in unseren Smartphones massenweise erhobenen und auf diesen Seiten leidenschaftlich bekämpften Metadaten letztlich nicht doch ihren Sinn haben. Möglichweise könnten ein Schlüssel zur Eingrenzung der Epidemie sein. Das Robert-Koch-Institut (RKI) überlegt beispielsweise, die Standortangaben von Smartphones zu nutzen, um den Weg des Virus ohne aufwändige Befragungen nachzeichnen zu können. Doch die Möglichkeiten einer (grundsätzlich kritischen, möglicherweise aber gebotenen) Auswertung von Metadaten enden hier nicht. Die beispielweise von Whatsapp gesammelten Infos, wer wann wo mit wem kommuniziert, könnten dabei helfen, bei Verdachtsfällen Kontaktpersonen zu ermitteln. Lange Chat-Konversationen zu später Stunde von zu Hause aus deuten auf vertraute Personen hin (Familie/Freund*in/Partner*in), vereinzelte, von außerhalb des Hauses gesendete Nachrichten an Werktagen zwischen 9 und 17 Uhr auf berufliche oder schulische Kontakte.

Weitere Möglichkeiten zur Epidemie-Bekämpfung bietet [das Maschinelle Lernen, genannt:] Künstliche Intelligenz: Die Vorteile der darin verwendeten Künstlichen Neuronalen Netze liegt darin, in großen Datenmengen Muster zu erkennen. In meinem Buch erläutere ich die Funktionsweise und Anwendungsgebiete anhand einiger Beispiele. Auch im Blick auf Corona wird die Technologie eingesetzt. In China wird ein KI-System getestet, auf CT-Aufnahmen einer Verdachtsperson den Virus auszumachen. Dazu gleicht es die Bilder in Sekundenschnelle mit den Aufnahmen von bestätigten Fällen ab. Zum Vergleich: Ein normaler Coronatest dauert mehrere Stunden.

Doch was wäre, wenn ein Computersystem, das mit Maschinellem Lernen arbeitet, sämtliche Metadaten aus den Handys der Bevölkerung z. B. Deutschlands erhielte? Es könnte vermutlich in Echtzeit aufzeigen, wo das Virus besonders aktiv ist, in welche Region es sich ausbreitet und wo die Infektionen zurückgehen. Mit den richtigen Parametern ausgestattet könnte das System erkennen, welche Personengruppe mit bestätigten Infizierten Kontakt hatte, woraufhin diese Menschen dann von den Behörden direkt kontaktiert werden können (die Handynummer liegt ja vor). Die KI würde darstellen, wo sich das Virus auf Risikogruppen zubewegt, die dann vorbereitet oder auch abgeschottet werden könnten.
Eine KI könnte also helfen, dass Virus einzudämmen, schwere Krankheits- und Sterbefälle zu verhinden und die Bevölkerung zu schützen. Selbst für mich als überzeugtem Datenschützer und KI-Skeptiker ist diese Perspektive so reizvoll, dass ich überzeugt bin, dass wir diese Chance nicht ungenutzt lassen dürfen. Konkret: Wir müssten probieren a) an die Daten zu kommen und b) die Daten dementsprechend zu nutzen.
Doch jetzt kommen die „Abers“.

  1. Es müsste sichergestellt sein, dass die Smartphonenutzer*innen mit der Datenverwendung einverstanden sind. Dazu verpflichtet die DSGVO, aber auch der gesunde Menschenverstand. Doch zunächst müssten die Bürger*innen darüber informiert werden, dass die kommerzielle Datensammlung in einem solch großen Maße überhaupt stattfindet. Dann müsste ihnen versichert werden, dass die nachstehenden weiteren Prämissen erfüllt werden. Wer schon einmal eine DSGVO-Einverständiserklärung ausgefüllt hat, weiß, worauf das hinausläuft.
    Voraussetzung: kaum erfüllbar.
  2. Es müsste geklärt werden, wem die Metadaten gehören. Ich bin der Ansicht: den Nutzer*innen (weshalb ich mich immer noch mit Whatsapp kloppe); vermutlich betrachten Facebook, Google & Co. diese Daten aber als ihr Eigentum. Darüberhinaus haben die Unternhemen sicherlich kein Interesse daran, dass das Thema (Meta-)Datensammlung so breit in die Öffentlichkeit kommt. Nicht, dass sie womöglich ethische gegen kommerzielle Überlegungen abwägen müssten…
    Voraussetzung: nur erfüllbar, wenn die App-Hersteller mitmachen.
  3. Die Entwicklerfirmen der Betriebssysteme Android und iOS, Google und Apple, müssten eine Schnittstelle für den Export der Daten liefern. Updates auf den Smartphones wären nötig – die viele Nutzer*innen aber nicht regelmäßig machen.
    Voraussetzung: kaum erfüllbar.
  4. Die Entwickler*innen von Android und iOS müssten überhaupt an die Daten kommen – die zum Glück aber meist auf verschlüsselten Smartphones liegen. Apple und Google besitzen die Schlüssel zum Dekodieren nicht, also kämen sie nur durch Hacking an die Daten.
    Damit als Voraussetzung: auszuschließen.
  5. Die Alternative zu 3) und 4) wäre, eine Schnittstelle zu den Servern aller metadaten-sammelnden Servern herzustellen, d. h. zu Facebook, Google, Amazon und Co. Ich bin sicher, da würden schnell Sicherheitsbedenken im Blick auf Firmengeheimnisse laut.
    Voraussetzung: immerhin nicht unerfüllbar.
  6. Die Daten müssten an einem sicheren Ort gespeichert werden. Doch wo liegt dieser sichere Ort? Im Bundestag, wo es bereits mehrere Hackerangriffe gab? Bei der Telekom, die zwar sichere Rechenzentren hat 615-544-5748 , letztlich aber ein kommerzieller Telekommunikationsanbieter ist? Oder bei den Datenkraken Google, Facebook, Amazon und Co.? Voraussetzung: Erfüllbarkeit unklar.
  7. Es müsste sichergestellt werden, dass die Geheimdienste nicht an diese Daten gelangen. Nach allem, was wir über die Methoden der NSA, des GCHQ und des BND und deren Rückendeckung durch die Politik wissen, ist diese
    Voraussetzung: unerfüllbar
  8. Das KI-System müsste von unabhängigen Programmierer*innen oder zumindest von unabhängigen Stellen überwachten Programmierer*innen aufgesetzt werden. Die Coder*innen gibt es beispielweise an Universtitäten und Hochschulen, überwachen könnten bspw. Expert*innen des RKI, das Bundesamt für Sicherheit in der Informationstechnologie (BSI) und und der Datenethikkommission.
    Voraussetzung: erfüllbar.
  9. Die Ergebnisse der KI müssten gesichtet werden, bevor konkrete Aktionen ergriffen werden. Denn immerhin könnten die Eingangsdaten von den Smartphones falsch sein, z. B. wenn ein Handynutzer einen VPN-Dienst zur Verschleierung seines Standorts nutzt (was ich grundsätzlich jedem empfehle).
    a) Doch zu dieser Nachkontrolle fehlt den Behörden Manpower, immerhin sind die Gesundheitsämter bereits jetzt personell an der Grenze. Noch gravierender ist das Problem, dass Menschen für die Überprüfung in Sekundenschnelle erzeugter Computerausgaben Zeit brauchen. Die uns das Coronavirus nicht gibt.
    Voraussetzung: nicht erfüllbar.
    b) Zum anderen sind die Entscheidungswege in Machine Learning-Prozessen nicht transparent. Bis heute gibt es keine verlässliche Möglichkeit nachzuvollziehen, wie eine KI zu ihrem Ergebnis gekommen ist. An der sogenannten Explainable AI wird intensiv geforscht, so dass hier in den kommenden Jahren mit einem Durchbruch zu rechnen ist. Doch auch hier: Soviel Zeit lässt uns Corona nicht.
    Voraussetzung: nicht erfüllbar.
  10. Die Daten müssten hinterher sicher gelöscht werden. Unter Aufsicht und Kontrolle des BSI und seiner Forensiker*innen ist das möglich, also
    Voraussetzung: erfüllbar.

Fazit: Nur zwei von zehn Prämissen sind erfüllbar. Damit ist mein Gedankenspiel leider nicht mehr als ebendieses.
Die globalen Datensammler ließen sich möglicherweise überzeugen, immerhin leiden sie selbst wg. des Virus‘ ja unter Produktionsausfall. Vielleicht fände sich auch ein sicherer Speicher-Ort für die Metadaten. Doch der Black-Box-Charakter von KI-Systemen zum einen und die nötige Aufklärungskampagne zum anderen machen die Umsetzung leider unmöglich, bzw. erst zu spät möglich.

Ich bin nichtsdestotrotz überzeugt, dass wir über solche Ideen (die ich nicht nur für mich reklamiere) nachdenken und sprechen sollten. Möglicherweise liegt in der Epidemie die Chance, dass wir Bürger*innen, unsere Zivilgesellschaft und die Politik endlich zu einer konkreten Positionierung zu den Themen Datensammlung, Massenüberwachung, Künstliche Intelligenz und dem Nutzen von Technologie für die Gesellschaft kommen. Vielleicht liegt die Chance auch darin, dass diejenigen, die bereits eine Haltung dazu haben, vielleicht ihre Positionswechsel auslöst. Ich selbst stand der Datensammlung noch nie so ambivalent wie heute gegenüber.

Seminar „Digital Privacy“

In verschiedenen Beiträgen dieses Blogs habe ich auf Tools und Einstellungen verwiesen, die – gemäß dem inoffiziellen Motto von Spähgypten – persönliche Daten schützen können, ohne den Komfort in der Nutzung von Computern, Smartphones oder Tablets zu beeinträchtigen (z. B. für Windows 615-544-1257 , Android, Google…).

Am 31. August 2019 findet in Lingen ein Seminar zu diesem Thema statt. Dafür möchte ich, weil ich es organisiert habe, hier schamlos werben möchte.
Der Datensicherheitsexperte Elmar Brandhorst wird den Interessierten, die an diesem Tag ins Ludwig-Windthorst-Haus kommen, einen Blick in einen Privacy-Werkzeugkasten werfen lassen. Elmar beschäftigt sich seit Jahren u.a. mit den Fragen sicherer Email-Kommunikation, Tracking im Netz oder Alternativen zu Google & Co. Vor allem aber bringt er die Inhalte tierisch unterhaltsam rüber.
Meine wärmste Empfehlung für „Digital Privacy“ am Samstag, 13. August 2019, von 10 bis 17 Uhr im Ludwig-Windthorst-Haus. Die Seminargebühr beträgt 75,00 €

» zur Veranstaltung