OK Google – kann ich dir trauen?

Hätte ich vor einem Jahr gedacht, dass in meinem Haus je Sprachassistenten zum Einsatz kommen würden? Sicher nicht. Seit dem Herbst tun sie es jedoch; vier kleine Lautsprecher, die auf das Kommando „Hey Google“ reagieren, haben Einzug in unsere Familie gehalten.

Die Smart Speaker geben mir die Möglichkeit, auf Zuruf beim Duschen Classic Rock zu hören, beim Putzen Rockhits der 80er und beim Spülmaschine-Ausräumen das Radiomagazin „Echo des Tages“. Meine Kinder haben so selbständigen Zugriff auf ihre Lieblingslieder und Hörspiele, die in unserem seit langem CD-freien Haushalt ansonsten (im Zweifel von meiner Frau oder mir) von der Netzwerkfestplatte gekramt werden müssten. Kurzum: Die Smart Speaker bieten der ganzen Familie Komfort. Ein „Hey Google“ genügt (was bei unserer Kleinen noch ein „Hey Dudel“ ist, was sie fürchterlich aufgegt, denn dann reagieren die Dinger natürlich nicht).

Der Komfort steht auf der einen Seite. Ich habe dennoch kräftig abgewogen, ob ich die Lautsprecher in unser Haus lasse. Denn Smart Speaker sind aus Datenschutzsicht höchst umstritten:

  1. Um auf Kommando aktiv werden können, hören die Speaker dauerhaft den Raum ab. Bei uns sogar mehrere Räume. Da kommen eine Menge Informationen zusammen, die Google als einen der größten Datensammler natürlich interessieren. Im Gegensatz zu anderen Firmen, und das habe ich auf diesem Blog schon mehrfach gewürdigt, geht Google mit der Datensammelei aber vergleichsweise transparent um. Vor allem gibt der Konzern den Nutzer*innen die Möglichkeit an die Hand, die Datensammlung zu begrenzen – und damit den Umsatz, den sie dem Unternehmen bescheren. Über die Privatsphäre-Einstellungen des Google-Kontos, das für die smarten Lautsprecher ebenso nötig ist wie beispielsweise für die Einrichtung eines Android-Handys, kann die Nutzung der Daten für individueller Werbeeinblendungen untersagt werden. Noch relevanter ist, dass auch die Anzeige von personalisierten Google-Suchergebnissen deaktiviert werden kann, die das Problem der „Filterblase“ und die Gefahr einer verzerrten Weltwahrnehmung mit sich bringt. Ich verweise hier gerne noch einmal auf mein Buch „Die Mensch-App„, die diese Zusammenhängen beleuchtet.
    Im Privatsphäre-Menü des Google-Kontos können alle Situationen, in denen Googles Sprachassistenten (auch die auf dem Smartphone genutzten) aktiviert wurden, nachgehört und gelöscht werden. Zuguterletzt ist die Verknüpfung mit Googlemail und den Google-Kalendereinträgen (an die der Speaker z. B. erinnern kann) optional – und bei mir ausgeschaltet, nicht zuletzt deshalb, weil ich die Dienste nicht nutze.
  2. Solche Möglichkeiten bietet Amazons Alexa / Echo-Lautsprecher nicht. Deren Spracheingaben können zwar seit einigen Wochen nachgehört und gelöscht werden. Die Verwendung der Daten in Amazons Empfehlungsalgorithmus kann aber nicht deaktiert werden, geschweigedenn der Empfehlungsalgorithmus grundsätzlich – also das Pendant zu Googles personalisierter Werbung / Suchergebnissen. So populär Alexa und ihre Schwestern sind: Sie sind nichts anderes als smarte Verkaufsassistenten – und zwar für einen Laden, der die Menschenwürde seiner Beschäftigten mit Füßen tritt.
  3. Ein Herausforderung bringen jedoch alle Sprachassistenten mit sich; auch die von Apple müssen hier genannt werden, denn der Konzern ist ebenfalls mit seinen „Homepod“-Speakern am Markt und dessen Dienst „Siri“ auf vielen Iphones und Ipads installiert. Das Problem: Die Aktivierungswörter („Alexa“, „Hey Siri“ oder eben „OK Google“) werden nicht immer richtig verstanden und ähnlich klingende Begriffe lösen häufig die Aufnahme aus (hier eine interessante Studie dazu). So werden auch Gespräche, Informationen, Inhalte mitgeschnitten, die nicht für den Sprachassistenten bestimmt sind. Gerade dann, wenn Fremde Teil der Konversation sind, die also nicht über die Assistenten Bescheid wissen (beispielsweise Besucher im Wohnzimmer), kann das tatsächlich zu Verletzungen der Privatsphäre führen. In unserem Haushalt umgehen wir dieses Problem mit einer altmodischen, aber sehr effektiven Methode: schaltbaren Steckdosen. Wenn der Assistent nicht lauschen soll, wird ihm einfach der Saft abgedreht.
    Doch bei Sprachassistenten, die auf dem Handy laufen, also Siri, dem Google Assistant oder Alexa, geht das natürlich nicht. Wenn sich der Assistent während eines intimen Gesprächs im Restaurant aktiviert, nur weil man zwischen durch einen Daiquiri („Hey, Siri“) bestellt, werden sensible Infos aufgenommen. Und wer informiert seinen Gesprächspartner schon darüber, dass in seinem Handy ein smarter Assistent auf Befehle wartet?
  4. Daneben wurden bzw. werden die Sprachkommandos und Reaktionen der Assistenten hin und wieder anonymisiert von echten Menschen überprüft. Wegen deutlichem juristischen Gegenwind haben Google und Apple die Überprüfung letztes Jahr ausgesetzt, Google will sie künftig nur mit ausdrücklicher Zustimmung der*des Nutzer*in wieder einführen; Alexa bietet immerhin die Möglichkeit, die grundsätzlich erlaubte Verwendung abzuschalten. Doch das Geschmäckle bleibt natürlich, gerade im Blick auf mögliche „Fehlauslösungen“ (auch wenn diese durch die menschliche Analyse gerade minimiert werden sollen.)

Ich habe es mir also nicht leicht gemacht und hadere tatsächlich hin und wieder mit mir, ob die Anschaffung meiner vier Google-Speaker richtig war – das aber vor allem aus medienpädagogischen Überlegungen. Wie wachsen meine Kinder auf, wenn Informationen und Medienkonsum nur einen Ruf entfernt sind? Was müssen Sie über die dahinter stehende Technik, den möglichen Missbrauch und die Geschäftsmodelle des Herstellers wissen? Doch das sind offenkundig Themen für einen anderen Blog….

Tik Tok und die Macht im Netz

Donald Trump will heute das chinesische Soziale Netzwerk für den US-Markt sperren. Hintergrund ist die vermutete Weitergabe von Nutzer*innendaten an die chinesische Regierung oder deren theoretischer Zugriff darauf. Das ist bis heute nicht bewiesen, aber laut allem, was man weiß, nicht unmöglich (siehe dazu die Analysen von SZ und Netzpolitik).

Zweifelsohne – und belegbar – ist Tik Tok eine Datenkrake. Die App kann jederzeit auf die Kamera und das Mikrofon des Smartphones zugreifen (auch bei Nichtnutzung!) und verfolgt, welche Inhalte die Nutzer*innen ansehen und wonach sie suchen. Darüber lassen sich Informationen über Vorlieben und Ansichten ermitteln – also welche Mode die Nutzer*innen mögen, welche Musik sie hören, welche politischen Ansichten sie haben. Und diese Daten gelangen nicht nur in die Hände der chinesischen Plattformbetreiber und damit möglicherweise des Regimes, sondern werden über so genannte App Tracker weitergeleitet. Das sind in (fast allen) Apps einprogrammierte Schnittstellen zu externen Diensten, die in gewisser Weise mit Browser-Cookies vergleichbar sind – nur, dass darüber weit weniger Wissen verbreitet ist. Die Tik Tok-Daten werden so nicht nur an das Werbenetzwerk von Facebook weitergegeben, das damit die Zusammenstellung des Facebook- oder Instagram-Feeds (und damit einen guten Teil der Weltwahrnehmung von deren User*innen) beeinflussen kann, sondern auch an die Marketingplattform Appsflyer, die wiederum 4.500 Partnerfirmen beliefert.
Daneben, auch kein Geheimnis und aus m. E. nicht weniger relevant, wurden Videos von korpulenten Menschen oder Personen mit Behinderungen zumindest bis Ende 2019 in ihrer Reichweite benachteiligt, was die betreffenden Videoautor*innen natürlich diskriminiert – und den anderen Nutzer*innen ein völlig verzerrtes Bild von der Realität vermittelt hat – bzw. heute noch tut, denn auch die aktuellen Moderationsrichtlinien lassen Raum für Interpretation.

So unethisch Tik Tok auch ist – den Onlinedienst deshalb zu verbieten ist die falsche Lösung. Sie nimmt den Nutzer*innen die Möglichkeit der selbstbestimmten Internetnutzung – uns somit die Macht im Netz. Die mündige Entscheidung, auch ein umstrittenes Soziales Netzwerk zu nutzen, setzt selbstverständlich Informiertheit der (im Falle von Tik Tok meist jugendlichen) Nutzer*innen voraus. Damit ist es möglicherweise in den USA noch weniger weit her als in Europa, wo es nicht erst seit Einführung der DSGVO viele medienpädagogische Initiativen gibt.
Aufgabe der Politik ist dementsprechend, solche Initiativen großflächig zu fördern, d. h. vom Kindergartenalter über sämtliche Schulformen bis in die Erwachsenenbildung. Zudem ist die Regulierung kritischer Onlinedienste, wie sie in Europa diskutiert wird, ein richtiger Weg zur Durchsetzung von Nutzer*inneninteressen sowie der Wahrung demokratischer Grundsätze.

Was Trump jedoch vorhat, instrumentalisiert die US-Nutzer*innen von Tik Tok für seine chinakritische politische Agenda. Das ist eines Präsidenten nicht würdig – und eines Landes nicht würdig, das die Meinungs- und Informationsfreiheit so hoch hält wie die USA.

Corona-App: Eine Frage des Vertrauens

Wie wird die offizielle deutsche Corona-App aussehen, und welche Bedeutung wird ihr im Kampf gegen die Pandemie zukommen? Zumindest scheinen mit der App zu sein, die wir Smartphonenutzer*innen möglicherweise in den kommenden Wochen installieren können, viele Hoffnungen verbunden zu sein. Doch sind die Erwartungen erfüllbar?

Die Bundesregierung hat gestern bekannt gegeben, die von den Nutzer*innen-Smartphones gesammelten Daten nun doch nicht zentral speichern und auswerten zu wollen. Bislang war eine Meta-Auswertung zur Beobachtung der Epidemie geplant. Nun wird die deutsche Corona-App offenbar doch einen dezentralen Ansatz verfolgen, bei dem die Daten auf den Smartphones bleiben. Doch mit diesem Zugeständnis an den Datenschutz, so wichtig wie er ist, ist noch längst nicht klar, dass die App ein Erfolg wird. Ich möchte einige Fragen in die Diskussion einbringen bzw. stark machen:

1. Wie zuverlässig ist die Bluetooth-Messung?
Die App bestimmt mit Hilfe der Bluetooth-Technologie die Nähe zweier Smartphones zueinander und protokolliert enge, länger andauernde Kontakte. Sie wird allerdings auch von einem Kontakt ausgehen, wenn ich auf der einen Seite der Wand auf meinem Sofa sitze und mein Nachbar auf der anderen Seite. Der Bluetooth-Kontakt ist da, obwohl das Infektionsrisiko bei null liegt. Viele IT-Profis, unter ihnen der Informatiker Henning Tillmann, warnen vor falscher Sicherheit. Ich frage mich: Relativieren solche Fehlmessungen, denen die Gesundheitsämter natürlich erstmal auf die Spur kommen müssen, nicht die Arbeitsentlastung der Behörden, die die App eigentlich bringen soll?

Zum anderen ist das, was ein Handy als Nähe zu einem anderen Handy angibt, kein fixer Wert. Entfernungsmessungen per Bluetooth sind nicht geeicht. Der Informatikprofessor Florian Gallwitz weist auf eine Studie hin, die bei verschiedenen Smartphones höchst unterschiedliche Signalstärken gemessen hat. Gallwitz‘ Fazit:

2. Zu wenig Vertrauen in Technik
Wenn ich Kontaktperson eines Infizierten identifiziert wurde und meine App mich bittet, das Gesundheitsamt anzurufen – werde ich das tun? Ich meine, mein Smartphone spinnt doch in letzter Zeit immer so, klingelt manchmal ganz unvermittelt… das könnte doch eine Fehlfunktion sein, oder?
Folge ich also der Aufforderung der Corona-App?
Wenn ich es mache, wird das Gesundheitsamt vermutlich einen Test anordnen – ohne, dass dort irgendjemand weiß oder mir sagen kann, ob ich wirklich mit einer*einem Infizierten in Kontakt gekommen bin (oder ob ich nur an der falschen Wand gesessen habe) – ist ja alles anonym.
Also: Fahre ich dann wirklich zum Testzentrum? Akzeptiere ich die notwendige Quarantäne, die mir während der Auswertung meines meines Test auferlegt wird? Was ist, wenn ich mir todsicher bin, dass ich in den letzten Tagen das Haus nicht verlassen habe?
Ich befürchte, dass das Misstrauen in die eigenen technischen Geräte und in nicht konkret nachvollziehbare Entscheidungen zu einer geringen Verbindlichkeit des Corona-Alarms führt.

3. Zu viel Vertrauen in Technik
Andersherum käme es hingegen noch schlimmer, wenn die App nämlich im blinden Vertrauen auf die Technik zu Leichtsinn ermuntert: die Nutzer*innen im Blick auf ihre persönlichen Kontaktbeschränkungen, die Politiker*innen im Blick auf weitere Lockerungen des Lockdowns.
(Auf das paradoxe Verhältnis zwischen Menschen und technischen Geräten gehe ich in meinem aktuellen Buch näher ein.)

4. Medienbildung first, Vertrauen second!
Die App bringt nur etwas, wenn Sie von vielen Menschen freiwillig installiert wird. Expert*innen sprechen von 60 % der Deutschen, die mitmachen müssen. Dazu braucht es natürlich Vertrauen, dass die persönlichen Daten sicher sind und nicht zu anderen Zwecken verwendet werden. Mit der Kehrtwende der Regierung ist dieses Vertrauen sicherlich leichter zu erreichen. Doch: Wissen die Nutzer*innen der App genug über die ganz normale Datensammlung auf ihren Handys, dass sie diese Entscheidung pro oder contra Corona-App mündig treffen können? Dass also das Vertrauen in diese Bundes-App gerechtfertigt ist?
Wenn nicht – Wer sagt ihnen, welche Macht Metadaten haben, was Profiling ist, womit Data Broker Geld verdienen?
Vertrauen braucht Aufklärung, und Aufklärung braucht Bildung. Und Bildung findet wg. Corona gerade nur sehr eingeschränkt statt.

5. Vertrauen in den Staat?
Die letzte Frage berüht ein durchgängiges Motiv dieses Blogs: den aus meiner Sicht mangelhaften Schutz unserer Freiheitsrechte durch die Bundesregierung. Ich frage ganz im Ernst: Können wir einer Regierung (oder von mir aus: einem Staat) vertrauen, der uns nicht vor ausländischer Massenüberwachung schützt und selbst in unserer Handys einbrechen will (Staatstrojaner)?

Ich hoffe, meine (teils als Sorgen enttarnten) Fragen erübrigen sich in den kommenden Wochen. Ich hoffe, unsere Gesellschaft kommt zu einer verantwortungsvollen Nutzung der Corona-App, die nur dem Zwecke der Pandemiebekämpfung dient und als solche erfolgreich ist. Und ich hoffe, die aktuelle Diskussion um die App führt zu einer breiteren Aufmerksamkeit für den Wert persönlicher Daten.
Dann hätte Corona doch etwas Gutes.