Tik Tok und die Macht im Netz

Donald Trump will heute das chinesische Soziale Netzwerk für den US-Markt sperren. Hintergrund ist die vermutete Weitergabe von Nutzer*innendaten an die chinesische Regierung oder deren theoretischer Zugriff darauf. Das ist bis heute nicht bewiesen, aber laut allem, was man weiß, nicht unmöglich (siehe dazu die Analysen von SZ und Netzpolitik).

Zweifelsohne – und belegbar – ist Tik Tok eine Datenkrake. Die App kann jederzeit auf die Kamera und das Mikrofon des Smartphones zugreifen (auch bei Nichtnutzung!) und verfolgt, welche Inhalte die Nutzer*innen ansehen und wonach sie suchen. Darüber lassen sich Informationen über Vorlieben und Ansichten ermitteln – also welche Mode die Nutzer*innen mögen, welche Musik sie hören, welche politischen Ansichten sie haben. Und diese Daten gelangen nicht nur in die Hände der chinesischen Plattformbetreiber und damit möglicherweise des Regimes, sondern werden über so genannte App Tracker weitergeleitet. Das sind in (fast allen) Apps einprogrammierte Schnittstellen zu externen Diensten, die in gewisser Weise mit Browser-Cookies vergleichbar sind – nur, dass darüber weit weniger Wissen verbreitet ist. Die Tik Tok-Daten werden so nicht nur an das Werbenetzwerk von Facebook weitergegeben, das damit die Zusammenstellung des Facebook- oder Instagram-Feeds (und damit einen guten Teil der Weltwahrnehmung von deren User*innen) beeinflussen kann, sondern auch an die Marketingplattform Appsflyer, die wiederum 4.500 Partnerfirmen beliefert.
Daneben, auch kein Geheimnis und aus m. E. nicht weniger relevant, wurden Videos von korpulenten Menschen oder Personen mit Behinderungen zumindest bis Ende 2019 in ihrer Reichweite benachteiligt, was die betreffenden Videoautor*innen natürlich diskriminiert – und den anderen Nutzer*innen ein völlig verzerrtes Bild von der Realität vermittelt hat – bzw. heute noch tut, denn auch die aktuellen Moderationsrichtlinien lassen Raum für Interpretation.

So unethisch Tik Tok auch ist – den Onlinedienst deshalb zu verbieten ist die falsche Lösung. Sie nimmt den Nutzer*innen die Möglichkeit der selbstbestimmten Internetnutzung – uns somit die Macht im Netz. Die mündige Entscheidung, auch ein umstrittenes Soziales Netzwerk zu nutzen, setzt selbstverständlich Informiertheit der (im Falle von Tik Tok meist jugendlichen) Nutzer*innen voraus. Damit ist es möglicherweise in den USA noch weniger weit her als in Europa, wo es nicht erst seit Einführung der DSGVO viele medienpädagogische Initiativen gibt.
Aufgabe der Politik ist dementsprechend, solche Initiativen großflächig zu fördern, d. h. vom Kindergartenalter über sämtliche Schulformen bis in die Erwachsenenbildung. Zudem ist die Regulierung kritischer Onlinedienste, wie sie in Europa diskutiert wird, ein richtiger Weg zur Durchsetzung von Nutzer*inneninteressen sowie der Wahrung demokratischer Grundsätze.

Was Trump jedoch vorhat, instrumentalisiert die US-Nutzer*innen von Tik Tok für seine chinakritische politische Agenda. Das ist eines Präsidenten nicht würdig – und eines Landes nicht würdig, das die Meinungs- und Informationsfreiheit so hoch hält wie die USA.

Corona-App: Eine Frage des Vertrauens

Wie wird die offizielle deutsche Corona-App aussehen, und welche Bedeutung wird ihr im Kampf gegen die Pandemie zukommen? Zumindest scheinen mit der App zu sein, die wir Smartphonenutzer*innen möglicherweise in den kommenden Wochen installieren können, viele Hoffnungen verbunden zu sein. Doch sind die Erwartungen erfüllbar?

Die Bundesregierung hat gestern bekannt gegeben, die von den Nutzer*innen-Smartphones gesammelten Daten nun doch nicht zentral speichern und auswerten zu wollen. Bislang war eine Meta-Auswertung zur Beobachtung der Epidemie geplant. Nun wird die deutsche Corona-App offenbar doch einen dezentralen Ansatz verfolgen, bei dem die Daten auf den Smartphones bleiben. Doch mit diesem Zugeständnis an den Datenschutz, so wichtig wie er ist, ist noch längst nicht klar, dass die App ein Erfolg wird. Ich möchte einige Fragen in die Diskussion einbringen bzw. stark machen:

1. Wie zuverlässig ist die Bluetooth-Messung?
Die App bestimmt mit Hilfe der Bluetooth-Technologie die Nähe zweier Smartphones zueinander und protokolliert enge, länger andauernde Kontakte. Sie wird allerdings auch von einem Kontakt ausgehen, wenn ich auf der einen Seite der Wand auf meinem Sofa sitze und mein Nachbar auf der anderen Seite. Der Bluetooth-Kontakt ist da, obwohl das Infektionsrisiko bei null liegt. Viele IT-Profis, unter ihnen der Informatiker Henning Tillmann, warnen vor falscher Sicherheit. Ich frage mich: Relativieren solche Fehlmessungen, denen die Gesundheitsämter natürlich erstmal auf die Spur kommen müssen, nicht die Arbeitsentlastung der Behörden, die die App eigentlich bringen soll?

Zum anderen ist das, was ein Handy als Nähe zu einem anderen Handy angibt, kein fixer Wert. Entfernungsmessungen per Bluetooth sind nicht geeicht. Der Informatikprofessor Florian Gallwitz weist auf eine Studie hin, die bei verschiedenen Smartphones höchst unterschiedliche Signalstärken gemessen hat. Gallwitz‘ Fazit:

2. Zu wenig Vertrauen in Technik
Wenn ich Kontaktperson eines Infizierten identifiziert wurde und meine App mich bittet, das Gesundheitsamt anzurufen – werde ich das tun? Ich meine, mein Smartphone spinnt doch in letzter Zeit immer so, klingelt manchmal ganz unvermittelt… das könnte doch eine Fehlfunktion sein, oder?
Folge ich also der Aufforderung der Corona-App?
Wenn ich es mache, wird das Gesundheitsamt vermutlich einen Test anordnen – ohne, dass dort irgendjemand weiß oder mir sagen kann, ob ich wirklich mit einer*einem Infizierten in Kontakt gekommen bin (oder ob ich nur an der falschen Wand gesessen habe) – ist ja alles anonym.
Also: Fahre ich dann wirklich zum Testzentrum? Akzeptiere ich die notwendige Quarantäne, die mir während der Auswertung meines meines Test auferlegt wird? Was ist, wenn ich mir todsicher bin, dass ich in den letzten Tagen das Haus nicht verlassen habe?
Ich befürchte, dass das Misstrauen in die eigenen technischen Geräte und in nicht konkret nachvollziehbare Entscheidungen zu einer geringen Verbindlichkeit des Corona-Alarms führt.

3. Zu viel Vertrauen in Technik
Andersherum käme es hingegen noch schlimmer, wenn die App nämlich im blinden Vertrauen auf die Technik zu Leichtsinn ermuntert: die Nutzer*innen im Blick auf ihre persönlichen Kontaktbeschränkungen, die Politiker*innen im Blick auf weitere Lockerungen des Lockdowns.
(Auf das paradoxe Verhältnis zwischen Menschen und technischen Geräten gehe ich in meinem aktuellen Buch näher ein.)

4. Medienbildung first, Vertrauen second!
Die App bringt nur etwas, wenn Sie von vielen Menschen freiwillig installiert wird. Expert*innen sprechen von 60 % der Deutschen, die mitmachen müssen. Dazu braucht es natürlich Vertrauen, dass die persönlichen Daten sicher sind und nicht zu anderen Zwecken verwendet werden. Mit der Kehrtwende der Regierung ist dieses Vertrauen sicherlich leichter zu erreichen. Doch: Wissen die Nutzer*innen der App genug über die ganz normale Datensammlung auf ihren Handys, dass sie diese Entscheidung pro oder contra Corona-App mündig treffen können? Dass also das Vertrauen in diese Bundes-App gerechtfertigt ist?
Wenn nicht – Wer sagt ihnen, welche Macht Metadaten haben, was Profiling ist, womit Data Broker Geld verdienen?
Vertrauen braucht Aufklärung, und Aufklärung braucht Bildung. Und Bildung findet wg. Corona gerade nur sehr eingeschränkt statt.

5. Vertrauen in den Staat?
Die letzte Frage berüht ein durchgängiges Motiv dieses Blogs: den aus meiner Sicht mangelhaften Schutz unserer Freiheitsrechte durch die Bundesregierung. Ich frage ganz im Ernst: Können wir einer Regierung (oder von mir aus: einem Staat) vertrauen, der uns nicht vor ausländischer Massenüberwachung schützt und selbst in unserer Handys einbrechen will (Staatstrojaner)?

Ich hoffe, meine (teils als Sorgen enttarnten) Fragen erübrigen sich in den kommenden Wochen. Ich hoffe, unsere Gesellschaft kommt zu einer verantwortungsvollen Nutzung der Corona-App, die nur dem Zwecke der Pandemiebekämpfung dient und als solche erfolgreich ist. Und ich hoffe, die aktuelle Diskussion um die App führt zu einer breiteren Aufmerksamkeit für den Wert persönlicher Daten.
Dann hätte Corona doch etwas Gutes.

Bundestag gegen Ächtung autonome Waffensysteme – ein schwerer Fehler

Das folgende Thema rückt ein bisschen vom eigentlichen Schwerpunkt dieses Blogs – der Privatsphäre im digitalen Zeitalter – ab; es bewegt mich aber sehr, so dass ich diese Plattform für eine persönliche Einordnung nutzen möchte. Das Thema ist nicht minder wichtig: Es geht um den Frieden im digitalen Zeitalter.

Die Große Koalition hat sich am Freitag gegen eine Ächtung tödlicher autonomer Waffensysteme ausgesprochen, also Waffen, die alleine über den Abschuss von Zielen entscheiden. Anträge der Grünen und der Linken, die sich für eine deutsche Positionierung gegen die Waffentechnologie stark machen, wurden von CDU/CSU, SPD sowie teilweise der FDP und AFD abgelehnt. Details zu den Anträgen in der Zusammenfassung von heise.de – und die Bundestagsdebatte im Video hier.

Ich halte die Ablehnung für ein schlimmes Zeichen. Zum einen sieht der Koalitionsvertrag von 2013 und 2018 eine Ächtung der tödlichen Waffensysteme vor, auch die KI-Enquete-Kommission des Bundestages forderte dies Ende 2019. In der Bundestagsdebatte am Freitag führte eine CDU-Abgeordnete jedoch aus, „ein breites Fähigkeitsspektrum und die Möglichkeit, flexibel auf Bedrohungen reagieren zu können,“ seien unerlässlich. Die Mehrheit der Abgeordneten hat also entgegen der Einschätzung der eigenen Expert*innen entschieden – und die Große Koalition eine Chance verstreichen lassen, den den Koalitionsvertrag zu erfüllen. Doch das verlorene Vertrauen in die Rationalität der Politik ist im Vergleich ein kleines Problem. Vor allem sind tödliche autonome Waffen eine der gravierendsten Gefahren für den Frieden in der Welt. Mehr als 23.000 Personen, unter Ihnen Noam Chomsky, Stephen Hawking, Elon Musk und Steve Wozniak, haben seit 2015 einen offenen Brief unterschrieben, der die Ächtung dieser Waffensysteme fordert. Nach Angaben der Kampagne Stop Killer Robots sprechen sich auch 30 Länder dafür aus, daneben 130 NGOs, 4.500 KI-Forscher*innen, der UN-Generalsekretär, das EU-Parlament, das UNHCR, 26 Nobelpreisträger*innen – und 61 % der Bevölkerung in 26 Ländern. Eine riesige Front von Gegner*innen der lethal autonomous weapons.

Werbevideo für den südkoreanischen autonomen Roboter „SGR-A1“

Stop Killer Robots führt gute Argumente für eine Ächtung der Waffentechnologie 615-544-6756 , die sich zum Teil auch in den Anträgen der Parteien wiederfinden. Ich selbst habe ein Kapitel meines Buchs „Künftige Intelligenz – Menschsein im KI-Zeitalter“ den Argumenten für – aber vor allem: gegen autonome Waffensysteme gewidmet. Hier seien die wesentlichen Punkte angerissen:

  1. Autonom schießende Waffen sind keine Zukunftsmusik.
    Bereits heute sind an der innerkoreanischen Grenze Roboter im Einsatz, die zu eigenmächtigem Abschießen in der Lage sind (siehe Video). Auch Russland, die USA und China haben oder planen Roboter bzw. Drohnen, die dazu in der Lage sind, Israel forscht ebenso intensiv.
  2. Kommt es zu keiner internationalen Ächtung und die Waffensysteme werden tatsächlich erstmals eingesetzt, werden bei den anderen Staaten, die an der Technologie forschen, die Skrupel verschwinden die Waffen selbst „scharf zu stellen“. Es droht ein Wettrüsten.
  3. So wie alle Waffentechnologien werden auch die autonomen Waffensysteme in die Hände von Diktatoren, Despoten und innerstaatlichen Aufrührern fallen. Der völkerrechtswidrige Einsatz und Einsatz in Bürgerkriegen ist nicht zu verhindern.
  4. Die Waffen werden nicht in der Lage sein, rechtlich und moralisch einwandfrei zu funktionieren. Wie soll ein Algorithmus Freund von Feind unterscheiden, wenn eine herannahende Person keine Uniform trägt? Wie kann sichergestellt werden, dass ein autonomes Waffensystem den Genfer Konventionen folgend einen Feind gefangen nimmt, wenn der sich ergibt? Kann ein autonomes Waffensystem moralisch abwägen, wenn der Feind auf dem Dach eines Waisenhauses steht?
  5. Wer trägt die Verantwortung für die Entscheidungen, die die Waffen treffen? Wer hält den Kopf hin, wenn sie fehlprogrammiert sind oder gehackt werden und die Falschen töten? Hier gibt es ein Verantwortungsvakuum.
  6. In den Waffensystemen sitzen hochentwickelte neuronale Netze (Künstliche Intelligenzen), deren Entscheidungen grundsätzlich nicht nachvollzogen werden können. Bis heute sind KI-Anwendungen Black Boxes, deren Entscheidungsweg nicht einmal von ihren Programmierern erklärt werden kann. Wenn es um Leben und Tod geht, ist das eine Ungeheuerlichkeit: Wer kann damit leben, dass es für den Tod eines Angehörigen nicht nur keinen (im rechtlichen Sinne) Verantwortlichen oder einen (im moralischen Sinne) Schuldigen gibt, sondern nicht einmal erklärt werden kann, warum er getötet wurde?
  7. Wenn auf beiden Seiten des Konfliktes autonome Waffen agieren, ist die Gefahr eines Flash Wars real: Dann werden Aktionen und Reaktionen der hochcomputerisierten Systeme beider Seiten so schnell auf einander folgen, dass kein Mensch ihnen folgen kann. Weder die Kommandanten noch die Menschen in den jeweiligen feindlichen Gebieten wissen dann, wer warum den Krieg gewonnen hat – wenn sie denn überleben.

Mein Fazit: Dass sich alle Bundestagsfraktionen außer die der Grünen und der Linken gegen die längst überfällige eindeutige Positionierung gegen autonome Waffen ausgesprochen haben, ist eine unverantwortliche vertane Chance. Die unklare Position, die Deutschland oder auch Frankreich in der Frage einnehmen, gibt den Entwicklerstaaten und Firmen mehr Zeit, die Technologie einsatzbereit zu machen.
Ich vermute, die meisten Abgeordneten verstehen die grundsätzliche Funktionsweise neuronaler Netze nicht, deren sämtliche Risiken in tödlichen autonomen Waffensystemen zum Vorschein kommen. Neben Deep Fakes (denen ich auch ein Buchkapitel widme) gehören diese Waffen zu den größten akuten Gefahren, die uns durch die Künstliche Intelligenz drohen – und die die vielfältigen Vorteile der Technologie relativieren.

Weitere Informationen zu der Thematik gibt es beim Future of Life Institute und der Initiative Stop Killer Robots. Äußerst sehenswert ist der Kurzfilm Slaugtherbots, der die Missbrauchsmöglichkeiten autonomer Waffen eindrücklich vor Augen führt.
So richte ich einen Aufruf an alle, die mit dem Thema bislang nichts zu tun gehabt haben oder Diskussionen um angebliche Killer Roboter für Fragen der fernen Zukunft oder gar für Science Fiction halten: Macht euch schlau, bekennt Farbe und übt Druck aus – sprecht mit euren Bundestagsabgeordneten, macht Journalist*innen und Blogger*innen auf das Thema aufmerksam, teilt Beiträge wie diese und lasst eure Meinung in der analogen wie der digitalen Welt hören.