Private Daten als KI-Futter – bitte sehr, Mark Zuckerberg!

Der Meta-Konzern nutzt die Daten seiner Nutzer*innen seit einigen Wochen zum Training seiner hauseigenen KI-Modelle. Diese nutzt etwa Meta AI, ein Chatbot, der seit einigen Monaten als blauer Kreis in Whatsapp, Instagram und Facebook zu finden ist und ein Pendant zu dem populären Tool ChatGPT ist. Zum einen können alle Konversationen, die die User*innen mit Meta AI führen, verwendet werden. Bei Facebook und Insta können aber auch sämtliche öffentliche Posts und Kommentare für die Weiterentwicklung der KI-Modelle verwendet werden. Dass der Datenhunger groß ist (denn gute Trainingsdaten sind schwer zu bekommen), lässt sich auch an der schwer auffindbaren Widerspruchsregelung ablesen. Hier der direkte Link für Insta, hier für Facebook).

Ich stehe dem KI-Bot, der in die Sozialen Netzwerke und Whatsapp integriert ist, sehr kritisch gegenüber. Denn damit haben die Nutzer*innen einen immer verfügbaren, immer freundlichen, immer auf ihrer Seite stehenden und vermeintlich allwissenden Gesprächspartner in der Hosentasche, der nie seine Meinung ändert, keine andere Freund*innen hat und keine Kritik äußert. Gerade junge Menschen, die im Smartphone-Alter geboren worden sind und ihr Verhältnis zur Technologie noch nicht hinterfragt haben, werden so zu einer parasozialen Beziehung mit dem digitalen Buddy verführt. Denn wer braucht dann noch menschliche Freund*innen?

Datenkrake – jetzt auch mit blauem Kreis!

Aber auch die Integration der Nutzer*innen-Daten in die KI ein zutiefst unethischer Vorgang, weil sie extrem intransparent ist. Es liegt in der Architektur von KI-Modellen begründet, dass die Herkunft der Trainingsdaten, sind sie einmal im KI-Modell, ist nicht mehr nachvollziehbar ist. Weder der Hersteller noch die Nutzer*innen können feststellen, in welchen Antworten von Meta-AI welcher Ursprungskommentar verwurstelt ist, in welchen KI-generierten Bildern und -Videos die eigenen Selfies mit den BFFs oder die Gesichter aus dem Cliquenfoto remixed wurden und werden.

Bei Whatsapp sind es zwar nicht die Inhalte, aber auch hier gehen die Metadaten in das KI-Training ein, also die Informationen über Absender*in, Adressat*in, Gruppenliste, Standort, Uhrzeit u. v. a., die bei jeder Chatnachricht unverschlüsselt an Meta gesendet werden. Gerade Whatsapps Metadaten sind für die Erstellung von vermarktbaren Nutzer*innen-Profilen extrem wertvoll,, denn die Informationen zusammengenommen verraten ähnlich viel über die*den User*in wie die Inhalte der Gespräche. Dies liegt vor allem daran, dass Whatsapp vornehmlich für private Konversationen genutzt wird – und damit nicht nur intensiver als Instagram, sondern im Hinblick auf die Datensammlung auch wesentlich unbewusster, weil sich die Nutzer*innen in einer privaten Unterhaltung sicher fühlen.
Es ist ein Unding, dass Whatsapp-Nutzer*innen der KI-Fütterung nicht widersprechen können – und dass die in der EU zuständige irische Datenschutzbehörde, wie ich seit sieben Jahren erfahre, die Datenschutzrechte Einzelner nicht gegen Whatsapp durchsetzt.

Wie viele Gründe gegen den Messenger muss es eigentlich noch geben, bis das Gerede von der Alternativlosigkeit ein Ende findet?

Kommentare sind geschlossen.