Meta-Datenhunger: EU-Nutzerdaten wieder im KI-Training – opt-out als letzte Bastion

Der Technologiekonzern Meta Platforms hat kürzlich die Wiederaufnahme einer kontroversen Praxis verkündet: Die personenbezogenen Daten europäischer Nutzer fließen erneut in das Training seiner Künstlichen Intelligenz ein. Was das Unternehmen euphemistisch als "Making AI Work Harder for Europeans" bezeichnet, stellt die Grundprinzipien europäischer Datenschutzphilosophie auf den Kopf.
Datenernte nach Opt-out-Prinzip
Die strategische Kehrtwende betrifft ein umfassendes Datenprofil: Profile, öffentliche Beiträge, Kommentare und sonstige digitale Äußerungen auf WhatsApp, Threads, Instagram und Facebook sowie nicht veröffentlichte Interaktionen mit Metas Sprachmodellen werden standardmäßig erfasst. Nur wer aktiv Einspruch erhebt, kann der Ernte seiner digitalen Spuren entgehen – ein klassisches Opt-out-Verfahren, das die Verantwortung auf die Nutzer abwälzt. Lediglich zwei Datenkategorien bleiben laut Unternehmensaussage von der Verarbeitung ausgeschlossen: direkte Nachrichten zwischen Nutzern sowie öffentliche Beiträge von als minderjährig registrierten Konteninhabern.
Regulatorisches Tauziehen im Hintergrund
Die Entscheidung markiert einen Wendepunkt in einer länger schwelenden regulatorischen Auseinandersetzung. Bereits im Vorjahr hatte Meta einen ähnlichen Vorstoß unternommen, wurde jedoch von der irischen Datenschutzbehörde – zuständig aufgrund des europäischen Hauptsitzes des Konzerns – zurückgepfiffen.
Die jetzige Neuausrichtung folgt einer Vereinbarung der EU-Datenschutzbehörden vom Dezember, die Datenkonzernen prinzipiell ermöglicht, sich auf "berechtigtes Interesse" als Rechtsgrundlage für die KI-Verarbeitung personenbezogener Daten zu berufen. Der Europäische Datenschutzausschuss (EDSA) etablierte dafür einen dreistufigen Prüfprozess:
- Legitimitätsprüfung des Anspruchs auf Datenverarbeitung
- Erforderlichkeitsprüfung der Verarbeitung
- Abwägung zwischen Grundrechten der Betroffenen und Interessen des KI-Anbieters
Meta vs. xAI: Unterschiedliche Maßstäbe?
Meta behauptet, diese Kriterien zu erfüllen und bezeichnet die Interaktion mit der irischen Aufsichtsbehörde als "konstruktiv". Interessanterweise unterzieht dasselbe Amt parallel Elon Musks Unternehmen xAI einer kritischen Untersuchung, das personenbezogene Daten von EU-Nutzern aus öffentlichen X-Beiträgen für sein KI-Modell Grok verwendet. Diese unterschiedliche Behandlung wirft Fragen zur Konsistenz der regulatorischen Durchsetzung auf und illustriert die komplexen Abwägungsprozesse, vor denen Aufsichtsbehörden im Spannungsfeld zwischen Technologieförderung und Datenschutz stehen.
Die Entwicklung verdeutlicht einmal mehr den fundamentalen Konflikt zwischen dem datengetriebenen Geschäftsmodell globaler Technologiekonzerne und dem europäischen Ansatz eines präventiven Datenschutzes.