Meta steht erneut im Zentrum einer Datenschutzkontroverse: Wie Techcrunch berichtet, sollen nach Recherchen schwedischer Medien Mitarbeitende eines kenianischen Subunternehmens intime und hochsensible Aufnahmen aus den AI-Smart-Glasses des Konzerns ausgewertet haben. Die Brillen, die weltweit millionenfach verkauft wurden, haben laut Berichten Inhalte wie Nacktheit, sexuelle Handlungen oder Toilettensituationen aufgezeichnet, die anschließend von menschlichen Reviewern gesichtet wurden – teilweise ohne ausreichende Anonymisierung.
Zweifel an Metas Zusicherungen zur Privatsphäre
Meta hatte behauptet, Gesichter und andere identifizierende Merkmale würden durch automatische Unschärfe geschützt. Quellen aus den beteiligten Prüfteams widersprachen jedoch: Die eingesetzte Technik funktioniere nicht durchgehend zuverlässig. In Folge der Enthüllungen kündigte die britische Datenschutzbehörde ICO eine eigene Untersuchung an.
Gewinnen in der Plattform-Ökonomie
US-Klage wirft irreführende Werbung vor
Nun sieht sich Meta auch in den USA rechtlichen Schritten ausgesetzt. Die Kläger vertreten durch die verbraucherschutzorientierte Clarkson Law Firm – werfen Meta und Brillenpartner Luxottica vor, Privatsphärezusagen verletzt und Verbraucher durch Marketingversprechen wie „designed for privacy” oder „built for your privacy” getäuscht zu haben. Nutzer hätten nicht erkennen können, dass ihre Aufnahmen von externen Teams gesichtet werden könnten, so die Klage.
Meta verweist auf Richtlinien – doch Hinweise sind schwer auffindbar
In einer Stellungnahme gegenüber der BBC erklärte Meta, dass menschliches Review gängige Praxis zur Verbesserung der Nutzererfahrung sei und dieses Vorgehen in den Datenschutzrichtlinien erläutert werde. Allerdings fanden Reporter entsprechende Hinweise nur in den britischen AI-Nutzungsbedingungen – nicht jedoch offensichtlich in jenen Dokumenten, die viele internationale Kundinnen und Kunden zu Gesicht bekommen.
Wachsende regulatorische Aufmerksamkeit
Der Fall erhöht den Druck auf Meta und könnte eine breitere Diskussion über den Umgang von AI-Geräten mit persönlicher Echtzeit-Bilddaten auslösen. Besonders brisant ist der Vorwurf, dass hochintime Szenen unfreiwillig Teil eines Trainings- und Kontrollsystems werden. Wie die Gerichte reagieren und ob weitere Regierungen Untersuchungen einleiten, bleibt abzuwarten.


