Google hat in den USA mit dem neuen Feature „Personal Intelligence“ für seinen KI-Assistenten Gemini eine Funktion vorgestellt, die Nutzern spürbare Alltagsvorteile verspricht – jedoch unter dem kritischen Blick von Datenschützern. Ziel ist es, durch eine tiefe Verknüpfung mit Google-Diensten wie Gmail, Fotos, YouTube und der Suche personalisierte Antworten zu liefern. Dabei stellt sich die Frage: Wie viel Komfort ist uns unsere Privatsphäre wert?
Personalisierung durch App-Verknüpfung
Mit nur einem Klick können Nutzer in den USA, sofern sie AI Pro- oder AI Ultra-Abonnenten sind, Gemini Zugriff auf ihre Google-Anwendungen gewähren. Die KI nutzt dann Inhalte aus Mails, Bildern und Suchverlauf, um detaillierte und kontextbasierte Antworten zu liefern. So kann etwa die Frage nach dem eigenen Autokennzeichen durch Analyse gespeicherter Fotos beantwortet werden. Auch Empfehlungen für Reisen, Kleidung oder Bücher werden passgenauer, wenn die KI frühere Vorlieben und Aktivitäten auswertet.
Doch die Funktion ist standardmäßig deaktiviert – Nutzer müssen sie aktiv einschalten und bestimmen, welche Apps verknüpft werden dürfen. Die Daten selbst verbleiben laut Google innerhalb des Ökosystems, wodurch der Konzern argumentiert, dass keine zusätzliche Gefahr durch Datenübertragung an Dritte besteht.
Gewinnen in der Plattform-Ökonomie
Datenschutzbedenken bleiben
Trotz Googles Beteuerungen, Personalisierung mit Datenschutz in Einklang zu bringen, bleiben Zweifel. Zwar versichert das Unternehmen, dass Inhalte aus Gmail oder Google Fotos nicht direkt zum Training des Modells verwendet werden. Stattdessen dienen die Daten nur der situativen Beantwortung von Anfragen. Trainiert werde lediglich auf aggregierten Nutzungsdaten, etwa den gestellten Fragen oder den daraus generierten Antworten – nach Filterung sensibler Inhalte.
Kritiker warnen dennoch vor möglicher „Überpersonalisierung“, bei der Gemini falsche Schlüsse aus privaten Inhalten ziehen könnte. Etwa, wenn häufige Golfplatzfotos nicht der eigenen Leidenschaft, sondern dem Kind gelten – ein Beispiel, das Google selbst anführt. Auch in emotionalen Kontexten, etwa bei Beziehungsänderungen, kann es zu Missverständnissen kommen.
Gemini gibt zwar Auskunft über die Quellen seiner Antworten, doch die Grenze zwischen hilfreicher Kontextnutzung und übergriffigem Datenzugriff bleibt schmal. Und: Unternehmen könnten künftig versucht sein, diese Art der Kontextverknüpfung zu monetarisieren – ein potenzielles Risiko für Nutzer, deren Daten ein immer wertvolleres Gut darstellen.


