Apple kündigt im Rahmen der Produktvorstellung auf der WDC25 für die hauseigene KI „Apple Intelligence“ mehrere neue Funktionen für iPhone, iPad, Mac, Apple Watch und Apple Vision Pro an. Der Fokus liegt auf personalisierten, datenschutzfreundlichen Erlebnissen – lokal auf dem Gerät verarbeitet, teils mit Anbindung an einen abgesicherten Cloud-Dienst.
Neue Anwendungen für Alltag und Kommunikation
Live Translation ermöglicht Nutzern eine reibungslose Verständigung über Sprachbarrieren hinweg – sei es in Messages, FaceTime oder bei Anrufen. Die Übersetzungen erfolgen direkt auf dem Gerät und in Echtzeit. In Messages wird automatisch in der bevorzugten Sprache des Gesprächspartners übersetzt, während FaceTime und Telefonate live mit Untertiteln oder gesprochener Übersetzung unterstützt werden.
Kreativität neu gedacht
Mit Genmoji und Image Playground können Nutzer eigene Emojis erstellen oder Bilder im Stil von Ölmalerei oder Vektorgrafik erzeugen. Letzteres greift optional auf ChatGPT zu – allerdings nur mit ausdrücklicher Zustimmung der Nutzer. In der Any-Style-Funktion können eigene Beschreibungen verarbeitet werden, um Bilder nach individuellen Vorstellungen zu generieren.
Visuelle Intelligenz erkennt Kontexte
Apple Intelligence erkennt Inhalte auf dem Display und schlägt passende Aktionen vor – etwa die Eintragung eines Events in den Kalender oder die Bildsuche nach ähnlichen Objekten bei Drittanbietern wie Etsy oder Google. Auch hier ist die Nutzung von ChatGPT möglich, um Informationen zu Bildinhalten einzuholen – stets kontrolliert und auf Wunsch der Nutzer.
Fitness-Fokus auf der Apple Watch
Mit Workout Buddy erhält die Apple Watch erstmals eine KI-gestützte Trainingsbegleitung. Die Funktion kombiniert aktuelle Fitnessdaten mit historischen Leistungswerten und motiviert mit Echtzeitansagen, die auf Stimmen von Fitness+-Trainern basieren. Auch hier bleiben alle Daten lokal verarbeitet.
Entwickler erhalten Zugang zum On-Device-Modell
Eine der größten Neuerungen betrifft Drittanbieter: Entwickler können über das Foundation Models Framework direkt auf das Sprachmodell zugreifen, das Apple Intelligence antreibt. So lassen sich KI-Funktionen wie personalisierte Quizerstellung oder Offline-NLP-Suchfunktionen mit nur wenigen Codezeilen in Apps integrieren – ohne Serverkosten und mit vollständiger Datenhoheit auf dem Gerät.
Mehr Leistung für Kurzbefehle
Auch die Kurzbefehle-App profitiert: Nutzer können KI-Aktionen wie Textzusammenfassungen oder Bildgenerierung direkt einbinden. Beispielsweise lassen sich Mitschriften mit Transkripten abgleichen und automatisch ergänzen. Die Intelligenz greift dabei entweder auf das Gerät oder auf die Private Cloud Compute zu.
Weitere Neuerungen in Apps und Systemen
Apple Intelligence wird noch stärker in Systemfunktionen integriert: Wallet erkennt Bestell- und Versandinfos aus Mails und stellt sie gebündelt dar. In Messages können Umfragen erstellt werden – automatisch vorgeschlagen durch Apple Intelligence. Funktionen wie Hintergrundgestaltung in Chats oder intelligente Erinnerungen sind ebenfalls neu.
Datenschutz als Fundament
Apple betont erneut, dass alle sensiblen Daten auf dem Gerät bleiben oder – falls externe Modelle nötig sind – ausschließlich über verschlüsselte und prüfbare Server verarbeitet werden. Das Konzept der Private Cloud Compute soll maximale Privatsphäre mit KI-Funktionalität verbinden.
Verfügbarkeit und Ausblick
Die neuen Funktionen stehen ab sofort für Entwickler zur Verfügung, öffentliche Betatests folgen im kommenden Monat. Unterstützt werden alle iPhone 16-Modelle, iPhone 15 Pro, iPad und Macs mit M1-Chip oder neuer. Der Rollout erfolgt im Herbst – zunächst auf Geräten mit englischer, deutscher, französischer und sieben weiteren Sprachversionen. Weitere Sprachen folgen bis Jahresende.