Apple hat heute neue Apple Intelligence Features veröffentlicht, die das Nutzererlebnis auf iPhone, iPad, Mac, Apple Watch und Apple Vision Pro verbessern. Tief in die Betriebssysteme integriert, helfen die neuen Features Nutzer:innen dabei, mit Live Übersetzung mühelos über Sprachgrenzen hinweg zu kommunizieren, mithilfe von visueller Intelligenz mehr über Bildschirminhalte in ihren Apps zu erfahren1 und sich mit Verbesserungen für Genmoji und Image Playground auszudrücken.2 Zusätzlich können Kurzbefehle jetzt direkt auf Apple Intelligence Modelle zugreifen, um Workflows zu beschleunigen, und Entwickler:innen können das On-Device Grundmodell im Kern von Apple Intelligence nutzen, um intelligente Features mit Datenschutz in ihre Apps einzubauen.
Nutzer:innen mit einem Apple Intelligence-fähigen Gerät können die neuen Features ab heute mit iOS 26, iPadOS 26, macOS Tahoe 26, watchOS 26 und visionOS 26 erleben. Außerdem werden Apple Intelligence Features bald in acht weiteren Sprachen verfügbar sein: Chinesisch (Traditionell), Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch und Vietnamesisch.
Sprachbarrieren mit Live Übersetzung überwinden
In Situationen, in denen Sprachbarrieren im Weg stehen, kann Live Übersetzung Nutzer:innen helfen, in ausgewählten Sprachen zu kommunizieren - beim Schreiben von Nachrichten oder beim Sprechen. Die Funktion ist nahtlos in Nachrichten, FaceTime und Telefon integriert, und Nutzer:innen können auch mit AirPods Pro 3 darauf zugreifen, um persönliche Gespräche zu übersetzen, ermöglicht durch Apple Intelligence auf dem iPhone.3