Am 9. September 2024 fand die mit Spannung erwartete Apple iPhone Keynote statt. Neben der Vorstellung des neuen iPhone 16 und anderer Geräte gab Apple auch Einblicke in die neuesten Entwicklungen im Bereich der künstlichen Intelligenz (KI). Die Erwartungen waren hoch, besonders nach den ersten Ankündigungen der "Apple Intelligence" Funktionen auf der WWDC 2024 im Juni. Doch der AI-Aspekt der Keynote fiel eher verhalten aus.
Im Juni dieses Jahres hatte Apple mit "Apple Intelligence" eine Reihe neuer KI-Funktionen vorgestellt, die in iOS 18, iPadOS 18 und macOS Sequoia integriert werden sollen. Diese Funktionen sollen ab Oktober mit den Updates iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 verfügbar sein. Die ersten Funktionen werden jedoch begrenzt sein und erst in den kommenden Monaten erweitert werden.
Apple betont, dass Apple Intelligence auf Apple Silicon basiert und darauf abzielt, Sprache und Bilder zu verstehen und zu generieren, über verschiedene Anwendungen hinweg zu arbeiten und den Kontext der Nutzer zu berücksichtigen, um alltägliche Aufgaben zu vereinfachen. Dabei legt Apple besonderen Wert auf den Schutz der Privatsphäre und die Sicherheit der Nutzer.
Eine der bemerkenswerten neuen Funktionen ist die "Visual Intelligence", die über den neuen physischen Kamera-Knopf (Camera Control) des iPhone 16 Pro zugänglich ist. Diese Funktion ermöglicht es den Nutzern, schnell Informationen über ihre Umgebung zu sammeln. So demonstrierte Apple beispielsweise, wie man Hunderassen identifizieren, Bewertungen und Öffnungszeiten von Restaurants überprüfen oder Veranstaltungen aus einem Flyer in den Kalender eintragen kann.
Interessanterweise ermöglicht Visual Intelligence auch den Zugriff auf Drittanbieter-Tools. Nutzer können beispielsweise über die Kamera-Schnittstelle direkt bei Google nach einem fotografierten Gegenstand suchen oder ChatGPT nutzen. Apple betont, dass die Nutzer stets die Kontrolle darüber haben, wann Drittanbieter-Tools verwendet werden und welche Informationen geteilt werden.
Die neuen iPhone 16 Pro Modelle sind speziell für Apple Intelligence ausgelegt. Diese Geräte sind mit dem 3-Nanometer A18 Pro Chip ausgestattet, der eine 15 Prozent schnellere AI-Verarbeitung im Vergleich zum iPhone 15 Pro ermöglicht. Der Chip enthält auch einen speziellen AI-Beschleuniger mit 16 Kernen, der die Leistung von maschinellen Lernaufgaben steigert. Apple behauptet, dass der neue Chip doppelt so schnell ist wie sein Vorgänger, der A16, und in der Lage ist, große generative AI-Modelle auszuführen.
Apple Intelligence wird als kostenloses Software-Update verfügbar sein, wobei die ersten Funktionen nächsten Monat in US-Englisch für die meisten Regionen weltweit ausgerollt werden. Das Unternehmen plant, die AI-Funktionen im Dezember auf lokalisierte englische Versionen in Australien, Kanada, Neuseeland, Südafrika und Großbritannien auszuweiten. Weitere Sprachunterstützungen für Chinesisch, Französisch, Japanisch und Spanisch sollen im nächsten Jahr folgen.
Ein Monat zuvor hatte Google die neueste Generation seiner Pixel-Serie vorgestellt, die wie Apple Intelligence voll auf die Integration von Gemini setzt, um das Smartphone-Erlebnis mit AI zu verbessern. Während Apple sich auf eine Vielzahl von Funktionen konzentriert, legt Google den Schwerpunkt auf eine tiefere Integration in seine bestehenden Dienste.
Die iPhone Keynote enthüllte zwar einige neue Funktionen für Apple Intelligence, doch der Großteil der AI-Funktionen war bereits von der WWDC 2024 bekannt. Die ersten AI-Funktionen werden ab Oktober in iOS 18.1, iPadOS 18.1 und macOS Sequoia 15.1 verfügbar sein. Die freie Softwareaktualisierung wird zunächst in US-Englisch ausgerollt, mit weiteren lokalisierten Versionen im Dezember und zusätzlicher Sprachunterstützung im Jahr 2025.