Die WWDC24 von Apple ist vorbei und ich bin ein wenig sprachlos. Ich werde nun versuchen die World Developer Conference, die WWDC24 von Apple, mit dem Schwerpunkt auf Apples AI, namens „Apple Intelligence“, zusammenzufassen und euch näher zu bringen. Aber erstmal der Reihe nach.
In den ersten fast 60 Minuten ging es WWDC-typisch um alle Updates zu Betriebssystemen und Apps. Und ja, keine Sorge, ich werde mich da kurz fassen, damit wir auch schnell zum Highlight des Abends kommen.
Apple TV+
Apple TV+ feiert seinen 5. Geburtstag und das bedeutet Party und neue Apple TV Originals mit bekannten Schauspielern wie Matt Damon oder George Clooney. Die Trailer dazu gibt es hier.
visionOS und Apple Vision Pro
Darüber hinaus wurden spannende Neuerungen rund um Apple Vision Pro und visionOS vorgestellt. Mit der Einführung von visionOS 2 erhalten Entwickler erweiterte APIs, um noch immersivere Erlebnisse zu schaffen. Außerdem gibt es neue Steuerungsgesten und die Möglichkeit, aus 2D-Bildern räumliche Fotos zu erstellen. Auch wurde die Mac Virtual Display Funktion erweitert, um größere Bildschirmauflösungen und Formate bis hin zum Ultra Wide Display zu ermöglichen. Das ist eine gute Nachricht und ein lang ersehntes Update für Vision Pro Nutzer, die mit der AR-Brille und dem MacBook arbeiten. Ein Verkaufsstart der Vision Pro für europäische Länder wurde ebenfalls bekannt gegeben. In Deutschland wird das Gerät ab dem 12. Juni, also in weniger als 2 Tagen, erhältlich sein.
Apple hat dafür auch neue Frameworks und APIs vorgestellt, die die Entwicklung komplexer 3D- und FaceTime-Anwendungen erleichtern. Besonders hervorzuheben sind die volumetrischen APIs und das TabletopKit. Die Unterstützung für räumliche Videos, die mit dem iPhone 15 Pro und iPhone 15 Pro Max aufgenommen werden können, eröffnet neue kreative Möglichkeiten. Apple arbeitet außerdem mit Canon und Blackmagic Design zusammen, um die Erstellung und Bearbeitung von räumlichen Videos und Apple Immersive Videos weiter zu verbessern.
iOS18
Für iPhone’s iOS18 gab es auch einige Änderungen. Diese beinhalten mehr Anpassungsmöglichkeiten für das Kontrollzentrum und den Home-Screen, wie Farbänderungen oder frei platzierbare App-Icons auf dem HomeScreen. Neu ist auch die Möglichkeit, Apps zu sperren und zu verstecken, sowie erweiterte Datenschutzkontrollen für Kontakte und Zubehör. Die Messager-App erhielt ebenfalls bedeutende Updates mit neuen Tapbacks, also Reaktionen mit Emojis auf Nachrichten, der Möglichkeit, Nachrichten später zu einer bestimmten Zeit, und Nachrichten via Satellit zu senden. Auch die Mail-App wurde verbessert, um E-Mails besser zu kategorisieren und die Verwaltung zu erleichtern.
Auch gab es dann noch kleinere App-Updates zu Apples Fitness+, der Karten-App und der Wallet App, womit man jetzt von iPhone zu iPhone kontaktlos Geld versenden kann. Ganz nett, aber keine weitere Ausführung wert.
AirPods
Auch für die AirPods gibt es einige interessante Updates. Die freihändige Interaktion mit Siri wurde verbessert, sodass die Nutzer nun auf Fragen oder Anrufe mit einem einfachen Kopfnicken oder Kopfschütteln antworten können. Außerdem gibt es eine verbesserte Sprachisolierung, die die Gesprächsqualität beim Telefonieren verbessert, indem Hintergrundgeräusche unterdrückt werden. Für Spielefans gibt es jetzt personalisierten Raumklang für ein noch intensiveres Hörerlebnis.
Home und tvOS 18
Neuerungen gibt es auch im Bereich Home und tvOS. Das neue InSight Feature für Apple TV+ zeigt in Echtzeit die Namen der Schauspieler und deren Rollen sowie Informationen zu den laufenden Songs an, die direkt zur Apple Music Playlist hinzugefügt werden können. Ähnliches kennt man bereits von Amazons XRay-Feature auf Prime Video. Außerdem gibt es einige neue Audio- und Untertiteleinstellungen sowie neue Bildschirmschoner und Unterstützung für 21:9-Projektoren.
watchOS 11
Mit watchOS 11 führt Apple die Funktion Training Load ein, die die Intensität und Dauer des Trainings misst, um die Auswirkungen auf den Körper zu bewerten. Die neue Vitals App überwacht wichtige Gesundheitsparameter und erkennt Abweichungen vom Normalbereich. Solche Funktionen kennt man von modernen Fitnesstrackern, wie das Whoop 4.0 oder einem SmartRing.
iPadOS 18
iPadOS 18 bringt viele neue Funktionen auf die neuen iPads, darunter die Personalisierung des Startbildschirms und die Anpassung des Kontrollzentrums, ähnlich wie bei iOS 18. Die App-Navigation wurde überarbeitet und enthält nun ein schwebendes Tab-Menü und eine anpassbare Sidebar.
Außerdem bringt Apple endlich eine Taschenrechner-App mit einem netten Feature auf die iPads. Denn die Math Notes-Funktion des Taschenrechners unterstützt handschriftliche mathematische Notizen und berechnet die niedergeschriebenen Probleme in Echtzeit. Die Notizen-App erhält außerdem eine verbesserte Handschrifterkennung und -korrektur dank Smart Script.
macOS Sequoia
Zu guter Letzt bekommen auch die Macs ein Update. Mit macOS Sequoia kommt eine Mirroring-Funktion, mit der das iPhone auf dem Mac gespiegelt und gesteuert werden kann. Die Fenster-Anordnung wurde verbessert und bietet nun automatische Kachelvorschläge beim Ziehen von Fenstern. Mit der Presenter Preview können Nutzer Inhalte, die sie in Videoanrufen teilen möchten, vorab ansehen. Und eine neue Passwort App hilft bei der Verwaltung und sicheren Speicherung von Passwörtern und Verifizierungscodes.
Apple Intelligence
Und jetzt kommen wir zum “One-More-Thing” und glaubt mir, das ist wirklich ein Brett und ich empfehle jeder und jedem, sich die in der Videobeschreibung verlinkten Videos und Demos anzuschauen, denn das Ganze ist wirklich ziemlich umfangreich und relativ komplex.
Es geht um Apple’s AI, namens Apple Intelligence!
Einen besseren Namen hätte man sich wirklich nicht für die Abkürzung “AI” ausdenken können – smarter Move!
Tim Cook betonte, dass Apple seit Jahren KI und maschinelles Lernen integriert. „Apple Intelligence“ ist nun ein leistungsfähiges, intuitives und datenschutzfreundliches System der persönlichen Intelligenz, das in Apple-Produkte integriert ist. Das System soll die Nutzererfahrung deutlich verbessern, so zumindest das Versprechen.
Funktionen von Apple Intelligence
Apple Intelligence ist in iOS 18, iPadOS 18 und macOS Sequoia integriert. Es nutzt persönliche Kontextinformationen, um relevante und nützliche Informationen bereitzustellen. Der Schutz der Privatsphäre wird durch On-Device-Verarbeitung, durch Apples Silicon Chips, und Private Cloud Compute gewährleistet. Private Cloud Compute ist die Nutzung von Cloud-Computing-Ressourcen innerhalb einer exklusiven, sicheren und kontrollierten IT-Infrastruktur, die nur einer bestimmten Organisation zugänglich ist, d.h., dass, laut Apple, keine Weitergabe von Daten an Drittanbieter stattfindet.
Sprach- und Textfähigkeiten
Apple setzt auf Large Language Models, also LLMs, die ein tiefes Verständnis natürlicher Sprache ermöglichen. Neue Schreibwerkzeuge können Texte umschreiben oder umformulieren, korrigieren und zusammenfassen. Diese Funktionen sind in Mail, Notes, Safari, Pages, Keynote und auch in Anwendungen von Drittanbietern verfügbar und ermöglichen eine nahtlose und verbesserte Texterstellung. So kann man auch beispielsweise in der Notiz-App gesprochenes Audio aufnehmen, transkribieren und von AI zusammenfassen lassen, das ist zwar nichts grundlegend neues, aber es erfordert eben keine 1-3 Apps.
Bild-Generierungen
Ein weiteres Highlight ist die Möglichkeit, Bilder für die visuelle Kommunikation zu generieren. Apple Intelligence kann KI-Bilder basierend auf der Fotobibliothek erstellen. Dabei werden drei Stile unterstützt: Sketch, Illustration und Animation, die visuelle Inhalte auf ein neues Niveau heben sollen. Bei der Vorführung sahen die Beispiele vielversprechend aus und waren augenscheinlich so gut in das eigene System integriert wie bei keinem anderen Hersteller bisher. Auch können mittels “Genmoji” eigene Emojis durch KI-Prompts generiert und verwendet werden. Mit “Image Playground” lassen sich mit wenigen Eingaben und KI-generierten Vorschlägen lustige KI-Bilder erstellen. Und eine sogenannte “Image Wand”-Funktion ermöglicht es, skizzierte Zeichnungen einzukreisen und zu einem echten Bild generieren zu lassen.
Die Fotos-App bekommt auch KI-Unterstützung. So kann man demnächst mittels Suchbegriffe wie „Maya beim Skateboarding im Batik-Outfit“, Bilder und Videos mit den Suchergebnissen dazu bekommen, so demontierte uns das Apple im Livestream. Damit können dann auch wieder KI-gestützte Rückblicke bzw. Diashows erstellt werden
Persönlicher Kontext
Mit Apple Intelligence können auch Aufgaben in Apps auf Basis von Sprachbefehlen ausgeführt werden. Beispiele sind das Suchen von Dateien, das Anzeigen von Fotos und das Abspielen von Podcasts. Siri und andere Apps unterstützen Hunderte von Aktionen zwischen Apps, was die Effizienz und das Nutzererlebnis erheblich verbessert.
Die KI verarbeitet persönliche Daten, um nützliche Unterstützung zu bieten. Ein gutes Beispiel ist der Planungsassistent für Meetings und Veranstaltungen, der nahtlos mit Kalender, E-Mail und anderen persönlichen Daten integriert wird, um den Alltag zu erleichtern.
Architektur und Datenschutz
Besonderes Augenmerk gilt der Architektur und dem Datenschutz. Die On-Device-Verarbeitung vermeidet das Sammeln personenbezogener Daten. Für größere Modelle und komplexe Aufgaben nutzt Apple Private Cloud Compute. Der Datenschutz wird durch kryptografische Absicherung und transparente Serversoftware gewährleistet, so dass Daten sicher und privat bleiben.
Siri
Und dann haben wir da noch Siri, da kränkelnde Sorgenkind von Apple. Damit soll nun aber Schluss sein, denn Siri hat eine ware Boss-Transformation druchgemacht.
Siri hat ein neues, auffälliges Design erhalten. Ein helles Licht um den Rand des Displays signalisiert, wenn Siri aktiv ist, was die visuelle Interaktion noch ansprechender macht.
Mit der Integration von Apple Intelligence ist Siri jetzt tiefer in die Systemfunktionen eingebunden. Siri versteht Sprache natürlicher, relevanter und persönlicher. Selbst bei Verhasplern oder mehreren aufeinanderfolgenden Fragen behält Siri den Zusammenhang und liefert präzise Antworten. Außerdem kann man Siri nun auch per Texteingabe ansprechen und nahtlos zwischen Text und Sprache wechseln, je nach Bedarf und Situation.
Siri kann auf dem iPhone, iPad und Mac tausende Fragen beantworten und Nutzer:innen bei der Nutzung ihrer Geräte unterstützen. Von geplanten E-Mails in der Mail-App bis zum Wechsel in den Dunkelmodus – Siri steht mit Rat und Tat zur Seite.
Siri erkennt nun, was auf dem Display angezeigt wird und kann diese Inhalte verstehen, um Aktionen in verschiedenen Apps auszuführen. Wenn beispielsweise ein:e Freund:in in Nachrichten eine neue Adresse schickt, kann man einfach sagen: „Füge diese Adresse zu meiner Kontaktkarte hinzu“.
Mit Apple Intelligence kann Siri hunderte neue Aktionen in und zwischen Apps von Apple und anderen Anbietern ausführen. Man kann sagen: „Zeig mir den Artikel über Zikaden von meiner Leseliste“ oder „Schick die Fotos vom Grillen am Samstag an Malia“, und Siri führt diese Anfragen direkt aus.
Siri bietet eine auf die Nutzer:innen und ihre Informationen angepasste Intelligenz. Zum Beispiel kann man sagen: „Spiel den Podcast, den Jamie empfohlen hat“, und Siri findet und spielt die Folge, unabhängig davon, ob die Empfehlung in einer Nachricht oder einer E-Mail war. Auch bei Fragen wie „Wann kommt Mamas Flug an?“ greift Siri auf Echtzeit-Fluginformationen zu und zeigt die Ankunftszeit an.
Ja, Apple hat seine eigene KI entwickelt. Dennoch wird und kann es Momente geben, in denen z.B. Siri vorschlägt, die Aufgabe oder die Textgenerierung etc. an ChatGPT 4o zu übergeben. Der Benutzer kann dann entscheiden, ob dies geschehen soll oder nicht. Apple betont, dass dort keine Logs oder ähnliches gespeichert werden.
Persönliche Meinung
Ich war die erste Stunde nicht sonderlich beeindruckt und hatte schon erwartet, dass Apple nur eine Kooperation mit einer großen KI-Firma wie OpenAI oder Google mit Gemini ankündigen würde. Auffällig war aber, dass trotz der ewigen Vorlaufzeit alles sehr schnell abgehandelt wurde, um dann endlich zur eigenen Künstlichen Intelligenz zu kommen. Und ja, selbst ich als kleiner Apple-Kritiker ziehe meinen Hut vor den Ankündigungen. Denn klar, Bild- und Textgenerierung gibt es zuhauf, aber genau das ist das Problem. Für Textgenerierung nimmt man z.B. ChatGPT, und da vielleicht die Mobile App oder im Browser, für Bildgenerierung Dall-E oder Midjourney über Discord. Aber hier haben wir alles unter einem Dach.
Apples Ökosystem ist und war schon immer darauf ausgelegt, nahtlos ineinander zu greifen und miteinander zu arbeiten. Selbst Googles Gemini kommt nicht annähernd an diese Systemintegration heran, die Apple uns hier zeigt. Klar, wie gut das alles funktioniert und wie sehr man das am Ende wirklich im Alltag nutzt, muss sich erst noch zeigen, aber gerade eine personalisierte KI, die weiß, wie dein Kalender aussieht und parallel per Mail mitbekommt, dass ein Meeting verschoben wurde. Oder die deine Nachrichten nach Wichtigkeit filtert und priorisiert, die Antworten auf Mails generiert mit einem Minifragebogen wie “Hast du Zeit für Franks Meeting“ Ja? Okay, dann antworte ich ihm in einer formellen Mail. Das sind Funktionen, die interessant sind und die auch genutzt werden wollen. Einfach verständlich für jeden Nutzer, jede Nutzerin und das Ganze auch noch kostenlos.
Auf das Thema Datenschutz möchte ich hier gar nicht eingehen, das wäre ein eigenes Video wert. Aber es ist schon vertrauensbildend, wenn Apple sagt: “Wir verarbeiten die Daten auf dem Gerät mit unseren speziell dafür entwickelten Silicon-Chips und lagern größere Anfragen auf sichere und gesicherte Server aus, auf die nur sehr wenige Leute Zugriff haben”. Natürlich muss man dieses Versprechen erst einmal glauben und hoffen, dass nicht eines Tages das böse Erwachen kommt. Aber ehrlich gesagt würde ich Apple eher vertrauen als Google oder Microsofts Recall-System.
Aber was meint ihr? Ist das bahnbrechende KI und könnte sie euch überzeugen, ein Apple-Gerät zu kaufen?