Siri und App Intents
Bis jetzt konnten Apps App Intents nutzen, um Inhalte und Aktionen für das System sichtbar zu machen, sodass sie in Spotlight, Kurzbefehlen, Siri und mehr verwendet werden konnten. Die Nutzer mussten jedoch ihre eigenen Kurzbefehle erstellen oder genau wissen, welche Schlüsselwörter sie für Siri verwenden sollten. Mit Apple Intelligence erhält App Intents nun einige neue, leistungsstarke Funktionen.
Um eine App mit Siri und Apple Intelligence zu integrieren, müssen Entwickler sogenannte "assistant schemas” verwenden. Diese Schemata definieren Eigenschaften und stellen sicher, dass App Intents den erforderlichen Protokollen folgen. Dadurch können App Intents nahtlos mit Apples vortrainierten Modellen zusammenarbeiten und für Apple Intelligence verständlich werden. Wenn der Nutzer Siri beispielsweise sagt: „Öffne das letzte Foto“, wird Apple Intelligence verstehen, dass der Nutzer ein Foto öffnen möchte, und eine App anzeigen, in der zuletzt ein Foto angeschaut wurde.
In einem aktuellen Newsletter von Bloomberg kamen weitere Details zu Apples Plänen für 2025 und Apple Intelligence ans Licht. Offenbar wird es nicht nur möglich sein, bestimmte App-Funktionen über Siri auszulösen, sondern auch alle möglichen Prozesse zu automatisieren, indem man einfach mit dem AI-Assistenten spricht. Dies eröffnet eine völlig neue Art der Interaktion mit dem Smart Home. Mark Gurman beschreibt es in dem Artikel als „Home-Automatisierung auf Steroiden“.
Wenn Ihr Produkt Teil dieser Automatisierungen sein und einzigartige Funktionen bieten soll, ist eine iOS-App mit den notwendigen App Intents unerlässlich. Wir empfehlen, schon jetzt über diese Benutzerabläufe nachzudenken, damit Sie für 2025 bereit sind.
Aktuelle Schemata
Im aktuellen iOS 18.1 Beta gibt es nur drei "assistant schema" wobei später weitere Schemata hinzugefügt werden sollen.
- E-Mail: Die Schemata für E-Mails ermöglichen es Entwicklern, E-Mails oder Entwürfe zu erstellen, zu aktualisieren, zu löschen und zu archivieren sowie E-Mails zu senden, weiterzuleiten oder auf E-Mails zu antworten.
- Foto und Video: Das Foto-Schema enthält Aktionen zum Erstellen, Löschen, Aktualisieren, Duplizieren und Öffnen von Alben, Fotos oder Videos sowie einige Bearbeitungsfunktionen wie das Ändern von Tiefenschärfe, Sättigung oder Wärme sowie das Zuschneiden und Hinzufügen von Filtern, um einige Beispiele zu nennen.
- In-App-Suche: Im In-App-Suche-Schema ist derzeit nur eine Aktion möglich. Sie ermöglicht es Apple Intelligence, die Suche innerhalb einer App zu nutzen, um relevante Daten zu finden.
Apple hat uns nur einen kurzen Einblick in die Namen der Schemata gegeben. Weitere Details werden folgen. Dies ist die bereitgestellte Liste:
Bücher
Browser
Kameras
Dokumentenleser
Dateiverwaltung
Journale
Präsentationen
Tabellenkalkulationen
Whiteboards
Textverarbeitungsprogramme
Wie bereits erwähnt, erwarten wir, dass im Laufe des Jahres noch mehr Funktionen zur Liste hinzugefügt werden. Die Hausautomatisierung wird ein wichtiger Bestandteil des Erfolgs von Apple Intelligence sein.
Tools zur Textbearbeitung
Eine weitere, direktere Möglichkeit, das Benutzererlebnis in Apps zu verbessern, besteht darin, Tools zur Textbearbeitung zu unterstützen. Diese sind in Textansichten verfügbar und helfen dabei, einfach Texte zu optimieren. Nutzer können Apple Intelligence nutzen um:
- Texte umzuschreiben, um sie freundlicher, professioneller oder prägnanter zu gestalten.
- Geschriebenen Text zusammenzufassen.
- Wichtige Punkte aus einem Text zu extrahieren.
- Text in eine Liste oder Tabelle zu konvertieren.
Entwickler können die Leistungsfähigkeit der Tools direkt nutzen, indem sie einfach native UI-Komponenten verwenden.
Benutzerdefinierte Textansichten können auch die neuen Funktionen, die mit Apple Intelligence eingeführt wurden, übernehmen, benötigen jedoch eine besondere Behandlung.
Fazit: Seien Sie bereit für KI im Jahr 2025!
Obwohl Apple Intelligence nicht eine Vielzahl von neuen Funktionen zur Nutzung innerhalb einer App eröffnet, werden die Nutzer erwarten, dass Apps nahtlos mit Apple Intelligence zusammenarbeiten. Die Verwendung nativer Komponenten und die Anpassung benutzerdefinierter UI-Elemente zur Unterstützung von Apple Intelligence werden entscheidend sein, sobald die Verbreitung von Apples neuem Assistenten zunimmt. Wenn Apple Intelligence ähnlich funktioniert wie der erweiterte Sprachmodus von ChatGPT, wird sich in den nächsten zwei Jahren unsere Art, Apple-Geräte zu steuern und mit ihnen zu kommunizieren, grundlegend verändern. Einige der oben genannten Funktionen werden mit dem Update iOS 18.1 in den USA eingeführt. Es ist unklar, wann alle Funktionen verfügbar sein werden und wann genau Nutzer in der EU Zugang zu Apple Intelligence erhalten werden. Fakt ist: es wird kommen!
Jetzt ist die Zeit, über Benutzerabläufe, Anwendungsfälle und Geschäftsfälle für Ihre Produkte nachzudenken. Seien Sie KI-bereit für 2025!
Apple Intelligence ermöglicht es Nutzern, Aktionen in Drittanbieter-Apps mit Siri auszuführen.
Apps können bestimmten Themen (sogenannten Schemas) zugeordnet werden, und Apple Intelligence wird Ihre App basierend auf Benutzeranfragen vorschlagen oder Befehle ausführen.
Apps profitieren von integrierten Tools wie Umschreiben, Korrekturlesen und Zusammenfassen von Text.
Mit Funktionen wie dem Bild-Spielplatz und dem Bereinigungstool können Nutzer direkt in den Apps Bilder erstellen und verbessern.
Apple Intelligence sorgt für den Schutz der Privatsphäre der Nutzer durch geräteinterne Verarbeitung und Private Cloud Compute.