Apple a fait la part belle à l’intelligence artificielle lors de sa keynote de rentrée consacrée aux iPhone 16. Parmi les fonctions présentées, le constructeur s’est notamment attardé sur Visual Intelligence, un outil inspiré de Google Lens qui permet d’identifier le monde qui vous entoure.
La keynote de rentrée d’Apple a été prolifique, entre la présentation des iPhone 16 et 16 Pro, des AirPods 4 ou encore de l’Apple Watch Series 10. Lors du dévoilement des nouveaux smartphones, le constructeur de Cupertino s’est attardé sur leur système Apple Intelligence qui introduira plusieurs fonctionnalités assistées par l’intelligence artificielle. Le fabricant a notamment tressé les louanges de l’outil Visual Intelligence.
Les iPhone 16 vous permettront d’identifier ce qui vous entoure
Cette fonctionnalité inspirée de Google Lens vous permettra d’identifier les éléments que vous voyez à travers l’objectif de l’appareil. Elle s’activera par l’entremise du bouton photo capacitif “Camera Control” introduit sur les iPhone 16. Vous pourrez par exemple obtenir des informations sur un restaurant en visant sa devanture (menu, horaires, réservation).
Si vous prenez une photo d’un flyer pour un événement, vous pourrez l’ajouter directement à votre calendrier. Parmi les autres utilisations, il sera aussi possible de pointer l’appareil sur un chien pour identifier rapidement sa race ou le pointer sur un produit pour savoir où l’acheter en ligne. A l’avenir, l’outil fera également cause commune avec ChatGPT pour vous aider par exemple à faire les devoirs de votre progéniture.
Voici un aperçu de l’outil en action :
Reste désormais à savoir quand la fonctionnalité fera ses débuts, Apple ayant simplement indiqué qu’elle “arrivera plus tard cette année”. Pour rappel, les Européens devront patienter plus longtemps, la gamme d’outils d’Apple Intelligence étant pour le moment bloquée par l’Europe en raison du Digital Markets Act.
À lire aussi : découvrez où précommander les nouveaux iPhone 16