-

Ios 26 : des captures d’écran intrigantes pour un aperçu du remaniement retardé de siri par Apple

Apple a lancé la fonctionnalité Visual Intelligence qui permettait à l’utilisateur de pointer la caméra de son téléphone compatible sur les éléments qui l’entourent pour effectuer une recherche d’images Google ou poser des questions via ChatGPT. Lors de la WWDC 2025, la société a présenté des mises à jour visant à élargir l’utilité de Visual Intelligence, principalement en l’intégrant au système de captures d’écran. Selon le communiqué de presse de la société, “Visual Intelligence aide déjà les utilisateurs à en apprendre davantage sur les objets et les lieux qui les entourent en utilisant la caméra de leur iPhone, et leur permet désormais d’en faire plus, plus rapidement, avec le contenu affiché sur leur écran d’iPhone.”

Intégration de l’intelligence visuelle aux captures d’écran

Cette évolution m’a rappelé la “conscience à l’écran” que Apple avait décrite comme l’une des capacités de Siri lors de l’annonce de Apple Intelligence l’année précédente. Dans ce communiqué de presse, la société déclarait que “Avec la conscience à l’écran, Siri sera capable de comprendre et d’agir avec le contenu des utilisateurs dans de plus en plus d’applications au fil du temps.” Bien que ce ne soit pas exactement la même chose, l’Intelligence visuelle basée sur les captures d’écran mises à jour permet pratiquement à votre iPhone de proposer des actions contextuelles à partir de votre contenu à l’écran, mais pas via Siri.

Nouvelle expérience des captures d’écran avec Apple intelligence

En pratique, sur iOS 26 (sur les appareils prenant en charge Apple Intelligence), en appuyant sur les boutons d’alimentation et de réduction du volume pour prendre une capture d’écran, une nouvelle page s’ouvrira. Au lieu de voir la miniature de votre image enregistrée en bas à gauche, vous verrez l’image occuper presque tout l’écran, avec des options autour pour l’éditer, la partager ou l’enregistrer, ainsi que pour obtenir des réponses et des actions basées sur Apple Intelligence en bas. Dans les coins inférieurs gauche et droit se trouvent des options pour poser des questions à ChatGPT et effectuer une recherche d’images Google respectivement.

En fonction du contenu de votre capture d’écran, Apple Intelligence peut suggérer diverses actions sous votre image. Cela peut être demander où acheter un article similaire, ajouter un événement à votre calendrier ou identifier des types de plantes, d’animaux ou de nourriture, par exemple. Si votre capture d’écran est chargée, vous pouvez dessiner sur un élément pour le mettre en évidence (comme lorsque vous sélectionnez un objet à effacer dans Photos) et obtenir des informations spécifiques à cette partie de l’image.

Collaboration avec des applications tierces et services

Les applications ou services tiers qui ont activé les Intentions des Applications, comme Google, Etsy et Pinterest, peuvent également apparaître ici pour que vous puissiez effectuer des actions dans cet espace également. Par exemple, si vous avez trouvé un serre-livres qui vous plaît, pris une capture d’écran et l’avez identifié, vous pouvez l’acheter sur Etsy ou l’épingler sur Pinterest.

Un aspect de cette mise à jour de Visual Intelligence qui me laisse perplexe est que, pour des personnes comme moi qui prennent des captures d’écran machinalement et ne veulent rien faire d’autre que obtenir des reçus, cela pourrait ajouter une étape frustrante entre

Stéphane
Stéphanehttps://thunderbot.fr
Stéphane, plongé dans l'écriture depuis plusieurs années, se consacre à décrypter des thèmes variés allant des technologies numériques de pointe aux répercussions environnementales des industries, en passant par les avancées scientifiques récentes. Il s'efforce de rendre l'information transparente et abordable, dans le but d'éclairer ses lecteurs sur les complexités et les merveilles du monde qui nous entoure.

Partager cet article

Publiées récemment

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici