La recherche visuelle d’iOS 15 finalement limitée aux États-Unis 🆕

Nicolas Furno |

La recherche visuelle est l’une des nouvelles fonctions d’iOS 15 qui doit permettre d’identifier précisément le contenu d’une image. L’app Photos savait identifier un chien, mais elle peut désormais vous donner la race de l’animal. Cette nouveauté permet aussi d’identifier les monuments pris en photo, la variété d’une plante ou même d’obtenir des informations sur un livre ou un tableau pris en photo.

La recherche visuelle sur le site d’Apple.

Cette nouveauté a été présentée sans aucune restriction, si ce n’est matérielle : comme texte en direct, elle nécessite un appareil iOS avec une puce Apple A12 au minimum. Pour le reste, tout le monde devait pouvoir en bénéficier et Apple n’a pas signalé d’incompatibilité sur sa liste des fonctionnalités d’iOS 15. Néanmoins, elle n’a jamais fonctionné sur nos appareils, si bien que l’on pensait la nouveauté retardée.

Comme nous l’a signalé un lecteur, elle a toutefois fait son apparition sur cette page publiée par Apple qui liste les restrictions régionales. La recherche visuelle est indiquée comme étant compatible uniquement avec les appareils Apple en anglais et réglés sur la région États-Unis. En clair, elle n’est accessible qu’aux utilisateurs dans ce pays, ce qui explique pourquoi on ne l’a jamais vue sur nos appareils configurés en France.

L’ajout de la recherche visuelle sur cette page semble dater du soir du keynote et c’est à notre connaissance la première fois qu’une telle restriction a été mentionnée. Le changement semble tout récent, la preuve cette fiche support mise à jour le 24 septembre, soit vendredi dernier, présente la fonction en français sans évoquer de limitation géographique, comme si elle était disponible dès aujourd’hui.

Cette fiche support détaillant la fonction recherche visuelle a été traduite sur le site français d’Apple, alors même que la nouveauté n’est pas disponible dans cette langue ou hors des États-Unis.

Cette restriction est-elle temporaire ? C’est possible, mais on peut noter que la recherche visuelle a été supprimée sur la page principale du site d’Apple dédiée à iOS 15, ce qui est peut-être le signe qu’un nettoyage est en cours et que la fonction sera réservée aux États-Unis jusqu’à nouvel ordre.

Pour finir, rappelons que vous pouvez choisir d’utiliser votre iPhone ou iPad configuré en anglais et aux États-Unis. Le changement s’effectue dans les Réglages, section « Général » puis « Langue et région ». Du côté de l’app Photos, ce changement semble s’accompagner d’une nouvelle indexation des données, ce qui ne me permet pas de confirmer que la recherche visuelle est bien activée sur mon iPhone.

Mise à jour le 27/09/2021 08:46 : après quelques minutes, la fonction recherche visuelle est bien apparue sur mon iPhone configuré aux États-Unis. Voici quelques exemples d’éléments « faciles » correctement identifiés par l’app :

La recherche visuelle sur un animal, une plante et un monument.

Puisque la fonction est pensée pour un autre pays, vous n’obtiendrez pas toujours le résultat attendu, néanmoins la recherche visuelle peut s’avérer surprenante dans certains cas. Ici, le livre trouvé n’est pas le bon, mais la couverture de celui suggéré est visuellement très proche et on peut comprendre son erreur. Quant au pont, il est trop mineur pour être identifié par son nom (pont de Ténérez), mais les coordonnées de la photo permettent de le positionner au bon endroit ; par contre, les autres photos n’ont rien à voir avec ce pont précis.

La recherche visuelle peut tenter une réponse, comme sur ces deux exemples partiellement corrects seulement.
Source
merci Nico_Belgium
Tags
avatar man0 | 

😟

avatar macbook60 | 

Bonjour

Dommage ces fonctionnalités limitées au USA et qui tardent à arriver

avatar MacPlusEtc | 

Finalement, Apple a suivi la même procédure que les sous-marins…

avatar Aardohan | 

@MacPlusEtc

Hors sujet…

avatar EricBM1 | 

@Aardohan

A mon avis il faisait de l’humour 😉

avatar Tibimac | 

J'ai mis mon iPhone en Anglais et aux USA mais dans l'app Photos il n'y a aucun changement, ni re-indexation ni recherche visuelle 😔.

[EDIT] finalement c'est bon mais l'icône change en fonction de la photo pour indiquer sur quelle photo la fonction est utilisable ou non.

avatar Nicolas Furno | 

@Tibimac

Il faut patienter un peu, ça marche finalement pour moi, j'ai ajouté quelques exemples à l'article.

avatar Tibimac | 

@nicolasf

Oui en effet c'est bon, mais pas sur toute les photos, une photo d'écureuil non mais une photo d'un bâtiment de New York oui 🙂

avatar Nicolas Furno | 

@Tibimac

Je crois que les animaux se limitent aux chiens et chats en fait. J’ai testé avec des pigeons notamment et rien.

avatar Shaskan | 

@nicolasf

Il n’y a peut être pas de pigeons aux US 😂

avatar Nicolas Furno | 

@Shaskan

C'est la seule explication logique, en effet ! 🙃

avatar David Finder | 

Je ne vois pas, techniquement, en quoi cette fonction ne pourrait pas être dispo en France…
Ou alors faut m’expliquer…

Les résultats viennent de Siri, et on a maintenant une traduction, donc sur ce point précis je ne vois pas de problème.

Et la reconnaissance en elle-même est une fonction permise par l’IA des appareils à partir d’un SoC A12. Donc là non plus, je ne comprends pas. Surtout qu’aux US, cela n’a pas l’air d’être une fonction en beta.

Bref, encore un truc pour lequel Apple ne fait pas grand chose pour le reste du Monde… dommage, ce serait super comme fonction.

avatar xDave | 

@David Finder

Patience
Pour y avoir, je dois passer à un Soc A12+!

(Lol, c’est vrai que tout le monde sait quel soc a son précieux… j’ai du vérifier et donc bye-bye iPhone 8.)

avatar David Finder | 

@xDave

J’ai pris l’exemple du SoC parce que c’est ce qui est écrit dans l’article 😉
On est d’accords que cette fonction basée sur l’IA ne peut pas fonctionner avec tous les appareils.
Mais elle était présentée sur le site Apple sur un iPhone 12.

Je ne sais pas non plus quels SoC ont les « anciens » iPhone.

Je sais juste que j’aimerais cette fonction sur mon 12, et surtout je ne comprends pas pourquoi Apple a décidé de la retirer.

avatar ValentBay | 

@xDave

Alors que les iPhone 8/Plus ont une puce A11 Bionic disposant d’un neural engine. Mais bon.

avatar xDave | 

@ValentBay

Ben comme d’habitude avec la pomme.
C’est comme les MBP avec TouchBar première gen.

Et là tu te marres en lisant le nom pompeux choisi par le marketing … la puce A11 BIONIC.

Steeve (Austin) doit se retourner dans sa tombe vu la dévaluation du milliard.

Mais chez la pomme, on est moins Oscar Goldman que Goldman Sachs ces temps-ci.

avatar r e m y | 

J'imagine que pour la reconnaissance des monuments, par exemple, Apple s'appuie sur une base de données limitée aux USA, de même que pour la flore, c'est celle présente en Amérique du Nord. Ils ont donc bloqué la fonction hors USA pour éviter que des petits frenchies inondent les réseaux sociaux en se plaignant que cette super fonction n'est même pas fichue de reconnaître la Tour Eiffel.

Une fonction qui risque donc d'être loin derrière la reconnaissance photo de Google ☹️

avatar Nicolas Furno | 

@r e m y

Ben… 🤔

Peut-être que l'article n'était pas à jour, mais j'ai ajouté des exemples et pas de souci pour la Tour Eiffel. Même le pont Bir-Hakeim au pied a été parfaitement identifié, donc je ne crois pas que ce soit l'explication.

avatar r e m y | 

Scully me souffle à l'oreille que la vérité est ailleurs... ☹️

avatar pat3 | 

@nicolasf

"@r e m y
Ben… 🤔
Peut-être que l'article n'était pas à jour, mais j'ai ajouté des exemples et pas de souci pour la Tour Eiffel. Même le pont Bir-Hakeim au pied a été parfaitement identifié, donc je ne crois pas que ce soit l'explication"

A mon avis,l’explication vient quand même d’un problème de base de données, et aussi de nombre de requêtes. Vaut mieux démarrer avec des données états-uniennes très documentées et des requêtes états-uniennes bien modélisées pour afficher des résultats corrects dans les premiers usages, que démarrer avec des résultats mondiaux moins bien renseignés et des requêtes tout azimut.
Il est fort possible qu’ils aient été présomptueux sur les résultats de l’IA par contre, au vu des premiers essais strictement états-uniens, et que les premiers retours d’ailleurs soient moins probants.

avatar frankm | 

Pour les monuments, ok ça nécessite des bases de données régionales.
Mais les traces du chien!!?

avatar r e m y | 

Les traces du chien... tu veux dire ce qu'il laisse sur le trottoir chaque matin? 💩

avatar huexley | 

C'est un genre de Google Lens en fait ?

avatar Lu Canneberges | 

Arh, c’est chiant parce que la fonction a l’air géniale ! En espérant très fort qu’il ne soit question que de quelques semaines avant le retour en France !

Et qu’en était-il lors du cycle de bêtas ?

avatar Nico_Belgium | 

@Lu Canneberges

Ça a été comme ça pendant tout le cycle de bêta. Ça n’a jamais été dispo hors US il me semble

avatar macbook60 | 

@Nico_Belgium

Mes appareils sont compatibles (a12 et plus ) ils sont en langue et régions France et je suis sur iOS 16 je n’ai pas la fonction ( je vie à l étranger.
As tu une idée 💡 merci

avatar Nicolas Furno | 

@Lu Canneberges

On l’a jamais vu sur nos appareils, je pense que cela n’a jamais fonctionné hors des US en fait.

avatar Koda | 

Pour ceux qui souhaitent reconnaître des plantes, champignons, insectes… Je vous recommande cette application formidable : https://apps.apple.com/fr/app/seek-by-inaturalist/id1353224144

avatar GuillaumeD | 

Je pense que c’est plus dû à un retard dans la traduction de la longue liste d’éléments identifiables envoyés à chaque traducteur. Je reste optimiste pour que ça arrive avant fin d’année.

avatar R-APPLE-R | 

Ha ba voilà ! Je me disais aussi 🙁 encore un truc rien que pour les US et en plus nous payons plus chers 😔

avatar Bounty23 | 

C’est vraiment pénible à force… quand on voit le nombre de fonctionnalités ou de choses en plus sur iOS aux États Unis VS le reste du monde… limite les iPhone hors États Unis devraient être 10% moins cher comme on a toujours 10% de fonctions en moins avec Apple. Entre Plan, photo, la carte bancaire et le reste…

avatar Mastermoog | 

Moi, la fonctionnalité qui m'énerve le plus, c'est Siri qui n'est toujours pas disponible en français en Suisse sur l'Apple TV. Siri est utilisable sur mon téléphone et sur AppleCar mais pas disponible sur l'Apple TV. J’imagine que vu le peu de choix sur cette très chère boite, Apple a renoncé à inclure la recherche vocale. Dommage, j'ai eu le premier modèle Apple TV et ensuite les suivantes, mais je vais probablement ne plus faire évoluer ce boitier qui ne me sert finalement que d'interface pour mon NAS et pour Plex

avatar Smjm | 

Tout comme Apple News finalement….

avatar jopaone | 

On a ça sur l’appli Google y compris sur iOS , mais qui s’en sert vraiment à part pour faire joujou 5mn 🤔

avatar franfran94800 | 

Si ça repose sur les mêmes techno que la recherche d’images pedopornographiques ça pourrait expliquer le « recul » de l’intégration de cette fonction?

avatar Nicolas Furno | 

@franfran94800

Ce n’est absolument pas la même technologie, rien à voir entre les deux.

avatar Paquito06 | 

@nicolasf

“Ce n’est absolument pas la même technologie, rien à voir entre les deux.”

On peut en venir a se poser des questions, malgré le fait que la technologie soit differente. Sur le topic du scan d’images pedo., ca gueulait dans les commentaires car Apple pouvait scanner au sein d’iOS et ca violait la vie privee, soit disant, et dans ce topic la fonctionnalite de scanner au sein d’iOS n’est pas presente en dehors des US et ca rale a nouveau car on veut pouvoir scanner et identifier 😅

avatar r e m y | 

Vous ne voyez pas de différence entre une analyse locale des photos dont le résultat ne quitte pas votre iPhone et sur des thématiques banales (reconnaître des plantes, des monuments de spaces de chiens et chats) et ce qui était proposé pour les images pedocriminelles dont le résultat était remonté à Apple dans le but de faire les dénonciations ad hoc aux Forces de l'ordre? 😳

avatar Paquito06 | 

@r e m y

“Vous ne voyez pas de différence entre une analyse locale des photos dont le résultat ne quitte pas votre iPhone et sur des thématiques banales (reconnaître des plantes, des monuments de spaces de chiens et chats) et ce qui était proposé pour les images pedocriminelles dont le résultat était remonté à Apple dans le but de faire les dénonciations ad hoc aux Forces de l'ordre? 😳”

Je vois surtout une difference de comprehension, quand ca arrange. Ce type de commentaire (misleading) pourrait tellement couter cher dans certains contextes, sans donner les details qui vont bien, a commencer par la necessite de televerser sur iCloud, ce qui rend caduc le scan local le cas echeant. Le probleme n’est pas ce qui en est fait a posteriori, le probleme est le scan en lui meme. D’un coté on est pour le scan car on peut identifier nos plantes et nos chiens, d’un autre on est contre le scan car hey oh, un scan en local sur iOS ca va pas? Ca viole la vie privee! Puis ce n’est pas Apple qui avertit les forces de l’ordre. Et ce n’est pas du passé non plus, ca arrivera tot ou tard (etait remonté). Mais admettons qu’on puisse scanner, alors on autorise les plantes et les chiens mais pas les individus nus au comportement illegal? On fait quoi dans ce cas? Bref, encore bcp d’incomprehension et/ou de mauvaise fois, helas.

avatar Nicolas Furno | 

@Paquito06

Vous savez que l’app Photos scanne déjà chaque image pour identifier le sujet et les personnes qui se trouvent sur les photos ? C’est le cas depuis plusieurs années maintenant, 4 ou 5 je ne sais plus. La nouveauté va juste un cran plus loin en n’identifiant pas seulement un chat, mais aussi la race du chat.

avatar AKZ | 

Sauf que les visages peuvent vraiment être scannés en local puisque c’est l’utilisateur qui initie la fonction et nomme au départ les visages. Pour toutes les autres reconnaissances d’images, je doute fort qu’Apple puisse intégrer une base de donnée assez complète pour que tout se passe en local.

avatar Nicolas Furno | 

@AKZ

Doutez si vous voulez, mais c’est pourtant bien ce qui se passe. 🙂

L’app Photos d’Apple ne travaille qu’en local, c’est la grande différence avec celle de Google qui fait tout côté serveurs au contraire.

avatar Paquito06 | 

@nicolasf

“Vous savez que l’app Photos scanne déjà chaque image pour identifier le sujet et les personnes qui se trouvent sur les photos ?”

Absolument. C’est fort pratique d’ailleurs de rechercher par mot clef. On ne trouve pas tout cependant, ca reste volontairement limité. Genre “skin” ou “naked” retourne rien, contrairement a “food”, “car” ou “door”.

avatar r e m y | 

Là on serait plutôt dans la zoophilie... 🤭

avatar Bassim | 

Heureusement qu’il y’a l’application Google pour faire ça et le faire bien

CONNEXION UTILISATEUR