Domotique : Samsung et Amazon utilisent le LiDAR des iPhone pour des vues 3D de la maison
Samsung lance en France sa fonction "Vue Carte 3D", une représentation en volume de son domicile pour contrôler son équipement domotique. Une idée qu'Amazon teste aussi de son côté.
Plutôt qu'une liste ou un damier de boutons correspondant à tous les accessoires domotiques que l'on a chez soi, pourquoi ne pas avoir une vue 3D de son foyer ? C'est ce que Samsung appelle la Vue Carte 3D, une sorte de représentation de sa maison, comme dans Les Sims, avec tous les équipements représentés à leur place.
Dévoilée lors du dernier CES, la fonction est maintenant proposée en France au travers de l'application SmartThings sur Android et iOS. Le principe est d'établir une carte 3D de chacun des niveaux de sa maison et d'y positionner précisément des boutons correspondants aux différents accessoires connectés. Des objets 3D génériques représentant du mobilier sont proposés pour essayer de reproduire l'agencement de la pièce, afin de bien les distinguer les unes des autres.
Pour construire ce plan en volume, l'app a un éditeur avec des outils simples et ce catalogue de mobilier, mais on peut utiliser le LiDAR de son téléphone pour scanner sa pièce ou récupérer les données déjà collectées par son aspirateur robot comme en a Samsung avec le Bespoke Jet Bot.
Le fabricant sud-coréen n'est pas le seul à avoir imaginé cette représentation de son environnement domotique. À la fin de l'année dernière, Amazon a présenté à peu près la même chose avec Map View dans son app Alexa. Cette visualisation en 2D, qui est encore en test auprès d'un public restreint, montre aussi tous les accessoires au sein d'un plan de son domicile.
Ce système d'Amazon n'est proposé pour le moment que sur iPhone et iPad, uniquement les générations dotées d'un LiDAR. Peut-être y a-t-il une idée à creuser pour Apple afin d'étendre le champ d'utilisation de ce LiDAR (lire aussi Réalité augmentée : IKEA efface vos meubles pour en essayer de nouveaux).
> uniquement les générations dotées d'un LiDAR
Lesquelles sont-ce ?
Oui oui je sais, j'ai qu'à chercher par moi même.
@marc_os
ooou, depuis les 12 pro et pro max
Ça s’utilise vraiment le LiDAR ?
@CtrlMaster
Oui
> « Peut-être y a-t-il une idée à creuser pour Apple afin d'étendre le champ d'utilisation de ce LiDAR »
Les idées concrètes ne manquent pas. Tout comme les suggestions d’apps. Il ne tient qu’à Apple d’en tenir compte, et de les permettre. (Des ingénieurs associés aux réseaux dont je fais part, las de quémander, sont partis sur d’autres plateformes, moins élégantes mais ouvertes, donc praticables. Si Apple voulait vraiment exploiter le potentiel de son LiDAR, il y aurait pléthore de postulants.)
@occam
C’est tellement peu utilisé depuis son introduction qu’on se demande si il ne va pas disparaître. Même effet pschiiit que 3D Touch
@CtrlMaster
Sauf que si je ne dis pas de bêtise le LiDAR est très souvent utilisé quand on prend des photos notamment pour améliorer les photos de nuit. Donc à moi que les capteurs ne se perfectionnent pour compenser le LiDAR ça reste un composant important ! Il me semble que c’est aussi utilisé pour les photos portraits
@CtrlMaster
Il faut savoir de quoi on parle.
Du LiDAR en soi, ou de l’usage minable qu’Apple en a fait jusqu’à présent ?
Si le second, oui, il est au mieux anecdotique.
Si le premier, j’espère que vous n’allez pas vous aventurer sur ce terrain. Parce que là, il y aurait des bibliothèques qui vous exploseraient à la figure.
Juste parce qu’Apple s’est offert un beau joujou sans, apparemment, savoir quel parti en tirer ne signifie nullement que la technologie ne soit pas utilisée au max per ceux qui la comprennent.
@occam
Je parlais de son utilité sur iPhone. Je pensais que c’était assez clair dans mon commentaire suivant.
@CtrlMaster
Rien que le fabuleux Face ID rentabilise largement à lui seul le Lidar de l’iPhone.
Quand on voit ou en est Android sur le sujet 4 ans après 🙃
@Yves SG
Vous voulez dire des lecteurs d’empreintes parfaitement adaptés et fonctionnels ? 🙃
@CtrlMaster
Pardon mais les empreintes sous l’écran fonctionne 0 comparé à Faceid lol
@CtrlMaster
Comme sur les iPhones en 2013 ?
C’est bien, mais bon
(Avec en plus avec un niveau de sécurité apparemment encore plus bas)
@Yves SG
Face ID n’utilise pas de LiDAR. La camera TrueDepth n’est pas un LiDAR.
@DrStax
Au temps pour moi !
Du coup je ne sais pas à quoi sert Lidar de l’iPhone à part pour les photos (même si je pense qu’on a pas encore exploré tout l’intérêt de la chose à ce niveau et que le Vision Pro va peut-être aussi changer la donne ?)
@Yves SG
Ah, Tu penses que le monde android cherche encore à avoir Face ID ?
Eh bien non
@armandgz123
De ce que je lis sur le sujet :
- il n’est pas en natif et il faut même pas mal bidouiller pour l’installer, ce qui veut dire que la plupart des gens ne le feront pas :
https://androidayuda.com/fr/identifiant-de-visage-dans-android/
- le niveau de sécurité semble vraiment mauvais puisque qu’une simple photo permet de déverrouiller le téléphone.
En tout cas dans mon entourage, pas besoin de voir le téléphone pour savoir si c’est du matériel Apple ou pas : il y a ceux qui tapent encore un code sur leur téléphone… Et les autres 😉
@Yves SG
Plusieurs constructeurs ont atteint le niveau de sécurité de FaceID avec un système équivalent…
Comme Google ou huawei. Renseigne toi mieux…
Mais même après ça, ils l’ont abandonné pour un capteur d’empreinte sous l’écran.
C’est juste un choix 🤷🏻♂️
@armandgz123
« Plusieurs constructeurs ont atteint le niveau de sécurité de FaceID avec un système équivalent… Comme Google ou huawei. »
Ce n’est pas ce que je lis un peu partout sur le net (et ça serait même la raison de l’abandon par Google).
Mais bon, ce qu’on lit sur le net n’est pas forcément plus la vérité que ce qu’on lit dans les commentaires
Pendant ce temps la Apple dort avec HomeKit 👿
@R-APPLE-R
Tu aimerais un lave vaisselle Apple ? Une armoire Apple ?
L utilisation du LiDAR est ouverte , à chaque fois que quelqu un trouve une utilisation or scop d Apple, ça contribue à la valeur de l iPhone
@R-APPLE-R
Apple ne dort pas, seulement quand ils auront que le chose de concluant, on en étendra parler mais pas en même temps que le Vision Pro.
C’est parfait, en plus de tout savoir de notre vie, ils peuvent maintenant savoir comment sont nos intérieurs… 😓
@Lord-Midnight
C’est clair ! J’ai hâte de montrer mon intérieur et mes objets à Amazon et laisser cela dans un cloud quelque part.
Ou pas…
Tiens encore une idée qu’Apple n’a pas eue !..
Mouais je suis peut être un peu noeud noeud, mais je n’ai pas trouvé dans l’appli la fonction de scan avec le LiDAR.
L’appli de l’AppStore est en 1.7.13 et date de la semaine dernière, donc peut être pas encore à jour…
Ce LiDAR pourrait sûrement faire plus qu’aider sur la partie photo ou guider l’aspirateur. Il manque d’autres types d’applications qui pourraient également en tirer profit. …aider les mal/non voyants à avoir une précision améliorée de l’environnement en temps réel 🤔?
@2ni
Tu es sérieux ?
Je suis paysagiste, et travaille donc des endroits complexes (le jardin).
En 25 ans de boîte, les clients les plus casse-c… sont les aveugles, ils voient tout réellement mieux que les voyants.
Et c’est pas une blague.
Tout les négatifs ici à propos de rien, ça en ait à mourrir de rire lol
Bon hé bien malgré tous ces commentaires sur le Lidar, mon 13 Pro Max en a un , et l'app ne propose pas d'utiliser le tél pour scanner la pièce. Je ne vois pas comment le faire. J'ai bien cherché pourtant.
Ça existe depuis longtemps avec jeedom.
Savez vous dans quelle mesure le Lidar est utilisé sur les iphones pro pour avoir une carte des profondeurs ? La qualité de la depth map qu’on peut récupérer avec les iphones pro est incroyablement bonne, mais il semblerait que ce soit principalement l’analyse video (stereoscopique) qui soit utilisée. Quand il n’y a plus de lumière, ca utilise plus que le lidar et la resolution de la depth map devient alors tres faible. A l’inverse, quand on cache le lidar, la qualité de la carte de profondeur reste tout aussi précise. Je me demande du coup si le lidar n’est pas uniquement utilisé quand il n’y a pas de lumière ou pour avoir une distance quand il n’y a pas assez d´elements distinctifs (fearures) sur une zone de l’image. En gros c’est juste le plan B. Je n’ai pas trouvé d’article expliquant comment apple fait en detail et je suis toujours étonné de voir qu’on parle du lidar dès qu’on parle de scan 3d alors qu’il a l’air en fait d’être tres peu utilisé
J'ai vraiment du mal avec les réfrigérateurs à écran intégré...
Apple a développé Reality Composer qui utilise le LiDAR.
https://apps.apple.com/fr/app/reality-composer/id1462358802?l=fr-FR