Le mode Portrait arrivera-t-il sur l'iPad Pro 2020 ?

Mickaël Bazoge |

À l'heure où le nouvel iPhone SE est capable de réaliser des images en mode Portrait avec son unique appareil photo (c'est même un des principaux arguments de vente d'Apple), il est tout de même bien malheureux que l'iPad Pro 2020 ne puisse réaliser une prouesse similaire. Et pourtant, la tablette embarque non seulement un ultra grand-angle absent du smartphone, mais aussi un capteur LiDAR !

Sebastiaan de With, un des développeurs de l'app photo Halide, va doucher quelques espoirs. Il n'est absolument pas certain que le LiDAR de l'iPad Pro soit la garantie que la tablette accueillera un mode Portrait. Pourtant, le boulot de ce capteur est d'évaluer la profondeur (il mesure la distance entre la tablette et un objet situé à moins de 5 mètres).

À l'instar du TrueDepth de l'iPhone (aussi présent sur l'iPad Pro), le LiDAR de la tablette projette un nuage de points lumineux… mais il se trouve que les mailles de ce filet invisible à l'œil nu sont beaucoup plus espacées avec le LiDAR qu'avec Face ID. iFixit l'avait constaté lors du démontage de l'iPad Pro :

Si le nuage de points de Face ID est si dense, c'est qu'il doit mesurer précisément la « profondeur » du visage, des informations nécessaires à la fonction de déverrouillage de l'appareil. Le LiDAR se destine lui à la numérisation des pièces de la maison. Cela ne le qualifie pas nécessairement pour la réalisation de photos en mode Portrait.

Certes, rien n'empêcherait Apple d'exploiter les informations de profondeur du LiDAR pour mettre au point un mode Portrait sur l'iPad Pro. Mais Sebastiaan de With pense que le constructeur utilisera plutôt une bonne dose de machine learning, comme c'est le cas sur l'iPhone XR : les données de profondeur obtenues par le capteur photo du smartphone sont limitées, mais avec le réseau neuronal qui va bien, il est possible d'accomplir bien des miracles (au passage, on verra ce qu'il en sera avec l'iPhone SE).

D'après notre test de performances du Neural Engine, l'A12Z est plus performant que l'A12 de l'iPhone XR. L'espoir reste donc de mise… Pour obtenir les données suffisantes pour le mode Portrait, Apple pourrait s'appuyer sur les deux capteurs photo de l'iPad Pro plutôt que sur son LiDAR.

Le capteur, que l'on pourrait retrouver sur l'iPhone 12, ouvre des perspectives qui ne sont pas nécessairement liées à la photographie. Jeu vidéo, architecture, ameublement, industrie… C'est aux développeurs d'imaginer de nouveaux usages. Apple fournit avec ARKit 3.5 les outils nécessaires pour tirer avantage du LiDAR, mais uniquement les surfaces 3D, pas les informations de profondeur déplore le développeur.

Le capteur est bien équipé pour scanner un meuble, comme le montre l'app Esper, développée spécialement à cette occasion par l'équipe d'Halide :

Mais il ne faut pas regarder de trop près. Les informations demeurent insuffisantes pour scanner des objets pour les imprimer en 3D. Cela reste malgré tout un bon point de départ pour créer des modèles en trois dimensions, les proportions étant elles très précises.

Pour aller plus loin :
avatar Darksnake6 | 

Quelqu'un attend vraiment cette fonction d'une tablette ? Vraie question, n'y voyez aucune ironie.

avatar Isla | 

Faut déjà commencer par déplacer la caméra avant. Marre de faire des visio où les interlocuteurs ont l’impression de regarder à côté.
Je pense que la majorité des gens utilisent leur iPad en paysage.

avatar Arf1 | 

@Isla

J’ai découvert cette hérésie grâce au confinement, c’est totalement absurde haha
Au moins un recalage logiciel dans FaceTime serait bien venu...

avatar lll | 

Mais oui ! Comment Apple peut-elle garder une telle bizarrerie alors qu'elle cherche justement à nous faire utiliser la tablette à l'horizontale ?

avatar xandros | 

@Isla

Je suis tout à fait d’accord, j’utilise mon iPad en portrait uniquement pour lire des documents (et c’est très rare). Lorsque l’on se sert de Face ID avec les deux mains sur les bords de l’appareil, il faut forcément en enlever une, c’est très agaçant. Je n’ai pas fait beaucoup de visio avec mais j’imagine que ça doit être pénible aussi.

avatar Moebius13 | 

@Isla

Non, je n'utilise mon pro qu'en mode portrait, je déteste le mettre en mode paysage.

Et ce depuis le tout premier iPad, donc ne faites pas de généralités s'il vous plaît.

avatar RomanYeager | 

Le mode portrait était dispo déjà sur l’iPhone X avec seulement 2 capteurs. L’iPad Pro 2020 est mieux équipé, il n’y a pas de question LIDAR ou de processeur ce n’est pas développé parce que pas intéressant sur cet appareil.

avatar Malouin | 

@RomanYeager

+ 10

avatar Mickaël Bazoge | 
Ce n'est pas parce que toi ça t'intéresse pas que ça n'intéresse personne… Sinon pourquoi Apple s'embête avec un ultra grand angle ? La photo avec iPad c'est 👍 !
avatar RomanYeager | 

@MickaëlBazoge

Je ne dis pas que ça ne m’intéresse pas. C’est jusque que l’iPad Pro 2020 a tout ce qu’il faut pour avoir un mode portrait dès sa sortie. Ce n’est qu’une question logiciel. Si ce n’est pas actif c’est qu’Apple n’a pas trouvé utile de le mettre. Sans doute grâce à des stats d’utilisation ou des sondages auprès de clients.
Après je pense que ça pourra avoir des utilités pour certain. Apple se concentre sur l’iPhone pour ses clients orienté photo sans doute.
Mais une simple mise à jour pourra suffire avec ou sans LIDAR ou alors ils veulent vraiment utiliser le LIDAR pour ce mode et c’est compliquer mais dans ce cas ils auraient pu l’activer d’office et se servir du LIDAR avec une mise à jour.

avatar pim | 

@RomanYeager

Effectivement, l’article mélange deux problèmes différents. C’est bien un choix de la part d’Apple et cela n’a aucun lien avec le Lidar.

avatar monsieurg33K | 

@pim

Totalement d’accord.

avatar GaelW-Mac | 

C’est qui est très con, c’est que j’imagine que le mode portrait fonctionne par contre avec le capteur en façade, comme sur le 2018, non ?

avatar Illanor | 

Je pense qu'Apple développe un mode portrait au p'tit oignons avec le LIDAR. Sachant que les futurs iPhones auront certainement ce capteur, pourquoi pas ? Quand les algo' seront validés, hop une p'tit MàJ sur iPad 2020...

avatar Libella | 

Depuis l’annonce de ce Lidar, j’ai du mal à comprendre les raisonnements qui en découlent :
- le fait que le Lidar ne permette pas à lui seul une fonction comme Portrait semblait évident (ou comme amélioration d’un processus logiciel, il serait très limité, ne permettant pas d’améliorer significativement les « problèmes de délimitations »), et ce depuis la première image en IR de son fonctionnement : maillage trop large pour des prises de vue style photographie où le capteur est statique (comme pour la fonction Portrait pour rester sur cet exemple) => limitation hardware
- maintenant qu’il est bien établi que son maillage soit « trop large », on semble en déduire qu’il ne peut pas scanner des objets 3D avec suffisamment de précision : mais dans ce cas de figure, le capteur n’est plus statique, le nombre de points projetés sur une même surface peut donc être virtuellement multiplié par captures successives, sinon cela signifie que l’on « oublierait » certaines positions de point dans l’espace => n’est-ce pas avant tout un problème logiciel plutôt qu’un problème hardware (de capacité mémoire, ou… ) ? N’est-il pas possible de combiner deux (ou plus) nuages de points projetés sous des angles différences ? N’est-ce pas ce que fait TrueDepth, lorsque l’on tourne la tête ou le téléphone pour enregistrer un modèle de notre face sous différents angles ? Mais c’est certainement là dessus que je me trompe...

CONNEXION UTILISATEUR