Le mode portrait s’améliore avec iOS 11

Nicolas Furno |

Parmi les nombreuses nouveautés d’iOS 11, Apple ouvre aux développeurs les données de distance captées par les deux appareils photos de l’iPhone 7 Plus. Avec iOS 10, cette information servait uniquement pour le mode portrait, cet effet de profondeur qui floute l’arrière-plan pour mettre en valeur un sujet.

Désormais, les informations fournies par les capteurs seront accessibles par tous les développeurs qui le souhaitent. Ce qui veut dire qu’une app tierce pourra reproduire l’effet intégré par Apple dans l’appareil photo d’iOS. Mais cela devrait permettre aussi de nouveaux usages qui restent à inventer.

En attendant, iOS 11 offre au passage un petit peu plus de souplesse aux photos prises en utilisant le mode portrait. L’information sur les distances calculées, et donc les différents plans dans le cadre, est désormais enregistrée directement dans le fichier. C’est l’une des nombreuses options offertes par HEIF, le nouveau format d’image utilisé par Apple (lire : HEIF : comment Apple abandonne JPEG).

De ce fait, l’effet de profondeur d’iOS 11 n’est plus destructeur comme il l’était avec iOS 10. Concrètement, cela veut dire qu’il est possible de revenir en arrière a posteriori et de désactiver l’effet de flou sur l’arrière-plan à tout moment. Lors de l’édition d’une image, un bouton « Profondeur » est affiché en haut de l’écran et vous pourrez le toucher pour (dés)activer l’effet à l’envie. Cette option est aussi proposée sur l’iPad avec iOS 11 et même sur Mac, avec High Sierra.

Avec iOS 11, l’effet de profondeur peut être désactivé après coup en modifiant la photo. En haut, le bouton « Profondeur » permet de tester les deux variantes et de choisir en fonction de ses envies et du sujet. Cliquer pour agrandir

Conséquence logique de ce changement, Apple ne duplique plus les images prises avec le mode portrait. Avec iOS 10, on obtenait par défaut deux images : une normale, et une avec l’effet de profondeur. Il fallait ensuite nettoyer ses photos en fonction du résultat et supprimer l’une ou l’autre, ou alors choisir de ne garder que le mode portrait, avec le risque d’avoir des photos ratées. Cette option a été retirée et la solution d’iOS 11 est bien supérieure.

Au passage, l’effet de profondeur a été amélioré avec iOS 11 d’après Apple. Ce mode portrait n’est plus en bêta, mais pour le reste, il est parfois difficile d’en juger sans avoir deux iPhone 7 pour prendre les mêmes photos avec les deux versions du système. Voici quelques exemples réalisés avec iOS 11 pour vous donner une idée du résultat à attendre.

Cliquer pour agrandir
Cliquer pour agrandir

La détection des bords pose toujours parfois problème, mais c’est un petit peu mieux. Malgré tout, il est facile de « tromper » l’effet : il manque des feuilles sur la photo avec la maison en arrière-plan et le haut du mât du bateau a été largement effacé. Le découpage des poils de chats manque aussi encore de finesse.

Cliquer pour agrandir
Cliquer pour agrandir

Comme avant, le résultat est bien meilleur quand les conditions lumineuses sont bonnes. Sur cette autre photo végétale, le soleil sur les feuilles améliore considérablement le rendu de l’effet. Néanmoins, le grain toujours bien présent quand les conditions lumineuses se détériorent semble mieux maîtrisé. Sur la deuxième photo prise en intérieur, l’arrière-plan est moins grossier que par le passé.

Cliquer pour agrandir
Cliquer pour agrandir

avatar ArchiArchibald | 

N’oublions jamais qu’il s’agit d’un mode PORTRAIT donc optimisé pour un sujet humain. Tout le reste n’est que détournement, et donc peut manquer de précision : Apple n’a jamais promis autre chose.

avatar r e m y | 

@ArchiArchibald

Remplace les poils de chat par des poils de barbe ou des cheveux hirsutes et ton excuse ne tient plus...

avatar 12mpxl | 

En effet et donc toutes les photos montrées ici ne sont pas de bons exemples...

avatar SebKyz | 

Je l'utilise pour faire des photos de famille. L'effet est vraiment sympathique mais attention il faut respecter quelques règles comme dit dans l'article : il faut de bonnes conditions de luminosité et que le sujet ne bouge pas trop.
Beaucoup de latence entre 2 photos aussi.
Mais bon, je les imprimés même avec FreePrints et l'effet est là, j'en suis satisfait.

avatar Feflefoo | 

J'espère que ces avancées technologiques contribueront à la mise en ligne de PLUS de photos de chats. Ils sont trop mignons. Peut-être moins qu'un chiot mouillé mais, hé ! c'est une histoire de goût.

avatar daxr1der | 

L’AR Kit de l’iphone 8

https://youtu.be/z7DYC_zbZCM

avatar Mrleblanc101 | 

@daxr1der

C’est une app de démo fait avec un iPhone 7...

avatar daxr1der | 

Achetez un hybrid avec un caillou à 1.8 voir 1.4

avatar ZorakZoran | 

@daxr1der

Ben voyons. J'ai un A7 et plusieurs objectifs de qualité, mais c'est un budget. Et même un A6000 avec un 35 1.8 ça reste pas donné.

avatar toketapouet | 

@ZorakZoran

"Et même un A6000 avec un 35 1.8 ça reste pas donné."

Suffit de ne pas aller chez ces voleurs de Sony.

N'importe quel reflex entrée de gamme d'occase fait un zillion de fois mieux, et le 50/1.8 se trouve à 70 balles sans difficultés.

Au total, ça fait moins de la moitié d'un iPhone 7plus.

Mais ça ne tient pas dans la poche, c'est certain. J'utilise mon 5D mk2 pour la vraie photo, et le 7 plus pour le tout venant. Excellent mélange je trouve.

avatar oomu | 

alors non, j'ai mesuré, et non la concurrence ne fait pas UN Zillion de fois mieux que sony.

A pris égal, la concurrence fait en général 1,236 fois mieux que Sony.

Mais Sony est intéressant pour la qualité générale de ses produits. On ne trouve pas de reflex d'entrée de gamme qui font mieux (et surtout un zillion de fois mieux, c'est beaucoup un zillion, c'est + qu'un trillion mais moins qu'un gazillion) que les modèles de sony tel le A6000.

-
quand aux "difficultés", c'est bien relatif.

avatar Chris K | 

Ou simplement passer un peu de temps pour appendre à faire correctement des photos :-)

avatar pistache18 | 

@Chris K

Oui L'effet de profondeur de champ réduit nécessite du matériel tout de même

avatar Chris K | 

@pistache18 : Justement, quitte à acheter du matériel, autant savoir s'en servir :-) Sentiment que le flou qu'on présente ici est plus vu comme un cache misère qu'autre chose alors (sans doute très bien pour flouter tonton René qui fait le con à arrière plan). Il y a mille et une façon d'isoler un sujet sans avoir recours au flou.

avatar oomu | 

non non, le flou ici est censé être juste un moyen rapide et cool de créer un effet bokeh sur un portrait d'une PERSONNE (et pas d'une plante, chien, ou sculpture aux angles non euclidien).

Ni plus, ni moins.

Et Apple ne l'a pas présenté autrement (à part que c'était amaAAAAzing de faire ça avec un tout pitit iphone)

avatar pistache18 | 

Savez-vous si l'option "mode portrait" sera accessible sur l'iPhone 8 ? Il y a-t-il une rumeur dans ce sens ?

avatar SebKyz | 

@pistache18

C'est plutôt logique la réponse est oui.
Enfin logique selon les croquis qui montrent 2 apn au dos.
Et en même temps ça fait partie des features hdg

avatar kitetrip | 

Je ne comprends pas pourquoi on se force à utiliser le logiciel pour gérér un bokeh.
Un bokeh de Nokia 808 (allez chercher sur Flickr, vous serez surpris...) est indiscutablement plus naturel grâce à un unique capteur 1/1.2 pouce...
Le double capteur est juste marketing...

avatar Toinewh | 

HEIF et HDR : on est aussi sur du non destructif dans iOS 11 ??

avatar Nicolas Furno | 

@Toinewh

Très bonne question, mais non, bizarrement on a toujours deux photos séparées ou que la version HDR selon l’option choisie.

avatar coolhead | 

iOS 11, ok, mais est tjrs pour iPhone 7 minimum ? Le SE ne sera jamais concerné ?
Merci

avatar Nicolas Furno | 

@coolhead

iPhone 7 Plus même. C’est une question de matériel : il faut deux appareils photos au dos.

avatar DamiienB | 

@nicolasf

C’est n’importe quoi ce que tu dis.
Étant donné que l’effet peut-être activer et désactivé à souhait, c’est une question logicielle et non Hardware.

avatar SebKyz | 

@DamiienB

Nan les 2 objectifs jouent un rôle dans l'effet Bokeh. Après tu px choisir de le garder ou pas.
Regarde sur le net tu verras comment ça marche.

avatar oomu | 

ben vi, ce sont des vibrisses, l'algorithme n'est pas adapté aux vibrisses mais au poils humains, cela n'a rien à voireuuuh.

plus sérieusement, vous ne pouvez pas demander des miracles à un minuscule objectif et un algorithme.

avatar toketapouet | 

@oomu

"plus sérieusement, vous ne pouvez pas demander des miracles à un minuscule objectif et un algorithme."

+1

Je suis ravi d'avoir mon 7 plus dans la poche en permanence comme je suis ravi d'avoir ma gopro quand je croise une tortue. Le résultat n'a strictement rien à voir avec mon 5D mk2 mais je ne l'ai pas dans la poche de short et il n'est pas étanche.

avatar oomu | 

avis personnel encore une fois, j'adore tous les appareils avec leurs différences et similitudes.

Le reflex avec son boitier ultra-performant et ses objectifs aux petits oignons selon les besoins, l'iphone et tout ce qu'il permet en étant léger, toujours sur soi et connecté, le petit hybride à mi chemin entre les deux etc.

Le meilleur appareil est celui qu'on a sur soi (donc souvent un iphone) mais je ne vois en réalité aucune opposition entre les appareils, uniquement une myriade d'outils pour atteindre son but: mettre en oeuvre la vision qu'on a.

-
ma vision est la même concernant l'algorithme : ils sont des outils. Ils ne peuvent pas tout faire (ils ne sont pas magiques) mais ce qu'ils font est déjà très utile.

CONNEXION UTILISATEUR