L’ultra grand-angle des iPhone 11 pourra sauver une photo mal cadrée

Nicolas Furno |

C’était une rumeur, mais Apple n’en a pas parlé pendant son keynote de mardi et on pensait que la fonction avait tout simplement disparu. Il n’en est rien finalement et comme pressenti, les iPhone 11 bénéficieront d’une fonction de recadrage qui exploite les données de l’ultra grand-angle, en plus de l’appareil photo principal.

Pour rappel, tous les iPhone 11 disposent d’un ultra grand-angle (0,5x) en plus de leur caméra principale, un « simple » grand angle (1x). L’Appareil photo d’iOS 13 a été modifié pour signaler cet ajout : quand vous prenez une photo avec le grand angle en mode 1x, vous verrez sur les côtés ce que l’ultra grand-angle capte. De quoi réaliser qu’il manque quelqu’un sur une photo de groupe et basculer en mode 0,5x pour inclure tout le monde.

L’app Appareil photo affiche sur les côtés ce qui est capté par l’ultra grand-angle quand vous prenez une photo avec le grand-angle (image Macworld).

Cette aide est précieuse, mais si vous ne vous rendez pas compte qu’il manque cette personne au moment de prendre la photo, c’est trop tard. Sauf si vous avez activé une option supplémentaire d’iOS 13, qui permet de prendre systématiquement deux photos : une avec le grand-angle classique et une deuxième avec l’ultra grand-angle.

Comme l’indique Jason Snell pour Macworld, cette petite option dans les réglages de l’appareil photo permet de garder une roue de secours pour toutes vos images. Les deux images prises à un angle différent sont conservées pendant quelque temps — on ne sait pas combien exactement — et si vous n’en faites rien, l’app Photos finira par jeter l’image ultra grand-angle pour ne pas encombrer votre espace de stockage sans raison.

Mais si, après avoir pris la photo, vous désirez la recadrer, iOS 13 vous permettra de l’agrandir pour rattraper le coup. L’interface décrite par le journaliste est aussi simple et évidente qu’on pouvait l’imaginer : lors du recadrage, l’app Photos signale l’image plus grande autour de celle que vous avez prise en l’affichant en grisé. Vous pourrez alors glisser les barres blanches vers l’extérieur pour augmenter la taille de l’image et réintégrer ce qui manquait.

Les photos prises avec le grand-angle standard qui bénéficient aussi d’une version ultra grand-angle sont signalées par cette nouvelle icône dans l’app Photos (image Macworld).

Une fois activée, cette option permettra de rattraper le coup pour les photos, mais aussi pour les vidéos. Dans ce cas, les iPhone 11 enregistreront deux flux vidéo de même qualité en même temps, une prouesse assez incroyable qu’Apple avait dévoilée pendant le keynote au sujet d’une app tierce1. On ne savait pas que l’Appareil photo de base pouvait aussi le faire, et que le recadrage des vidéos dans l’app Photos permettra aussi d’agrandir le cadre.

C’est en tout cas une façon très intelligente d’exploiter cette nouvelle caméra ultra grand-angle, même si vous ne l’utilisez pas directement vous-même dans l’appareil photo. Et cette fonction explique probablement pourquoi Apple n’a pas opté pour un téléobjectif avec un niveau de zoom plus élevé sur ses nouveaux iPhone.


  1. L’excellente Filmic Pro pourra filmer avec les quatre caméras (celle à l’avant aussi) des iPhone 11 Pro en même temps, et le créateur de la vidéo pourra choisir pendant le montage quel angle il veut conserver.  ↩

avatar mimicessa | 

Ce double enregistrement vidéo est pour moi la meilleure nouvelle fonctionnalité de ces nouveaux iPhone. C’est juste incroyable les possibilités que cela ouvre.

avatar Sgt. Pepper | 

@mimicessa

Quatruple sur le PRO, c’est dingue 🤩

avatar Levrai | 

Tellement génial que les 64 go de base seront rempli en moins de 2 minutes !Bref une fonction que personne va utilisé..

avatar Mathieu_rc | 

@Levrai

Sauriez vous est la différence de taille entre les photos avec et sans l’option ? Ça m’intéresse

avatar Riki | 

@Levrai

J’ai un 64go sur mon X vs 128 sur mon 7. Tout dans iCloud. La qualité orignale est dispo à volonté si besoin. Mordue de photo , je suis parti faire un safari et il est pas full.

avatar artik | 

@Levrai

Il te suffit de prendre le 512 ;)

avatar ET80 | 

@Levrai

J’ai bien fait d’opter pour un 128go ;)

avatar Levrai | 

Et tu crois que ça va être suffisant ? 128 miserable go?

avatar ET80 | 

@Levrai
Misérables ? Il y a encore 6 ans je pense, c’était le haut de gamme
Aujourd’hui je rempli à peine 30go mais je pense que mes usages vont augmenter avec le temps

avatar fte | 

@Levrai

"Bref un fonction que personne va utilisé.."

Si, bien sûr. Jusqu’à ce que les 64 GB soient pleins.

Et tu oublies que tout le monde n’est pas amateur, pauvre et ringard, il y a les gens blindés de thune qui opterons naturellement pour un vrai téléphone « pro », avec du stockage, du vrai, du sérieux, du « pro ».

Oh. Et on peut utiliser des clés USB maintenant. (Si on a une prise électrique à disposition.)

avatar victoireviclaux | 

@Levrai

Les gens qui auront un besoin spécifique achèterons la version au dessus (256 Go ou plus)... Fin du débat.

avatar jean512 | 

Tu n'es pas au courant qu'il y a 256Go et 512Go, sérieux ???

avatar shaba | 

@Sgt. Pepper

Mais où as-tu vu ça ?? Je n’ai vu que deux enregistrements simultanés pendant le Keynote :(

avatar Sgt. Pepper | 

@shaba

Regardes de nouveau, notamment la démo filmic pro

avatar gwen | 

@Sgt. Pepper

Justement sur la démo tu as la previsualisation des 4 flux et l’enregistrement de seulement 2 flux. Mais cela ne veut pas dire que l’enregistrement des 4 est impossible.

avatar Sgt. Pepper | 

@gwen

Oui , exact. Merci 😊
Quand même extraordinaire de pourvoir visualiser les 4 caméras en même temps, et d’enregistrer 2 d’entre elles en Live 🤩🤩

On verra ensuite si c’est une limitation soft ou hard ...

avatar gwen | 

@Sgt. Pepper

C’est la fonction qui m’a le plus bluffé lors de cette Keynote. J’ai moi aussi hâte de savoir si on peut enregistrer quatre flux vidéo. Tu on peut en enregistrer que deux c’est déjà énorme.

avatar stefhan | 

@mimicessa

Clairement ! Rien que ça pourrait me faire sérieusement réfléchir à faire définitivement une croix sur le format normal d’un phone pour bénéficier des fonctions de cette phablette. Je me tâte...

avatar Sgt. Pepper | 

Je préfère LARGEMENT un grand angle plutôt qu’un téléobjectif optique x2.
Bon choix:
On voit bien ici les possibilités que cela offrent.

avatar Ios_What a joke | 

Mouai... le cadre et la distance perçue des objets sera modifiée entre les deux photos. Ce que l’on aura cadré au centre paraîtra beaucoup plus éloigné en passant au grand angle et ce qui sera rajouté (les extrémités) souffriront de la distorsion des grands angles (étirement aux extrémités, entassement au centre).

Le plus astucieux reste toujours d’utiliser la bonne focale dès le début avec le bon cadrage.

avatar artik | 

@Ios_What a joke

Ah on vient de tomber sur un expert de la photo qui a déjà eu l’iPhone entre les mais, merci pour ton analyse

avatar Moumou92 | 

@artik

A moins qu’apple réussisse à mettre les 2 optique au même endroit (ce qui n’est physiquement pas possible, naturellement et on voit bien que les 3 optiques sont à des endroits différents), il y aura bien un décalage de la perspective entre les 2 photos (elles ne seront pas superposables...).

avatar artik | 

@Moumou92

Attendons de tester, il y a aussi le traitement numérique qui peut le corriger, d’après les vidéos de présentation, il y possible lorsque l’on film de passer d’un capteur à l’autre en restant fluide, ce qui n’est pas le cas aujourd’hui avec l’iPhone Xs

avatar Ios_What a joke | 

@Moumou92

Sans parler de la distorsion inhérente à la longueur focale d’où la différence de perception des objets de la scène. Mais bon on est tombé sur un énergumène qui doute de la véracité de principe de base de physique car on n’a pas encore testé le produit.
Si Apple avait de simple connaissance en optique et capteur, il ne se fournirait pas chez Sony ou des équipementiers d’optiques.

avatar Moumou92 | 

@Ios_What a joke

Tout a fait d’accord... croire dur comme faire qu’un algorithme est magique, c’est n’avoir jamais codé soit même et ne pas comprendre grand chose à la physique... le traitement c’est bien, mais si vous aviez fait un peu d’études scientifiques vous auriez appris que l’on gagne toujours à partir d’un signal propre et que les traitements du signal ne sont pas miraculeux (théorie de l’entropie de l’information: un traitement ne fait que supprimer de l’information, il ne peut en aucun cas en créer...).

avatar artik | 

@Ios_What a joke

Tous les smartphone ont des traitements numériques, si l’on parle d’optique pure, penses tu que la taille d’un capteur de smarphone puisse faire des photos en pleine nuit avec peu de bruit (pixel, P20 pro et maintenant l’iPhone 11), idem pour de la stabilisation optique qui est toujours corriger aussi numériquement, idem pour le bokeh.

Il y a effectivement des règles optique, mais le traitement numérique est la pour corriger et améliorer le rendu final même si parfois le résultat reste à désirer.

Attendons les premiers tests et on suite on reparlera de tes affirmations.

avatar marenostrum | 

ils ont de stabilisation optique et puis un smartphone est un appareil comme les autres en plus petit. c'est les autres appareils dites professionnels qui sont peut-être surdimensionné par rapport à leurs taches.

avatar Ios_What a joke | 

@artik

Cf la réponse à Fte

avatar Trillot | 

@Ios_What a joke

Avez-vous déjà utilisé une application comme Autopano?

avatar Ios_What a joke | 

@Trillot

Non mais j’utilise Photoshop pour faire des panomaras de plusieurs prise de vue à longueur focale constante (souvent des shots en portrait avec facilement 30 à 40% d’overlapse pour avoir un résultat très bon). Quel est le but de la question?

avatar fte | 

@artik

"Tous les smartphone ont des traitements numériques"

Tous les appareils photo numériques ont des traitements numériques.

Les appareils photo argentiques avaient des traitements chimiques.

avatar Guizilla | 

@Ios_What a joke

C’est tellement absurde ce que vous dites. Apple ne fabrique pas ses capteurs, cela ne veut pas dire qu’il n’ont aucune connaissance dans l’optique, je ne comprends pas comment vous pouvez sérieusement penser ça

Le traitement logiciel peut compenser qualitativement 80% minimum des problèmes inhérents au positionnement des capteurs ou à la longueur focale...

avatar Ios_What a joke | 

@Guizilla

Cf la réponse à fte.

avatar gwen | 

@Guizilla

Apple ne sait apparement pas corriger ça puisque sur la présentation de l’iPhone 11 pro, les 3 images du paysage en noir et blanc censés montrer les différentes options de cadrage avec les trois objectifs ne se superposent pas à 100%. Ce qui est de la physique pure.

Par contre, on va pouvoir faire des images 3D avec ce système. Il faut juste attendre qu’un développeur conçoive ça.

avatar fte | 

@Moumou92

"A moins qu’apple réussisse à mettre les 2 optique au même endroit (ce qui n’est physiquement pas possible, naturellement et on voit bien que les 3 optiques sont à des endroits différents), il y aura bien un décalage de la perspective entre les 2 photos (elles ne seront pas superposables...)."

C’est possible, avec des miroirs semi-transparents et des optiques étagées.

Dans ce cas, les optiques sont si proches que l’écart ne sera perceptible que pour les objets proches, ou en comptant les pixels.

Ce n’est enfin pas un écart de perspective (la taille relative des objets ne change pas), mais un parallaxe (la position relative change). Certains diront que perspective englobe parallaxe, soit, mais photos pas pareilles englobe aussi parallaxe.

C’est d’ailleurs très certainement la raison de cette disposition en bloc plutôt qu’en ligne, garder la distance entre optiques au plus court, quitte à sacrifier l’esthétique. Et tant qu’à faire, à en faire une sorte d’enfilage marketing pour faire croire que c’est en fait super joli, comme l’encoche. C’est pro ma pauvre Lucette, et c’est à ça que ressemble le pro.

Tu nous a déjà démontré que la photo n’était pas ton centre d’intérêt, mais je commence à croire que tu ne t’y connais pas vraiment non plus en technique photo, en optique en tout cas on n’y est pas. Tu nous sors des poncifs à longueur de fils, je me demande bien pourquoi.

avatar Moumou92 | 

@fte

"Tu nous a déjà démontré que la photo n’était pas ton centre d’intérêt"

Et bien j’en parlerai à mes clients... ils seront ravis de savoir que leur photographe n’aime pas la photo...

avatar fte | 

@Moumou92

"Et bien j’en parlerai à mes clients... ils seront ravis de savoir que leur photographe n’aime pas la photo..."

Je n’ai pas dit que tu n’aimais pas la photo. Je dis par contre que ta photographie n’est pas La Photographie.

Prendre les gens de haut parce qu’ils ne tirent pas leurs photos sur papier d’art avec des encres pigmentées en A3 et avancer que ce n’est pas de la photo, voyons, n’est pas la meilleure preuve que tu as compris ce qu’est la photographie.

avatar artik | 

@Moumou92

Tu aimes peut être la photo mais la technique c’est pas ton truc, par contre ça ne le dit surtout pas à tes clients, tu risques de les perdre ;)

avatar ValeRoss46 | 

@Moumou92

Je pense qu'il voulait dire que t'aime pas la photo sur iPhone.
Dès qu'il y a un sujet là dessus t'arrête pas de rabâcher que les iPhone sont inutiles et pourries en photos.

avatar Ios_What a joke | 

@artik

Juste un constat de base basé sur la propriété physique et inhérente de l’optique.
Encore une personne qui croit Apple au dessus des lois de la physique.
Si le cadre de l’image et la perspective du moyen angle est conservé, c’est qu’il y a traitement logiciel pour venir assembler ce que le grand angle voit en plus et donc traitement logiciel de correction de perspective, taille. Vu ce que le software n’est pas capable de faire bien actuellement, un simple flou de background logiciel (cf iPhone X et Xs), je doute de cet option. ça n’a pas l’air d’être le cas d’après l’article, il semblerait que c’est juste l’enregistrement des deux clichés des deux objectifs. Similaire au Live Photo un peu.
Bref, tout ça pour dire que si les personnes cadrent à l’objectif « normal » en espérant garder la même perspective avec plus de plan en utilisant l’option présentée dans l’article, il y aura certains déçus, même si l’option plaira à certains.

Tu n’es pas obligé de te sentir agressé sur un simple rappel de physique qui limite les possibilités du guru Apple. Tout va bien.

avatar sebas_ | 

@Ios_What a joke

La propriété physique veut aussi que ça soit impossible d’avoir du « bokeh » avec un si petit capteur. La propriété physique veut que ça soit pas possible d’avoir des photos aussi peu bruitées et illuminées en basse luminosité. La propriété physique veut que ça soit impossible de fusionner deux photos prises avec des focales (déformation) non alignées (parallaxe)... évidement, si on regarde ça à 200% sur CaptureOne ça ne va pas le faire. Mais pour partager la photo de son gamin à là grand mère, c’est nickel. J’ai des connaissances en optique, je sais de quoi je parle qd je parle photo et je bosse dans ´IT. Sur ce point, j’ai la confiance en Apple pour que ça convienne à tata ginette.

avatar fte | 

@sebas_

"La propriété physique veut que ça soit impossible de fusionner deux photos prises avec des focales (déformation) non alignées (parallaxe)..."

La parallaxe permet de déterminer la distance (le cerveau détermine la distance de cette façon entre autres, et les tailles relatives d’objets connus, ainsi que les ombres, mais d’abord la parallaxe entre les yeux). La distance connue permet de corriger la parallaxe au niveau du pixel et de calculer un flou à appliquer. Une analyse intelligente permet de créer des effets intelligents, dont un bokeh. Et pour déterminer les distances, c’est mieux d’avoir des photos nettes au pixel. Et ça permet de faire des fusions numériques.

De ce point de vue, les grands capteurs limitent les possibilités d’analyse des scènes.

Mais dans ce cas précis, je pense que la proximité des optiques est insuffisante pour un calcul de distance précis, et la parallaxe trop faible pour être gênante dans la plupart des cas. D’où le capteur de temps de vol supposé des Pixels 4.

Un effet de flou lié à une optique n’est pas plus « fidèle » qu’un effet de flou numérique. C’est juste plus traditionnel.

avatar iValFR | 

@artik

Principe de base pour les optiques en photographie !
Il faut attendre de voir les tests effectivement mais l’analyse est correcte

avatar fte | 

@Ios_What a joke

"Mouai... le cadre et la distance perçue des objets sera modifiée entre les deux photos. Ce que l’on aura cadré au centre paraîtra beaucoup plus éloigné en passant au grand angle et ce qui sera rajouté (les extrémités) souffriront de la distorsion des grands angles (étirement aux extrémités, entassement au centre)."

La perspective ne change pas avec la focale. La perspective change avec le point de vue.

La distorsion se corrige automatiquement avec un logiciel convenable. Peut-être même qu’Apple le fera, qui sait, maintenant que leurs iPhone sont « pro ».

Tu ne t’es jamais intéressé à la technique photo, avoue !

avatar Ios_What a joke | 

@fte

La perception des objets est changée que tu le veuilles ou non. Tu peux le voir rien qu’avec l’exemple de l’arbre dans la Keynote d’Apple. Photo prise à la même position dans la même direction. Tout ça pour en revenir au fait que ce que les sujets cadrés au centre de l’image avec l’angle « normale » apparaîtra plus éloigné dans le grand angle. Un simple crop dans le grand angle le montrerait.

Oui la distorsion optique de Barell se corrige logiciellement mais ce n’est pas dont il est question ici. ça ne changera rien à la distorsion de perspective induite par le grand angle ou par tout autre longueur focale.

avatar fte | 

@Ios_What a joke

"Un simple crop dans le grand angle le montrerait."

Non.

Un crop dans une photo grand-angle donne exactement ce que verrait un téléobjectif depuis le même point de vue.

Il y a une légère parallaxe du fait de l’écartement des optiques, mais insignifiante à cette distance de l’arbre.

avatar Ios_What a joke | 

@fte

Ok la perspective au sens propre ne change pas car elle est définie par la distance entre la caméra et le sujet et l’élévation de la caméra par rapport au sujet et non par l’objectif. My bad, je ne voulais pas parler de perspective mais de perception. Ok, la perspective au sens propre du terme est inchangée. Mais la perception du sujet et de son entourage change, le résultat ne sera pas le même! Le champ/angle de vue diminue en augmentant la longueur focale donc en donnant la même taille au sujet sur les deux photos, sur le plus grand angle, le fond paraîtra plus éloigné alors que sur le moins grand angle, le fond paraîtra plus rapproché du sujet et on verra moins de fond car l’angle de vue a diminué aussi.

Un exemple pour illustrer les propos même si je pense que tu connais déjà tout cela et que tu veux que je reconnaisse que j’ai utilisé perspective au lieu de perception par erreur.

http://learnmyshot.com/telephoto-lens-perspective-compression-and-the-an...

avatar fte | 

@Ios_What a joke

"Mais la perception du sujet et de son entourage change, le résultat ne sera pas le même!"

Ah. Tu es en train de me dire que des photos cadrées différemment sont différentes ? Genre un zoom ne donne pas la même photo quand on change la focale ?

Merci capitaine obvious.

avatar Ios_What a joke | 

@fte

Bah c’est ce que je disais dans le premier message. Que la photo ne serait pas la même cadre, profondeur de champ. Et tu m’as pondu ton pavé. Bref, si t’avais rien dire, tu aurais dû t’abstenir.

avatar fte | 

@Ios_What a joke

"Que la photo ne serait pas la même cadre, profondeur de champ.”

Non non, tu disais un tas de trucs avec des lois de physique machin tout ça. Avec une profondeur de champ très courte (aka beaucoup de flou).

“Et tu m’as pondu ton pavé. Bref, si t’avais rien dire, tu aurais dû t’abstenir."

J’avais plein de trucs à dire, d’où le pavé.

Pages

CONNEXION UTILISATEUR