Apple a vu des films avant de créer le mode cinématique des iPhone 13

Nicolas Furno |

Quand Apple a créé les éclairages de portrait pour les iPhone 8, Phil Schiller expliquait en interview que les ingénieurs de Cupertino avaient analysé non seulement des photos, mais aussi des portraits peints pour créer la nouvelle fonction. Quatre ans plus tard, rebelote, mais cette fois pour le mode cinématique des iPhone 13 et avec le cinéma.

Édition d’une vidéo en mode cinématique (image TechCrunch).

Matthew Panzarino de TechCrunch a papoté avec Kaiann Drance, vice-présidente en charge du marketing iPhone, et avec Johnnie Manzari, l’un des designers en charge de l’interface chez Apple. Son interview revient sur la fonction, ses limites et aussi la création de ce mode. Comme toujours, l’entreprise tient à rappeler qu’elle n’a pas essayé de créer une fonction, elle a cherché une réponse à une question.

La question en l’occurrence concernait les films, les vrais, ceux que l’on peut voir au fond de son canapé ou au cinéma. Qu’est-ce qui les rend intemporels ? Qu’est-ce qui les distingue d’une vidéo tournée à l’iPhone ? Pour commencer, Apple a donc… vu beaucoup de films, et parlé avec des réalisateurs et techniciens dans le monde du cinéma. Une constante s’est dévoilée à travers les âges : la mise au point est un élément clé de la mise en scène.

L’élément net à l’image est un outil essentiel pour raconter une histoire, tandis que le flou autour de cet élément facilite la compréhension du film en guidant le spectateur. Fort de ce constat, les créateurs de la fonction se sont rendus sur des tournages pour comprendre à la fois les choix du directeur de la photographie — qui est responsable de l’image au sens large — et les gestes des opérateurs. Ils ont analysé comment le « pointeur », la personne chargée de tourner la bague de mise au point sur les caméras, travaille.

La caméra peut être gérée par deux personnes : l’une pour contrôler le cadre, l’autre pour manipuler la bague de mise au point (photo Wikimedia Commons).

Tout ce savoir a permis de collecter des informations sur les techniques de tournage, pour ensuite les convertir en fonctions accessibles pour le grand public. Sur un tournage, c’est un travail minutieux et complexe qui nécessite de coordonner plusieurs opérateurs et les acteurs, mais aussi de contrôler entièrement l’environnement. Sur un iPhone, cela doit être une fonction utilisable par n’importe qui, en tenant le smartphone et en le laissant travailler au maximum.

C’est pour cette raison que la mise au point évolue selon les regards des personnes filmées. La personne au premier plan est nette par défaut et l’arrière-plan est flou, mais si elle tourne la tête, le mode cinématique va tenter de deviner ce qu’elle va regarder, que ce soit une personne ou un objet, et faire la mise au point sur cet élément. C’est un classique au cinéma pour guider le regard du spectateur sur l’élément le plus important et tout est fait automatiquement par l’iPhone.

Autre idée, il faut anticiper l’entrée d’un personnage dans le cadre, pour coordonner le changement de mise au point au bon moment. Pour cela, les développeurs d’Apple ont eu une idée astucieuse : en mode vidéo, la stabilisation réduit le cadre pour garder de la marge, mais les capteurs sous les objectifs enregistrent davantage d’informations. Ces données sont utilisées par le mode cinématique pour anticiper la transition d’une mise au point à l’autre : l’iPhone « sait » qu’une personne va entrer dans le cadre avant qu’elle n’apparaisse à l’écran.

Ce savoir, combiné à la puce Apple A15 qui travaille dur pour afficher l’effet de flou en temps réel à l’écran tout en traitant les 30 images par seconde qui forment la vidéo finale, donne le mode cinématique. Qui est loin d’être parfait dans sa première version, comme Matthew Panzarino le relève et le prouve avec cet exemple tourné sans aucun accessoire lors d’un séjour à Disneyland.

La mise au point a plus de mal dans les environnements sombres et surtout l’édition a posteriori est vite indispensable pour corriger les erreurs en temps réel. Et puis l’effet de flou se trompe parfois, comme avec le mode portrait, en détourant n’importe comment les gens et objets.

Même sans aucun matériel supplémentaire, on peut aussi obtenir un résultat assez convaincant à condition de faire simple. Jonathan Morrison l’a prouvé avec ce clip réalisé entièrement en mode cinématique. La chanteuse se contente de marcher dans la rue et elle est la seule dans le cadre en permanence, ce qui simplifie le travail. Mais comme on peut le voir par intermittence, le youtubeur est seul devant elle et il tient l’iPhone à bout de bras, il n’a même pas de stabilisateur pour s’aider.

avatar YetOneOtherGit | 

@oomu

"Oui, la différence entre 30ips et 60ips se voit.
A un tel point que le futuroscope a plusieurs attractions sur le sujet depuis des décennies
que les gens sortent dans la rue quand on leur fout un Hobbit à seulement 48ips
que cela change la perception et sensation que l'on a des plans "traveling" dans des films d'action à la Die Hard (sans besoin d'être particulièrement rapide)
et sans parler qu'on peut le tester sur le moindre épisode de derrick avec l'interpolation des télés modernes (sans considération d'artefact dû aux algos)"

Tu mets en avant comme moi le fait qu’elle se voit sur des typologies de contenus spécifique, ce qui est évident.

La posture de notre camarade est d’affirmer qu’elle se voit systématiquement, qu’elle est incontournable et que des cadences d’images standard sont obsolètes et rare.

Ajoute à cela qu’il croit que la diffusion est depuis longtemps basé sur des cadences d’images de 50 et 60 / s ce qui le porte à croire qu’un 30 im/s est dégradé

Tu comprendras peut-être les erreurs de base que j’ai essayé de lui,faire comprendre pour qu’il est une maîtrise de base du sujet.

Sans t’en rendre compte et avec sans doute de bonnes intentions tunes en train de conforter quelqu’un dans une accumulation d’erreurs 😉

avatar YetOneOtherGit | 

@oomu

"Ma psycho-physiologie va très bien."

Tu as jugé un peu vite les échanges si je peux me peut me permettre et tu renforces par inadvertance les erreurs et les caricatures sur des enjeux de compréhension de la vidéo de notre camarade.

Nous ne sommes nullement sur un simple débat concernant le périmètre des bénéfices des cadences d’images élevées, très loin s’en faut.

Mais sur une position caricaturale de la valeur des cadences d’image standards et pire sur une vision fausse de la valeur des cadences d’images standards qui sont 25, 29.97 et 30 mais nullement le doublé comme refuse de l’admettre notre camarade malgré mais efforts à essayer de le sortir de l’erreur 😉

avatar YetOneOtherGit | 

@Adodane

"Tout youtuber qui veut diffuser de la qualité d'image pour ses abonnés achètera une caméra (plutôt un appareil photo capable en vidéo) qui conviendra. "

Nope : tout youtuber influencé par le marketing et ne comprenant rien de sérieux tombe dans ce panneau 😎

avatar Adodane | 

@YetOneOtherGit

Quel panneau ? Préférerer la diffusion en 60 images par seconde plutôt que 30 qui serait l'idéal selon toi ?

avatar YetOneOtherGit | 

@Adodane

"Quel panneau ?"

Celui de la pensée magique et de la sanctification de la fiche technique sans rien comprendre.

« Si le chiffre est plus gros c’est forcément vachement mieux »🤣🤣🤣🤣

avatar Adodane | 

@YetOneOtherGit

Ah oui donc pour toi diffuser du 60 images secondes natif sur YouTube ou du 30 serait pareil selon toi ?

Rajoute des smileys, tu seras plus crédible.

avatar oomu | 

@YetOneOtherGit

Le JDG n'est pas à 6Oips ? NOOOooon

(bon par contre mes meilleures chaines de parties de jeux vidéo sont en 60ips, na! :) )

avatar YetOneOtherGit | 

@oomu

"Le JDG n'est pas à 6Oips ? NOOOooon
(bon par contre mes meilleures chaines de parties de jeux vidéo sont en 60ips, na! :) )"

Pour notre camarade tout youtube est sur des cadences de 60 im/s et la télévision l’est depuis longtemps (50 im/s ou 60 im/s)

tu commence à,saisir ce que j’essaye de lui faire comprendre 😉

avatar Adodane | 

@YetOneOtherGit

De plus la télé est à 50 ou 60 images par secondes.

avatar YetOneOtherGit | 

@Adodane

"De plus la télé est à 50 ou 60 images par secondes. "

Nope c’est la fréquence de rafraîchissement qui est assez rarement la fréquence de la source même aujourd’hui. (tu trouveras même des multiples de ces fréquences de base de plus en plus)

Ou plus rare aujourd’hui la fréquence de demi-trame entrelacées.

Les cadences de 25 im/s ou proche de celles du NTSC restent dominantes sur la production vidéo et le cinéma garde le 24 im/s comme base.

avatar Adodane | 

@YetOneOtherGit

Les émission télé, le sport, les infos sont à 50 im/s nativement. Les fictions, les documentaires le sont rarement toutefois.

avatar YetOneOtherGit | 

@Adodane

"Les émission télé, le sport, les infos sont à 50 im/s nativement. "

La proportion des prg ne flux en 50 ou 60 im/s tant effectivement à croitre mais nous sommes loin de toutes les émissions et d’une diffusion à cette cadence d’image sur tous les canaux.

avatar Adodane | 

@YetOneOtherGit

Tant à croître ? C'est comme ça depuis que la télé existe !

avatar YetOneOtherGit | 

@Adodane

"Tant à croître ? C'est comme ça depuis que la télé existe ! "

😳🤯😳🤯

Ok tu ne sais absolument pas de quoi tu parles.

La prise de vue en analogique était basée sur un entrelacement de 1/2 trames.

Pour une cadence d’image de 25 im/s il fallait donc 50 demi-trame par seconde d’où le 50 Hz qui ne signifie nullement 50 im/s mais 50 demi trame par seconde soit 25 im/s

Même principe pour les cadences proches du NTSC.

C’est la différence entre du 25i (Entrelacé) et du 25p (Progressif) même cadences d’images mais fréquence différentes.

avatar Adodane | 

@YetOneOtherGit

50 demi-trames ça fait 50 images par seconde, car ce sont des demi-trames prises à des moments différents.

Mycanal diffuse toutes ses chaînes en 50 ims, Netflix certains de ses programmes européens.
La diffusion via les antennes tnt est toujours en 1080i50, donc entrelacé 50 images secondes.

La différence entre le 50 ims et le 25 ims se voit tout de suite niveau fluidité, mais peut être que tu vas trouver un truc qui contredit cela...

Tu peux tourner en rond dans tes arguments bidons, mettre des smileys à outrance pour te faire un style, tu n'y changeras rien. Et c'est comme ça depuis que la télé existe, c'est 50 ou 60 images par secondes !

avatar YetOneOtherGit | 

@Adodane

« 50 demi-trames ça fait 50 images par seconde »

Mais il s’enfonce le bougre 😳

Très impressionnant cette incapacité à apprendre et à défendre des connaissances approximatives 🥴

Crois ce que tu peux ça fera du bien à ton ego 🙄🙄🙄🙄

avatar Adodane | 

@YetOneOtherGit

Non c'est toi qui va m'expliquer comment 50 demi-trames prises à des instants différents ne font pas 50 images par seconde avec ton genie !

avatar YetOneOtherGit | 

@Adodane

"Non c'est toi qui va m'expliquer"

Visiblement il est absolument impossible de t’expliquer et de te faire comprendre quoi que ce soit, pas de soucis je n’ai rien à perdre dans ton refus d’apprendre 😎

Contente toi de connaissances et de compréhension approximatives, tu iras loin ainsi 🤢

C’est beau cette volonté farouche de se vautrer dans l’Ultracrépidarianisme 👏👏👏👏

avatar Adodane | 

@YetOneOtherGit

Ce sont des maths très simples pourtant, 50 demi-trames prises à 50 moments différents.

Je vois pas où est le doute pour toi ?

avatar YetOneOtherGit | 

@Adodane

"Ce sont des maths très simples pourtant, 50 demi-trames prises à 50 moments différents.
Je vois pas où est le doute pour toi ?
"

Dans ton cerveau 😎

La cadence d’image de la télévision est de 25 im/s ou proche de 30 im/s en NTSC (je ne rentrerai pas dans les intéressantes considérations expliquant pourquoi ce n’est pas exactement 30 im/s elles passeraient largement au dessus de tes capacités)

D’ailleurs le 25i est remplacé par du 25p pas du 50p.

S’accrocher ainsi en cette croyance à du 50 im/s avec des arguments douteux sur un entrelacement dont tu ignorais sans doute l’existence avant que je l’évoque et que tu ne comprends que très superficiellement 🙄🙄🙄

C’est vraiment impressionnant cette difficulté à en élever certains 🤯

L’ego c’est terrible comme boulet à traîner 😩

avatar Adodane | 

@YetOneOtherGit

Le gars qui jure qu'on ne fait pas la différence entre 30 i/s et 60 et qui me parle d'ego !

Le comble !!!

avatar YetOneOtherGit | 

@Adodane

"Le gars qui jure qu'on ne fait pas la différence entre 30 i/s et 60"

Nope une caricature réductrice de mes propos : on ne fait pas la différence en terme de perception subjective de qualité entre du 30 im/s et du 60 im/s sur tous les types de contenus.

- Sur des contenus relativement statiques l’identification de la cadences d’images « en aveugle » est impossible.
- Sur des contenus relativement dynamique c’est là que les cadences d’images élevées ont leur raison d’être et leur bénéfice.

Ce que je conteste c’est ton affirmation de la capacité à voir la différence dans tous les cas, tu arriveras peut-être à saisir la grande nuance 😎

Et ce n’est en rien une opinion personnelle, c’est issu des nombreux test effectués et publiés avec des méthodologies sérieuses.

L’augmentation de la cadences d’image améliore la qualité subjective perçue si et seulement si le contenu inclus des mouvements rapides des sujets ou de la caméra

Les cadences d’images élevées ne sont en rien un progrès incontournable pour tous les types de contenus rendant obsolètes les cadences d’images standards.

Et évidemment s’ajoute à cela ton affirmation erronée sur le fait que le broadcasting est depuis toujours sur des cadences d’images élevées alors même qu’il est sur du 25 ou du 29.97 im/s durant la plus grande part de son histoire, l’élégante astuce de perception de l’entrelacement ne changeant rien à cela pour peu qu’on le comprenne.

Et pour finir si j’ai un enjeu d’égo c’est certainement celui de ne pas accepter que je ne puisse sortir une personne de l’erreur en essayant de lui donner les éléments permettant de dépasser ses erreurs. 😎

-Ton égo te conduit au déni de tes erreurs et de ton besoin de remettre en question ce que tu penses être tes connaissances.
-Mon égo me conduit au refus d’accepter que l’on ne puisse sortir une personne de l’erreur avec de la persévérance.

avatar Adodane | 

@YetOneOtherGit

C'est un test très facile à faire, je force mon appletv sur 25p au lieu de 50p et j'ai tout de suite une différence flagrante sur mycanal par ex qui diffuse en 50p.

avatar Soubsoub | 

Je ne comprend pas tous les commentaires négatifs. Je trouve la prouesse technique, d’un point de vue software/puissance extraordinaire. Tout comme le monde portrait, ce n’était pas parfait au début et tout le monde l’a critiqué. Aujourd’hui on constate tout de même que beaucoup de personne l’utilisent (plus ou moins expérimentés), et que beaucoup on essayé de copier. Ne coupons pas l’herbe sous le pied à l’innovation.

avatar gwen | 

@Soubsoub

Personnellement je trouve ça très intéressant. Mais, comme toute technologie, il faut savoir l’utiliser avec parcimonie et surtout à bon escients.

Dans la présentation de Disneyland, plus de la moitié des plan ne nécessitaient pas ce mode. Ensuite, j’ai bien compris, c’est juste un essais d’un mec avec sa famille.

avatar YetOneOtherGit | 

@gwen

"Personnellement je trouve ça très intéressant. Mais, comme toute technologie, il faut savoir l’utiliser avec parcimonie et surtout à bon escients. "

Quand les DSLR plein format on commencés à être utilisé sur des tournages vidéo on a eu droit à une avalanche d’effets de profondeur de champ, non pas car cela avait un sens esthétique mais parce que la taille du capteur le rendait enfin possible…

Et puis ça c’est calmé 😉

avatar YetOneOtherGit | 

@Soubsoub

"Je ne comprend pas tous les commentaires négatifs"

Un indice tu est face au microcosme des commentateurs de MacGe qui ne représente même pas le lectorats de MacGe comme on le constate à chaque sondage de la rédaction.

Lectorat de MacGe qui n’est lui même représentatif que d’une toute petite part des cibles d’Apple.

Bref des « avis » sans grande importance 😉

avatar iPop | 

@Soubsoub

Beaucoup irons juste qu’à dire que la nouveauté de cette iPhone est son numéro.

avatar YetOneOtherGit | 

@iPop

"Beaucoup"

C’est quelle proportion “beaucoup”, j’aurais plutôt dit “certains” 😎

avatar iPop | 

@YetOneOtherGit

Oui si on veut mais faisant un tour du côté de 01net, ça se résumait à ça. On aurait que ça les faisait chier que le design soit pas différent. J’admire pas mon iPhone toutes les 5 minutes.

avatar YetOneOtherGit | 

@iPop

"Oui si on veut mais faisant un tour du côté de 01net, ça se résumait à ça. On aurait que ça les faisait chier que le design soit pas différent. J’admire pas mon iPhone toutes les 5 minutes."

Le microcosme n’est pas le marché 😎

Tu admires ton iPhone 🤯😱

avatar fte | 

@Soubsoub

"Je trouve la prouesse technique"

J’adore les prouesses techniques. Il n’y a rien de plus magnifique et excitant qu’une fantastique prouesse technique.

C’est un truc de geek.

Ça ne veut pas dire que le résultat est bon, utile, intéressant pour les gens normaux, ou intéressant pour la société. Ça pourrait être tout à fait l’inverse.

avatar gigoo | 

En théorie le mode cinematic est une révolution pour tous led apprentis cinéastes qui font des courts métrages .. mais faut t-il que ça fonctionne parfaitement, ce qui n’est pas le cas apparement .. Faudra attendre peut être une prochaine mise à jour

avatar raoolito | 

@gigoo

comme on pouvait le prévoir

avatar YetOneOtherGit | 

@raoolito

"comme on pouvait le prévoir"

Quand on connaît le niveau de l’auto-focus du Pentax ME F en 81 et ce que l’on a aujourd’hui…

Certains veulent la perfection tout de suite sur tout en parfait enfant roi 🙄

avatar raoolito | 

@YetOneOtherGit

mode portrait, mode nuit, reco de visage ou de formes etc... la photo chez apple c'est l'art d'incrementer et d'ameliorer.
la plupart des gens qui grognent ne savent pas la moitié de ce que leur iphone et le soft Photos peut faire...
ils devraient apprendre le bouquin de nicolas :)

avatar Nicolas Furno | 

@raoolito

Le lire, ce serait déjà bien. 🙂

avatar YetOneOtherGit | 

@nicolasf

"Le lire, ce serait déjà bien. 🙂"

L’acheter est plus important 🤑😉

avatar raoolito | 

@nicolasf

annee impaire c pour ios, années paire c'est pour macos
vous faites du trop bon boulot les gars, je suis obligé de spliter :)
mais pour faire bonne mesure j'ht les deux a chaque fois :)

avatar Sindanarie | 

@raoolito

"ils devraient apprendre le bouquin de nicolas :)"

qui ?

avatar pakal | 

Qui va utiliser un iphone 13 avec un mode cinématique pour réaliser des clips ou des films de qualité ?

Techniquement c’est peut-être intéressant mais on est juste dans un argument marketing pour séduire les youtubeurs.

(désolé mais le clip est nul)

avatar raoolito | 

@pakal

moi je l'utiliserai, je testerai et j'apprendrai a l'exploiter pour améliorer mes vidéos
qui utilise la profondeur de champs en photo ? ben tout le monde
meme reponse en video

avatar fte | 

@raoolito

"qui utilise la profondeur de champs en photo ? ben tout le monde
meme reponse en video"

Par la force des choses, parce qu’elle existe et est incontournable (lorsque le capteur n’est pas microscopique et la focale pas ultra-courte), oui, tout le monde.

De façon consciente et réfléchie ? Une minuscule proportion des photographes ou vidéastes amateurs. La photo majoritaire est en mode automatique sujet plein centre.

D’ailleurs, c’est un mode automatique de plus, justement parce seule une minuscule proportion des photographes ou vidéastes amateurs y prêtent attention.

C’est comme les thèmes PowerPoint standard. Ce sont les plus utilisés et les plus anonymes. Mais c’est mieux qu’un mur de texte multicolore sur fond blanc je suppose. Quoique.

avatar tonstef | 

@pakal

Steven Soderbergh par exemple?

https://www.macg.co/video/2019/01/high-flying-bird-le-nouveau-film-tourne-liphone-de-steven-soderbergh-bientot-sur-netflix-104973

Sinon il y a aussi :
Michel Gondry
Zack Snyder

https://www.allocine.fr/diaporamas/cinema/diaporama-18674168/

Bref, que des gens qui n’y connaissent rien sans doute 🤫🙄😅

avatar marenostrum | 

ils peuvent les faire leurs films avec n'importe quel camera. l'iPhone fait partie du contrat seulement. c'est les producteurs qui l'imposent je pense. simple publicité.
ceux qui regardent un film ne se posent jamais la question de la camera. pareil pour les photos, de la marque de l'appareil, etc.

avatar gwen | 

@tonstef

De tout de façon c’est toujours pareille : l’important n’est pas la technologie utilisée, l’important est celui qui utilise cette technologie et la vision qu’il a envie de donner.

avatar tonstef | 

@gwen

Exactement 👍
Et c’est valable pour n’importe quel métier.
On a beau dire, on a beau faire… si on me donnes les mêmes ingrédients qu’un chef de cuisine étoilé, nos plats seront bien différents😅

avatar gwen | 

@tonstef

C’est clair. L’analogie est pertinente.

avatar fte | 

@gwen

👍

avatar YetOneOtherGit | 

@tonstef

Beaucoup de cinéastes sont curieux des contraintes et des champs des possibles ouverts par de nouvelles approches et ils les explorent.

Dans les exemples anciens et connus Ingmar Bergman s’appropriant la vidéo que bien d’autres professionnels moquaient, la nouvelle vague et les moyens de tournage léger …

Pages

CONNEXION UTILISATEUR