Apple a vu des films avant de créer le mode cinématique des iPhone 13

Nicolas Furno |

Quand Apple a créé les éclairages de portrait pour les iPhone 8, Phil Schiller expliquait en interview que les ingénieurs de Cupertino avaient analysé non seulement des photos, mais aussi des portraits peints pour créer la nouvelle fonction. Quatre ans plus tard, rebelote, mais cette fois pour le mode cinématique des iPhone 13 et avec le cinéma.

Édition d’une vidéo en mode cinématique (image TechCrunch).

Matthew Panzarino de TechCrunch a papoté avec Kaiann Drance, vice-présidente en charge du marketing iPhone, et avec Johnnie Manzari, l’un des designers en charge de l’interface chez Apple. Son interview revient sur la fonction, ses limites et aussi la création de ce mode. Comme toujours, l’entreprise tient à rappeler qu’elle n’a pas essayé de créer une fonction, elle a cherché une réponse à une question.

La question en l’occurrence concernait les films, les vrais, ceux que l’on peut voir au fond de son canapé ou au cinéma. Qu’est-ce qui les rend intemporels ? Qu’est-ce qui les distingue d’une vidéo tournée à l’iPhone ? Pour commencer, Apple a donc… vu beaucoup de films, et parlé avec des réalisateurs et techniciens dans le monde du cinéma. Une constante s’est dévoilée à travers les âges : la mise au point est un élément clé de la mise en scène.

L’élément net à l’image est un outil essentiel pour raconter une histoire, tandis que le flou autour de cet élément facilite la compréhension du film en guidant le spectateur. Fort de ce constat, les créateurs de la fonction se sont rendus sur des tournages pour comprendre à la fois les choix du directeur de la photographie — qui est responsable de l’image au sens large — et les gestes des opérateurs. Ils ont analysé comment le « pointeur », la personne chargée de tourner la bague de mise au point sur les caméras, travaille.

La caméra peut être gérée par deux personnes : l’une pour contrôler le cadre, l’autre pour manipuler la bague de mise au point (photo Wikimedia Commons).

Tout ce savoir a permis de collecter des informations sur les techniques de tournage, pour ensuite les convertir en fonctions accessibles pour le grand public. Sur un tournage, c’est un travail minutieux et complexe qui nécessite de coordonner plusieurs opérateurs et les acteurs, mais aussi de contrôler entièrement l’environnement. Sur un iPhone, cela doit être une fonction utilisable par n’importe qui, en tenant le smartphone et en le laissant travailler au maximum.

C’est pour cette raison que la mise au point évolue selon les regards des personnes filmées. La personne au premier plan est nette par défaut et l’arrière-plan est flou, mais si elle tourne la tête, le mode cinématique va tenter de deviner ce qu’elle va regarder, que ce soit une personne ou un objet, et faire la mise au point sur cet élément. C’est un classique au cinéma pour guider le regard du spectateur sur l’élément le plus important et tout est fait automatiquement par l’iPhone.

Autre idée, il faut anticiper l’entrée d’un personnage dans le cadre, pour coordonner le changement de mise au point au bon moment. Pour cela, les développeurs d’Apple ont eu une idée astucieuse : en mode vidéo, la stabilisation réduit le cadre pour garder de la marge, mais les capteurs sous les objectifs enregistrent davantage d’informations. Ces données sont utilisées par le mode cinématique pour anticiper la transition d’une mise au point à l’autre : l’iPhone « sait » qu’une personne va entrer dans le cadre avant qu’elle n’apparaisse à l’écran.

Ce savoir, combiné à la puce Apple A15 qui travaille dur pour afficher l’effet de flou en temps réel à l’écran tout en traitant les 30 images par seconde qui forment la vidéo finale, donne le mode cinématique. Qui est loin d’être parfait dans sa première version, comme Matthew Panzarino le relève et le prouve avec cet exemple tourné sans aucun accessoire lors d’un séjour à Disneyland.

La mise au point a plus de mal dans les environnements sombres et surtout l’édition a posteriori est vite indispensable pour corriger les erreurs en temps réel. Et puis l’effet de flou se trompe parfois, comme avec le mode portrait, en détourant n’importe comment les gens et objets.

Même sans aucun matériel supplémentaire, on peut aussi obtenir un résultat assez convaincant à condition de faire simple. Jonathan Morrison l’a prouvé avec ce clip réalisé entièrement en mode cinématique. La chanteuse se contente de marcher dans la rue et elle est la seule dans le cadre en permanence, ce qui simplifie le travail. Mais comme on peut le voir par intermittence, le youtubeur est seul devant elle et il tient l’iPhone à bout de bras, il n’a même pas de stabilisateur pour s’aider.

avatar tonstef | 

@YetOneOtherGit

Sans oublier Kubrick (ex : lentilles spéciales utilisées pour son film Barry Lyndon. Une pure merveille. https://www.cinematheque.fr/expositions-virtuelles/kubrick/item.php?id=122)

avatar YetOneOtherGit | 

@tonstef

"Sans oublier Kubrick (ex : lentilles spéciales utilisées pour son film Barry Lyndon. Une pure merveille. "

Là pour moi c’est autre chose, ce n’est pas l’appropriation de technologies « amateurs » mais au contraire de technologies rarissimes comme le Zeiss 50 mm f/0.7 😉

avatar tonstef | 

@YetOneOtherGit

Oui c’est vrai. Toutes mes confuses. Me suis un peu emballé et éloigné du sujet. 😉

avatar marenostrum | 

la video est explicite quand même. c'est juste un film de vacances et il est bien fait tout seul.
les effets de flou donne de la richesse.
ce n'est pas pour les pros mais pour tout le monde. mais la video est particulière. des images jolies ont peut faire facilement et même par hasard, mais pas une video. parce que ça dure plus.
un commentaire aussi, ou un article on peut le faire plus facilement qu'un roman ou poème.
le technologie ne va jamais aider ce point.

avatar YetOneOtherGit | 

@pakal

"Qui va utiliser un iphone 13 avec un mode cinématique pour réaliser des clips ou des films de qualité ?"

En premier lieu le grand public pour qui le smarphone a remplacé le caméscope.

Les “exemples” professionnels sont de la communication pour donner de m’envie et de la crédibilité.

Apple ne cibles pas les usages professionnels qui même en fantasmant une très large adoption resteraient absolument marginaux par rapport à la taille de ses marchés.

Apple ne cibles pas réellement les professionnels de l’image comme vrai marché porteur, ils seraient très mal s’il le faisait.

Et évidemment cela n’interdit nullement quelques usages marginaux dans le cadre professionnel.

Comme toujours: un peu de mesure et de compréhension du contexte 😎

avatar imrfreeze | 

Vous avez beau dire le résultat est convaincant pour un téléphone…

avatar fte | 

@imrfreeze

"convaincant pour un téléphone…"

Intéressante formulation.

En partant avec un biais négatif : pour un téléphone, même un truc très médiocre paraîtra bon : convainquant.

La même chose dans une camera RED à 15k€, est-ce que ce serait toujours convainquant ?

avatar Nudges | 

La mise au point sur le garçon pendant le feu d’artifice est 😍 Mais sinon j’avoue c’est pas diiiiinngueeee pour le moment

avatar BingoBob | 

Je travaille dans le cinéma et dès la présentation, j’ai trouvé le clip dégueulasse. Le mot est peut-être un peu fort, alors disons, complètement fake.
Le flou se crée en fonction d’un objectif. Une longue focale écrase la perspective et crée donc ce fou. Du flou sur un très grand-angle, ça n’existe pas, et ça choque l’œil qui a vu lui aussi, des millions d’images et qui sait reconnaître qu’il y a un truc qui ne va pas.
Dernièrement j’ai joué avec un iPhone 12 (non Pro) et la fonction du flou sur l’objectif grand angle me choquait. Avec des caméras de cinéma ce n’est pas possible de le faire. Ça donne un coté fake immédiat

Le storytelling d’Apple sur ses ingénieurs qui sont partis voir des films et qui ont fait des tournages, c’est juste ridicule et se moquer des gens. N’importe quel étudiant en cinéma de première année sait cela !

avatar Sindanarie | 

@BingoBob

Ah enfin. Merci 🙏🏽

avatar marenostrum | 

ils vont vous mettre au chômage. et pas seulement vous mais plein de métiers à la con qui servent à rien de grand.

avatar BingoBob | 

@marenostrum

Évidemment, sur des tournages à 8-10 millions d’euros, on va tout tourner sur un iPhone à 1000 balles ! Merci pour ce fou rire.

avatar YetOneOtherGit | 

@BingoBob

« Évidemment, sur des tournages à 8-10 millions d’euros, on va tout tourner sur un iPhone à 1000 balles ! Merci pour ce fou rire. »

Unsane de Steven Soderbergh avait un budget de 1,5 M$ et en à fait 15 au box-office.

Nous ne sommes pas sur des budgets délirants, mais quand même sur une vraie production ambitieuse, professionnelle et rentable.

Et tu as de nombreux films où des séquences sont tournées avec des approches atypique : DSlR (Très fraîchement accueilli il y a des années par des gardiens du temple auto-proclamés), action-cam, drone léger et smartphone.

Comme toujours les postures manichéennes sont débile 😎

avatar BingoBob | 

@YetOneOtherGit

Arrête de parler de postures manichéennes. Tu prends un exemple complètement atypique qui ne représente en rien les budgets que l’on retrouve habituellement dans la profession.
Le matériel n’est en plus, pas ce qui coute le plus cher sur un tournage. Personne ne tournera avec un pauvre iPhone 13 pro. Personne ! Ou alors juste pour le challenge. Une Red, BlackMagic, Arri, ça coute presque rien en location, et c’est 1000 fois mieux que l’effet profondeur de champs - pour l’instant peu convainquant - et surtout simulé.

avatar iftwst | 

@BingoBob

Surement pour ceux qui sont pro de l'image.

Pour un mec qui n'y connait rien comme moi, je trouve le résultat très plaisant.
Je serai curieux de voir le même clip "bien fait" selon les règles pour ma culture personnelle.

avatar marenostrum | 

l'effet de flou est artificiel, crée par l'optique ou par le logiciel ça ne change absolument rien (pour les deux cas c'est technologique). l'Oeil humain voit différemment. y a pas de flou du tout.

ce qui dit le gars, ce n'est qu'un préjugé. c'est Apple qui se rapproche le plus du comportement humain. le logiciel remplace le cerveau et guide la mécanique.

avatar BingoBob | 

@marenostrum

L’œil humain correspond à un objectif 40 mm. Heureusement que l’art a inventé la perspective, les optiques longues focales, la limitation de la profondeur de champs, qui permettent un ressenti différent, un sentiment de beauté, ou en tout cas, s’extraire de la vision humaine totalement naturaliste.
Apple essaie de recréer cette beauté de la faible profondeur de champs pour augmenter son cachet artistique.
J’ai comme l’impression que vous n’avez toujours pas compris ça.
Facile de casser du sucre sur le dos des artistes quand on a visiblement si peu de culture…

avatar YetOneOtherGit | 

@BingoBob

« L’œil humain correspond à un objectif 40 mm »

Le champion de vision humain est bien plus complexe que la capacité de le ramener à celui d’une focal en 24x36 😉

avatar YetOneOtherGit | 

@BingoBob

« Heureusement que l’art a inventé la perspective, les optiques longues focales, la limitation de la profondeur de champs, qui permettent un ressenti différent, un sentiment de beauté, ou en tout cas, s’extraire de la vision humaine totalement naturaliste.  »

Là par contre je te rejoins pleinement : le langage des images n’est que très marginalement celui de l’hyper-réalisme.

Rien que le fait de cadrer c’est deja sortir de la vision naturelle.

Le travail d’un chef-op n’est nullement de créer des images tel qu’on les voit dans la vie et heureusement.

Cadrage, lumière, effet de profondeur de champ, effet de flou, motion blur, mouvement d’appareil, montage … sont des éléments d’un langage propre… nullement une récréation du réel.

J’aime beaucoup le travail de l’immense peintre Gerhard Richter sur ces questions 😋

avatar marenostrum | 

j'ai bien compris, pour ça que je parle d'Effets artificiels. c'est toi qui dis que ces effets créés par les optiques sont plus naturels que les effets de Apple créés par le logiciel embraqué dans leur appareils. ça s'arrête là notre discussion.

avatar xDave | 

J’ai honte 🙈

Je lis l’article. J’arrive au milieu. Je vois une vidéo alors je regarde vu qu’on parle de mode cinéma…
Et puis au bout de quelques secondes je réalise que c’est une putain de pub qui n’a aucun rapport (à part d’être bien filmée)

😱😁

avatar thierry37 | 

Ça a l'air très sympa vu comment c'est décrit.

J'espère que ça marche un peu... comme prévu

avatar alexischadet | 

le résultat est super sympa

Pages

CONNEXION UTILISATEUR