Ouvrir le menu principal

iGeneration

Recherche

Apple a vu des films avant de créer le mode cinématique des iPhone 13

Nicolas Furno

samedi 25 septembre 2021 à 08:00 • 223

iPhone

Quand Apple a créé les éclairages de portrait pour les iPhone 8, Phil Schiller expliquait en interview que les ingénieurs de Cupertino avaient analysé non seulement des photos, mais aussi des portraits peints pour créer la nouvelle fonction. Quatre ans plus tard, rebelote, mais cette fois pour le mode cinématique des iPhone 13 et avec le cinéma.

Édition d’une vidéo en mode cinématique (image TechCrunch).

Matthew Panzarino de TechCrunch a papoté avec Kaiann Drance, vice-présidente en charge du marketing iPhone, et avec Johnnie Manzari, l’un des designers en charge de l’interface chez Apple. Son interview revient sur la fonction, ses limites et aussi la création de ce mode. Comme toujours, l’entreprise tient à rappeler qu’elle n’a pas essayé de créer une fonction, elle a cherché une réponse à une question.

La question en l’occurrence concernait les films, les vrais, ceux que l’on peut voir au fond de son canapé ou au cinéma. Qu’est-ce qui les rend intemporels ? Qu’est-ce qui les distingue d’une vidéo tournée à l’iPhone ? Pour commencer, Apple a donc… vu beaucoup de films, et parlé avec des réalisateurs et techniciens dans le monde du cinéma. Une constante s’est dévoilée à travers les âges : la mise au point est un élément clé de la mise en scène.

L’élément net à l’image est un outil essentiel pour raconter une histoire, tandis que le flou autour de cet élément facilite la compréhension du film en guidant le spectateur. Fort de ce constat, les créateurs de la fonction se sont rendus sur des tournages pour comprendre à la fois les choix du directeur de la photographie — qui est responsable de l’image au sens large — et les gestes des opérateurs. Ils ont analysé comment le « pointeur », la personne chargée de tourner la bague de mise au point sur les caméras, travaille.

La caméra peut être gérée par deux personnes : l’une pour contrôler le cadre, l’autre pour manipuler la bague de mise au point (photo Wikimedia Commons).

Tout ce savoir a permis de collecter des informations sur les techniques de tournage, pour ensuite les convertir en fonctions accessibles pour le grand public. Sur un tournage, c’est un travail minutieux et complexe qui nécessite de coordonner plusieurs opérateurs et les acteurs, mais aussi de contrôler entièrement l’environnement. Sur un iPhone, cela doit être une fonction utilisable par n’importe qui, en tenant le smartphone et en le laissant travailler au maximum.

C’est pour cette raison que la mise au point évolue selon les regards des personnes filmées. La personne au premier plan est nette par défaut et l’arrière-plan est flou, mais si elle tourne la tête, le mode cinématique va tenter de deviner ce qu’elle va regarder, que ce soit une personne ou un objet, et faire la mise au point sur cet élément. C’est un classique au cinéma pour guider le regard du spectateur sur l’élément le plus important et tout est fait automatiquement par l’iPhone.

Autre idée, il faut anticiper l’entrée d’un personnage dans le cadre, pour coordonner le changement de mise au point au bon moment. Pour cela, les développeurs d’Apple ont eu une idée astucieuse : en mode vidéo, la stabilisation réduit le cadre pour garder de la marge, mais les capteurs sous les objectifs enregistrent davantage d’informations. Ces données sont utilisées par le mode cinématique pour anticiper la transition d’une mise au point à l’autre : l’iPhone « sait » qu’une personne va entrer dans le cadre avant qu’elle n’apparaisse à l’écran.

Ce savoir, combiné à la puce Apple A15 qui travaille dur pour afficher l’effet de flou en temps réel à l’écran tout en traitant les 30 images par seconde qui forment la vidéo finale, donne le mode cinématique. Qui est loin d’être parfait dans sa première version, comme Matthew Panzarino le relève et le prouve avec cet exemple tourné sans aucun accessoire lors d’un séjour à Disneyland.

La mise au point a plus de mal dans les environnements sombres et surtout l’édition a posteriori est vite indispensable pour corriger les erreurs en temps réel. Et puis l’effet de flou se trompe parfois, comme avec le mode portrait, en détourant n’importe comment les gens et objets.

Même sans aucun matériel supplémentaire, on peut aussi obtenir un résultat assez convaincant à condition de faire simple. Jonathan Morrison l’a prouvé avec ce clip réalisé entièrement en mode cinématique. La chanteuse se contente de marcher dans la rue et elle est la seule dans le cadre en permanence, ce qui simplifie le travail. Mais comme on peut le voir par intermittence, le youtubeur est seul devant elle et il tient l’iPhone à bout de bras, il n’a même pas de stabilisateur pour s’aider.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Apple trouve une méthode pour imposer une dîme sur les mini-apps en Chine, et l’étend au monde entier

13/11/2025 à 22:15

• 6


Black Friday : les robots aspirateurs compatibles Matter en promotion, le Saros 10R de Roborock à 900 €

13/11/2025 à 17:37

• 17


Où trouver un iPhone 17, 17 Pro et 17 Pro Max en stock ? 🆕

13/11/2025 à 17:29

• 203


Dooinwell : une app pour veiller à distance sur les seniors isolés

13/11/2025 à 17:05

• 22


L’iPhone 16e aurait tout autant de mal à trouver son public que l’iPhone Air

13/11/2025 à 16:20

• 54


Android : Google veut laisser les « utilisateurs expérimentés » sideloader des apps

13/11/2025 à 15:38

• 3


Promo iPad Pro 11" : le M5 avec 256 Go et le M4 avec 512 Go autour des 1 000 €

13/11/2025 à 15:06

• 12


Réouverture de la FCC : les lancements Apple de fin d’année débloqués ?

13/11/2025 à 12:03

• 17


Apple Store : de nouveaux accessoires exclusifs pour les iPhone, iPad et AirTags

13/11/2025 à 10:44

• 14


Tatikati : une app de podcasts pensée pour les enfants

13/11/2025 à 07:30

• 17


iOS 26.2 bêta 2 : tour d’horizon des nouveautés

13/11/2025 à 07:00

• 28


Test du FP300 d’Aqara, le premier détecteur de présence sur pile compatible avec Matter

12/11/2025 à 23:57

• 16


iOS, iPadOS, macOS, watchOS, tvOS et visionOS 26.2 bêta 2 est de sortie pour les développeurs

12/11/2025 à 23:54

• 4


L'app Hue gagne un assistant IA capable de créer des automatisations, mais pas en français

12/11/2025 à 19:30

• 11


Digital ID : Apple transforme le passeport américain en certificat d’identité sur iPhone

12/11/2025 à 18:20

• 20


Le suivi DockKit peut fonctionner en arrière-plan… au moins en théorie

12/11/2025 à 17:05

• 5