Deep Fusion va faire son apparition avec la prochaine bêta d'iOS

Mickaël Bazoge |

Deep Fusion sera la grosse nouveauté de la prochaine bêta d'iOS (iOS 13.2 ?). Cette fonction, qui a eu droit à une présentation en bonne et due forme par Phil Schiller durant le keynote, est censée améliorer encore davantage la qualité des clichés.

La technique est rudement compliquée à expliquer, alors accrochez-vous. Deep Fusion fusionne neuf expositions à l'échelle du pixel, dont huit qui ont été claquées avant même avoir appuyé sur le déclencheur : quatre courtes sous exposées aux détails mieux définies, quatre secondaires. La prise de vue principale a une exposition plus longue et légèrement surexposée, c'est elle qui permet de récupérer les détails dans les ombres.

Image Apple.

Deep Fusion jongle donc avec l'exposition de référence, quatre photos moyennes qui permettent de récupérer des détails supplémentaires, et les quatre photos sous-exposées pour glaner les meilleurs pixels dans la structure de l'image.

Hop, un petit coup de machine learning mouliné par la puce A13, et une seconde plus tard (le temps du traitement), bim : voici une photo qui offre un niveau de détails encore plus élevé qu'en utilisant les capacités du HDR. Les images présentant des textures complexes (peau, vêtements…) devraient bénéficier tout particulièrement de ce traitement.

Image Apple.

Sur l'iPhone 11, Deep Fusion va améliorer les photos réalisées avec le grand angle ; sur l'iPhone 11 Pro et 11 Pro Max, ce sont le téléobjectif et le grand angle qui en bénéficieront (mais pas l'ultra grand-angle). Les smartphones des générations précédentes en seront dispensés, il faut une puce A13 Bionic.

Le processus Deep Fusion est automatique, exception faite des photos avec le recadrage automatique, Deep Fusion n'étant pas compatible avec l'ultra grand-angle. Les Live Photos bénéficieront du traitement Deep Fusion. Bien sûr, on aura l'occasion d'y revenir dès qu'Apple aura lâché sa Valda (et après une aspirine ou deux).

Source
Tags
avatar pechtoc | 

Et ça ne va pas limer la batterie rapidement ce genre d'artifice ? Si ça prend 8 photos avant même d'avoir appuyé, je présume que ça prend constamment des photos et supprime à mesure les plus anciennes pour en garder juste 8 avant l'appui de l'utilisateur.

Pas fan de ces traitements, comme le faux bokeh qui offre des résultats affreux encore aujourd'hui, comme le HDR et son rendu tellement artificiel que la photo en devient laide,... Les goûts et les couleurs c'est certain, mais on met beaucoup d'algo en place pour tenter de faire oublier les limites d'un capteur aussi petit et ses micro optiques. Enfin, pour finir sur les réseaux sociaux et consommé en un regard puis directement oublié, c'est un peu démesuré.

avatar cd633 | 

@pechtoc

C'est vraiment bien résumé.

avatar J'en_crois Pas_mes yeux | 

@ pechtoc
Mais non, t'as rien compris : tous ces automatismes, c'est l'avenir :
Tu n'as jamais vu de *vrais photographes amateurs* ? C'est comme les gens qui apprennent à tirer : quand ils appuient sur le bouton, ils ferment les yeux en même temps.
Et bien ce qui donnait des résultats pitoyables et permettaient "statistiquement" de sauver au mieux une photo par pellicule, c'est du passé.
Aujourd'hui celui qui appuie sur le bouton peut fermer autant les yeux qu'il veut; Le résultat est la, mais chute, ne lui dites pas, ce n'est plus lui qui fait les photos;
Et comme il est encore trop con pour reconnaître les photos intéressantes des plus débiles, Apple est encore là pour l'aider à être le Roi de la photo.

avatar oomu | 

j'ai trouvé la solution à votre angoisse :

- utilisez à bon escient, quand ça vous concerne
- prenez le temps de mettre en valeur votre sujet, utilisez les artifices à leur plein potentiel
- ne laissez pas vos photos finir sur les réseaux sociaux et consommées en un regard puis directement oublié.

Ne soyez pas démesuré ! Soyez VOUS !

Et que diable, laissez moi moi faire des résultats affreux pour les mettre sur des réseaux sociaux se faire consommer et oublier. Ce que je fais ne dit RIEN sur vous et n'a AUCUN rapport avec VOUS.

Tout va bien.

avatar pechtoc | 

@oomu

Bien pour cela que je parle de goûts et de couleurs mais ça n'enlève rien à mon questionnement: n'en fait-on pas un peu trop pour tenter de faire croire à l'amateur qu'il peut pondre des clichés de professionnels avec des artifices logiciels ?
"Prenez des portraits dignes d'un studio avec votre iPhone"

avatar Lolo43d | 

Ces fonctions telles le Deep Fusion ou Smart HDR peuvent être utiles dans certains cas.

Par contre, il est complètement impensable que ce Deep Fusion ne puisse être désactivé.

En effet, il est parfois nécessaire de désactiver le HDR lorsque la photo finale a un rendu qui ne convient pas ou même un rendu "raté" à cause d'erreurs de traitements automatiques.

avatar Gladjessca | 

Ce Deep Fusion irait jusqu’à gommer le « grain iPhone » des photos comme les exemples Apple ?

Suis-je le seul à douter que les 2 photos exemples soient prises avec un iPhone ?

avatar BingoBob | 

Est-ce que quelqu’un sait pourquoi l’ultra grand angle ne pourra user de Deep Fusion ?

Le A13 n’est-il pas assez puissant ? Il y a vraiment un truc que je ne comprends pas..

Ou alors, Apple le réserve pour l’A14 de l’année prochaine 😬

avatar Woaha | 

@BingoBob
Peut-être parce qu’il n’est pas activement stabilisé.

avatar Ast2001 | 

Pour le débat A12 non capable, c'est du pipeau total. Google a eu le même soucis.

Depuis un an, les téléphones Pixel intègrent la même fonction (basée sur 15 photos). A l'époque, Google disait que c'était les algos intégrés à leur puce dédiée Visual Core qui faisait tout le boulot.

Lorsque les 3a _sans puce Visual Core_ sont sortis, les possibilités photos se sont révélées les mêmes. Les traitements sont juste réalisés par le processeur en lieu et place de la puce Visual Core et ça marche très bien. C'est juste un peu plus lent.

C'est un pb d'algo pas de processeur. Si cela ne tourne pas sur l'A12, c'est uniquement un choix d'Apple, pas du tout une contrainte physique.

avatar Karb0ne | 

Plus ça va plus l’impression d’être pris pour un dindon par Apple ! Effectivement comme si que l’A12 « Bionic » également pouvait pas le faire même si cela demande 1,5s de traitement au lieu de 1s !

C’est comme la boussole dans l’iWatch 5 et l’always on, il y a trop de bluf marketing aujourd’hui et pas d’innovation technique réelle, Point !

Pages

CONNEXION UTILISATEUR