Les Pixel 3 repoussent les limites de la photographie informatisée

Nicolas Furno |

Avec les Pixel, Google a réussi à proposer des smartphones parmi les meilleurs en photographie, si ce n’est les meilleurs. Un an après sa sortie, certains journalistes considèrent toujours que le Pixel 2 fait mieux que les iPhone XS, ce qui montre bien au minimum que l’entreprise a réussi à proposer un excellent module photo. On attendait beaucoup du Pixel 3, son successeur présenté cette semaine et Google le savait. Que ce soit pendant sa conférence de présentation ou même sur son site, l’appareil photo est mis en avant en premier, ce qui trahit l’importance de cette fonction.

Contrairement à tous ses concurrents maintenant, Google a opté pour un appareil unique au dos. Là où certains en installent quatre différents, la firme de Mountain View conserve son approche originale, avec un seul objectif et un seul capteur au dos. Le matériel est d’excellente qualité, mais la vraie différence vient du logiciel. Le Pixel 3 compte encore plus que son prédécesseur sur la photographie informatisée (« computational photography ») et c’est sans doute le smartphone qui va le plus loin dans le domaine, bien plus loin que les iPhone de 2018.

Le site spécialisé DPReview a obtenu, outre une galerie de photos, quelques informations techniques exclusives de la part d’ingénieurs Google qui ont travaillé sur le Pixel 3. Ils apportent plusieurs idées nouvelles dans l’univers des smartphones et repoussent encore les limites de ce que la photographie assistée par ordinateur peut faire… on fait le point.

Les mouvements pour améliorer la qualité des photos

Plusieurs nouveautés introduites avec le Pixel 3 dépendent en fait d’une même idée. Comme l’iPhone XS Max, les smartphones de Google prennent en fait plusieurs photos à chaque fois que l’on appuie sur le bouton pour en prendre une. C’est ce qui a permis au géant de la recherche d’introduire le mode HDR+ il y a quelques années, équivalent du Smart HDR d’Apple, et c’est ce qui permet d’obtenir des photos bien équilibrées, même avec des conditions lumineuses difficiles.

Photo prise avec un Pixel 3, fournie par Google.

Google a conservé ce principe général sur le Pixel 3 et l’a amélioré sur deux points importants. Déjà, le smartphone prend plus de photos à chaque fois, jusqu’à quinze images qui sont combinées en une seule. C’est cinq de plus que le Pixel 2 et six de plus que l’iPhone XS qui compose chaque image de neuf clichés différents au mieux.

La vraie différence toutefois est ailleurs. Le Pixel 3 ne se contente pas de prendre quinze photos en variant les paramètres d’ouverture et de sensibilité, le smartphone profite des mouvements naturels de votre main pour améliorer la qualité de l’image en augmentant le nombre de pixels. Son capteur de 12 mégapixels ne peut pas produire une photo de 20 mégapixels, mais en bougeant légèrement l’appareil photo, on peut gagner des pixels sur tous les côtés. Par ailleurs, cela améliore la qualité en apportant la même quantité de lumière, non seulement à chaque pixel, mais aussi à chaque sous-pixel rouge, vert et bleu qui compose le pixel complet1.

Même si le smartphone est parfaitement immobile, cette technique est utilisée en sollicitant la stabilisation optique. Normalement, la stabilisation permet de compenser un mouvement involontaire en imprimant au capteur un mouvement inverse. Google a détourné cette fonction pour faire varier très légèrement la position du capteur et ainsi obtenir le même résultat : une photo avec une définition légèrement plus élevée, et surtout une meilleure qualité d’image.

Photo prise avec un Pixel 3, fournie par Google.

Cette technique n’est pas nouvelle et quelques appareils photo la proposent, comme le Sony A7R III ou encore le Pentax K-1. Néanmoins, le Pixel 3 est le premier smartphone à le faire et surtout, Google a amélioré l’idée de base à tel point que la fonction est constamment utilisée. Sur les appareils dédiés, c’était une option, voire un mode spécifique, et il était lié à des contraintes importantes pour obtenir un résultat correct. Du côté de Sony, par exemple, le système consiste en quatre prises différentes, avec une attente d’une seconde entre chaque, ce qui rend l’utilisation d’un pied obligatoire.

Rien de tel sur un smartphone, on s’en doute bien. Google combine nettement plus d’images et tout ce travail est effectué en une fraction de seconde seulement et à chaque fois que vous prenez une photo. Il n’y a pas un mode spécifique à activer et il n’y a aucune condition particulière, il est disponible en permanence pour améliorer chaque photo prise avec le Pixel 3.

Mais en utilisant cette fonction, l’équipe en charge de la photo a trouvé de nouvelles idées pour enrichir l’appareil photo du Pixel 3. En particulier, deux nouvelles fonctions dépendent directement de ce capteur en mouvement : le zoom haute résolution et le mode « Night Sight » pour les photos de nuit. Le premier permet d’obtenir un zoom numérique de bien meilleure qualité, équivalent d’après Google à un zoom 2x optique.

Exemple du zoom proposé par le Pixel 3, photos fournies par Google.

Un zoom 2x, c’est exactement ce que propose Apple avec le téléobjectif de ses iPhone. Le Pixel 3 pourra aller bien au-delà de ce niveau, mais les meilleurs résultats seront obtenus sur les plus petits niveaux de zoom. Sur l’exemple ci-dessus, on voit bien quelques défauts, notamment le long du bras du modèle, mais l’image reste mieux définie qu’un zoom numérique traditionnel. DPReview ajoute que des exemples montrés par les ingénieurs de Google étaient plus impressionnants encore, il faudra voir ce que cela donne à l’usage.

L’autre fonction ne sera pas disponible au lancement du Pixel 3, mais sera activée par une mise à jour ultérieure. Night Sight sera un mode spécifique, qui ne sera activé qu’à la demande et qui nécessite des conditions particulières. Contrairement au fonctionnement normal de l’appareil photo, il nécessite en effet de maintenir le smartphone immobile pendant une seconde ou deux après avoir déclenché.

Tout cela, pour un résultat spectaculaire : des photos dans le noir qui ressemblent à des photos prises en journée. Pour parvenir à un tel résultat, Google exploite la capacité du smartphone à prendre jusqu’à 15 photos pour en créer une seule, mais aussi sur les mouvements du capteur. La différence avec le mode HDR+ qui est actif en permanence, c’est que chaque cliché intermédiaire est pris plus lentement, jusqu’à un tiers de seconde à chaque fois. En les combinant toutes, le Pixel 3 obtient le résultat d’une pose de 5 secondes, mais condensée en un temps nettement plus réduit.

Selfie de base à gauche, selfie avec la caméra grand-angle et surtout le mode Night Sight à droite.

Les algorithmes de fusion de Google se chargent d’éliminer le flou, mais aussi d’éviter les effets d’images fantômes sur les sujets en mouvement. Le rendu final n’est pas forcément naturel, dans le sens où la photo sera plus lumineuse que ce que l’œil humain peut apercevoir. Mais l’idée de l’entreprise, c’est d’offrir une option dans les situations si sombres où l’on ne sortait plus du tout un appareil photo auparavant.

Toute cette mécanique des photos combinées en une et du capteur qui se déplace n’est pas réservée aux JPEG. Le Pixel 3 est le premier smartphone de Google à proposer un mode RAW directement dans l’appareil photo de base. Et contrairement au mode RAW d’un iPhone XS, le rendu n’est pas radicalement différent entre les deux. La firme de Mountain View parle de « computational RAW » et c’est a priori une première dans l’industrie, et pas uniquement pour les smartphones.

Le mode RAW devra être activé dans les réglages du Pixel 3 (capture écran d’une vidéo de MKBHD).

Comme pour le JPEG, l’idée est de combiner jusqu’à quinze images en une seule photo et de l’enregistrer en DNG, un standard pour le RAW. Grâce à cet assemblage, Google a de grandes ambitions, puisqu’elle promet des RAW de la qualité d’un reflex équipé d’un capteur APS-C. Pour vous donner une idée, le capteur d’un iPhone XS mesure 40,6 mm², là où un capteur APS-C tourne autour de 350 mm².

Pour le dire autrement, Google a réussi à obtenir la qualité d’un appareil photo dédié avec un capteur de smartphone huit à dix fois plus petit. En tout cas, c’est ce que l’entreprise promet et évidemment, les reflex conservent de nombreux avantages, à commencer par une optique bien meilleure, mais il n’empêche que le Pixel 3 a bien progressé dans ce domaine. Et le smartphone a aussi des arguments à faire valoir, comme sa connexion cellulaire qui permet de partager immédiatement une image, ou encore la possibilité de stocker toutes les photos originales gratuitement sur Google Photos.

Photo prise avec un Pixel 3, fournie par Google.

L’intelligence artificielle à la rescousse

Google a aussi amélioré les algorithmes d’apprentissage automatisé (« machine learning) qui sont également au cœur de l’appareil photo de son smartphone. Ils servaient déjà dans les Pixel précédents, mais leur rôle est plus que jamais prépondérant dans le nouveau modèle. En particulier, le mode portrait repose plus largement sur l’intelligence artificielle pour distinguer les différents plans.

À la base, Google utilise une fonction de son capteur, qui présente des pixels légèrement décalés, pour obtenir une évaluation des distances. C’est ce qu’Apple et tous les autres constructeurs font avec deux appareils photos distincts, mais à une échelle qui ne permet pas d’obtenir naturellement un bon résultat. C’est pourquoi le calcul nécessaire est encore plus important sur les Pixel, et avec cette troisième génération, il se base aussi sur des modèles d’apprentissage pour améliorer le rendu.

Prenez cet exemple donné par Google. Sur la gauche, vous avez un mode portrait effectué essentiellement à partir du décalage des pixels, avec une carte de profondeur basée sur la stéréoscopie. Sur la droite, le décalage sert toujours, mais il alimente un algorithme de détection qui a identifié le sujet et l’isole mieux de l’arrière-plan. Notez en particulier la barrière derrière l’enfant, elle est parfaitement floue avec l’intelligence artificielle, alors qu’elle est partiellement nette sur l’ancienne version.

Les algorithmes de Google détectent parfaitement les formes humaines, mais pas seulement. Cet exemple montre aussi que des progrès sont à attendre pour appliquer du flou uniformément sur l’arrière-plan derrière un objet, ou dans les trous entre premier et dernier plan. Notez la différence entre le bras de l’enfant et la cuisse, c’est totalement flou sur la version basée sur les nouveaux algorithmes, plus nette sur l’autre.

On pourrait dire qu’il s’agit toujours de formes humaines, mais ce dernier exemple devrait alors vous convaincre. C’est un sujet très complexe, puisque cet objet troué laisse voir l’arrière-plan, ce qui nécessite un détourage complexe. La version basée sur le décalage n’affiche pas un flou uniforme du fond, celle créée avec l’intelligence artificielle offre un rendu bien meilleur, plus proche de ce qu’un appareil photo dédié pourrait offrir.

Google a aussi repris l’idée de l’éclairage de portrait d’Apple, mais en l’utilisant un petit peu différemment. Pour rappel, l’idée est de simuler l’éclairage que l’on pourrait obtenir dans un studio sur les portraits. Avec les iPhone de 2017 et les suivants, on a quatre éclairages différents sur iOS et on peut passer de l’un à l’autre sur toutes les photos prises avec le mode portrait.

Sur le Pixel 3, il n’y a qu’un seul éclairage, mais il est appliqué systématiquement à tous les visages. Google nomme cette fonction « Synthetic Fill Flash », c'est-à-dire un flash artificiel chargé de « déboucher » les ombres ou de mettre en avant un visage pour un portrait. L’entreprise évoque l’équivalent généré par des algorithmes d’un réflecteur physique, utilisé par les photographes professionnels.

Photo prise avec un Pixel 3, fournie par Google. Cet exemple montre l’effet du flash artificiel du smartphone, appliqué automatiquement sur les visages.

Dans ce cas, l’intelligence artificielle est utilisée pour distinguer les visages du reste — c’est le même mécanisme que pour le mode portrait — et pour modifier leur éclairage. Les traitements ajoutent un petit peu de luminosité pour simuler un flash sans avoir à utiliser le flash physique présent au dos du Pixel 3. Cela fonctionne aussi bien avec la caméra arrière, que les deux devant.

Ce même mécanisme sert aussi à une nouvelle fonction de stabilisation vidéo sur la caméra avant. Le Pixel 3 analyse le flux vidéo et détecte les visages sur chaque image, pour garder la mise au point sur lui, plutôt que l’arrière-plan ou un autre objet. Cette nouvelle stabilisation réduit la taille de la vidéo, mais elle permet apparemment d’obtenir un rendu beaucoup plus fluide.

Pour finir sur le chapitre de l’intelligence artificielle, notons qu’elle sert encore pour les photos de nuit avec le mode « Night Sight ». Google utilise ses algorithmes avancés pour la balance des blancs, puisqu’il n’y a plus assez de lumière pour un mode automatique traditionnel. Le Pixel 3 va essayer d’estimer la meilleure balance des blancs pour obtenir un rendu aussi réaliste que possible… il faudra voir ce que cela donnera en conditions réelles.

Photo prise avec un Pixel 3, fournie par Google. Même sans le mode Night Shift, l’appareil photo devrait bien s’en sortir de nuit.

L’intelligence artificielle est au cœur de l’expérience et nous n’avons pas encore évoqué tous les cas de figure où elle est utilisée dans l’appareil photo du Pixel 3. La fonction « Meilleur cliché » qui suggère une meilleure photo dans la demi-seconde qui précède et qui suit la prise2 est basée entièrement sur des algorithmes chargés de vérifier si le sujet sourit, s’il ferme les yeux, etc. Même chose pour la mise au point intelligente, capable de suivre une personne en mouvement, ou même un objet, si vous le sélectionnez sur l’écran.

Les tests du Pixel 3 n’ont pas encore été publiés, nous ne savons pas encore ce que vaut cet appareil photo hors d’un environnement contrôlé par Google. Néanmoins, ces premiers éléments sont prometteurs et on voit que l’entreprise continue d’innover dans ce domaine. Apple a fait un grand pas en avant cette année en matière de photographie, mais ça ne sera peut-être pas suffisant pour tenir la distance…


  1. Le Pixel 3 n’a plus besoin de passer par l’étape de dématriçage, ce qui améliore mécaniquement la qualité des images. ↩︎

  2. Au passage, les ingénieurs de Google ont indiqué que la qualité de cette photo serait inférieure à l’originale, mais suffisamment bonne pour que la différence ne se voit pas. On verra si c’est bien le cas, mais on imagine/espère que la perte de qualité sera inférieure à celle que l’on connaît sur iOS, quand on change la photo principale d’une Live Photo. ↩︎

avatar JLG01 | 

@pagaupa

Absurde si on considère les multiples usages professionnels.

avatar Nicolas Furno | 

@bidibout

Je pense pas que Google jouerait à ce jeu. Sur ce point, jusque-là ils ont fait comme Apple : les photos qu’ils mettent en avant sont bien prises avec le smartphone et sans retouche.

Ce qui n’empêche pas d’avoir un super équipement autour, ne serait-ce que des éclairages complexes. C’est pour ça qu’il faudra voir ce que ça donne avec un usage normal.

J’ajoute que la dernière photo de l’article est pas parfaite, ils auraient sans doute amélioré les phares de la voiture s’ils avaient retouché un peu.

avatar IPICH | 

@bidibout

Ça se voit que ce sont des photos retravaillés surtout.
Si le tel sort les photos comme ça ça fait peur pour celui qui veux les étalonner après ?

avatar jean_claude_duss | 

@IPICH

Qu’est que ce que tu raconte ? « Les étalonner » y’a
Rien à faire la, direct en sortie de smartphone elles sont déjà ouf !
La question que je me pose c’est quel fabriquant d’appareil photo ça implémenter ça en premier ?
Ou quel soft pc ou mac pourrait faire ça ?

avatar IPICH | 

@jean_claude_duss

Justement c'est l'appareil qui fait ta photo toi tu cadre et tout est automatique, ce qui est dommage.
Après je comprend parfaitement que la majorité des utilisateurs veulent juste sortir le téléphone de la poche et pouvoir obtenir en un clic une superbe photo.
Mais bon le fait de ne pas pouvoir obtenir plus naturel comme photo c'est dommage.

avatar jean_claude_duss | 

@IPICH

Plus naturel ? Elles sont top ces photos !! N’importe quel photographe qui passe son temps sur LR a essayer d’avoir la même chose serait bien content d’avoir la même chose directement (avec des curseurs s’ajustent bien sur)

avatar SebKyz | 

@jean_claude_duss

Ce qui fait la qualité d’un reflex même sans passer par lightroom c’est le naturel et la justesse des couleurs. Et ça, ça fait toute la différence. Surtout pour les photos de personnes. Je ne m’en passe plus pour ma fille et dès que je compare avec mon iPhone c’est hallucinant la différence.
Et puis pas de gros pâtés de pixels quand je zoom sur l’image...

avatar rikki finefleur | 

J aimerai savoir si l'ami SebKyz arrive a mettre son reflex dans sa poche...
Car si il faut déjà aller chercher son reflex , mettre le bon objectif et faire la photo , il se peut que le sujet soit déjà parti ou en ait marre d'attendre.

Idée : Il peut toujours faire un album des photos qu'il n'a pas pu faire.

avatar SebKyz | 

@rikki finefleur

Je crois que je ne critique pas trop les smartphones pour la photo. Je dis qu’il faut juste essayé un vrai apn pour voir de ses propres yeux la différence.
C’est génial un smartphone car on l’a toujours sur soit.
Mais quand je pars en vacances ou quand je sors avec ma fille j’ai mon Fuji x100s (tu remarqueras que ce n’est pas un reflex, je n’ai pas d’autres objectifs), et quand je l’ai pas j’ai mon smartphone ??
Quand je vois les photos qui sortent de ce boîtier, je ne pourrais plus m’en passer pour avoir de belles photos et ma fille sera contente de les voir plus tard et elle passeront bien dans 20 ou 30 ans. Tendit que les photos faite avec ton smartphone d’aujourd’hui ne passeront pas très bien sur les écrans qu’on aura à ce moment là. Faut y penser aussi au futur et anticiper.
Je reviens sur ton excuse de changer l’objectif et tout MDR....il faut sortir pour faire de la photo donc anticiper un minimum.

avatar Arcetnathon | 

@IPICH

Non c’est le photographe qui fait la photo.
C est ce qu oublie les lecteurs de ces tests de smartphones.

Un mec qui cadre pas avec un Pixel 3 fera quoi qu il arrive de moins bonnes photo qu un mec qui cadre avec un iphone 6

avatar IPICH | 

@Arcetnathon

Je parle pas de la qualité brute mais du tout automatique.
Il devrait y avoir un mode sans toutes ces améliorations esthétiques, sans baisser la qualité bien entendu

avatar fte | 

@IPICH

"Mais bon le fait de ne pas pouvoir obtenir plus naturel comme photo c'est dommage."

La photographie n’a jamais été naturelle. Il est toujours question de jeux de lumière...

avatar IPICH | 

@fte

Alors toi tu ne veux pas comprendre??‍♂️
Je ne parle pas de composition de la photo avec les jeux de lumière je parle du traitement logiciel de la photo par le téléphone.

avatar fte | 

@IPICH

"Alors toi tu ne veux pas comprendre??‍♂️"

Si si, rassure-toi, je comprends.

"Je ne parle pas de composition de la photo avec les jeux de lumière je parle du traitement logiciel de la photo par le téléphone."

Il n’y a plus aucune photo qui ne soit pas retouchée. Il n’y en a jamais eu, la lumière a toujours été interprétée par le support ou l’appareil, y compris argentique. Ne choisissais-tu pas tes pellicules selon le sujet à traiter ? Je le faisais, car le rendu était sensiblement différent.

Alors interprétation par des grains d’argent ou interprétation par des instructions de programme, quelle est la différence fondamentalement ? Sinon la beaucoup plus large marge d’interprétation qu’offre le logiciel...

Le fond de la question est de savoir à quel point on peut agir et travailler cette interprétation, et comment l’utiliser creativement pour transformer nos images.

avatar Gladjessca | 

À voir avec de vraies photos prises par les journalistes spécialisés sur les Pixels.

Croire en ces photos fournies par Google c’est comme croire que aux consommations d’essence données par les constructeurs, ou l’autonomie annoncée des voitures électriques !!!

avatar whocancatchme | 

Les arguments du prix élevés s'amenuisent chaque année, et pourtant le prix augmente toujours... On sait où ça mène. Tant mieux pour nous les prix baisseront chez Apple

avatar pagaupa | 

@whocancatchme

C’est encore un rêve! C’est même plutôt l’inverse ?

avatar Cybounet | 

Pourquoi les avancées de l’IA ne profitent pas aux mise à jour des iPhones?

Je m’explique. La plus part des avancées sont logicielles. Et nos smartphones sont sûr puissants. À la sortie d’un nouvel iOS la qualité des photos devraient être meilleures sur le même iPhone? Pourtant les avancées de l’IA ne sont réservées qu’aux nouveaux iPhone! Bridage??

avatar Nicolas Furno | 

@Cybounet

Puce dédiée. Les nouveaux iPhone ont un moteur neuronal bien plus puissant que les anciens.

avatar IPICH | 

@nicolasf

Mouai, c'est du chichi tout ça car ça fait des gros chiffres et le public se dit "wouaaaou!!" Mais en vrai le pixel 3 il explose l'iPhone Xs en photo.

Pour la prochaine salve d'iPhone vous verrez que, comme par magie, les 5 trillions d'opérations du A12 bionic ne suffiront plus pour les nouveautés du nouvel iphone, comme les 600 billions pour l'iPhone X.

avatar IPICH | 

@Cybounet

Oui bridage et exclusivité logicielle pour vendre le nouveau modèle à chaque fois et justifier le changement chaque année pour certains.?

avatar bonenza | 

Pour avoir vu de vrais photos provenant d’un pixel 3 c’est assez bluffant. D’ailleurs le possesseur du pixel 3 a revendu son reflex car les gens pensaient qu’il faisait ses photos au reflex alors que c’était le pixel.

avatar Carbonized | 

Il ne devait pas faire grand chose avec son reflex...
Je ne vois pas comment je pourrais me passer de mon 50mm f/1.4, ou de mon 100/400 Canon pour photographier les animaux.

avatar bonenza | 

@Carbonized

C’est sur qu en partant sur des zooms et des prime Lens... c’était sur que j’allais avoir ce type de réponse. ??
Je n’ai rien à vendre hein. Encore une fois pour avoir vu les photos elles sont très juste d’un point de vue colorimetrie et sur la profondeur de champs.
Après je vois beaucoup de gens avoir des reflex et qui mettent tout en mode auto. Ce n’était pas le cas de ma connaissance.

avatar SebKyz | 

@bonenza

Un reflex en mode auto lol ?
Ces gens là doivent prendre un Smartphone tu as raison.

avatar IPICH | 

@bonenza

???????????? c'est d'une tristesse. Ils ont vu les photos sur une TV ou sur l'écran du téléphone?

avatar SebKyz | 

@IPICH

À ton avis...
Les gens aiment bien convaincre sur la super qualité des photos prises par Smartphone. Faut juste leur faire tester un vrai appareil photo.

avatar Guizilla | 

Les algorithmes d’apprentissage reposent sur une source importante de données sur lesquelles les algorithmes...apprennent. Or Google dispose de ressources incomparables face à Apple. D’autant plus qu’Android et Google Photo leur permettent grâce aux clients d’entretenir cette quantité de données. Apple n’a comparativement rien face à Google. C’est pourquoi l’IA d’Apple est moins avancée que celle de Google.

avatar Mickaël Bazoge | 
Tout ça pour des photos de chats et de bouffe pour Instagram.
avatar pagaupa | 

@MickaëlBazoge

Mdr ?

avatar Nicolas Furno | 
avatar klouk1 | 

@MickaëlBazoge

Ouais c’est à croire que certains choisissent leur smartphone en fonction de l’apn. Truc de ouf

avatar Lemmings | 

@klouk1 : bha carrément oui... Perso c'est peut-être l'un des critères les plus importants. Juste après la taille du smartphone (encombrement)... Là j'ai un Samsung s9 qui me convient pas mal même si j'aurais préféré l'apn du huawei p20 pro...

avatar SebKyz | 

@Lemmings

Regardes-tu tes photos sur autre chose que l’écran de ton Smartphone ?

avatar pagaupa | 

@SebKyz

Bonne question.
Ont-ils déjà donné une photo de smartphone à un imprimeur?
Et même si, il a dû les maudire...

avatar Lemmings | 

@SebKyz : oui, sur mes ordis... Et sur un grand écran je vois clairement la différence d'un téléphone à l'autre.

Je ne cherche pas à avoir le meilleur appareil photo possible, sinon j'aurais un appareil dédié, mais je souhaite faire les plus belles photos possible avec mon téléphone.

avatar SebKyz | 

@Lemmings

Tes derniers mots sont justes ??

avatar victoireviclaux | 

La fonction de décalage des images pour améliorer la qualité, rappelle celle du Sony A7R III avec la fonction Pixel Shift. (Sauf que là c'est le capteur qui bouge)

avatar pagaupa | 

On n’aurait pas ce genre de discussion si les possesseurs de smartphones ne se prenaient pas pour des photographes en puissance...
Ne leur en déplaise, une photographie de professionnel, ce n’est pas qu’un clic de smartphone.
Et heureusement!

avatar IPICH | 

@pagaupa

Exact.?

avatar Florian Innocente | 

@pagaupa

L’élite de la photographie aurait-elle les chocottes de voir que la plèbe peut faire chaque année de plus jolies photos avec un bon smartphone ? ?

Les gens ne cherchent pas à faire de la Photographie mais ils veulent faire de bonnes photos sur le pouce et sans avoir un truc lourd avec une bandoulière autour du cou, et c’est ce que permettent ces évolutions dans le mobile.

Après le débat argentique vs numérique on dirait qu’on en est au capteurs optiques vs IA. Et on sait déjà qui va gagner. Même si les amateurs de reflex n’auront pas perdu au sens propre du terme.

avatar pagaupa | 

@innocente

Qui a parlé d’argentique?
Pour ma part, je dis qu’une photo de pro avec un reflex sera pour l’instant toujours meilleure et de loin à celle d’un smartphone.
Rien de plus.
Ne me fais pas dire ce que je n’ai pas dit.

avatar Florian Innocente | 

@pagaupa

Parce qu’on en revient toujours aux même débats stériles qui tournent en rond.

Évidemment qu’un reflex fait encore aujourd’hui et pour un bon moment encore de bien meilleures photos qu’un smartphone.

Mais un smartphone offre une somme d’avantages pour un résultat très satisfaisant. Mais même là je ne fais que répéter des évidences.

avatar Silvermax | 

J’espère que le lancement des Pixels un peu partout pourra faire bouger Apple en photo bien qu’ils sont bons mais ils pourraient faire mieux et proposer sur TOUT le iphone pas comme si le hardware faisait jauger le taux de flou. C’est du software...

avatar IPICH | 

Les selfies dans le noir c'est de l'abus clairement...

avatar Bassim | 

Je pense que la messe est dite. Google a mis K.O Apple, et ça paraît évident et sans conteste !!

Ça me fera pas changer de boutique car Apple Watch MacBook etc ..mais force est de constater qu’il n’y a pas de rival à Google en photographie aujourd’hui.

avatar JLG01 | 

@Bassim

Parole de vendeur. C’est vraiment trop beau.
Il est utile d’attendre les testes de tierces personnes.

avatar Bassim | 

@JLG01

I agree. Mais je pense que la marche parait tellement haute que les résultats de personnes tierces n’y feront rien ...

avatar thebarty | 

@Bassim

Bah, on va attendre les vrais tests...
En tout cas, je suis contre le selfie donné en exemple. Ce n’est plus la réalité. Comme l’a dit qqun plus haut, on va assister à une homogénéisation des photos (de smartphones) et perdre le naturel, l’authentique. Bof. Je ne veux pas que mon smartphone retire des flous que j’ai voulu garder parce que cela ne lui plaît pas.

avatar Bassim | 

@thebarty

Impatient également de voir « les vrais » tests...pour mesurer l’étendue des dégâts ..

Pages

CONNEXION UTILISATEUR