Le mode nuit des Pixel est aussi impressionnant que promis
Quand Google a présenté ses nouveaux Pixel à l’automne, nous avons eu droit à une démonstration d’une fonction de l’appareil photo qui n’était pas encore présente. « Night Sight »1, un mode nuit qui promettait de prendre des photos là où aucun smartphone ne pouvait le faire auparavant, y compris dans le noir quasiment complet. En guise de démonstration, le géant de la recherche avait donné cette comparaison qui avait bluffé tout le monde… et créé quelques sceptiques au passage.
La différence était telle que l’on avait le sentiment que Google avait trafiqué les photos pour creuser l’écart entre son appareil photo et celui d’Apple. L’absence de la fonction au lancement a entretenu ces suspicions, mais l’entreprise a annoncé hier que le mode nuit était finalisé et que tout le monde allait pouvoir le tester. D’ailleurs, la fonction n’est pas réservée aux nouveaux Pixel 3, tous les Pixel, y compris le modèle de 2016, peuvent en bénéficier, via une mise à jour de l’appareil photo qui sera distribuée dans les prochains jours.
Android oblige, il était en fait possible de tester la fonction en avance. Un petit malin avait trouvé comment débloquer la fonction et on pouvait déjà télécharger une version alternative de l’appareil photo, avec Night Sight. C’est ce que j’ai fait dès que j’ai reçu le Pixel 3 XL que je suis en train de tester, et j’ai été impressionné par les résultats.
Le mode nuit brille dans certaines situations et échoue parfois spectaculairement dans d’autres. C’est pourquoi il s’agit d’un mode spécifique, que l’utilisateur doit activer, et non d’une option qui s’active automatiquement, comme le mode HDR des smartphones modernes. Quand l’appareil photo juge qu’il n’y a pas assez de lumière, il suggère de l’activer avec un message à l’écran. Si l’utilisateur le souhaite, il peut alors faire défiler la longue liste d’options, toucher « Plus » et activer le mode nuit proposé dans la liste de modes spéciaux.
Les résultats ne sont pas toujours bons, mais il y a un autre point qui peut poser problème : le mode nuit est lent. Comme nous l’avions évoqué dans un précédent article, Google utilise une pose longue pour capter davantage de lumière. La différence, c’est que plusieurs photos (jusqu’à 15) sont combinées pour augmenter la durée de la pose par un savant assemblage. De fait, même si prendre une photo en mode nuit est plus long, il ne faut qu’une seconde ou deux en général, pour obtenir l’équivalent d’une pose de cinq à six secondes.
Concrètement, la prise se fait en deux étapes. Dans un premier temps, le Pixel 3 va prendre une photo avec un temps de pose légèrement plus long que la normale. Pendant cette étape, l’appareil vous indique de ne pas bouger, et si vous voulez éviter du flou, il est important de respecter la consigne. De la même manière, tous les objets trop rapides seront flous pour cette raison. Cette étape dure moins d’une seconde en général, et une deuxième suit pour collecter de la lumière. Celle-ci peut durer une à deux secondes, mais elle n’oblige pas à garder le smartphone bien stable, il s’agit uniquement d’enrichir la première photo avec des informations supplémentaires.
Le traitement n’est pas appliqué en direct, il faut deux ou trois secondes de plus pour que Google « prépare » l’image. Tout est effectué en local, grâce à une puce spécifique présente dans les Pixel, mais il faut malgré tout une petite attente pour obtenir la photo finale. Dernier point important à noter, ce qui est affiché au moment de prendre la photo n’a rien à voir avec le résultat final. L’app pousse au maximum la sensibilité pour vous permettre de voir quelque chose et le résultat est très granuleux, mais la photo finale sera meilleure.
Dans la suite, la photo standard est toujours à gauche, celle en mode nuit est à droite. Toutes les photos ont été prises avec un Pixel 3 XL et avec un mode nuit en bêta.
Assez parlé, que vaut ce mode nuit ? Comme vous pouvez vous en douter, il fonctionne mieux de nuit, surtout dehors. Dans ce cadre, on obtient des photos spectaculaires, avec parfois le sentiment étrange qu’il faisait encore un petit peu jour. Il faut dire que Google utilise de l’intelligence artificielle pour la balance des blancs, avec parfois des résultats étranges, comme ce ciel bien bleu alors que l’on était en pleine nuit.
Même s’il ne fait pas totalement nuit, ce mode peut améliorer des photos, ou en tout cas offrir une version plus lumineuse, plus nette et avec moins de grain. Ces photos prises au petit matin en témoignent bien.
J’ai surtout utilisé le mode nuit en intérieur néanmoins, et même dans ce cadre, on peut obtenir des résultats assez bluffants. Les photos en mode nuit sont plus lumineuses, naturellement, mais aussi souvent plus justes en termes de colorimétrie, avec une balance des blancs qui évite les couleurs trop chaudes de l’appareil photo classique.
Même si les conditions lumineuses sont bonnes, le mode nuit offre parfois une meilleure balances des blancs, en tout cas un rendu moins jaune. Comme Google l’explique, son mode nuit essaie de tenir compte des éclairages et de restaurer les couleurs de jour, ce qui veut souvent dire limiter la teinte jaune que l’on a de nuit. Sur ces exemples, cela permet aussi d’obtenir un blanc moins jaune, tout en améliorant aussi la netteté de l’image.
Google indique qu’il faut un petit peu de lumière pour que le mode nuit fonctionne, mais il en faut en fait très peu. Si vous n’avez pas peur d’avoir du grain numérique, vous pouvez prendre des photos quasiment dans le noir et obtenir un résultat qui est loin d’être parfait, mais qui peut servir. Ce sont des cas où je n’aurais même pas imaginé prendre une photo avant, le résultat à cet égard est impressionnant.
Le mode nuit fonctionne également avec les selfies, à condition de ne pas trop bouger et de ne pas essayer dans le noir. Le capteur avant est moins bon, ce qui veut dire que Google ne peut pas utiliser une pause aussi longue et les résultats souvent nettement moins bons. Vous pourrez obtenir une image plus nette, mais la peau est lissée de manière agressive et le grain revient vite… pas de miracle, le capteur au dos est plus adapté au mode nuit.
Le mode nuit ne donne pas toujours de bons résultats. Si votre sujet bouge beaucoup, comme un chat par exemple, vous risquez d’obtenir une série de photos floues sans grand intérêt. Et il y a quelques situations qui ne donnent pas de bons résultats, notamment des photos prises dans le noir, avec des LED. On obtient une image baveuse, tout juste bonne à jeter.
Pour conclure, le mode nuit apporte une souplesse jamais vue sur un smartphone auparavant. Ce n’est pas de la magie, mais Google profite de son avance en matière de photographie informatisée pour offrir une fonction très difficile à mettre en place auparavant. Des apps tierces pouvaient déjà faire des poses longues, certaines comme Hydra ont même déjà exploité l’idée de combiner plusieurs photos en une seule pour capter plus de lumière, mais les résultats sont très inférieurs.
Le Pixel 3 ne se contente pas d’assembler plusieurs images ensemble, il collecte aussi davantage de lumière après avoir pris la photo, et surtout il applique une montagne de traitements et d’intelligence artificielle. En comparant le mode nuit de Google au mode basse luminosité de Hydra qui combine dix images, la différence est nette, surtout quand la photo est prise dans la pénombre. Ajoutons que l’app pour iPhone ne gère pas du tout les mouvements, alors que le géant de la recherche sélectionne une image clé pour aligner toutes les suivantes.
Bref, ce n’est pas de la magie, mais c’est un outil supplémentaire très simple à utiliser et qui pourra sauver bien des photos. Google a pris de l’avance dans le domaine, mais on ne serait pas surpris qu’une fonction similaire arrive chez Apple (et les autres) dans les prochaines années.
Pour en savoir plus sur Night Sight et obtenir quelques conseils pour avoir de meilleurs résultats avec un Pixel et son mode nuit, le blog de Google offre de nombreuses précisions supplémentaires. Les Pixel 3 sont disponibles en France à partir de 859 €.
-
En français, le mode « Vision de nuit », mais la suite de l’article évoquera simplement le mode nuit. ↩︎
@SIMOMAX 1512
Nan mais parler de quelque chose qu'on ne connait pas ????
J'ai aussi le pixel 2 xl et le mode nuit est bien prévu dessus comme sur la première génération. Il y a un seul mode nuit et pas 36.
Sérieux c'est quoi l'intérêt de venir contredire quelqu'un le prendre de haut sur un sujet qu'on ne connait manifestement pas a part se tourner en ridicule ?
Résultat connus de ceux qui utilisaient déjà les pixels. Ça fera taire les mauvaises langues.
En matière de photo sur smartphone il y aura un avant et un après pixel.
Vous avez déjà essayé de prendre des photos en mode nuit avec des appareils photos ? Il ne faut ABSOLUMENT pas bouger.... et c’est vraiment difficile. Avec un trépied c’est bon, mais sans trépied....
J’ai un réflex et j’ai eu d’autres apn ... et le mode nuit... on évite car c’est souvent flous.
Et il ne faut pas de sujet en mouvement.
@arsceniq
C’est la force du pixel
Examiner la scène, les mouvements du téléphone/capteur pour pondérer le tout et récupérer les informations de lumière et couleurs, mais aussi les objets/personnes en mouvement le tout avec une bonne ia derrière
Un bon reflex n’en ferait pas forcément autant.
C’est le soucis des reflex : le capteur est bien meilleur mais le soft derrière est d’un autre siècle.
Du coup les smartphones atteignent, voir dépassent la qualité des reflex selon les conditions de prise de vue.
(Enfin sur une scène fixe avec trépied oui un reflex fera toujours mieux)
@Moumou92
"Mais un reflex, ça s’utilise exclusivement en mode manuel... sinon aucun intérêt..."
Mince, je n'utilise jamais mon reflex en manuel. Je suis toujours en P et décalage du programme ou en A.
Quant à l'intérêt, je n'avais pas réalisé que grand capteur et optiques interchangeables n'avaient aucun intérêt. Que seul le mode M en avait.
Désolé. Je suis vraiment stupide. J'ai honte.
Par rapport à Hydra sur iPhone (en mode basse luminosité), est-ce meilleur? Est-ce plus pratique? Il me semble que le principe est similaire, je me trompe ?
@DahuLArthropode
J'ai évoqué Hydra justement. Si l'idée de base est la même, la réalisation est très différente, comme vous pouvez en juger dans l'article.
Par contre, Hydra est plus rapide que le mode nuit du Pixel.
@nicolasf
Merci. J’aurais dû lire jusqu’au bout.
Si le résultat n’est du qu’a des traitements logiciels et non au capteur lui même, alors le même type de traitement pourrait être mis en place sur iPhone ?
La honte pour Apple serait que Google sorte un app photo sur iOS qui soit meilleur que celle d’Apple.
Hein !!! Apple ? Ça serait la loose ça ? Donc vous avez compris ce qu’il reste à faire ... allez hop ! Au boulot pour une mise à jour.
@kafy28
Non, le capteur est aussi un élément indispensable. On l'avait expliqué dans cet article, Google fait bouger le capteur pour améliorer la qualité des photos. Ce serait impossible à faire sur un iPhone.
C'est exactement le genre de fonctions qui nécessitent une association étroite entre matériel et logiciel.
@Nicolas Furno
Pour augmenter la qualité du zoom, via microvibration du capteur.
Mais pour accumuler plus de lumière avec une pose longue tout en compensant les mouvements via détection des formes et exploitation des capteurs inertiels de smartphone, ça, c'est possible purement en soft.
@byte_order
Mais justement, c’est ce que je dis, ils utilisent cette technique du capteur pour tout, pas seulement pour le zoom.
Ce que je veux dire c'est que même sans le mode HDR via vibration du capteur, y'a quand meme moyen d'appliquer le type d'algorithme en jeu dans Night Shift et obtenir un résultat intéressant quand même. Accumuler la lumière par calcul logiciel sur une série d'images en corrigeant le mouvement par logiciel, c'est possible. Cela se fait en astrophotographie depuis des dizaines d'années, et nul besoin d'un capteur microvibrant pour cela.
Sur le pixel, evidemment qu'ils exploitent au maximum tout à la fois, mais y'a moyen d'adapter une grande partie des principes sur d'autres plateformes matérielles et d'en obtenir quand même des gains intéressants, probablement moins bon qu'ici, mais meilleurs que la simple sur-exposition one shot.
@byte_order
Ah naturellement ! Mais Google utilise le stabilisateur optique du capteur en fait, donc les concurrents peuvent en faire autant sans même changer le matériel.
Cela dit, le problème sera logiciel, ce que Google fait n’est pas simple.
@Nicolas Furno
Ce n'est pas le capteur du Pixel 3 qui bouge, c'est l'optique (via la stabilisation optique).
Google ne pourrait pas le faire sur un iPhone (j'imagine qu'Apple ne met pas à disposition des développeurs une API permettant de contrôler l'OIS), mais Apple pourrait peut-être le faire sur ses iPhone ; ils sont bien capables de stabiliser les photos et vidéos, alors ils ont peut-être le contrôle de l'optique via le software – à moins que le contrôle de la stabilisation soit plus bas niveau.
Le Xr excelle également en mode nuit, on nous a dit que c’était dûe au fait qu’il n’a qu’un seul capteur, alors pourquoi ne pas avoir comparé le pixel 3 au XR plutôt ?
« même si prendre une photo en mode nuit est plus long, il ne faut qu’une seconde ou deux en général, »
Ça ne choque personne, une pause d’une seconde ???
Avec l’utilisation que j’ai de mon appareil photo, 99% des photos seront floues ?...
@Yves SG
Ce serait le cas pour tout le monde ! Sauf que Google a trouvé la solution en alignant toutes les photos prises avec le Pixel 3 sur une, choisie comme étant celle de base.
Et ça ne concerne pas que le mode nuit, ce mécanisme est actif en permanence. Il est aussi beaucoup utilisé pour le zoom, comme expliqué ici : https://www.igen.fr/android/2018/10/google-detaille-le-fonctionnement-du-zoom-haute-resolution-des-pixel-3-105608
J'ai reçu hier la maj de la camera sur mon Pixel 3 et j'ai du coup fait pas mal de tests. Ce qui est assez ahurissant, c'est que retrouve la plupart du temps les couleurs originelles là où même à l'oeil je ne vois plus que des niveaux de gris. J'ai eu quelques ratés mais c'est globalement assez magique. C'est vraiment le truc qui m'épate avec l'appareil photo du Pixel 3, on ne se prend pas la tête, on prend la photo et à quasiment tous les coups on obtient un bon résultat. C'est la première fois que j'ai aussi peu de déchets avec des photos prises d'un smartphone.
J'aurai quand même aimé pouvoir intervenir plus finalement sur certains réglages pour voir. Là, c'est vraiment simple, basique mais les résultats sont quand même super bons.
avec un traitement logiciel on obtient la même chose. google ne fait que raccourcir le temps de développement de la photo.
et puis, une photo se doit être une fidèle copie de la scène photographiée. pas d'inventer de la lumière artificielle là où ça manque.
pour ne pas dire que de tels traitements n'ajoutent pas de la valeur. sont juste des arguments commerciaux de nos jours. le niveau général du graphisme et de la photographie est plus bas que jamais. les meilleurs sont déjà morts.
Je ne suis pas certain. Ton traitement logiciel ne va travailler que sur une seule photo. Là, l'appli camera va travailler sur une dizaine de photos et va combine le tout en s'appuyant en plus sur la tonne de données de scènes d'exemple que leur machine learning a permis d'extraire des millions de photos qu'ils ont traités (pas les photos des users à priori ;-) ).
@marenostrum
lol j'adore quand quelqu'un essaie de définir les limites pour une bonne photo où une photo réaliste d'ailleurs on sait pas trop c'est comme l'art il y en a toujours qui prétendent mieux définir l'art que d'autres sans pour autant dire qui a fixer ces règles.
Et non pour moi une photo ne se doit pas forcément être une copie conforme de la scène photographiée. Prenez une photo d'une chute d'eau avec un temps d'exposition long et l'eau va prendre l'aspect d'une brume ce qui va transcender la scène. Pour vous ce n'est pas une photo pour moi c'est tout l'opposé c'est tout simplement sublime.
Ce n'est pas parce que l'œil ne voit pas certaines choses qu'une photo ne doit pas les restituer.
Enfin chacun vit dans ses limites....
le Prix définit en fait tout. si t'arrives la vendre ta photo, elle est réussi, sinon elle n'est pas réussi. le traitement logiciel ou matériel est secondaire. (y a des agences que n'acceptent pas des photos traitées par logiciel).
maintenant à toi de nous montrer la photo la plus chère du monde et la comparer avec d'autre domaines. ça montre le niveau général des valeurs. mais le prix, valorise (ou pas) tout. y en a pas d'autre mesure.
Non le prix ne défini pas tout mais certaines personnes aiment y croire car ça les rassure dans leur choix et dans le fait qu'ils ont du goût.
Des exemples il y en a plein notamment en peinture. Nombre de peintre dont les peintures sont accrochés dans les musées aujourd'hui n'étaient ni connu ni reconnu de leur vivant. C'est bien des années après leur mort qu'on a reconnu leur talent et leur contribution a la peinture.
La photo n'échappe pas à cette loi.
Sans compter que souvent en photo tu peux jouer sur deux tableau la qualité du cliché et le sujet choisi.
Ressort de tes tiroirs une photo d'Elvis Presley
sortant d'un bar totalement inconnu pris a l'arrache cadrée juste ce qu'il faut et elle atteindra des sommets prend la même photo de ton voisin et ça fera 0.
Mais ce toute façon ici c'est par le sujet le problème c'est bien ceux qui veulent faire croire qu'une photo doit être ceci ou cela pour être bonne out agréable à regarder.
le fait que certains peintres étaient pas connu, veut rien dire. (ils étaient en avance avec leur temps, et puis l'époque joue beaucoup. y a des époques, comme la nôtre ou l'art n'est pas primordial. ça intéresse très peu de gens qui souvent n'ont pas d'argent). c'est le prix actuel de leurs œuvres qui mesure leur niveau.
va acheter aujourd'hui un Van Gogh. il faut des millions. lui n'a rien vendu en son vivant. il était incompris, ce qui l'a poussé vers la folie, la mort. mais lui-même le savait qu'il était Un grand peintre dès le debout. par contre y en a des œuvres qui ont coutés des millions et que aujourd'hui ne coutent plus rien. ça veut dire qu'à l'époque les auteurs ont profité des circonstances autre que leur talent ou la vraie valeur de leurs œuvres. pour ça qu'on dit que le meilleur juge est le Temps. plus le temps passe et plus une vraie œuvre prend de la valeur. parce qu'on remarque que y en a pas mieux.
mais bon c'est pas Pixel 3 qui va permettre ça. de valoriser une œuvre. eux cherchent juste les vendre, ou tromper les gens.
Vous avez un sacré jugement et une haute opinion de vous même pour déclarer que l'art n'avait pas la même place hier qu'aujourd'hui ou dire que l'art n'est pas primordial.
Et bonjour le double discours au dessus vous définissez la valeur d'une photo par son prix et quelques lignes en dessous vous placer l'art comme marginal... Il n'est pas primordial pour vous votre milieu essayer un jour de mettre les pieds chez Christie's ou Sotheby's et essayer de tenir le même discours.
L'art n'est pas primordial pour vous ou votre milieu mais il l'est un peu partout sinon il n'y aurait pas de musées d'exposition de gallerie partout dans le monde...
L'art n'est pas primordial comme la recherche scientifique mais il est bien présent dans toutes les cultures et je connais pas un pays qui a fait l'impasse dessus ou qui le rejette.
Quant a dire que certains peintres étaient incompris facile a dire une fois qu'ils ont leur place dans les musees l'exploit ca serait de voir ceux qui seront reconnus demain.
Quant à votre avis sur le pixel il ne regarde que vous,après tout personne ne vous demande de l'utiliser ou de reconnaître son utilité mais ceux qui s'en serviront apprécieront ses capacités a générer des photos qui autrement leur auraient été inaccessible.
Et c'est bien l'avis de ces personnes qui importent pas de ceux qui jugent de loin.
@marenostrum
> le Prix définit en fait tout.
Ah, ben voilà, là on vous retrouve.
Seul l'argent est une mesure de valeur pour vous, au moins là c'est clair.
Et à partir de là, on sait donc qu'il ne sert à rien de parler avec vous d'autre chose que d'argent.
parce que l'argent est une valeur objective. les autres sont subjectives. on peut aimer un truc que personne aime ou achète. mais c'est subjectif. le prix monte en flèche quand la chose est demandé par tous. ça montre que la chose a de valeur.
mais ça aussi c'est subjectif par rapport au temps. aujourd'hui une chose peut couter cher et demain rien, personne l'achète. pour ça j'ai parlé du Temps. quand on voit aujourd'hui certaines choses qui coutent toujours une fortune et qui ont plusieurs siècles, on peut dire sans se tromper que elles sont des valeurs sûres. etc.
La vache j'aurais jamais cru voir un truc pareil le pire c'est d'y croire..... ???
Bienvenue dans le monde d'aujourd'hui une chose n'a de valeur que si elle a un prix et un prix élevé.
Pas étonnant avec un raisonnement pareil qu'on soit au bord du gouffre et que pour certains une vie ne représente plus rien. Normal ca n'a pas d'étiquette ?
ç'a été toujours comme ça, ça date pas d'aujourd'hui. mais ça t'empêche pas de aimer des choses sans valeurs. la plupart des gens travaillent pour manger encore. on parle 24/24 sur l'économie, chômage, etc. l'art c'est après minuit à la TV.
bref ça montre notre époque. pour ça la plupart des artistes contemporains sont des charlatans. ils jouent le rôle d'artiste seulement. ils en profitent, personne connait les valeurs, la vraie beauté.
on applaudit tous les spectacles. à l'époque de l'opéra italienne ils te crachaient dans la gueule si tu chantais faut sur scène, parce que tout le peuple savait chanter. l'Art était populaire. pour les peintres, l'architecture, etc, ça passait pareil. le peuple était connaisseur.
Non désolé ça toujours été comme ça pour vous et certaines personnes. Et c'est ce qui fait toute la différence. Vous vous achetez une conscience en y croyant et ça se voit dans vos propos.
Moi quand je regarde une photo où un tableau je ne le juge pas a la quantité de pognon qu'il représente ( comme je l'ai dit plus haut ) ce qui est votre manière de faire. Après ça vous regarde mais désolé de vous l'appendre mais il y a encore des gens qui fonctionnent autrement ils ne sont pas une minorité.
Et le fait de travailler pour de l'argent n'a rien a voir avec le fait de mettre un prix sur tout et n'importe quoi la première est une nécessité la seconde une avidité vis a vis de la luxure ou comme je l'ai dit une manière de se rassurer dans ses choix ou ses goûts.
Après je n'aime pas votre manière de pensée mais c'est la votre ok mais ne mettez pas tous le monde dans le même panier. ;)
Et mon dieu "la plupart des artistes conptemporains" sérieusement sortez de chez vous voyagez un peu car les artistes ne se trouvent pas dans votre salon ou que dans le théâtre de votre quartier.....ceux là ils ne bossent pas avant tout pour l'audimat ou remplir des salles mais pour montrer ce qu'ils savent faire?
@marenostrum
> le prix monte en flèche quand la chose est demandé par tous.
> ça montre que la chose a de valeur.
Non, ça montre que la demande est supérieure à l'offre, rien de plus.
Une offre qu'on peut parfaitement manipuler sans changer un iota à la valeur du bien, en contrôlant simplement sa rareté.
"Parceque l'argent est une valeur objective"
Il existe pas un concours genre la blague de l'année ?
> et puis, une photo se doit être une fidèle copie de la scène photographiée.
> pas d'inventer de la lumière artificielle là où ça manque.
Et vous venez de tuer l'astrophotographie...
Le Pixel fonctionne comme un reflex en fait, l’ouverture dure plus longtemps et absorbe davantage de lumiere. Si on bouge, ca devient flou. Ok y a un petit traitement logiciel derriere (comme on peut en faire un sur FCPX ou Adobe pour balancer l’exposition, les blancs et les couleurs) qui est fait rapidement, mais tire assez sur les blancs comme le fait remarquer l’article. C’est un bon debut!
Ca va plus loin que ça, y'a recomposition de l'image par accumulation et corrélation d'une série d'image avec reconnaissance des formes et en prenant en compte les informations de mouvements collectés par les capteurs inertiels du smartphone pour, justement, compenser le problème de flou habituel des longues pauses.
@byte_order
Merci pour le detail. Je pense bien que c’est un peu plus compliqué et que la partie AI/logicielle fait un beau et rapide traitement. Pas de magie, il faut toujours faire entrer de la lumiere dans la boite pour offrir un resultat acceptable, et la lumiere n’entre pas plus vite avec un capteur Pixel, iPhone ou Galaxy. C’est une course à l’optimisation logicielle.
Il n'y a pas un mode pro sur les iphones? Un trepied et le tour est joué
l'iPhone n'arrive pas faire la mis au point la nuit, ça s'accroche pas au ciel, le capteur détecte rien. la pleine lune par ex, on peut pas la photographier. y a pas de mode manuel et régler dans ces cas particuliers la distance en infini. il est décevant. pour les objets près de nous, ça va.
Une pensée pour tous les bolosses ici présents qui disaient que c’était pas possible avec un grand manque de discernement.
Un peu comme ce youteubé qui dit qu’Apple triche sur GeekBench, ou pire ceux qui pensent que GeekBench est un outil fiable de comparaison de performance multiplateforme pour des applications IRL...
Merci à vous.
A
L’iPhone est complètement largué là
C'est genial ...mais quelque chose me gêne la dedans, la restitution de la réalité ....?! C'est meme pas fidele a la vrai scene
@eastsider
C’est ce que je me disais, c’est une sacré prouesse mais la photo de la plante, ce serait une photo de plein jour que ça serait pareil.
J’aimerai mieux que l’iPhone puisse réduire les bruits sur les photos sombre que de voir des photos de plein jour.
Ça n’enlève rien à la performance.
C'est comparable à une photo sous exposée prise au format RAW et développée dans un logiciel adapté (Lightroom, DXO, Capture One etc...) L'effet est bluffant quand on récupère de l'information dans les ombres et les noirs, mais c'est (surtout dans les basses lumières, moins dans les hautes, les capteurs numériques étant meilleurs dans ce cas là) au détriment d'une montée du bruit très sensible.
Le pixel oblige quand même à une expo longue sans bouger ce qui n'est pas facile!...
@tpng
> Le pixel oblige quand même à une expo longue sans bouger ce qui n'est pas facile!...
C'est possible de lire l'article et si possible l'article lié détaillant la technique employée par Google avant de commenter plutôt que de passer à côté que les mouvements, inévitables, sont compensés algorithmiquement, par corrélation sur 15 images via reconnaissance des formes et prise en compte des données des capteurs inertiels durant la prise ?
Si ce mode ne fonctionnait qu'avec le smartphone fixé à un trépied, cela serait assez inutile, vu que l'objectif annoncé par Google est de permettre à l'utilisateur d'oser sortir son smartphone en condition sombre pour prendre quand même une photo exploitable, là où habituellement il sait d'expérience que cela rendrait rien faute d'assez de lumière ou d'absence de trépied pour se permettre de jouer avec l'exposition de manière efficace.
Il est clairement précisé dans l'article que le pixel demande à l'utilisateur de ne pas bouger lors de la prise de vue au risque de flou de bougé!!
Donc oui, cela fut possible pour ma pomme de lire l'article...
Et je ne parle à aucun moment de trépied! Et oui encore, une expo d'une seconde c'est pour moi une pose longue et c'est compliqué à mettre en oeuvre, d'ailleurs l'auteur soulève les nombreux résultats totalement flous obtenus, preuve que la techno est loin d'être fiable.
Je dois avouer que je ne suis pas un fan absolu de ces technologies qui nous donnent des images artificielles (les HDR improbables ont été à la mode un moment et je les trouvais ridiculement laids).
Une belle photo de nuit n'a pas forcément besoin d'être artificiellement éclairée, elle se suffit à elle même si elle est réussie, dans le cas contraire on la met à la poubelle, rien de grave, c'est le quotidien du photographe, même amateur !...
En fait les photos floues de l'article ont une explication autre : c'est le sujet qui bouge.
Honnêtement pour l'utiliser depuis presque 1 mois les photos sont tout le temps nettes.
Elles ont des defauts mais sur 100 photos j'en ai 99 de nettes. C'est "facile" a utiliser.
Pages