Google détaille le fonctionnement du zoom haute résolution des Pixel 3

Nicolas Furno |

Les Pixel 3 de Google sont pleins de nouveautés pour la photo, avec plusieurs fonctions qui repoussent les limites de la photographie informatisée. Dans le lot, il y a notamment un zoom haute résolution (« Super Res Zoom » en anglais), un zoom numérique de bien meilleure qualité et qui peut même rivaliser avec un zoom optique d’après son concepteur. Les premiers tests montrent que ce n’est pas tout à fait le cas, mais que la qualité est en net progrès par rapport à ce que le Pixel 2 pouvait offrir.

Sans zoom à gauche, zoom 2,65x à droite ; photos prises avec un Pixel 3, fournies par Google.

Google revient sur cette fonction avec un article technique qui détaille le fonctionnement du zoom haute résolution. Le géant de la recherche a aussi publié une galerie d’exemples, avec des photos produites par des Pixel 3 et sans aucune retouche, pour donner une meilleure idée de ce que l’on peut attendre de cette nouveauté.

Pour améliorer les photos prises avec le Pixel 3 de manière générale, et pour améliorer le zoom en particulier, Google compte sur les mouvements du capteur pour enrichir l’image. Pour bien comprendre, il faut faire un détour par la composition du capteur lui-même. Les pixels ne savent pas distinguer la couleur, leur rôle à la base est uniquement de capter la lumière. Pour obtenir une image colorée, on ajoute donc un filtre devant les pixels avec les trois couleurs de base en informatique : rouge, bleu et vert.

Chaque pixel du capteur est associé à l’une de ces couleurs, mais pas de façon égale. Pour chaque carré de quatre pixels, il y a un pixel rouge, un bleu et deux verts. Pourquoi deux fois plus de vert ? Parce que l’œil humain est nettement plus sensible à cette couleur, et il faut davantage de précision pour avoir un rendu plus réaliste. Dans tous les cas, le résultat pour chaque couleur est une grille à trous : il manque un pixel sur deux pour le vert, et trois pixels sur quatre pour le rouge et le bleu. Cette information manquante doit être reconstituée pour produire l’image finale, c’est ce que l’on appelle dans le jargon le dématriçage (« demoisaicing » en anglais).

Sur un capteur numérique, chaque pixel ne peut pas capter les trois couleurs à la fois, ce qui implique qu’il manque des informations pour chaque couleur.

Même si les algorithmes, aidés par l’intelligence artificielle, sont devenus très malins, cette étape de remplissage implique nécessairement une perte de qualité. Les Pixel 3 évitent totalement le dématriçage en faisant bouger leur capteur, de manière à ce que la grille soit remplie sans algorithme. L’idée est très simple sur le papier : en déplaçant la grille au moins trois fois, on peut obtenir une information complète pour les trois couleurs, sans interpolation.

En déplaçant le capteur une fois à droite, une fois en bas, et une fois en bas à droite, on peut obtenir l’information des couleurs pour la totalité des pixels.

Une idée toute simple en théorie, mais si elle reste si rare jusqu’ici1, c’est qu’elle est très difficile à mettre en œuvre en pratique. Surtout dans le cadre d’un smartphone, où l’utilisation est majoritairement à bout de bras et sans équipement additionnel. Google liste tous les problèmes qui se posent à la mise en œuvre de cette solution et qui ont été réglés par des ajustements des algorithmes utilisés par les deux Pixel 3.

Le zoom étant composé de plusieurs photos prises successivement et réunies en un seul cliché, il y a plusieurs problèmes qui se posent. Il y en a un qui est évident : si le sujet pris en photo bouge, il faut assembler la photo en évitant des images fantômes et un effet de flou. Pour cela, Google choisit une image de référence dans le lot qui peut intégrer jusqu’à quinze clichés, et toutes les autres sont alignées en fonction de celle-ci.

À gauche, une photo alignée de manière simple. À droite, la photo produite par le Pixel 3, alignée à partir d’une seule image de référence.

D’autres défis se sont posés pendant le développement de la fonction. Ces images prises rapidement présentent beaucoup de grain, puisque le temps d’exposition est très court, et il faut le gérer pour éviter d’avoir une photo toute granuleuse à l’arrivée. Il a fallu aussi gérer les mouvements transparents, par exemple de la fumée, ou de l’eau qui bouge. Pour obtenir un résultat plus naturel, Google détecte sur l’image s’il y a des bordures artificielles, comme un panneau ou un mur, et l’algorithme utilise ces éléments comme points de repère pour l’assemblage final.

Par défaut, Google utilise les mouvements du smartphone lui-même lors de la prise. Même si vous tenez fermement l’appareil, le simple fait d’appuyer sur l’écran pour prendre une photo doit suffire à faire bouger le capteur suffisamment dans toutes les directions. Mais vous pouvez aussi poser votre Pixel 3 sur un trépied, ou même simplement sur une table ou contre une fenêtre. Il est alors trop stable pour que les mouvements naturels suffisent, et c’est alors que le stabilisateur optique intervient et fait trembler légèrement le capteur. Ce qui peut se voir lors de la prise :

Si le smartphone est stabilisé, le capteur est bougé par la stabilisation optique, ce qui se voit lors de la prise.

Si le sujet vous intéresse, vous trouverez encore davantage d’informations techniques dans l’article de Google. L’entreprise liste aussi quelques contraintes du zoom haute résolution, notamment le fait qu’il ne s’active qu’à partir d’un zoom 1,2 fois pour des raisons de performances. Ou alors qu’il est automatiquement désactivé si vous l’utilisez sur un sujet en mouvement trop rapide, les algorithmes d’alignement ne pouvant alors plus faire leur travail.

Google précise enfin que le rendu sera meilleur à un niveau de zoom raisonnable. Les Pixel 3 sont censés concurrencer un zoom optique 2 fois, c'est-à-dire ce que proposent les iPhone équipés d’un téléobjectif au dos. Au-delà, la qualité restera dégradée, ce que les tests ont aussi montré, même si on peut s’attendre à des progrès par rapport à ce que le Pixel 2 pouvait offrir.

Un zoom identique avec le Pixel 2 (gauche) et le Pixel 3 (droite).

  1. Google est le premier à l’utiliser sur un smartphone, mais c’est une méthode qui a déjà fait ses preuves en astronomie et aussi dans quelques reflex haut de gamme. ↩︎

Accédez aux commentaires de l'article