Google+ réduit le poids des images de 75% grâce à l'intelligence artificielle

Mickaël Bazoge |

L’apprentissage automatique est peut-être un concept un peu abstrait, mais ses applications sont très concrètes. On en a la preuve tous les jours dans l’app Photos par exemple, et bien sûr Apple n’est pas la seule entreprise à exploiter les possibilités de l’intelligence artificielle.

Google est aussi sur le coup, avec notamment RAISR (pour « Rapide and Accurate Image Super-Resolution »). Cette technologie dévoilée en novembre dernier permet d’améliorer des images peu définies avec des résultats étonnants (lire : Google crée des versions haute définition d'images grâce au machine learning).

La première utilisation pratique de RAISR a commencé à apparaître… sur Google+, et pour une poignée de smartphones Android. Le moteur de recherche prend donc ses précautions avec un déploiement mesuré de sa technologie. Une sorte de test grandeur nature, mais si les résultats sont convaincants, alors RAISR est susceptible de réduire l’usage de données cellulaires et de bande passante.

Cliquer pour agrandir

Le principe est simple : Google+ ne charge pas l’image au complet, mais uniquement le quart des pixels qui la compose. Charge ensuite à RAISR de « reconstituer » les 75% restants. Une image de 100 Ko ne pèse plus que 25 Ko… De quoi limiter effectivement la bande passante nécessaire à l’affichage de photos.

Google traite plus d’un milliard d’images par semaine, réduisant ainsi l’accès aux données d’un tiers pour les utilisateurs qui en profitent. Le moteur de recherche va étendre cette technologie plus largement dans les prochaines semaines.

avatar Le docteur | 

Et le traitement ? C'est de l'énergie gaspillée aussi.

avatar Ze_misanthrope (non vérifié) | 

Quelques instructions CPU sont infimes, niveau énergétique comparés à 75% de bande passante de plusieurs milliards d'images

avatar Malum | 

Ah bon parce que les milliards d'images ne sont pas toutes traitées sur les dizaines ou centaines de millions d'appareils qui les traitent ? Deux traitements en amont et en aval. Reste donc à savoir si un traitement en amont plus un traitement en aval a un coût énergétique supérieur ou inférieur au transport de l'image non traitée. Ceci pose la question de l'intérêt de prendre des images avec cette définition au départ autant les prendre avec la définition à 25 % et la traiter ensuite. On gagnerait de la place et le résultat final serait forcément le même, enfin je suppose.

avatar Ze_misanthrope (non vérifié) | 

Oui c'est ce que je dis..
Le traitement en amont et fait une fois pour des milliards de traitement en aval, cela diminue déjà ta logique par deux.
Et vu le coût énergétique du transport du megabyte hai ma petite idée...

Puis tu sais, traiter un million de pixels en arrière plan à le même coup énergétique que l'afficher sur ton écran...

Puis si tu te sens plus malin que tous les ingénieurs qui ont bossé dessus, et fait les calculs dont tu parles il est temps de te mettre en avant !

avatar sachouba | 

@Malum :
Tu penses vraiment que le stockage et l'envoi à travers des milliers de kilomètres de câbles sous-marins de 4 fois plus de données (avec ré-amplification régulière) peut consommer moins d'énergie qu'un calcul CPU sur smartphone qui dure 1/10 de seconde ?

avatar cecile_aelita | 

Si la qualité est au rendez vous, alors ça serait vraiment quelques chose d'impressionnant en effet ?

avatar Dr. Kifelkloun | 

Les écrans ont de plus en plus de pixels mais, pour faire des économies, il faudrait en utiliser de moins en moins.
Imaginez qu'un fabriquant d'appareil photo vous dise: notre capteur n'a que 5MP, mais grâce à notre software vachement artificiellement intelligent, on va quand même vous faire une belle photo de 20 MP.

?

Avec tout ça il ne faut pas venir ensuite se plaindre de la baisse de qualité... Même si les résultas sont "étonnants" (surtout pour ceux qui ne voient jamais de vraies photos bien définies), l'intelligence artificielle n'est pas prête de remplacer la précision naturelle. Dans l'image RAISR présentée sur l'autre page, les iris ne contiennent absolument aucun détail. On tire la qualité des images vers le bas alors que les écrans sont techniquement capables de nous faire apprécier les détails les plus fins. Dommage.

D'un autre côté, c'est sur Google +... Ceux qui aiment les belles photos sont ailleurs.

avatar EBLIS | 

"D'un autre côté, c'est sur Google +... Ceux qui aiment les belles photos sont ailleurs."

Préjugé.

avatar Ze_misanthrope (non vérifié) | 

Juste le bashing habituel d'un petit frustré.. Cela arrive de temps en temps

avatar DouceProp | 

Google a compris. Apple autorise les app à être plus lourdes en attendant...
On a pas tous la fibre...

avatar cecile_aelita | 

@DouceProp'

Même avec la fibre ?
Il n'est jamais stupide de vouloir optimiser un peu les choses!!
C'est là tout le problème de notre société actuelle, on veut toujours plus gros plus gros plus gros...
Les TV 4K sont déjà bientôt ringarde ... assez pathétique comme approche.
En tout cas, cette technologie m'a l'air sur une bonne piste et j'espère que ça va prendre !! ?

avatar Chris K | 

Idée loin d'être nouvelle mais sans doute plus aisée à traiter avec les puissances de calcul d'aujourd'hui.

avatar EBLIS | 

Si ça fonctionne on ne pourra plus se moquer des informaticiens dans les films et séries qui réussissent toujours à transformer 3 pixels en un image HD en 2 secondes :
- COP : can you enhance this image ?
- NERD : of course that will take a second.

Maintenant :
- COP : can you enhance this image?
- NERD : oh c'mon dude go on Google and just do it yourself, it'll take a second!

avatar Paquito06 | 

Niveau optimisation on se traine quand meme des formats de fichier image vieux de dizaines d'annees. En video on a toujours plus de compression, de codecs et formats tout en gardant une qualite minime mais en photo jai pas vu de grosse amelioration (c'est pas mon domaine jai du passer a cote). Ca pese une tonne sur les disques externe ?

avatar Finouche | 

@Paquito06

Sans doute parce qu'en vidéo les données redondantes sont beaucoup plus nombreuses qu'en photo.
Et notre cerveau est le plus efficace des compresseurs de données, et le plus efficace pour reconstruire les informations perdues.
Je dis ça par intuition.

avatar JLG47_old | 

Aucun logiciel ne peut reconstituer ce qu'il ne connaît pas.
Ce n'est donc qu'un artifice de présentation Canada drill, cela a l'apparence de la réalité mais n'est pas la réalité, et ce ne le sera jamais.

avatar Ze_misanthrope (non vérifié) | 

Encore un quidam plus malin que tout le monde...
Si tu lisais l'article tu saurais qu'il ne reconstitue pas tout, mais un pourcentage acceptable et même énorme par rapport à ce qui manque comme information

avatar Ginger bread | 

Génial

avatar Domsware | 

Bon en gros Google gagne sur le stockage, le transfert. Et l'utilisateur a à sa charge le coût du traitement.
Un gros gain serait de ne pas collecter de données depuis le terminal des utilisateurs.

avatar Ze_misanthrope (non vérifié) | 

Plus c'est poilu plus cela passe...

avatar BeePotato | 

Prochaine étape : Google fait encore plus d’économies de bande passante en n’envoyant qu’une description textuelle en lieu et place de l’image. Les smartphones haut de gamme génèreront une image de synthèse sur la base de cette description (l’utilisateur n’y voyant que du feu, n’ayant après tout aucune idée de ce à quoi ressemblait l’image d’origine).
Les modèles bas de gamme afficheront juste le texte. :-)

avatar Shadokuss | 

Cela demande des exemples plus parlant et sur différentes résolutions natives, car là franchement on ne peut pas se faire une idée. La techno est intéressante si:
_C'est juste pour un usage de type preview.
_C'est pour une économie vitale de bande passante.

C'est par contre un bon gros enfumage si C'est pour généraliser à l'ensemble des images disponibles via Google et passer à la moulinette des images qui vont perdre en qualité.

Car prendre seulement 25%, c'est forcément destructif. En imagerie numérique comme en musique, ce qui est détruit est perdu, Lossy < Lossless. Ce serait comme considérer que le MP3 est l'égal du Lossless, ce qui est absurde.

avatar Mike Mac | 

Et quand Google va s'attaquer à la réduction du fanatisme sur les forums, c'est fou de penser que les débats vont pouvoir s'alléger de 75 % de gras.

avatar marc_os | 

Et en comparaison avec une compression "traditionnelle" à la JPEG ça donne quoi ?
Car qd même c'est essentiel à savoir !!!!

avatar xDave | 

Ah Google owns the web!
Ça me fait penser que leur AI est si balaise qu'elle insiste lourdement pour que les images du site d'un de mes clients soient encore réduites en poids (elles sont déjà optimisées parce que je suis un gars responsable qui s'est tapé du 28.8 et comptais mes bauds)...
Tout ça parce que Mr Google a décrété que... et "menace" de déclasser les sites qui ne respectent pas SES préconisations SEO.
Seul souci, ce type montre des œuvres d'art sur son site.... mais son AI sera sans aucun doute plus apte qu'un humain pour juger de la qualité des pixels qu'elle invente de toute pièce.

Comme ces ingénieurs qui ont l'idée de lui faire composer de la musique originale à partir d'un melting-pot d'oeuvres d'un artiste...

Et critiquer cette prétention serait prétentieux selon @Ze_misanthrope...
Remarquez qu'avec un pseudo pareil on comprend que ce qui fait l'humain est le cadet de vos soucis, et de ceux dont vous êtes le chantre.

avatar expertpack | 

faut arrêter d'envoyer des milliards de photos débiles dans le cloud, voila la solution.
compresser les déchets ne supprime pas les déchets.
ne pas en créer est la solution.

avatar koko256 | 

N'importe quoi ce truc de Google. Je rejoins le premier commentaire. On n'est pas à la recherche du piqué pour que Google nous le remplace par sa daube...

CONNEXION UTILISATEUR