iPhone 8 : STMicroelectronics serait le fournisseur exclusif de modules pour caméra 3D

Stéphane Moussie |

Quelques heures après notre article sur l’implication de STMicroelectronics dans la caméra 3D du futur iPhone, L’Usine Nouvelle a apporté des détails. Selon le site, l’entreprise franco-italienne sera l’unique fournisseur du module de caméra 3D et ce module comprend un imageur à temps de vol, des lentilles, un circuit de traitement et une diode laser (ce dernier composant provenant d’un partenaire).

L’Usine Nouvelle ajoute que l’iPhone 8 (ou Edition, si c’est son nom) devrait être équipé de deux, voire trois exemplaires de ce module… à moins que le magazine ne parle de la diode laser, le passage pouvant laisser un doute sur le composant concerné.

Ce module pour caméra 3D serait réservé à l’iPhone 8 en raison de son coût élevé, autour de 10 $, selon des analystes. Les supposés iPhone 7s et iPhone 7s Plus se contenteraient d’appareils photo plus classiques. Grâce à ce contrat, STMicroelectronics pourrait quadrupler son chiffre d’affaires en provenance d’Apple en le portant à 400 millions de dollars, d'après Barclays.

avatar MacGruber | 

Et de l'autre côté, on arrête la production des TV 3D alors... va comprendre

avatar Terragon | 

@MacGruber

Ce n'est pas du tout l'objectif derrière cela. Plutôt la reconnaissance 3D, par exemple faire la différence entre une image 2D et un véritable être humain. Évidemment les possibilités sont largement plus grande que seulement cela. Qui sait peut-être pouvoir modéliser des objets ou pièces... ce qui lui donnerait véritablement un usage "pro" pour en faire un iPhone Pro.

avatar C1rc3@0rc | 

@ MacGruber

Comme je l'ai repeté (et avec beaucoup d'autres) des le depart de la 3D, la video 3D est une fumisterie du marketing pour trouver un relai de croissance face a la chutes des ventes des TV ou pour justifier l'augementation de tarif des billets de cinema. C'est de la foutaise, ça n'apporte rien, ça degrade l'image et ça fout mal a la tete.
C'est pour cela que la 3D est abandonnée, maintenant il y a la 4K et le HDR pour supporter les ventes.

Le composant dont on parle n'a rien a voir avec ça.
La on est plus dans un équipement caractéristique de la réalité virtuelle et son dérivé la réalité augmentée.

Je sais pas jusqu'a quel point Apple veut pousser le truc, mais une chose est certaine si Apple veut faire un peu mieux que pour Siri, et se lancer vraiment dans la réalité augmentée avec l'iPhone 8, soit Apple va nous sortir une machine d'une puissance qui va faire passer un Mac Pro pour une Apple Watch, soit on verra l'iPhone 8 pas avant 2 ans.

avatar aloaub17 | 

Vous n'avez de rendu d'une photo 3D ?

avatar Androshit | 

@aloaub17

Des rendus de rumeurs de bruits de couloir ? ?

avatar r e m y | 

@aloaub17

Un rendu de photo 3D sur un écran 2D, ca doit ressembler furieusement à une photo 2D....

avatar C1rc3@0rc | 

En trompe l'oeil si l'ecran est unique, en stereoscopie s'il y a deux ecrans - un pour chaque oeil.

On peut imaginer deux approches:
- les lunettes/casque de VR
- l'ecran de l'iPhone avec non pas une photo, mais une video interactive qui reagit au mouvement (du telephone ou de l'utilisateur)

La VR consiste a reconstruire en temps reel une image et d'en changer la perspective pour suivre le regard de l'utilisateur.
On a deja vu des exemples d'un derivé tres simplifié il y a quelques annees avec des consoles de jeux portables ou meme quelques exemples sur iPhone, ou l'image changeait de perspective en fonction de l'inclinaison de l'iPhone.

La il faut penser au meme principe, mais au lieu de l'appliquer a une image créé de toute piece et a l'avance, cela doit s'appliquer a une image reelle, capturée en temps reelle et dont la dimension (3D) est egalement capturée en temps reel. Tout cela dans un espace en mouvement et en devant modifier l'image produite avec des donnees synthetique (faire apparaitre des pokemon par exemple... ou des donnees plus utiles et commerciales)

Cela pose plusieurs problemes: faut une puissance de calcul enorme, faut un GPU mastoc (en gros une Nvida 1080), faut un soft qui tienne la route et faut surtout un systeme de capture complexe et energievore.
Le capteur doit "illuminer" la scene a l'aide d'un laser a impulsion de l'ordre de la nano seconde et sur une distance suffisante pour obtenir une modelisation 3D suffisante, et apres il faut coller cette scene dans univers environnant...
Si en plus on veut rajouter des donnees, faut prendre en compte la geolocalisation en temps reel et connecter le tout a des banques d'images et de données massives.

Et la on parle d'un smartphone, qui peut donc se placer n'importe ou et surtout se deplacer n'importe ou.
Si Apple a bien ça en tete, cela veut dire que l'Hololens est renvoyé au moyen age.

avatar @ymeric | 

"Coût élevé de 10$" .. oui c'est vrai que pour Apple, si ça coûte 10$ ça va coûter 100$ de plus pour les clients.. ??

avatar BLM | 

@remy
Non, on peut se déplacer ds la scène photographiée (même si à chaque instant on en a 1 aperçu 2D)

avatar r e m y | 

@BLM

Avec une prise de vue unique, tu pense qu'on peut reconstituer toute la scène en 3D au point de pouvoir se promener à l'intérieur?

avatar Stardustxxx | 

@r e m y
Non car tu une seule camera donc tu as un seul point de vue et tu ne vois pas la scene sous tous ses angles.

avatar fanchig | 

@Stardustxxx

Mais on peut quand même modifier légèrement l'angle de la prise de vue.

Ensuite, si au lieu de prendre une photo, tu fais une petite vidéo (style live photo), ça augmente les possibilités.

avatar C1rc3@0rc | 

@ Stardustxxx

Le probleme de la camera unique n'existe pas dans le cas d'une perspective subjective. L'idee n'est pas d'obtenir l'image en 3D a priori, mais de le faire en temps reel. On peut imaginer par contre que la scene est construite au fur et a mesure qu'on se deplace a l'interieur et que l'on peut la manipuler (visualiser) a posteriori, meme si elle restera partielle et dependante de ce qui a ete capturé.
Une sorte de Google Earth en temps reel si on veut.

On peut aussi penser a une cloudisation du bouzin, ou les scenes capturées par les iPhone atterriraient dans un datacenter et serviraient ensuite aux iPhone proches pour etendre les scenes qu'ils captent.
Bon on parle la de technologies et d'infrastructures d'une puissance et d'une capacité qui me semblent pas encore d'actualité, mais dans un avenir relativement proche c'est pas impossible.

avatar Stardustxxx | 

@C1rc3@0rc
Tout a fait. Mais je répondais a la question, ca parlais d'une prise unique.

avatar IceWizard | 

@r e m y
"Avec une prise de vue unique, tu pense qu'on peut reconstituer toute la scène en 3D au point de pouvoir se promener à l'intérieur?"

Même pour faire un scan 3D d'un objet usuel, on a besoin de déplacer le bidule ou de faire tourner la caméra autour. Si Apple sort vraiment une caméra 3D, il faudra se déplacer dans une pièce pour faire une photo 3D.

avatar BLM | 

Je ne connaissais pas les "caméra temps de vol"
J'ai 1 doute: d'après l'article Wkp vers lequel vous renvoyez, un tel modeulle mesure qq dizaines mm ds les 3 directions… pas vraiment un truc compact. Ou alors de gros progrès ont été faits.

avatar r e m y | 

@BLM

Il suffira d'enlever la prise jack pour faire de la place....

avatar Stardustxxx | 

@BLM
"Je ne connaissais pas les "caméra temps de vol""
Kinect 2 est une caméra temps de vol. Le projet Tango de Google utilise aussi le ToF.

"J'ai 1 doute: d'après l'article Wkp vers lequel vous renvoyez, un tel modeulle mesure qq dizaines mm ds les 3 directions… pas vraiment un truc compact. Ou alors de gros progrès ont été faits."
Wikipedia montre ce qui se fait. La on parle d'un nouveau senseur, donc oui il ont fait des progres.

avatar iBorg | 

@ApplePhone

Du leap motion like ?

CONNEXION UTILISATEUR