Apple aurait voulu une puce graphique plus puissante pour l'iPhone 14 Pro

Mickaël Bazoge |

Le système graphique des iPhone 14 Pro et Pro Max aurait pu être beaucoup plus performant, mais Apple a dû se rabattre sur le GPU de l'A16, selon The Information. La puce graphique intégrée dans le system-on-chip (SoC) devait en effet proposer le support du ray-tracing, une technologie qui améliore le rendu des effets lumineux dans les jeux. De quoi en faire un « saut générationnel », espérait-on chez Apple.

Mais voilà, les prototypes ont montré que ce nouveau GPU tirait trop sur la batterie et avait un impact sur la chauffe du smartphone. Le hic, c'est qu'Apple se serait rendu compte du problème assez tard dans le processus du développement de l'A16, ce qui a poussé le constructeur à recycler le circuit graphique de l'A15. Il s'agit de la version à 5 cœurs déjà présente dans l'iPhone 13 Pro, possiblement bonifiée à la marge.

Si le GPU de l'iPhone 14 Pro se montre plus performant que celui de l'iPhone 13 Pro, les résultats ne sont pas pour autant faramineux comme on a pu le mesurer dans nos tests. Ce sera peut-être pour l'A17 l'année prochaine ? À moins que les difficultés recensées par The Information au sein du groupe mené par Johny Srouji ne soient encore plus profondes.

Du rififi chez Srouji

L'erreur du GPU de l'A16 serait en effet sans précédent dans l'histoire d'Apple, qui a jusqu'à présent fait un sans faute dans le domaine des puces mobiles. Les sources du site ont constaté une fuite des cerveaux ces dernières années.

Johny Srouji, le vice-président des technologies hardware, dans le labo ultra-secret d'Apple.

L'exemple de Gerard Williams III est fameux : après son départ d'Apple, ce spécialiste des CPU a fondé Nuvia en 2019 pour développer des puces pour serveurs. La start-up a rapidement été achetée par Qualcomm, et elle planche désormais sur un concurrent pour la M1 d'Apple. Son remplaçant au sein d'Apple, Mike Filippo, ne s'est pas entendu avec les ingénieurs de l'entreprise et est parti chez Microsoft.

Pour limiter les départs, le constructeur aurait organisé des réunions avec ses ingénieurs pour prévenir des risques liés aux start-ups, qui sont peu nombreuses à réussir. Un message suffisant pour contrecarrer les envies d'aventure des forts en thème des CPU ? L'avance prise par Apple dans le domaine des puces mobiles pourrait bien en souffrir, même si elle reste confortable aujourd'hui encore.

Le CPU du Snapdragon 8 Gen 2 ne devrait pas faire mieux que celui de l’Apple A16

Le CPU du Snapdragon 8 Gen 2 ne devrait pas faire mieux que celui de l’Apple A16

avatar Paul Position | 

C'est à mon humble avis le plus gros problème : prévenir une chauffe trop importante, tout en continuant à progresser de générations en générations.
On peut déjà constater le phénomène entre M1 et M2. Là où le M1 ne chauffe jamais, le M2 monte dans les degrés assez facilement — sans bien sûr devenir un four.
La gravure en 3nm du M3 ou M4 améliorera cela, mais quelle perspective ensuite ? Sans être dans une impasse, la voie royale entrevue jusqu’alors semble se rétrécir…

avatar iPop | 

@Paul Position

« M2 monte dans les degrés assez facilement — sans bien sûr devenir un four »

Tout dépend surtout de la température extérieur , dans un pays chaud le M1 devient une plaque brûlante parfois, il faut faire vraiment gaffe à la température extérieur.

avatar occam | 

@Paul Position

🌡 "prévenir une chauffe trop importante, tout en continuant à progresser"

L’analyse la plus perspicace de la situation est proposée par Don McLean :
Drove my Chevy to The Levee
But The Levee was dry

avatar Paul Position | 

@occam

Ahahahahah !!
Je savais que j'aurais dû tourner ma phrase autrement !!

avatar R-APPLE-R | 

Une raison supplémentaire d’attendre l’iPhone 15 Pro 😈

avatar Sillage | 

@R-APPLE-R

Ce que j’attends c’est la fin de l guerre entre Google et Apple. Apple ayant décidé de supprimer l’emplacement de SIM physique (aux USA), je conserve mon 12 Pro.

Mon opérateur est Google Fi. Un petit tour sur le site fera comprendre pourquoi je suis avec eux. Quand on voyage à l’étranger et on souhaite appeler à l’étranger, l’opérateur est top. Sans parler des cartes data-only fournies gratuitement, dont 2 restes dans un autre pays pour la famille.
Et ils ne disent rien. (Pas comme d’autres où tu paies un service à l’étranger, et on te menace d’annuler ton abonnement car tu fais trop long à l’étranger 🤦‍♂️).

Bref, passe par une Heicard, donc besoin d’une SIM physique pour changer le bundle opérateur (qui n’existe pas pour Google Fi, alors que tous les autres MVNO oui) et ainsi bénéficier de la 5G et du wifi calling. Bien évidemment ne fonctionne que sur sol US. Besoin d’enlever la Heicard quand je vais a l’étranger, même si c’est Mexico ou le Canada.

Bref, en attendant, Apple me fait économiser en iPhone. Merci de ne pas vouloir les précieux 💵!!!

avatar R-APPLE-R | 

@Sillage

C’est un autre débat la … non ? 😈

avatar Sillage | 

@R-APPLE-R

😂😂
Oui et non… Quant au GPU, oui… Mais les raisons pour attendre une prochaine génération peuvent être nombreuses. Et le GPU et d’autres raisons sont présentes. Donc au final, sorte de connexion, non ? 😈

avatar cecile_aelita | 

@Sillage

« Bref, en attendant, Apple me fait économiser en iPhone.»

C’est la partie la plus importante que j’ai lu du commentaire ! J’en déduis que cette guerre entre Apple et Google est donc une super chose pour vous ?😉

avatar Sillage | 

@cecile_aelita

« J’en déduis que cette guerre entre Apple et Google est donc une super chose pour vous ? »

J’aimerais mieux pas. C’est pénible le hack dont j’ai besoin. Mais au final, la tentation d’un nouvel achat passe à la trappe. Haha.
Ça attendra encore.

avatar MikeDelph | 

@Sillage

Ta vie est passionnante. Euh en fait non.

avatar Sillage | 

@MikeDelph

« Ta vie est passionnante. Euh en fait non. »

Tu as a un QI super élevé ! Euh en fait non.

J’imagine que la notion de partage et d’exemple concret doit t’être étranger. J’imagine que tu connais aussi ce que sont les bundle opérateur et que le partage que j’ai fait est donc inutile pour tout le monde. La vache, j’espère que la nouvelle année va t’apporter un peu de bon sens et de courtoisie et que ça te permettra de laisser ton venin en 2022.

avatar MikeDelph | 

@Sillage

Non l’idée c’est aussi d’échanger autour de l’article. Là tu racontes ta vie comme au balto, le bar d’en face, ça n’apporte rien.
Joyeux Noel à toi

avatar Sillage | 

@MikeDelph

Alors vas-y, mets le même commentaire sur tout le monde.

Je réponds aussi à un commentaire qui parle d’une raison supplémentaire d’attendre le modèle suivant. J’en donne une de plus. Tu peux y voir une connexion, ou pas….
Soit consistant dans ta façon de penser, ou ne dit rien. Va faire la police sur chaque commentaire qui dévie un tout petit peu du sujet car dans une conversation pour laquelle tu ne vois aucun lien. Il y en a légion.
Ciao

avatar Sillage | 

@MikeDelph

Petite remarque additionnelle. Si tu es français, tu donnes une belle image. Ce forum regroupe pleins de gens, en France, en Suisse, au Canada, et aux USA…
Mon commentaire est sûrement utile à certains, mais clairement pas à toi. Mon partage en effet s’applique que aux gens des USA, donc tu n’en fait certainement pas partie. 😉

Joyeux Noël à toi aussi.

avatar MikeDelph | 

@Sillage

Donner une image ? Mais quel rapport ? Bref moi je ne fais aucune différence quelque soit la nationalité ou autre, il n’y a bien que des imbéciles pour faire des choses pareilles.

avatar Sillage | 

@MikeDelph

🤷‍♂️

avatar MarcMame | 

@R-APPLE-R

"Une raison supplémentaire d’attendre l’iPhone 15 Pro 😈"
———
Pourquoi pas le 16 ? Ou le 17 ?

avatar R-APPLE-R | 

Oui pourquoi pas 😈

avatar cecile_aelita | 

@MarcMame

« Pourquoi pas le 16 ? Ou le 17 ? »

Bien après même, en ce qui me concerne 🤣

avatar Ouetham | 

Ca montre que tant que Apple fait un pas de côté ils sont maîtres du jeu. Par contre des qu'ils veulent suivre les tendances, comme implémenter le Ray tracing, ils se cassent les dents comme les autres.
Les SoC Apple Silicon restent incroyables mais je me pose depuis le départ la question de leur évolution. Quelle courbe de gains d'une génération a l'autre. Quand sera atteint le premier plafond ? A voir si pour les configuration desktops plus puissante Apple peut décider de sortir le GPU et de se baser sur des GPU sur carte (retour d' AMD) ?

avatar raoolito | 

@Ouetham

il est inimaginable qu’apple se soit lancé dans les proc Mx sans une roadmap sur 10 ans. là la question est plutot pourquoi ils s’en sont aperçus trop tard? reponse en effet peut-être dans les departs, entre la perte de savoir et le démarrage du remplaçant ben il peut y avoir eu des erreurs

admettons. Maintenant je doute qu’ils refassent l’erreur. deja une différence : apple stoppe le nouveau gpu et réutilise une version revue de l’ancien. intel, amd ou nvidia ne se serait pas arrêté pour si peu qu’une simple surconsommation 😁

avatar occam | 

@raoolito

🔥 "intel, amd ou nvidia ne se serait pas arrêté pour si peu qu’une simple surconsommation"

Détrompez-vous. À double titre : tenant compte de l’architecture, il ne s’agit pas d’une « simple » surconsommation. Et Intel, AMD et Nvidia sont tous passés par là. Comme bien d’autres. Ce n’est parce qu’ils ont le malheur de ne pas trouver votre gré qu’ils sont incapables de réactions d’ingénieur — réactions responsables — face à des problèmes auxquels tout ingénieur travaillant dans ce domaine est confronté un jour ou l’autre. (En fait, quasi constamment, dès que l’on pousse l’enveloppe.)
Il n’y a pas lieu de ricaner d’Apple Silicon — tout au plus, du marketing en rideau de fumée de la maison mère. Tout comme il n’y a pas lieu de dénigrer les autres.
Tous y passent.

avatar Ouetham | 

@raoolito

Je suis bien d'accord avec vous concernant la roadmap. On imagine qu'ils savent où ils vont.
Je disais cela surtout par rapport a la philosophie qui semble donner le nord chez Apple. Privilégier et arbitrer en faveur de l'autonomie et de puissance/watt. Et de ce point de vue ils ont tout juste. Même sans se laisser berner par leur graphique bidons pendant les keynotes. Le fait est que en portable les SoC Apple n'ont pas de concurrence. Mais pour la puissance pure c'est une autre limonade. Et il semble qu'à ce petit jeu, Apple ne trouve pas (encore) de solution. Ou plutôt, en l'état elle arbitre en faveur de l'autonomie. Au moins c'est cohérent.

avatar pocketalex | 

" il semble qu'à ce petit jeu, Apple ne trouve pas (encore) de solution"

La question est : Apple a t'elle intérêt à se positionner sur ce marché du très haut de gamme, avec des CPU monstrueux (Xeons haut de gamme, Threadripper, Epyx) et des GPU monstrueux (rtx 4090, etc) ?

C'est un marché très restreint : la CAD, la 3D "high end", etc. Ou les gamers, mais il n'existe quasi aucun jeu vidéo sur MacOS...

avatar Ouetham | 

@pocketalex

En effet, pour le très haut gamme la question se pose. On note tout de même l'abandon (?) Du M2 Extrême (je crois) du prochain Mac Pro. Donc Apple semble chercher le bon compromis pour occuper ce marché. Mais j'admets avoir extrapolé sur le desktop par rapport a l'article ,😅 Mais c'est juste que l'évocation du Ray tracing ,technologie au combien gourmande en puissance (cf les RTX) pose question. Pourquoi Apple se lance la dedans ? Et pour le coup, surtout sur des produits mobile, c'est pour le moment du pur marketing et juste pour pouvoir dire "regardez. l'iPhone géré le Ray tracing, il est trop puissant". Car en réalité, a part la niche des hardcore gamers, le ray tracing ne concerne pas grand monde. Surtout su un iphone 🤷 en tout cas est ce que Doom en Ray tracing tournerait sur iphone ?

avatar Brice21 | 

@Ouetham

"Car en réalité, a part la niche des hardcore gamers, le ray tracing ne concerne pas grand monde. "

On pourrait imaginer qu’il améliore le réalisme d’un rendu stéréoscopique sur les lunettes de réalité augmentée qui utiliseront l’iPhone pour générer les images 3D.

avatar joneskind | 

@pocketalex

Apple est déjà positionné sur le très haut de gamme, au moins en terme de tarifs ^_^

Pour le moment on a pas encore de gros CPU à la threadripper mais sur le GPU je voudrais me permettre de proposer une petite analyse

Quand Apple a présenté le M1 Ultra elle a fait la grosse erreur marketing de se comparer aux RTX de Nvidia qui disposent de core RT hardware.

En réalité le Ultra est du niveau du haut de gamme AMD de l’époque en ce qui concerne les capacités de modélisation 3D (tu peux aller voir sur Blender OpenData, c’est bien le seul intérêt de ce benchmark)

L’intérêt du hardware RT est limité pour le grand publique (pas de gain réellement époustouflant dans les jeux) mais pour la modélisation c’est le jour et la nuit. La plus petite RTX20xx fait mieux que la meilleure AMD 6000.

Le fait de savoir qu’Apple cherche à intégrer des cores RT à ses plus petits GPU est une excellente nouvelle pour tout le monde !

avatar pocketalex | 

@joneskind

"Apple est déjà positionné sur le très haut de gamme, au moins en terme de tarifs ^_^"

ça dépend ce qu'on entend par "très haut de gamme" ...

Pour moi, aucun GPU Apple n'égale les rtx 4090, et les rtx 4090 représentent le très haut de gamme GPU
Idem, aucun CPU Apple n'égale les Xeons haut de gamme, les Threadripper haut de gamme, et on ne parlera pas des Epyc

Alors oui, Apple c'est cher, un MBP M1Max correctement doté c'est 3500 à 5000€
Un Mac Studio de compétition, c'est 6000 à 7500€

c'est sur, c'est pas donné

Mais allez monter un PC en Thread ripper 5975WX, 128Go de RAM, et une RTx A4500 20Go, SSD 2To par exemple, je viens de le faire chez Lenovo (ThinkStation P620) c'est un billet de 12 500€. Alors oui, c'est plus puissant qu'un Mac Studio M1Ultra en CPU et en GPU, c'est aussi beaucoup plus cher

avatar pocketalex | 

@pocketalex

A savoir que j'ai retenu la RTx A4500, qui correspond "peu ou prou" à une Geforce RTx 3080, mais il existe chez nVidia des cartes plus puissantes encore et beaucoup, beaucoup plus chères (RTx A5000, A6000, ...), donc le délire des prix n'a pas de limites

Bref mon propos est de dire que l'offre Apple est pertinente, et pas forcément plus chère que celle du marché PC

C'est sympa de dire à tort et à travers que PC c'est moins cher, mais à un moment si on pose le matos, sérieusement, et qu'on regarde les prix .. tout d'un coup la donne change

Oui il existe des laptops mainstream comparables au Macbook Air, et vendus 600 à 800€ (au lieu de 1500 pour le MBA), mais si l'exercice est fait sérieusement, alors les PC vraiment équivalent au MBA sont d'un coup moins nombreux, et le meilleur exemple reste le Dell XPS 13 à 1000€ en 8/256, soit 100€ seulement de moins que le MBA M1, et le XPS 13 Plus à 1550€ en 8/512 à 1550€, soit 200€ de moins que le Macbook Air M2 en 8/512
Et, dans les deux cas, jamais les Dells ne tiendront l'autonomie et le silence des MBA sur des usages un peu intensifs
Et, dans tous les cas, on est loin, très loin des PC "50% moins cher" dont beaucoup parlent ici, juste pour dire

Je peux vous faire le même exercice avec le Macbook Pro et avec le Mac Studio ... bref c'est bien de lire que PC c'est "mieux" parceque tel core i9 ou tel ThreadRipper est plus puissant que tel M1Max et tel M1Ultra, idem pour les GPU, mais c'est des paroles en l'air : on monte les configs, on regarde, et on regarde aussi le prix ...

Il est illusoire de croire qu'un PC avec un top i9, un Geforce RTx 4090 ou son équivalent pro RTxAxxxx) coute 1500€. En vrai, on est dans des prix largement supérieurs à ceux d'Apple, et pas qu'un peu

avatar House M.D. | 

@pocketalex

Très bon résumé… J’ai voulu un moment changer la carte graphique de mon PC (qui ne me sert qu’à Flight Simulator, petite gaminerie perso…), qui est déjà une 3060ti. Quand j’ai vu les prix d’une 4070 ou 4080 qui dépassent à elles seules les prix d’une machine complète, j’ai fini par me dire que ça attendra…

Il est facile de dire qu’une 4090 ruine un M1 Ultra, mais la carte à elle seule vaut quasiment le prix d’un MacBook Pro 14… une fois rajoutées toutes les pièces nécessaires et à performance équivalente pour éviter les bottlenecks, on arrive facilement à un prix assez délirant !

avatar IceWizard | 

@House M.D.

« Quand j’ai vu les prix d’une 4070 ou 4080 qui dépassent à elles seules les prix d’une machine complète, j’ai fini par me dire que ça attendra… »

C’est un peu particulier. Ces cartes sont utilisées massivement dans les fermes de minage des cryptomonnaies, qui se les arrachent quelque que soit le prix, d’où une montée en flèche des tarifs.

Avec la conjoncture actuelle, et la crise arrivant, pas certain que les fans de minages continuent à monopoliser les cartes vidéo haute-gamme. Mais avec des Rtx 4080 à 1600 € (je viens de regarder les tarifs sur Amazon), il est urgent d’attendre des prix plus raisonnables !

avatar IceWizard | 

@joneskind

« L’intérêt du hardware RT est limité pour le grand publique (pas de gain réellement époustouflant dans les jeux) mais pour la modélisation c’est le jour et la nuit. La plus petite RTX20xx fait mieux que la meilleure AMD 6000. »

Le Ray Tracing temps réel pour les jeux c’est une vaste blague. La promesse technique de cette technologie est de générer des images réalistes en calculant le trajet de chaque rayon de lumière touchant l’objectif de la caméra virtuelle, à partir de son point d’émission.

Les puces RT temps réel actuelles font des miracles quand le nombre d’objets et de sources de lumière est faible, comme cette démonstration d’une voiture dans un décor VIDE, avec seulement quelques lumières que NVIDIA aime bien exhiber.

Je n’ai pas essayé, mais j’imagine que oui, cela doit être formidable avec les logiciels de modélisation. Très peu d’objets, très peu de sources de lumières, et pas de décors compliqués générant une multitude de reflets. Une situation idéale pour exploiter l’enveloppe de possibilités des technologies de Ray Tracing existants actuellement.

C’est une autre paire de manches avec les jeux où des dizaines de milliers d’objets - voire plus - sont présents sur la scène, et les sources de lumières multiples (phares de véhicule, explosions, tirs, objets en feu, réacteurs des avions, etc ..). C’est mission impossible de calculer tout ça en temps réel, avec les puces actuelles.

Les créateurs des jeux RT « trichent » en n’utilisant le Ray Tracing que sur de minuscules portions de l’image, là où cela améliore un peu le résultat graphique, mais l’essentiel de la scène est calculée en rendu 3D classique.

avatar debione | 

@Ouetham:
"Les SoC Apple Silicon restent incroyables mais je me pose depuis le départ la question de leur évolution. Quelle courbe de gains d'une génération a l'autre."
J'ai eu le même questionnement que vous, à savoir qu'elle est la marge de manoeuvre évolutive d'ARM (et des puces AppleSilicon) en dehors de la finesse de gravure... Et comparativement, quelle est la marge de manoeuvre évolutive du X86...
Mais aussi comment s'y retrouver avec les finesses de gravure, apparemment Intel/AMD/Apple/Qualcom ne parlent pas de la même manière.

avatar Ouetham | 

@debione

je crois que macg avait publié une série d'articles a propos de l'ARM.
pour ce que j'ai compris, le jeu d'instruction ARM est globalement plus efficace que le x86 d'où le meilleur rapport perf/watt. pour la puissance brut, cela semble rester une question de conso. pour monter dans les Ghz pas de secret, ca consomme plus et ca chauffe plus. c'est de la physique. la finesse de gravure, il'y a une dimension marketing quand cela arrive à nos oreilles. Du coup ça embrouille tout le monde. mais en gros Apple bénéficie grâce a TMSC des meilleurs procédés, en exclusivité et en avance sur la concurrence. et cela a un rôle majeur dans le succès de leurs SoC.
maintenant certains on enterré très (trop) vite les x86 intel et amd en cela bien encourager par les débuts tonitruants et la com d'appel.
mais surtout car intel se contentait du minimum syndical depuis des années.
et pour les GPU, même combat. même si pour le coup, cela me semble encore plus brumeux. car la comparaison est assez compliquée entre un SoC et un GPU dédié.

avatar QuentinRth | 

Apple a tellement d'avance sur la concurrence que je m'inquiète pas pour eux

Perso je préférerai que les gen suviantes s'améliore encore en autonomie quitte à stagner en puissance, surtout pour l'iPhone

avatar debione | 

@QuentinRth:

Même les puces d'il y a 3 ans sont encore sous exploitées dans la majorité des cas. Et en effet, le gain en autonomie pour les téléphones serait un plus indéniable (que de la puissance inutile)...

avatar dujarrier | 

@debione

Oh oui, moi je rêve d’un iPhone avec au moins 3x plus d’autonomie car qd je m’en sers comme GPS sur un vélo pendant toute une journée + prises de qques photos/videos, j’ai du mal a tenir la moitié de ma journée avant devoir recharger…

Donc une amelioration TRES, TRES importante (au moins 3x plus) de l’autonomie serait un ENORME plus !!! Quitte a avoir un processeur d’il y a 3 ans en arrière car bon, pour le moment, et au moins jusqu’en 2027/2028, filmer en 8K avec de futures versions d’un iPhone serait très énergivore pour peu d’intérêt réel (pour le moment, c’est moins une priorité que d’améliorer l’autonomie…)

avatar cecile_aelita | 

@dujarrier

« Donc une amelioration TRES, TRES importante (au moins 3x plus) de l’autonomie serait un ENORME plus !!! Quitte a avoir un processeur d’il y a 3 ans en arrière car bon, pour le moment, et au moins jusqu’en 2027/2028, filmer en 8K avec de futures versions d’un iPhone serait très énergivore pour peu d’intérêt réel (pour le moment, c’est moins une priorité que d’améliorer l’autonomie…) »
😍😍!!
Alors toi tu le plus 😍!
C’est exactement mon avis !! Bon la dernière fois que j’ai dit ça je me suis fait défoncer 🤣, là ou toi visiblement ça passe nickel ! C’est pas bien grave en soit, tant que le message est passé 😋!
Mais en tout cas je suis du même,avis que toi !!
Un iPhone 15 munie d’ une puce A16 mais ultra bridée (genre avec les performances d’une puce A13… pour une consommation ultra minime + de la 4G (pas de 5G) et un écran de moindre résolution pour aussi baisser la conso.
Histoire d’avoir un iPhone qui tiennent la semaine en utilisation « standard »… là… j’avoue que ça pourrait grandement me tenter 😊.
C’est sur que ça ne serait pas un iPhone de geek ou de technophiles, mais par contre je suis sure que ça plairait beaucoup à monsieur et madame Michu (qui au passage représentent une part de la clientèle Apple BIEN plus grande que les geeks et les technophiles 😉).

avatar ohmydog | 

@cecile_aelita

Tout le monde recharge le soir. L’iPhone tient majoritairement la journée.
Je pense que vous tournez le problème à l’envers. C’est votre usage qui n’est pas dans la norme.

avatar cecile_aelita | 

@ohmydog

Oui vous avez raison 🙂.

avatar debione | 

@ohmydog:
"Tout le monde recharge le soir."
Pourquoi? Ah ben parce que si le téléphone tenait 7 jours ben on le rechargerait non pas "le soir" mais une fois dans la semaine...
C'est vous qui prenez le problème à l'envers... On recharge le soir (voir bien avant suivant l'usage) parce qu'on y est obligé, pas parce que c'est une norme d'utilisation.

avatar cecile_aelita | 

@debione

Non non… le monsieur te dit qu’on prend le problème à l’envers … donc il a raison et on a tous tort 😅! Parce que c’est évident qu’avoir un téléphone avec une autonomie d’une semaine c’est une hérésie (coucou le 3310 😅)

avatar Rez2a | 

@cecile_aelita

Si vous voulez une autonomie d’une semaine comme sur les 3310, revenez aux usages du 3310 : commencez par couper la data sur votre iPhone, et servez-vous en uniquement pour envoyer des SMS, passer quelques coups de fil et jouer à un Snake pas trop gourmand de temps en temps.

Le problème c’est que les gens veulent une autonomie de plusieurs jours tout en ayant des usages ultra énergivores, et c’est impossible d’avoir les deux pour l’instant. C’est comme demander une voiture avec un plein qui dure 3 mois en roulant au rupteur en permanence.

Cela dit, je vois mal ce qu’on reproche aux iPhone niveau batterie, je trouve les derniers vraiment impressionnants. J’ai aucun mal à le faire tenir 1 jour et demi s’il faut et je le sollicite pas mal.

avatar cecile_aelita | 

@Rez2a

Donc entre les usages d’un 3310 et ceux proposés par un iPhone 14 pro, il n’y a pas de juste milieu pour vous ?
Avoir un smartphone avec les performances d’un iPhone 11, un écran avec une résolution basse (genre iPhone 11 mais en OLED pour la consommation) : ça c’est un 3310? 😳
Curieuse analyse en effet.

« Si vous voulez une autonomie d’une semaine comme sur les 3310, revenez aux usages du 3310 : commencez par couper la data sur votre iPhone, et servez-vous en uniquement pour envoyer des SMS, passer quelques coups de fil et jouer à un Snake pas trop gourmand de temps en temps. »

Blague mise à part😅, même en appliquant vos conseils, je ne suis pas sure que l’autonomie d’un iPhone tiennent aussi longtps qu’un 3310 avec les mêmes usages 😅.
Et pourtant il s’est passé au moins 20 ans d’évolution technologique 😅.

avatar Rez2a | 

@cecile_aelita

Bien sûr qu’il y a un juste milieu, mais si vous croyez que réduire marginalement la définition et la puissance max de la puce (et je ne parle même pas de la différence LCD / OLED) va vous faire gagner plus qu’une heure d’autonomie, vous vous mettez le doigt dans l’œil.

Si vous passez 8h par jour sur votre iPhone en utilisant la data, le GPS et tout le toutim, vous n’aurez jamais l’autonomie que vous espérez, même si votre iPhone avait la définition d’une Apple Watch.

Le but, c’est faire en sorte que l’iPhone puisse tenir une journée en grosse utilisation (je pense que c’est déjà le cas des iPhone 14). Si vous voulez une autonomie d’une semaine ou même « juste » 2-3 jours, Apple aura beau gratter tout ce qu’ils peuvent niveau consommation, c’est votre usage qui sera à limiter.

avatar cecile_aelita | 

@Rez2a

Quand je vois que les MacBook M1 ont presque doublé leur autonomie juste avec un changement de processeur …
Je me dis que quand même … en mettant des composants qui consomment 4-5 fois moins d’énergie et une batterie un poil plus grosse, on peut y arriver à cette autonomie !
Et même si on a la possibilité de le charger tous les jours … si on pouvait ne pas avoir à le faire, personnellement je trouverai que ça serait une belle avancée 🙂.
Enfin bref, on n’a juste pas le même usage de notre smartphone 🙂.

avatar Rez2a | 

@cecile_aelita

Oui mais je pense que vous faites erreur sur le rapport entre la puissance d’une puce et l’énergie qu’elle consomme. Une puce plus puissante ne veut pas forcément dire moins d’autonomie.

Si on part du principe (faux, mais c’est pour l’exemple) qu’une A15 est 2x plus rapide qu’une A12 : pour une tache donnée, est-ce qu’on perd plus d’énergie en faisant bosser une A12 à 100% pendant 10 secondes, ou une A15 à 100% pendant 5 secondes ? Voire, une A15 à 50% pendant 10 secondes ? Ça fait des années que les iPhone gagnent en puissance ET en autonomie, l’un n’est pas le contraire de l’autre.

Le passage de Intel à ARM sur les Mac à été énorme de ce point de vue là, on est d’accord, mais ils n’ont fait « que » rapatrier tout ce qui existait déjà sur iPhone vers les Mac.

La vérité, c’est que l’iPhone est déjà très au point niveau consommation et optimisation de la batterie, mais compte tenu de tout ce qu’on en demande et de leurs dimensions, ça ne doit pas être possible de faire beaucoup mieux avec les technos de batterie et l’architecture actuelles, tout bêtement.

Après, peut-être qu’Apple sortira un iPhone « Ultra », un truc bien bulky avec l’épaisseur d’un 3310 qui tiendra 3 jours, mais ça serait tellement de concessions que je ne mettrais pas ma main au feu que ça finira par sortir. 😄

avatar cecile_aelita | 

@Rez2a

vous avez très certainement raison.

avatar Brice21 | 

@Rez2a

"Après, peut-être qu’Apple sortira un iPhone « Ultra », un truc bien bulky avec l’épaisseur d’un 3310 qui tiendra 3 jours, mais ça serait tellement de concessions que je ne mettrais pas ma main au feu que ça finira par sortir. 😄"

Ca existe : c’est un iPhone avec plein de batteries MagSafe dans tes poches.

Pages

CONNEXION UTILISATEUR