Un processeur A10 à six cœurs est-il possible ?

Mickaël Bazoge |

Apple poursuit le développement à marche forcée de ses processeurs ARM, qui pourraient un jour ou l’autre franchir le Rubicon et remplacer Intel dans le capot des Mac (lire : L’iPad Pro entrouvre les portes d’un Mac sans Intel). Une rumeur circule sur Weibo concernant le successeur de l’A9, qui propulse à vitesse grand V les nouveaux iPhone 6s dont la puissance fait jeu égal avec le MacBook Retina.

Le processeur A10 pourrait donc être gravé selon un processus 10 ou 14 nm et produit par Samsung et/ou TSMC, les deux fournisseurs habituels d’Apple — Intel serait aussi dans la course si le constructeur devait choisir du 14 nm. Plus intéressant encore, ce processeur (que l’on retrouverait logiquement dans l’iPhone 7) pourrait exploiter six cœurs, rien de moins.

Ce bruit de couloir vaut ce qu’il vaut, mais la source a déjà donné des infos correctes sur l’A9. Il paraît toutefois un peu étonnant de voir Apple s’intéresser à un processeur à six cœurs alors que l’A9, même avec ses petits deux cœurs, fait aussi bien sinon mieux que les monstres de Samsung ou de Qualcomm à huit cœurs. Avant de se lancer avec une puce à six cœurs, on peut imaginer qu’Apple développera d’abord un processeur à quatre cœurs.

Au delà de la seule puissance brute qui ne veut pas dire grand chose au quotidien, Apple cherche d’abord à assurer un bon équilibre entre tous les composants de ses produits — et plutôt que les performances, c’est surtout l’autonomie qui prime. Ces six cœurs auront un impact certain sur la batterie, surtout si le constructeur ne cesse d’en réduire la taille pour conserver la compacité de ses smartphones (lire : iPhone 6s/6s Plus : pas de miracle pour l'autonomie)

Toutefois, cette rumeur autour d’un processeur à six cœurs n’est pas complètement farfelue… dans le cadre d’un A10X qui se destinerait à un futur iPad Air ou Pro. Le processeur A8X de l’iPad Air 2 comporte ainsi trois cœurs, et il devrait en être de même pour l’A9X de l’iPad Pro. Les châssis de ces tablettes grand et très grand format ont plus de place pour accueillir des batteries à forte capacité… tout comme les Mac, d’ailleurs (lire : Mac ARM : dans les deux ans avec un processeur A10X ?).

Tags
avatar Hideyasu | 

Pour un A10X possible même si ça me pareil être un trop gros bond d'une année sur l'autre. Mais bon pourquoi pas si un Mac Arm est effectivement envisagé (même si je ne le vois pas arriver avant quelques années encore).

avatar C1rc3@0rc | 

L'A10 equipera les iPad et iPhone 2016.
Aujourd'hui un A9 equivaut a un Core i3 ou a un Core i5 pour portable.
Un A9 c'est 2 core ARM.
L'A8x contient lui 3 core ARM

Un x86 c'est entre 2 et 6 core pour la famille Core ix

Mais l'architecture est radicalement différente.
L'efficacité énergétique est incomparablement meilleure que le x86.
La plasticité de l'ARM est aussi incomparablement meilleure.
Et puis le gros avantage des architectures RISC c'est l'efficacité du parallélisme.

Alors le problème du soft c'est que sur des applications (micro informatique) le parallélisme est tres limité - en fait 8 core - .
Si on prend qu’aujourd’hui l'A9 se situe entre un Core i3 et Core i5, un A10 6 core sera bien plus efficace qu'un x86 Core ix avec le même nombre de core.
Les perspectives d'un Mac ARM sont bien plus prometteuses qu'avec un x86.

Et aujourd'hui on peut faire un Mac avec un A9 qui déjà se place au niveau d'un Macbook air.

avatar Stardustxxx | 

@C1rc3@0rc
Tous les processeurs modernes sont des hybrides CISC/RISC.

Ca fait 15 ans la guerre RISC/CISC est terminé.

Je cite l'introduction de la page RISC sur Wikipedia :
"Reduced instruction set computer ou RISC (en français « microprocesseur à jeu d'instructions réduit ») est un type d'architecture matérielle de microprocesseurs qui se caractérise par un jeu d'instructions réduit, facile à décoder et comportant uniquement des instructions simples. On l'a opposé à la fin des années 1980 et au début des années 1990 aux architectures CISC (complex instruction-set computer). La sortie d'architectures hybrides comme le Pentium (CISC émulé par du RISC1) a mis fin, par disparition de repères, à cette guerre qui était devenue bien plus marketing que technique vers 1990, les techniques ayant évolué de part et d'autre et chacune comparant ses procédés à ceux de l'autre… six ans plus tôt."

avatar iJoke | 

Moi je rêve d'un MacBook et d'un iPhone surpuissant capable de travailler de parralleliser leur puissance de calcul sur de lourdes tâches

avatar ovea | 

@iJoke :
Oui voilà ce vers quoi on devrait faire des projections pour qu'Apple nous ponde un protocole ouvert de redirection de flux de calcul

avatar fousfous | 

Les 6 cœurs ce sera pour les Mac.

avatar Un Type Vrai | 

Dont 4 utiles pour la compilation JAT des applications x86...

avatar C1rc3@0rc | 

Il n'y aura pas d'emultation, que des applications natives!

avatar kouriachicoach | 

Et jamais de gaming il faudra toujours un pc à côté

avatar Sostène Cambrut | 

@kouriachicoach

C'est sûr que je vois pas trop Apple sortir une grosse tour avec un SLI de CG nVidia baignant dans du liquide de refroidissement mais ça n'empêche quand même pas d'espérer de bons jeux. L'avance matérielle de ces machines horribles et hors de prix n'a jamais justifié qu'Apple se penche sur la question, mais tant qu'il est possible de faire tourner correctement des jeux intéressants c'est l'essentiel (j'ai jamais bien compris l'intérêt de s'extasier devant une machine qui fait tourner les derniers jeux à 200 fps alors qu'un écran n'en affiche jamais plus de 75 (voire 60 la plupart du temps).

Cela dit, il est de plus en plus probable que le futur du jeu vidéo est dans le streaming donc la puissance brute de ta machine n'aura pas d'importance pour les gros gamers.

avatar en ballade | 

@Sostène Cambrut :
Allez prends tes lunettes et regarde un jeu sur PC gamer. Quand il existe sur Mac et c est rare il est toujours visuellement moins bon sans compter les lags. Respecte juste les joueurs exigeants.

avatar patrick86 | 

"Allez prends tes lunettes et regarde un jeu sur PC gamer. Quand il existe sur Mac et c est rare il est toujours visuellement moins bon sans compter les lags. Respecte juste les joueurs exigeants."

Le Gamer Hardcore est DÉJÀ convaincu que le Mac c'est de la merde. Donc on s'en fout de son avis.

avatar Sostène Cambrut | 

@en ballade

J'ai jamais dit que le jeu sur PC n'était pas mieux que sur Mac O_o qu'est-ce qui te prend ?

J'ai juste dit que si le compromis pour tourner à 200 fps (dont 140 inutiles) c'était d'avoir une grosse tour PC (c'est une réalité, les machines de gamer sont énormes) je comprenais qu'Apple ne s'y intéresse pas. La plupart des jeux actuels se jouent très bien à 30 fps. Quand je vais au cinéma je ne me plains d'ailleurs des 24 images seconde, c'est fou non ?

avatar melaure | 

S'il est persuadé que son jeu tourne mieux sur PC parce qu'il a 200, 300 ou 400 fps, laisse-le le penser réellement. Moi ça me fait bien rire ...

avatar Sostène Cambrut | 

@melaure

Le plus triste c'est que les développeurs de grosses licences savent pertinemment que leur public est surréquipé et du coup ils ne se font jamais chier à optimiser leur code. Alors que quand on voit le boulot qu'ils sont capables de produire pour faire tourner les jeux récents sur les vieilles consoles, on ne doute pas une seule seconde qu'ils sont capables de faire beaucoup mieux.

Mais les studios ont des accords commerciaux avec les fabriquants de CG qui ont eux-mêmes des accords commerciaux avec MS pour entretenir la vente de matériel haut de gamme - le seul sur lequel ils arrivent à faire de la marge.

Que je regrette l'époque de l'Amiga500 et Tilt magasine, où on découvrait chaque mois les prouesses des développeurs de génie pour faire sortir le meilleur d'elle-même à une machine figée. Le scrolling différentiel quoi !

avatar Stardustxxx | 

@Sostène Cambrut
Le 24p au cinéma c'est généralement une horreur surtout dans les travelling qui saccadent a mort.

Pour jouer, c'est 60 fps la norme pour les FPS, c'est sur que pour jouer a solitaire ca n'a pas trop d'importance.

avatar Sostène Cambrut | 

@Stardustxxx

Donc tu vas plus au cinéma ?

Sinon oui, pour le FPS il faut 60 i/s, c'est un cap. Et comme c'est un cap qui doit rester stable, c'est mieux si la machine est à l'aise au-dessus. Mais on peut quand même bien s'amuser à 40 fps.

Le problème c'est les jeux sans MaxFPS, parce que si tu fais surchauffer ta carte pour afficher 120 FPS, t'as plus de ressource quand tu dois brutalement afficher 2000 textures en plus, et le frame rate chute. Blizzard n'a d'ailleurs pas attendu NVidia pour proposer un limiteur.

Mais pour les RPG ou les jeux de stratégie c'est complètement inutile (j'ai déjà raidé HM à 20 fps sans problème, même si c'était pas agréable).

avatar Stardustxxx | 

@Sostène Cambrut
Si je vais encore au Cinema, mais je souffre souvent. Avatar ou Bilbo était bien a 60 et 48 fps.

Si tu dois afficher 2000 textures en plus, il te faut de la memoire, plus qu'une carte graphique rapide. La vitesse de calcul de ton GPU ne depend pas de la quantité de mémoire utilisée. La ou tu peux avoir des ralentissement si c'est ton jeu doit tout le temps aller chercher des nouvelles textures, et si c'est le cas c'est que ton jeu est codé avec les pieds.
Ce qui ralentit ta carte graphique dans une scène c'est le nombre de polygone, et le nombre d'effets que tu veux avoir, pas le nombre ou la quantité de texture.

avatar Sostène Cambrut | 

@Stardustxxx

Pardon si je suis allé un peu vite. J'ai supposé évident que s'il y avait 2000 textures en plus il y avait forcément des polygones pour les porter, alors qu'on peut augmenter le nombre de poly sans augmenter le nombre de textures.

Sinon j'ai vu Avatar et Bilbo sur ma TV en 30 ips et ça m'a pas traumatisé. Au cinéma au premier rang sur un écran de 20m c'est différent.

avatar Stardustxxx | 

@Sostène Cambrut
Ca ne change rien. Tes polygones ca prend de la memoire, c'est le meme probleme que pour les textures.
Et dessiner 1 grand triangle ou 2 petits triangles (qui ont la meme surface) prend le même temps, car tu dessines le même nombre de pixel.
Ce qui tue la performance c'est le nombre de pixel a affichés (ce que l'on appelle le Fillrate), pas le nombre de polygone ou de texture en memoire. Et c'est exactement pour ca que ta carte graphique est fluide an HD et saccade en 4k. Bien sur il y a quand meme un performance hit quand tu as plus de polygones, mais ce n'est pas si important que cela et cela depend de ce que tu utilises sur la carte.

avatar Sostène Cambrut | 

@Stardust

Les polygones il faut bien les calculer non ? Donc il faut de la ressource matérielle pour ça ?

Donc si d'un seul coup 2000 textures portées par disons par 100 000 polygones et que ta CG est déjà en surrégime parce qu'elle tourne à 120 fps au lieu de 60, elle va tousser, et probablement descendre en dessous des 60 fps. Alors que si elle est froide elle va pouvoir supporter la surcharge et conserver le cap à 60.

Et on est pas en voxel là. Le nombre de pixel à afficher à beau être constant, ça n'empêche pas le frame rate de chuter parfois.

Par ailleurs, tu commences un peu à raconter n'importe quoi. Plus t'as de polygones, plus t'as de sommets à calculer, donc plus t'as de calcul à faire pour les rendre et donc plus t'as besoin de puissance.

Tu te rends bien compte que si ce que tu disais était vrai, on pourrait avoir un nombre infini de polygones affiché à l'écran ?

Un fichier de 3D brute (que les sommets) ça ne pèse rien. C'est un fichier texte de 2000 lignes pour les plus gros objets.

avatar Stardustxxx | 

@Sostène Cambrut
Passe au watercooling ;)

Les polygones, tu ne doit pas forcement les calculer, ca depend si ta geometry est dynamique.
Pourquoi d'un seul coup du devrais charger 2000 textures ? On est dans les cas extremes. Si dans un jeu AAA, le jeu doit charger 2000 textures d'un coup, ca prouve juste que c'est codé n'importe comment.

avatar Sostène Cambrut | 

@Stardustxxx

À partir du moment où tu te déplaces autour d'un objet dans un jeu tu dois recalculer ses sommets à chaque frame. On est pas en train de parler de rendu image de synthèse pour le cinéma mais de jeu vidéo, donc rendu temps-réel. Tu suis un peu la conversation ou pas ?

Pourquoi 2000 textures ?

Au hasard un raid de 80 bonhommes en PVP qui ont tous un personnage et un équipement différent ? T'as jamais joué à Wow de ta vie ou bien ?

avatar Stardustxxx | 

@Sostène Cambrut
C'est les meme calculs dans les 2 cas, c'est juste que dans le cas rendu image de synthèse on en fait juste plus de calcul donc d'effet sur des images plus grande.

200 000 triangles, 3 sommet chaque, ca te fait 600 000 calculs de position a faire.
Resolution HD : 2 millions de pixel, donc au minimum 2 millions de calculs
Resolution UHD : 8.3 millions de pixel, ...

Vu le nombre d'effets que tu as en meme temps, tu vas avoir un certain de nombre de calcul par pixel.
Bien evidemment le nombre de polygone a une influence, mais le nombre de pixel a une importance encore plus grande.

J'ai joué a WoW il y a longtemps. J'ai raider a WoW Vanilla. Ce dont je me souviens, c'est que tes 2000 textures, elles sont loader quand tu rentres dans l'instance pendant l'écran de chargement, pas pendant que tu es en plein raid au pied du boss en train de tanker, il y a deja assez de lag réseau comme ca.

avatar enzo0511 | 

Ça me rappelle la course frénétique au GHz qui n'a finalement abouti à rien si ce n'est qu'aujourd'hui des processeurs moins cadencés sont plus puissants que des processeurs d'il y a 2-3 ans qui dépassaient 2 ou 3 Ghz

avatar Sostène Cambrut | 

@enzo0511

Tu parles de la course aux cœurs ?

C'est vrai que ça sert presque à rien pour le grand public (la majorité des PC n'en ont que 2) mais pour certains pro c'est indispensable. Le Mac Pro 12 cœurs coûte 10000€.

Dans un téléphone ça sert à rien. Apple l'a suffisamment prouvé. Et plus il y a de cœurs plus ça chauffe. Mais si Apple veut prétendre séduire les professionnels avec du Mac ARM elle va devoir y passer, et un A10 ou A10X 6 cœurs serait cohérent avec un Mac ARM.

Comme je le disais ici hier on a toujours comparé les AX aux processeurs Intel en oubliant qu'ils ne sont pas ventilés. Or, les seuls processeurs Intel fanless sont aujourd'hui dépassés par l'A9 ce qui laisse présager qu'ils seront largués par l'A9X de l'iPad Pro.

Dans cette optique, il n'est absolument pas farfelu d'imaginer des processeurs ARM ventilés qui atteindraient les performances des Core iX actuels. Et avec 6 cœurs, ils seraient même plus séduisant que les Core i7 pour certaines tâches pour le calcul parallèle.

Le Mac ARM se précise en tout cas, n'en déplaise à certains.

avatar Tomtomrider | 

@Sostène Cambrut :
Il me semble que @enzo0511 parlait de GHz et pas de cœur.

avatar Sostène Cambrut | 

@Tomtomrider

Il me semble que enzo0511 expliquait que l'article qui parle de la course aux cœurs lui faisait penser à la course aux GHz qu'on a connu précédemment.

avatar Stardustxxx | 

@Sostène Cambrut
'Dans cette optique, il n'est absolument pas farfelu d'imaginer des processeurs ARM ventilés qui atteindraient les performances des Core iX actuels. Et avec 6 cœurs, ils seraient même plus séduisant que les Core i7 pour certaines tâches pour le calcul parallèle.'

Pourquoi 6 core ARM seraient plus seduisant que 6 coeur i7 ?

avatar Sostène Cambrut | 

@Stardustxxx

Je savais pas que le i7 avait 6 coeurs. Pour moi il en 4. Faut passer au Xeon pour avoir plus de 4 coeurs.

avatar Stardustxxx | 

@Sostène Cambrut
Il faut se renseigner ;)
Il y a des Core i7 a 6 coeurs (12 hyperthreadé) qui datent de 2011 et qui ne sont pas des Xeons.

avatar Sostène Cambrut | 

@Stardustxxx

Au temps pour moi ! ^_^

Mais j'en ai jamais vu dans un Mac alors j'ai supposé que ça n'existait pas (mea culpa)

Par contre tu soulèves un point intéressant. Je ne suis pas du tout certain que l'architecture ARM actuelle gère le multithreading. Auquel cas 6 coeurs ce serait bien pour ennuyer Intel sur ses dualcore (tous les portables Apple ou presque) mais pas les quad !

avatar Stardustxxx | 

@Sostène Cambrut
Tu n'a pas vraiment tord. Il y a eu quelques modeles (les modeles i7 extreme) sur Sandy Bridge, mais ca fait un bon moment qu'Intel n'a pas sorti de proc grand public 6 coeurs, c'est resté assez marginal.
Dans les dernieres années, les seuls processeur a 6 coeurs chez Intel était des Xeons.

avatar sachouba | 

@Sostène Cambrut:
"Apple l'a suffisamment prouvé."
Donc Apple a prouvé une théorie en ne la testant pas ? Ouah, c'est génial comme type de raisonnement, on devrait s'y mettre en mathématiques, on progresserait beaucoup plus vite.

avatar Kenjik | 

Le macbook retina aura très certainement dans le futur un processeur ARM. Pour les autres, on verra...

avatar @ymeric | 

Au vu des avancées des processeurs ARM par rapport au Intel M il me semblerait logique qu'Apple intègre ses A10 / Ax dans le Macbook qui est une machine test. Après l'unique port USB C, Apple changera le processeur Intel pour un ARM.
Après tout, un iPad Pro équivalent (voir plus puissant) au Macbook a un processeur A9X alors un processeur A10 avec 6 coeurs et une montée en puissance .. la suite logique serait d'intégrer l'ARM au Macbook en plus de l'iPad Pro.

J'attends de voir ! Et ça pourrait être fort intéressant ..

avatar JoKer | 

Et donc avoir des logiciels Mac qui ne fonctionneraient pas sur MacBook et des logiciels MacBook qui ne fonctionneraient pas sur Mac...

avatar Un Type Vrai | 

Apple a montré son expertise en transition plusieurs fois dans sa vie...
On peut aussi imaginer une puce x86 et un ARM côte à côte, mais inatégnables par le développeur (un peu comme le disque dur/SSD).

D'ailleurs il ne me semble pas que beaucoup d'apps iOS soient écrit en partie en assembleur... Donc Apple a déjà tout fait pour éviter qu'une application ARM ne tourne pas sur x86...

avatar JoKer | 

Si transition il y a, elle doit se faire sur une année (deux ans grand max), pour toute la gamme et avec un émulateur Intel.

Changer que le MacBook donnerait une situation impossible avec très peu de logiciels adapté.

Une configuration hybride (hors problème technique ou même légal) serait un cauchemar pour l'autonomie et la simplicité d'utilisation. Sans compter que la possibilité de faire tourner les logiciels intel de façon native n'encouragerait pas les éditeurs à entamer une réécriture.

avatar fousfous | 

@JoKer :
Ça se fera dans la même keynote la transition, pas de problèmes là dessus, et avec un bonus les outils pour adapter plus facilement les apps et quelques démonstrations de devs.

avatar Un Type Vrai | 

2016 => Macbook (+70% de perf par rapport à l'iPad Pro)
2017 => tout le reste sauf Mac Pro (+70% de perf par rapport au Macbook)
2018 => Mac Pro (+70% de perf par rapport àl'iMac)

Avec 70% de perf en + par an, ARM pourra très rapidement dépasser x86...

avatar JoKer | 

On verra donc à la prochaine WWDC.

avatar fousfous | 

@Un Type Vrai :
Le x86 est déjà devancé...
Les processeurs d'Apple on une meilleure rentabilité au coeur, à la fréquence et à la consommation.

avatar Stardustxxx | 

@fousfous
Et qu'est ce qui rend un processeur rentable ?
De quoi dépend le prix d'un CPU ?

avatar fousfous | 

@Stardustxxx :
Je parlais de rentabilité au terme puissance pas prix.
Enfin vu le prix des processeurs Intel je me demande encore comment ils font pour le justifier...

avatar Stardustxxx | 

@fousfous
Vu le prix d'un iPhone a produire et le prix que les gens achètent. Je me demande comment encore comment Apple fait pour le justifier...

Si on commence a nommer les compagnies qui se gavent sur le dos des consomateurs... ;)

avatar fousfous | 

@Stardustxxx :
Les iPhone sont à la pointe et évoluent énormément chaque année, les processeurs Intel on ne peut pas vraiment dire ça...

avatar Sostène Cambrut | 

@Stardustxxx

La matière première et les marges du constructeur. Et comme Intel est tout seul ou presque, Intel choisit ses marges.

À l'inverse, le marché de l'ARM est ultra concurrenciel et produit en masse, donc les coûts sont bien moins importants.

avatar Stardustxxx | 

@Sostène Cambrut
Le prix de production d'un processeur est lié a sa surface.

Après, pour Intel comme pour Apple, le marketing entrainent d'autres frais qui sont ajoutés.

avatar Sostène Cambrut | 

@Stardustxxx

La surface donc la matière première, on est d'accord.

Donc Apple et les autres constructeurs payent les marges (ou le marketing, appelle ça comme tu veux) d'Intel.

Donc Apple baisseraient bien ses coûts en évitant de payer les marges d'Intel.

Pages

CONNEXION UTILISATEUR