Intel va fabriquer des processeurs ARM pour les constructeurs de produits mobiles

Mickaël Bazoge |

C’est un peu l’alliance de la carpe et du lapin, même si ces deux-là travaillent en fait depuis longtemps ensemble. ARM, le champion des processeurs mobiles, a annoncé un accord avec Intel afin « d’accélérer le développement et l’implémentation des systèmes-sur-puce ARM dans le processus de gravure 10 nm d’Intel ». Alors évidemment, dit comme ça, ça en touchera une sans faire bouger l’autre chez beaucoup. Mais l’objectif de ce partenariat est très intéressant : il offre aux partenaires d’ARM – dont Apple – plus de choix dans la production de leurs processeurs.

Cet accord, c’est du gagnant-gagnant pour les deux partenaires. D’une part, cela permet à Intel de remplir ses carnets de commandes alors que le marché du PC pique du nez et que l’entreprise n’a pas su prendre le train de la mobilité à temps. Elle a d'ailleurs récemment renoncé à fabriquer ses propres processeurs pour smartphones et tablettes. D’autre part, ARM gagne ici un partenaire de choix, fiable, et qui a des liens avec une industrie électronique qui ne jure plus que par les processeurs basse consommation définis par l’entreprise basée à Cambridge. LG sera l’un des premiers constructeurs à tirer profit de cet accord, en faisant produire par Intel des processeurs 10 nm pour ses futurs smartphones.

De son côté, Apple fait produire ses processeurs Ax chez Samsung et TSMC, ce dernier devant d’après la rumeur fournir la totalité des puces A10 des futurs iPhone, et sans doute l’A11 également. Avec Intel qui peut, au terme de cet accord avec ARM, fabriquer ce type de processeurs, le constructeur de Cupertino aura désormais une carte supplémentaire dans son jeu de fournisseurs.

Il n’est d’ailleurs pas innocent qu’une partie des modems des prochains smartphones d’Apple proviennent d’Intel (lire : Une trace de modem Intel dans le futur iPhone). Il se murmure en effet que le fondeur a mis sur pied une « armée » d’ingénieurs pour répondre aux besoins d’Apple pour ce modem… et plus si affinités : pourquoi pas aussi le processeur ?

Tags
avatar reborn | 

Pour moi c'est le signe que niveau x86 Intel n'a et n'aura plus rien a proposer de concret.. Donc peut-être des macbook arm d'ici la fin de la décennie..

avatar C1rc3@0rc | 

+1
Intel prend acte et confirme que le x86 est dans le mur définitivement.

Apres l'abandon du ridicule et couteux Atom, l'echec du Core-M son successeur, et la chute des ventes du x86 dans le PC et maintenant dans le serveur, Intel était en très mauvaise posture.

Au niveau de la gravure aussi le x86 ayant demontré que descendre en-dessous de 22nm apportait surtout des problemes de production et une explosion des couts.

Mais c'est une page d'histoire qui se tourne (avant l'abandon du x86).
Il faut rappeler qu'Intel a toujours disposé d'une licence etendue ARM (la meme que celle d'Apple) et qu'il n'y a que la strategie monopolistique construite sur le x86 qui a empeché Intel de produire de l'ARM.

La bonne nouvelle c'est qu'il y a maintenant 4 tres puissants et competents fondeurs de premiers ordre pour ARM: TSMC, Samsung, Global Foundries et Intel. Sachant que GF c'est en fait IBM qui est derriere maintenant.
Donc on va voir des processeurs ARM de plus en plus performants arriver sur le marché, et cela sans compter la concurrence des fondeurs chinois a bas prix qui vont limiter le cout du processeurs.

Reste a savoir comment Intel va gérer l'arriver en masse de processeurs ARM sur les PC et serveurs ou ils vont concurrencer encore plus le x86. A moins qu'Intel soit le premier a sortir des PC ARM...

C'est aussi une vraiment très, mais vraiment très, mauvaise nouvelle pour AMD qui vient d'abandonner le développement de processeurs ARM. Encore un signe qui annonce la mort imminente d'AMD.

avatar 0lf | 

Ça ne montre pas que l'archi x86 est dans le mur puisqu'elle reste très pertinente sur les PC, et les PC ne vont pas disparaitre parce qu'ils sont pertinents pour un bon nombre de tâches. Simplement ça montre l'échec d'Intel à conquérir de nouveaux segments avec son architecture tout simplement parce qu'elle n'apporte pas assez en contrepartie des modifications qu'il faudrait apporter aux écosystèmes mobiles déjà bien établis. Et en attendant, Intel a des usines à faire tourner...

avatar C1rc3@0rc | 

@0lf
«Simplement ça montre l'échec d'Intel à conquérir de nouveaux segments avec son architecture tout simplement parce qu'elle n'apporte pas assez en contrepartie des modifications qu'il faudrait apporter aux écosystèmes mobiles déjà bien établis.»

Tu as une idée des sommes astronomiques depensées par Intel pour forcer l'adoption du x86 (principalement l'Atom) dans le secteur mobile?

Intel a subventionné toute la chaine, depuis la conception, jusqu'au revendeur afin de juste mettre sur le marché des smartphone x86. Le probleme n'est pas marketing, le probleme n'es pas financier (c'est le serveur et le datacenter qui epongeaient les pertes abysales de l'activité mobile), le probleme est technologique: le x86 stagne depuis 6 ans sur PC et serveur, et il est dans le mur depuis le debut sur mobile.

Le x86 n'est pertinent dans le PC que tant qu'il est seul. C'est uniquement la politique monopolistique hyper agressive qui a fait que les PC tournent avec des x86. Intel a ete la premiere victime de cette politique anticoncurrentielle, avec la mise en jachere de ses activité ARM et itanium.

Donc non, cela est bien la reconnaissance implacable que le x86 est dans le mur et qu'il ne peut plus du tout evoluer meme sur PC, ce que Intel a aussi confirmé ces derniers temps... Ok le reveil est difficile, mais la c'est fini.

avatar Stardustxxx | 

@C1rc3@0rc
Maintenant le x86 est pertinent, dans un autre de tes posts il est obsolète... Il faut que nous explique comment il peut être a la fois pertinent et obsolète...

Pour ce qui est de l'échec d'Intel dans le mobile, ARM permet a de nombreux constructeurs de customizer leur processeurs, chez Intel tu n'as pas cette flexibilité, et comme il n'y avait pas d'avantage énergique entre les processeurs mobiles d'intel et ceux sur architecture ARM, je ne vois pas de raison pour ces constructeurs a changer. Si Intel avait sorti un processeur mobile qui consomme 2 fois moins qu'un ARM a puissance egale, il aurait eu une chance de percer.

Le réveil n'est pas difficile, il est prévu depuis longtemps, on arrive a la fin de la loi de Moore (2021) avec ses conséquences. Il va falloir de nouveau design radicaux pour faire progresser les choses, peut-etre que le projet The Machine d'HP est une solution.

avatar C1rc3@0rc | 

@Stardustxxx
Maintenant le x86 est pertinent, dans un autre de tes posts il est obsolète... Il faut que nous explique comment il peut être a la fois pertinent et obsolète...

Il semble que tu souffre d'une capacité de lecture aussi «selective» que ta memoire...
Je vais t'expliquer, a toi, vu que tu sembles le seul a avoir du mal a comprendre cette phrase pourtant simple:
Le x86 n'est pertinent dans le PC que tant qu'il est seul. C'est uniquement la politique monopolistique hyper agressive qui a fait que les PC tournent avec des x86.

Cela veut dire:
Le x86 est le seul processeur disponible pour les PC.
Cela résulte de la politique monopolistique illégale d'Intel qui a détruit toute forme de concurrence. Donc si on voulait construire un PC, depuis des annees, on avait aucun autre choix que le x86.
Le choix du x86 est donc commercialement pertinent, vu qu'il n'y a pas le choix...
Technologiquement le x86 est obsolète depuis... le Pentium III, mais comme on a pas le choix, ben on fait du PC avec du x86.

avatar Stardustxxx | 

@C1rc3@0rc
Le x86 n'est pas obsolete vu qu'il n'y a rien qui le remplace. Technologiquement dépassé par quoi ? Dépassé par rien.

Avec ta ligne de raisonnement, je pourrais aussi dire que l'ARM est pertinent dans le mobile car il est seul...

avatar Alim | 

@stardustxxx

+1

Si le x86 était vraiment obsolète, d'autres technologies plus performantes auront vu le jour. Que se soit chez Intel, AMD ou autre.

avatar Phiphi | 

@C1rc3@0rc :
IBM a bradé cette activité à GF parce que ça lui coûtait moins cher que de licencier et que le ratio par action est sacro-saint chez eux. Ça fera exactement comme avec Lenovo, ils resteront derrière juste la paire d'années qui rendra caduque la clause de retour des bipèdes fourgués avec les usines. Après, GF pourra bien couler ou pas, IBM trouvera toujours des clients pour continuer le dépeçage de tout ce qui ne sera plus dans l'air du temps pour financer le rachat de se qui sera à la mode.

avatar thebarty | 

@Phiphi :
1

avatar C1rc3@0rc | 

@Phiphi
Le parallèle avec Lenovo est simplement absurde.

IBM n'a nullement bradé sont activité de fondeur a GF, il s'agit d'un engagement financier et technologique majeur et strategique. IBM a rationalisé ses couts face a l'explosion du prix des fonderies depuis le passage sous 22nm. Avec cette strategie IBM continue de disposer d'une fonderie pour ses POWER (et les OpenPOWER des partenaires) tout en repartissant les couts d'exploitations en proposant de la gravure a d'autres clients (ARM entre autres)

Si tu as pas remarqué, Intel champion de la course a la finesse de gravure n'a pas pu assumer les frais de creation de lignes 14nm et a gelé les projets pour a la place modifier les lignes existantes. Et encore, Intel a toujours des problemes de productions et de rentabilité, pourtant Intel detient la quasi totalité du processeur PC et une bonne par du processeur serveur!

Petit indice, IBM a un contrat a long terme avec GF pour graver ses processeurs POWER, et sachant que ces processeurs sont strategiques pour IBM...

avatar Phiphi | 

@C1rc3@0rc :
D'une certaine manière tu as raison, ils ne l'ont pas bradée au sens strict, ils ont été obligés de donner de l'argent avec pour que GF veuille bien les en débarrasser.
Et absolument rien, rien de rien d'autre n'est stratégique pour IBM que le pay per share des actionnaires, à court terme.
Je sais très bien de quoi je parle et les dirigeants de cette boîte passe la plus grande partie de leur énergie à changer leur fusils d'épaules en retournant leur vestes.
Il est vrai qu'ils déposent énormément de brevets, et puis... On se demande bien se qu'ils en font. Un de leurs objectifs certain, le seul sur lequel ils n'ont pas varié depuis longtemps, est de ne plus investir sur quoi que se soit qui ne soit pas jetable sans trop de frais et rapidement au cas où le vent tourne. Des activités historiques, la production de serveurs sera sans doute la dernière à disparaître, mais elle va disparaître. Il ne restera plus que des donneurs de conseils, des commerciaux, et des pisseurs de code dans les pays à bas coûts.

avatar Phiphi | 

@C1rc3@0rc :
Cela va faire au moins 30 ans qu'IBM n'as plus rien inventé, et tout ce qu'y s'y fait à ce jour est issus de rachats plus ou moins récents. En 1999 elle avait lourdé quelque chose comme 80% de son ancien effectif informatique en 10 ans, et avait racheté 4 ou 5000 bipèdes en plusieurs paquets pour devenir une société de services.

avatar C1rc3@0rc | 

@Phiphi

Tu sais que tu parles la de la société technologique qui dépose le plus de brevets dans le monde depuis plus de 23 ans et dans un nombre de secteurs considérable (Ingénierie, Recherche fondamentale, Nanotechnologie, Science de la vie, Chimie, Mathématiques, Matériaux,...).
Juste cette année le classement des dépôts aux USA donne:

1 IBM 7,355
2 Samsung 5,072
3 Canon 4,134
4 Qualcomm 2,900
5 Google 2,835
6 Toshiba 2,627
7 Sony 2,455
8 LG Electronics 2,242
9 Intel 2,048
10 Microsoft 1,956

T'as meme pas idée du fait que sans les inventions d'IBM tu aurais pas de processeur dans ton smartphone.

Tout le monde parle d'IA aujourd'hui et ça fait 30 ans qu'IBM dépose des brevets dans le secteur et de plus en plus.

Il ne doit pas y avoir une seul université dans le top 50 qui ne dispose pas d'une équipe au moins en partie financée et associée a IBM.

IBM c'est autant de la recherche fondamentale que de la recherche appliquée et des solutions commerciales finales.

Avant d'affirmer des âneries qui te font passer pour un rigolo commence par te renseigner un minimum...

avatar Phiphi | 

@C1rc3@0rc :
Les labos, les recherches, les brevets, c'est pour l'image de marque, et pour dépenser de l'argent aux USA au lieu d'y payer trop d'impôts. Je te conseille de te promener sur http://www.endicottalliance.org et tu comprendras un peu mieux de quel genre de boîte tu parles.
Entre autres conceptions "amusantes" de ce monstre, je me souviens avoir entendu les dirigeants français soutenir que les lois, y compris américaines, n'avaient pas vocation à être respectés quand elles entravaient le développement économique. !!! Ceci pour justifier le détournement de l'embargo US sur les ventes à l'Allemagne entre 1939 et 1945.
Le fric, le fric, le fric ... Le fric est dieu. Et quand ils taillent dans les effectifs, ils parlent de "diminuer le nombre de têtes" sur leurs charts. Mais bon je suis déjà largement hors sujet.

avatar thebarty | 

@C1rc3@0rc :
"ARM, ..,, a annoncé un accord avec Intel afin « d’accélérer le développement et l’implémentation des systèmes-sur-puce ARM dans le processus de gravure 10 nm d’Intel »."
C'est pas toi qui racontait qu'en dessous de 16 et quelques nm , c'était de la foutaise ?

avatar Maxence Leblanc | 

@C1rc3@0rc :
Intéressante analyse merci pour les éclairages

avatar Stardustxxx | 

@C1rc3@0rc
Encore une fois, ta haine du x86 transparaît dans le post.

C'est quoi cette manie de devoir opposé x86 et ARM, ca ne répond pas au même besoin, c'est stérile de vouloir avoir un vainqueur et un vaincu.

ARM c'est tellement bien qu'AMD vient d'abandonner le développement de CPU ARM pour serveur... Ils doivent avoir une bonne raison.

avatar C1rc3@0rc | 

AMD est dans une panade noire, non seulement manageriale, mais surtout en panne technologique.

Ils sont incapables d'arriver a la cheville d'Intel sur le x86, alors qu'ils avaient sauvé le x86 en lui intégrant un moteur RISC.

Au niveau des GPU ils sont a des années lumières de Nvidia et la génération Polaris démontre encore plus cet échec face aux Pascal de Nvidia.

Ils n'arrivent pas a commercialiser un serveur ARM alors que la demande presse et que les gros consommateurs du secteur développent leurs propre machines ARM a commencer par Amazon et Google (et selon toutes vraisemblance Apple)!

La seule chose qu'AMD arrive encore a produire c'est des APU pour les consoles video de salon, consoles qui vont pas faire long feu face aux PC équipés de Pascal en haut de gamme et des smartphone qui s'attellent a la VR...

Le x86 est dans le mur, Intel qui est pourtant un des meilleurs fondeur au monde n'arrive pas a le faire progresser d'un iota depuis plus de 6 ans. C'est une architecture obsolète et stérile et surtout stérilisante pour l'informatique.
Le réveil est dur, mais meme Intel acte ce fait.

Et prendre AMD comme justification, c'est meme pas fallacieux c'est totalement ridiculisant.

avatar Stardustxxx | 

@C1rc3@0rc
Je vois que tu évolue, le x86 a un coeur RISC maintenant, alors tu nous affirmais que c'était juste du CISC... Il y a du progrès.
Les dernières AMD sont compétitive en rapport qualité prix dans le moyen de gamme. Même le haut de gamme n'est pas si mauvais. Les prochains CPU x86 d'AMD seront 40% plus puissant que la génération précedente, ca va commencer a faire de la concurrence a Intel.

Et si AMD c'est arreté de développer de l'ARM Server parce que tout simplement il n'y a pas de gain significatif par rapport au x86. Mais je peux aussi te donner un exemple d'un soc arm 64 bits server, le Cavium Thunder X, qui a une performance a peut pres identique a des Xeons et qui consomme plus que les Xeons : http://www.anandtech.com/show/10353/investigating-cavium-thunderx-48-arm...
L'architecture ARM ce n'est pas magique, si tu veux de la puissance ca va dégager de la chaleur. Les faits sont la pour le prouver.

Google regarde du côté ARM, mais il regarde églament du côte d'IBM et de l'architecture POWER7 et POWER8.

Le x86 a progressé depuis 6 ans, plus de coeur, plus de cache, de nouvelle instructions multimedia (AVX), des gains d'environ 5% a 10% a chaque generation. Ce n'est pas une architecture obsolete, car sans elle pas de marché du PC. Obsolète veut dire qui n'est plus utilisé... Donc question tu te sers encore du x86 ? J'imagine que non vu que c'est obsolete.

avatar C1rc3@0rc | 

@Stardustxxx
«Je vois que tu évolue, le x86 a un coeur RISC maintenant, alors tu nous affirmais que c'était juste du CISC... Il y a du progrès.»

Décidément tu as des problèmes cognitifs, autant en lecture qu'avec ta mémoire.
J'ai toujours dis que le problème du x86 c'est l'architecture CISC. Toute la cle du monopole d'Intel repose sur le jeu d'instruction CISC du x86.

Mais le x86 est en fait une machine virtuelle "hard" qui effectue une traduction et reorganisation des instuctions x86 en instructions RISC. Les instructions RISC sont excecutées sur le core interne qui est donc un RISC. Une fois traité, le resultat repasse par la couche de conversion RISC -> x86...

Donc sur un x86 pour executer un flux d'instructions tu as:
1) decodage et reorganisation des instructions x86
2) traitement des instructions RISC
3) encodage en instructions x86 du resultat

Sur un ARM pour executer un flux d'instructions tu as:
1) traitement des instructions RISC

Tu vois le probleme et le handicap du x86... mecaniquement il va devoir traiter 3 fois les instructions la ou le RISC fait le traitement en 1 seule fois.
C'est de la que vient l'efficacité energetique de l'ARM en grande partie!

Il y a une consequence importante pour le developpeur: losqu'il programme pour x86 il n'a aucun controle sur la maniere dont les instructions seront executées, et il ne peut pas faire une optimisation poussée. Peu importe donc que le developpeur soit bon ou mauvais, de toute facons c'est le processeur qui va décider quand et comment exécuter le code.

Lorsqu'un developpeur programme pour un ARM ou un RISC, il a un controle poussé sur l'execution et c'est uniquement au niveau de la compilation que ce fait l'optimisation.
Bref meilleur est le progammeur et plus de temps il dispose, plus le programme sera rapide.

Enfin, et c'est la le plus important il est question de comparer les core CPU et pas les unités dédiées a certaines taches qui se multiplient dans le x86...

avatar Stardustxxx | 

@C1rc3@0rc
"Tu vois le probleme et le handicap du x86... mécaniquement il va devoir traiter 3 fois les instructions la ou le RISC fait le traitement en 1 seule fois. C'est de la que vient l'efficacité énergétique de l'ARM en grande partie!"
Mécaniquement traiter... Il n'y a rien de mécanique dans un processeur...
Ce n'est pas parce que tu as 3 étapes, que c'est 3 fois plus lent... Tu peux otimiser ton circuit... Ce n'est pas linéaire.
ARM n'est pas plus efficace énergétiquement que les autres ISA, je t'ai deja fournit des liens vers plusieurs articles dont un sur le site d'ARM qui le prouve... Tu préfère dénier la réalité car elle ne correspond a ton désir : x86 c'est pas bien.
Ce n'est pas parce que tu affirmes quelque chose que c'est vrai.

"Sur un ARM pour executer un flux d'instructions tu as:
1) traitement des instructions RISC"
Tu ne comprends pas la difference entre ISA et RISC and CISC.
Chez ARM tu as aussi un étage de translation qui te crache du micro code.

"Lorsqu'un développeur programme pour un ARM ou un RISC, il a un contrôle poussé sur l'execution et c'est uniquement au niveau de la compilation que ce fait l'optimisation."
Et comment tu fais ca ? Il y a des instructions special en Java ou en C pour ca ?
Parce que si c'est au niveau de la compilation, le programmeur n'intervient pas, c'est le compilo qui fait le boulot.
J'ai du compiler des lib pour Android pour le boulot, le meme code C++ te crache la lib pour mips, arm, et x86. Aucune intervention nécessaire. Les langages haut niveau ne connaisse pas le detail de l'architecture sous jacente, encore heureux, ca nous permet d'avoir du code multiplatforme.

Et je vois que tu n'as pas réagit sur les performances énergétiques du Soc ARM 64 bits, le Cavium Thunder X...

avatar 0lf | 

L'intérêt des macbook arm n'est pas à chercher dans une supposé supériorité d'une archi sur autre, mais dans le contrôle que ça donnerait à Apple sur le hardware. Donc je ne pense pas que cette décision nous dise quoi que ce soit sur les l'arrivé de macbook arm.

avatar reborn | 

@0lf :
C'est toujours bon à prendre au lieu d'attendre 3 ans pour gagner 10% de perf invisible au quotidien..

avatar 0lf | 

Je ne dis pas que ça ne se fera pas, juste que la décision d'Intel n'a rien à voir avec ce que fera ou non Apple.

avatar C1rc3@0rc | 

«La décision d'Intel n'a rien à voir avec ce que fera ou non Apple.»

Tu rigole?
On parle d'Intel la, le specialiste mondiale de l'optimisation des processeurs. Le seul plus compétent et innovant dans le secteur c'est IBM.

Avec les compétences d'Intel a la conception des ARM, Apple va perdre le leadership qu'il a avec les Ax.

T'imagines qu'il y a combien de bureau d'etude au monde capables de rivaliser avec les ingenieurs d'Intel?

Et y a pas que la conception qui va prendre un gros coup de booster, parce que Intel c'est aussi la maitrise de la production sur des volumes phenomenaux. T'as pas idée de l'enfer qu'est un x86 autant a concevoir et plus encore a produire. A coté de ça la marge de progression sur l'ARM est énorme alors que sur le x86 les meilleurs inge d'Intel ont tout tenté et sont allés aux limites du possibles.

Rien que sur les algo prédictifs des profils de charge en fonctionnement, appliqué aux ARM on pourrait gagner plus en autonomie que durant des 6 dernieres années.

Mais bien plus encore, l'arrivée d'Intel va pousser la compétition sur ARM comme jamais. Et n'oublis pas qu'Intel intervient a 2 niveaux: conception avec ARM et production pour les licenciés ARM!

Surtout si tu lis de communiqué tu y apprends que cela fait plusieurs années qu'Intel et ARM se sont lancé dans ce partenariat. Aujourd'hui il devient publique, mais il y a donc un engagment d'Intel et de la R&D mature qui arrivent.

Alors oui cela est un coup de tonnerre qui va changer les orientations stratégiques, et pour Apple et pour le reste de l'industrie.

Quant au PC ARM, la seule barrière qui restait c'était la capacité de nuisance anti-concurrentielle d'Intel défendant son cheptel x86. Il est clair que maintenant, Intel sera le premier producteur et bénéficiaire d'ARM pour PC!

avatar Alim | 

@reborn

Tu crois que les processeurs ARM auront 50% de puissance supplémentaire par gen ? Si ils arrivent à égaler un i3 bas de gamme ça sera déjà bien...

avatar reborn | 

@Alim :
Non mais quitte à stagner autant qu'Apple est un total contrôle sur son SoC

avatar jackhal | 

"Si ils arrivent à égaler un i3 bas de gamme ça sera déjà bien..."
Bah en fait, en single core c'est fait. Pour le moment, Apple n'est jamais allé au-delà de 3 coeurs (iPad Air 2).
http://cdn.arstechnica.net/wp-content/uploads/2015/11/iPad-Pro-charts.00...

Je ne croyais pas au MacBook avec processeur Apple il y a quelques années, l'écart était trop grand et je pensais que les gains de perfs allaient se tasser rapidement, à la x86. Ça n'est toujours pas le cas et si ça continue encore 2-3 générations comme ça, les Intel vont être les nouveaux PowerPC : largués niveau consommation énergétique et perfs. Et on sait tous ce qui est arrivé au PowerPC...
D'autre part, Microsoft préparerait une version ARM de Windows 10. Si passer à ARM n'est plus synonyme de se couper du monde Windows, et que le proc en lui même n'a que des avantages, je dis banco.

Edit : j'ai oublié un point important : un A9X ne coûterait qu'entre 22 et 24 $ à produire. Comme de toute façon, Apple travaille sur ses processeurs pour l'iPhone et l'iPad, en produire plus ou même des versions modifiées représenterait une très grosse économie pour Apple. Super banco.

avatar Alim | 

@jackhal

Compare un ARM avec un i3 dans les même conditions. C'est à dire sous Windows 10 avec une pléthore de processus qui tournent en arrière plan. Et là on va rigoler.
Et puis les ARM est une technologie récente et peu puissante. Leur marge de manoeuvre est encore large pour booster les perfs. Les limites physiques qui freinent Intel seront aussi présentes pour les ARM.
Bref, comme dit quelqu'un plus haut, il faut arrêter de fantasmer sur les ordinateurs ARM. Chacun son domaine, chacun ses points forts et faibles. ARM ne fait pas le poids face à un x86 et ne fera sans doute jamais, pareil pour un x86 dans un smartphone. L'avenir des processeurs de bureau ne se cache certainement pas dans une technologie développée pour des téléphones.

avatar C1rc3@0rc | 

@ Alim

Si tu veux comparer un ARM et un i3 ou meme un i5, fais le sous Linux et la on va rigoler.
La technologie ARM date de plus de 20ans et dérivé des processeurs pour station de travail. Certes cette architecture s'est spécialisé des le départ sur l'efficacité énergétique et a équipé massivement l'électronique embarqué (aviation, automobile,...) et les infrastructures de telecom avant d'arriver sur l'informatique mobile, mais rien dans l'architecture ne l'empêché de faire tourner du PC pas plus que du serveur...

initialement tout le monde pensait que les premiers PC modernes ARM seraient des Mac, ça risque fort de ne pas être le cas a moins d'une très grosse surprise cet automne.

avatar frankm | 

Une nouvelle ère et pleins de Mac mis sur le carreau

avatar Rigat0n | 

C'est Microsoft qui va morfler si ils prennent pas le bon virage au bon moment...

avatar thefolken | 

Quel virage ? Le cœur de Windows 10 est deja compatible ARM. C'est l'intérêt du truc.

avatar thebarty | 

@thefolken :
Microsoft Surface RT ? Le truc au succès incontestable ?

avatar Bloodwave | 

troll sans aucun rapport. Il ne te parle pas de WM ou de la Surface RT, Il te dit juste que Windows 10, au niveau applicatif, est déjà compatible avec les puces ARM. Donc si un jour le X86 doit disparaître définitivement au profit du ARM, il sont prêts.

avatar Un Type Vrai | 

Microsoft est déjà en train de virer...

Windows 10 tourne sur tablette, netbook, téléphone et PC... (un framework de dév pour les unir tous).

avatar 0lf | 

Centenial est il capable de convertir une appli desktop en quelque chose qui tourne sur toutes les archis ?

avatar Le docteur | 

" un partenaire de choix, fiable"
Sauf pour faire des processeurs...

avatar marenostrum | 

pour moi c'est stratégique. la plupart des fondeurs sont asiatiques. intel est américain. ils cherchent à garder la technologie, leur métier.

avatar Rigat0n | 

Je précise ma pensée : Windows sur ARM - même si ça existe - pour le moment c'est la gamme Lumia et cette célèbre Surface RT qui a dû se vendre à 3 exemplaires par erreur.
Donc bon certes Windows sur ARM est déjà plus vrai que macOS sur ARM mais c'est pas fou. A côté de ça iOS et Android n'ont quasiment besoin "que" d'une interface "desktop" pour pouvoir faire un ordi décent sous ARM.

avatar iPop | 

@Rigat0n :
MacOs sur ARM c'est iOS :-)

avatar frankm | 

Et c'est ce qui nous attend un jour

avatar C1rc3@0rc | 

Windows est indépendant de l'architecture, ça tournait meme sur les Itanium 2 (XP 64 et Server 2008 R2,).
Microsoft l'a prouvé par le passé et c'est pas au moment ou le x86 s'est pris le mur (y a un peu plus de 6 ans) que MS a décidé de stopper le développement de Windows sur ARM.
Après c'est comme Apple il y a ce qui existe et ce qui est commercialisé.

avatar bitonio | 

Moi je les enterrerai pas si vite. Dans mon monde (datacenter), ça viendrait pas à l'idée d'utiliser du arm sauf à des fins experimentale et encore intel ça marche super bien en virtualisation. Je sais pas pourquoi cette adoration subite pour ARM, ils ont réussi dans le mobile, tout comme Nvidia dans les GPU, cette alliance est plutôt inquiétante car ralentissement et rapprochement stratégique annonce souvent une période creuse dans les cycles

avatar C1rc3@0rc | 

Ben c'est surtout qu'Intel est définitivement en fin de cycle avec le x86.
Intel n'a pas 36 possibilités et depuis le départ d'Otellini (2012...) la rumeur d'un retour d'ARM dans l'activité d'Intel va bon train.
Bizarement contrairement a ce que tu dis, a peu pres tout le monde dans le datacenter etudie la migration sur ARM ou OpenPower. Amazon et Google sont en train de construire leur propres serveurs et Apple ferait de meme.
Il n'y a pas d'adoration subite pour ARM, mais un pragmatisme evident. Le serveur est le secteur qui tire le mieux partie du multicore, et a ce niveau l'architecture ARM offre une efficacité autant au niveau energetique qu'en terme de souplesse de conception.
Avant de reussir dans le mobile c'est une reussite dans l'embarqué et les Telecom...

avatar Niro | 

J'imagine bien la sortie des futurs iPhone retardés parce que Intel a dû retard dans sa production de puces. Sérieusement c'est ce qu'il se passe avec le renouvellement tardif des mac. Intel n'est plus un partenaire fiable, tant sur le fond que la forme.

avatar iPop | 

@Niro :
De gros dinosaures qui se louvoient lentement.

avatar PierreBondurant | 

Sur le mobile, Intel passe de designer à simple fondeur... Ca a dû leur faire un choc.
Espérons que la remise en cause les pousse à revoir certaines fonctions de leur processeurs qui n'ont pas bougées depuis des années probablement à cause du "on a toujours fait comme ça" typique des grandes entreprises ou "on s'en fout on a pas de concurrence!"

avatar C1rc3@0rc | 

@PierreBondurant

Heu non.
Intel assure a la fois la conception avec ARM, et a la lecture du communiqué on comprend que ça date de plusieurs années - on peut penser depuis 2012 avec le départ d'Otellini - et va aussi recycler ses lignes x86 pour produire de l'ARM.

La question c'est de savoir maintenant si Intel va produire de l'ARM a 14nm ou prendre le temps de passer au 10nm ce qui ne va pas etre pour demain vu les difficultés, les couts et le peu d'avantages technologique que cela apporte.

En restant au 14nm Intel, les architectures big.LITTLE gagneraient théoriquement beaucoup en efficacité, La grande expérience d'intel dans l'optimisation des trucs impossible a optimiser avec le x86 bénéficierait au big.LITTLE, reponse de la meme categorie que celle d'Intel avec la gestion dynamique electrique des core x86.

Techniquement le big.LITTLE c'est 4 core faible performance mais a faible consommation et 4 core haute performance a plus forte consommation qui sont regroupés dans un processeur. Le principe est que lors des faibles charges de travail en situation mobile le premier groupe est seul actif et lorsqu'il y a un gros besoin de puissance ponctuellement c'est le 2eme groupe qui prend le relai.

Et Intel est champion du monde avec ses algorithmes prédictifs pour savoir quel groupe activer dans quelle situation et cela de manière extrêmement fine (niveau du Core).

Il faut considerer le Core-M a ce niveau pour se rendre compte que le niveau de competence d'Intel dans ce jeu est tres en avance sur ARM: le Core-M a un TDP de 15 watt reel et pourtant Intel arrive a le faire fonctionner avec un TDP donné pour 4 watt, tout en donnant l'impression que le processeur fonctionne et est reactif, alors qu'en fait il tourne en sous regime et a moins de 10% de ses capacités.

Certes un Core-M est trop mauvais au niveau énergétique pour entrer dans un smartphone, mais ce fonctionnement appliqué a un ARM c'est potentiellement des heures d'autonomie gagnées!

Pages

CONNEXION UTILISATEUR