Intel renonce aux processeurs pour smartphones et tablettes

Stéphane Moussie |

Après des années d'essais en vain, Intel renonce finalement au marché des processeurs pour appareils mobiles. La firme de Santa Clara a annoncé l'abandon de Broxton et SoFIA, ses nouvelles plateformes Atom destinées aux smartphones et tablettes.

Malgré des milliards de dollars engloutis, Intel n'est jamais parvenu à démocratiser ses processeurs sur un marché accaparé par les solutions ARM, en avance autant au niveau de la disponibilité que de l'adaptabilité. Les appareils Intel Inside sont restés rares et confidentiels.

L'arrêt des systèmes sur puce Broxton et SoFIA (incluant un modem) est brutal. Ces plateformes étaient quasiment prêtes et devaient sortir dans les prochains mois. Ce changement de stratégie s'inscrit dans une lourde restructuration prévoyant 12 000 suppressions de postes, soit 11 % des effectifs mondiaux.

La feuille de route initiale dans la mobilité

Intel espère toujours se faire une place sur le marché des tablettes et des convertibles grâce aux puces Core m. Le fondeur a récemment présenté lors de l'IDF une tablette de référence Core m3. En revanche, il n'a plus rien à proposer pour les smartphones en matière de processeurs.

Dans la mobilité, Intel va surtout miser sur la connectivité sans fil, en particulier la 5G étroitement liée à l'internet des objets. Lot de consolation : selon des rumeurs, il serait le principal fournisseur de modems du prochain iPhone.


Source
Tags
avatar fte | 

OK. Je ne l'ai pas vu venir celle-là.

avatar C1rc3@0rc | 

Moi si, et depuis des années maintenant.

C'était pas très difficile a anticiper de toute façon, le principe sur lequel repose le business du x86 c'est le monopole. Avec la chute du PC, l'incapacité de convaincre les constructeurs d'adopter l'Atom, meme a coup de subventions monstrueuse, d'achat de PDM artificiels,... Ça pouvait pas tenir encore longtemps.

Ce qui a mis le coup de grâce, c'est d'une part les difficultés et le peu de résultats de la gravure a 14nm malgré des couts astronomiques, et de l'autre la multiplication des producteurs chinois licenciés ARM qui ont encore baissé les couts alors que les processeurs étaient de plus en plus puissants.

Intel confirme aussi une chose, c'est que le Core M est bien le successeur de l'Atom, malgré qu'Intel ait semblé renoncer a le faire integrer dans un smartphone: le marketing peut arriver a faire passer des vessies pour des lanternes, mais il y a des limite et les constructeurs sont pas des imbeciles non plus, et ce sont bien rendus compte qu'Intel était incapable d'améliorer l'efficacité énergétique du x86.

Maintenant Intel va avoir du mal avec les tablettes et les netbook (dont hybride) sachant que les ARM sont au moins aussi puissant que les Core -M, consomment moins, et sont beaucoup moins chers.

Reste qu'Intel va continuer a faire de l'argent pendant un moment sur le cloud. Par contre cote Core ix et Xeon pour station, ça a vraiment pas l'aire d'etre la priorité et va falloir se contenter de +/-5% par an et des litanies du marketing.

Bref reste plus a esperer les Mac ARM et les stations et serveurs sous OpenPower pour voir la puissance repartir a la hausse.

avatar oomu | 

oui, on s'attendait à ce qu'intel renonce comme microsoft renonce. Ces deux entreprises ne sont pas taillées pour se contenter d'être des seconds couteaux d'un marché.

(après quand on dit "renonce", on ne dit pas que c'est pour l'éternité hein. mais à l'heure actuelle, les deux entreprises acceptent de laisser le marché à d'autre)

Je n'ai pas beaucoup d'espoir pour intel sur le marché des "tablette/hybrides". L'industrie PC le voit comme le nouveau netbook (donc zéro valeur) et malgré ses qualités Microsoft Surface Pro ne décolle pas.

-
"Par contre cote Core ix et Xeon pour station, ça a vraiment pas l'aire d'etre la priorité et va falloir se contenter de +/-5% par an et des litanies du marketing."

c'est ce qui me désespère le plus... on est revenu dans une période sombre où "l'ordinateur perso" redevient ennuyeux.

Mais vous pensez sincèrement que OpenPower a une chance ?
Ce n'est pas la première fois qu'on fantasme de construire les stations de travail et machines de bureau sur l'architecture Power.

Pour l'heure, le roman médiatique est que personne à fiche de quoi que ce soit sorti d'un téléphone de poche.

avatar C1rc3@0rc | 

OpenPower a une chance parce que c'est un modele economique est proche d'ARM et que X constructeurs peuvent developper des processeurs selon leurs interets et que c'est une architecture plastique et basée sur la puissance tout en bénéficiant d'une deja bonne efficacité energetique.
C'est aussi une architecture RISC, donc avec les meme avantage qu'ARM, mais avec aussi une approche hybride avec les apports de Nvidia.

Apres, OpenPower sur station, serveur, caculateur,... oui d'autant que les couts devraient devenir tres interressants et qu'Intel lui est condamné a vendre tres cher ses Xeon puisqu'il ne peut plus compter sur d'autre sources de revenus "rentieres" pour appliquer une politique de dumping!

Techniquement l'OpenPower est bien plus evolué et a une meilleure marge de progression que le x86. Si le x86 a conquis le datacenter, c'est grace a une politique de dumping, financé par le monopole PC.

Maintenant Intel est dans une longue periode ou sa rentabilité vient exclusivement de l'equipement cloud, donc impossible de faire du dumping. Et Intel doit en plus assumer les couts de ses "fab" ce qui n'est plus le cas d'IBM ou de ses partenaire. De plus Intel a toutes les difficultés du monde a "fondre" l'Itanium dans le X86, alors que ce devrait etre le cas depuis 2 générations et que c'est maintenant reporté pour la prochaine génération.

Par contre OpenPower sur desktop? C'est impossible a prédire pour l'instant.
C'est pas infaisable, mais ce serait en concurrence d'ARM alors que les stratégies semblent plutôt orientées sur une complémentarité.

En tous cas, la présentation des Mac ARM a la WWDC devient de plus en plus probable et souhaitable.

avatar Espcustom | 

La longue traversée du désert commence...

avatar bluesteeleyes | 

Exactement, et dans les deux sens. Lorsqu'on se retrouve au milieu, c'est là qu'on se rend compte que continuer ou faire demi-tour s'avère tout aussi difficile, voir encore plus car entre l'inconnu qu'il reste à parcourir et le calvaire qu'on n'ose pas revivre...

En même temps, les gens sont tellement conditionnés, j'ai du mal à comprendre qu'un gros comme Intel arrive à se planter sur ce coup-là.

Dans les années 2000, les gens faisaient la course aux téléphones les plus petits au monde. Et on sortait des téléphones bourrés d'options qu'on pouvais cacher dans la main en la refermant, comme le Siemens SL55, le Nokia 8210, 8850, et j'en oublie.
Seulement 14 ans après, on fait la course au téléphone le plus grand, de sorte qu'il soit confortable pour voir des vidéos ou surfer à tel point que lorsqu'on cherche des tests ici et là, la SEULE chose qui soit pratiquement impossible à trouver, c'est le test fonction téléphone.
Tout y est. Appareil photo, internet, écran, rendu des couleurs, etc..., mais la fonction téléphone.... Essayez pour voir.

C'est même encore pire que ça. Quand je vois les critiques parce que la différence juste esthétique d'un téléphone Samsung ou Sony est différente d'un Iphone, alors qu'au premier coup d'oeil ce sont les mêmes, et que niveau taille d'écran, un millimètre suffit à changer la note de 3 ou 4 points sur 5, alors là, j'hallucine.
Dans les années 80, les boombox les plus recherchés et qu'on portait sur l'épaule dans la rue ( rap, street dancers, etc...), c'étaient les plus gros et les plus lourds.
Ainsi, il n'était pas rare d'avoir entre 5 et 8 Kg sur l'épaule toute la journée, rien que pour frimer.
Pareil pour les appareils photos reflex avec des objectifs capable de dénicher des oiseaux assez loin, tenir entre 1,5 et 3kg à bout de bras, c'était la classE.

Aujourd'hui, on va se plaindre si notre téléphone X de 172gr fait 10 gr de plus que celui du voisin qui en fait 162!
Si vous voyez pas...

avatar bluesteeleyes | 

Ah, et en 1998, on s'est foutu de la tronche d'un pote parce qu'il avait payé son téléphone portable Sony Ericsson T28S 250 francs ( soit 38 €), ce qu'il y avait de plus cher, juste à cause de la taille, du clapet qui faisait "classe" alors que nous, on avait acheté nos portables environ 50 francs...
Ouaip, bon, aujourd'hui, c'est un salaire qu'on lâche dedans, voir plus si on le prend dans un abonnement de 24 ou 12 mois...
Et on trouve ça normal...

avatar Rez2a | 

@bluesteeleyes :
En dehors du fait que 250FF ne représentaient sûrement pas 38€ aujourd'hui, tu oublies aussi quelques "détails" qui arrangent bien ton point de vue, comme le fait que les téléphones d'aujourd'hui sont plus comparables à des ordinateurs qu'aux téléphones d'autrefois, ou le prix des forfaits qui est absolument pas comparable, ou le fait que les téléphones d'aujourd'hui sont achetés à prix coûtant.

Et encore mieux, tu peux avoir des iPhone encore moins chers que ton téléphone à 50FF si tu prends un engagement sur 24 mois. Donc rien n'a vraiment changé, en tout cas pas en mal.

avatar bluesteeleyes | 

Avec ta réponse, tu ne fais que confirmer ce que je dis.
Fais donc le calcul entre un forfait que tu paye seul, et un forfait avec un smartphone, un Iphone, par exemple, su 4 mois.Tu verras à combien tu paye réellement ton smartphone par rapport au prix initial.
Et quand je lis ça, visiblement, j'aurais tendance à regretter les anciens smartphone, car avec un truc qui fait ordinateur avec connexion internet, tu ne semble pas capable de vérifier une chose aussi simple et aussi connue ;)
Alors à quoi il te sert ton iphone?

avatar Rez2a | 

@bluesteeleyes :
Je me suis sûrement mal exprimé, mais c'est bien le point que je voulais mettre en avant. Il vaut mieux acheter un téléphone nu et prendre un forfait séparé, mais l'alternative existe toujours pour ceux qui n'ont pas les moyens de sortir autant d'argent d'un coup.

À l'époque dont tu parles, pas grand monde n'achetait son téléphone seul puisque la quasi totalité des forfaits disponibles fonctionnaient à grands coups de périodes d'engagement, de réengagement, et de prix préférentiels sur les téléphones a l'échéance de son engagement.

Et puisque tu aimes les conversions FF-€ avec 15 ans d'écart, un 3310 nu à sa sortie c'était 300€.

avatar oomu | 

"En même temps, les gens sont tellement conditionnés, j'ai du mal à comprendre qu'un gros comme Intel arrive à se planter sur ce coup-là.
"

pourtant, c'est compréhensible et très courant. On a vu des monstres comme IBM, Microsoft, AT&T et j'en passe se "planter" sur un marché.

En réalité, elles ne se plantent pas. Elles n'ont pas fait une "erreur". C'est juste la conséquence logique d'un marché qui évolue dans une direction où l'entreprise n'est pas taillée pour.

La culture d'entreprise, c'est pas simplement les posters mis à un mur, mais le fonctionnement interne et les possibilités qu'une entreprise intègre et ne peut réécrire d'un coup de crayon.

Intel a une telle taille qu'elle ne peut pas, en toute bonne foi, justifier de se lancer dans des processeurs à bas coût pour des petites machines balbutiantes quand elle a un business gigantesque de PC qui demandent du gros proc.

C'était la situation d'Intel au début des zipods et autres smartphones. L'entreprise n'était pas bête: bien sur qu'elle a pigé que c'était un avenir, ses propres employés devaient en utiliser, vu le nombre d'ingénieurs informatiques dans la boite...
Elle a donc tenté des "produits" pour répondre à cela. Mais elle le fait de la manière pour laquelle elle est taillée : répandre son IP (le i86) en masse pour vivre de vente au près des industriels.

Spécialiste dans le PC à gros processeur, elle a donc tenté de tout transformer en PC à gros processeur. Quand on a un marteau, tout est un clou.

Pas de pot, un autre acteur, arm, a changé les règles du jeu (littéralement: ARM ne vend pas le proc, mais la licence pour faire le proc).

L'entreprise doit donc muter SANS tuer sa vache à lait (le gros proc pour PC) et c'est difficile.

12 000 licenciement tout de même (sans parler des précédents). Y a rien de facile là dedans.

avatar SMDL | 

@oomu :

"Quand on a un marteau, tout est un clou."

Ha ha, j'arrive bien lions de la bataille, mais merci pour ce genre d'aphorismes, oomu, ça m'a donné le sourire :)

avatar enzo0511 | 

A moins d'un rebondissement technologique réel et extraordinaire dans les processeurs pour ordi, Intel va subir la même fin que Kodak qui n'a pas su s'adapter à l'évolution de la photo vers le numérique :(

Ça ne fait que confirmer qu'un passage des Mac à ARM

Sauf si Intel casse les prix et reponde aux exigences d'Apple

avatar Flash | 

@enzo

La seule chose que confirme cette news est qu'Intel ne s'intéresse plus aux processeurs pour smartphone.
Ne prend pas tes fantasmes pour une réalité.

avatar enzo0511 | 

@Flash :
Fantasme ou réalisme ?

avatar C1rc3@0rc | 

@Flash

Heu non, cela confirme qu'Intel a été incapable d'adapter le x86 pour les device. C'est pas un désintérêt, c'est un constat d'échec, c'est très different.

C'est aussi le sacre d'ARM.

Maintenant Intel concentre ses ressources sur le cloud, avant de lâcher complètement le x86 et passer a une autre architecture.
Il est clair que le Core M, successeur de l'Atom, va aussi lui succéder dans l'échec.

Avec les prochaines générations d'architecture GPGPU Nvidia associé a IBM et peut etre meme AMD vont achever les Xeon phi.

Reste donc le marché du cloud comme joué, mais elle flotte sacrement bien et peut permettre a Intel de faire de gros bénéfice jusqu'a l'architecture suivante.

Mais sans nul doute on est sur un echec cuisant pour Intel et la fin d'une position dominante.

avatar byte_order | 

Entre l'ARM qui est parti de l'embarqué pas cher peu consommateur peu puissant et a grimper petit à petit la rampe de performance (mais aussi des prix et de la conso) et de l'autre Intel qui est parti de CPU d'ordinateur et de serveurs cher consommateur mais puissant pour essayer d'en proposer des versions downsized, ce sont 2 démarches en sens opposées mais destinée à se rencontrer.

Faut pas croire que les difficulté rencontré par Intel a dépassé les 4/5Ghz ne seront pas rencontré aussi par le design ARM, vu que ce sont surtout des contraintes physiques, atomiques en cause.

Faut pas croire que parce que l'on sait faire des GPU, c.a.d. des processeurs équipés massivement d'unité de calcul spécialisé au traitement numérique de même type qu'on sait forcément faire un CPU générique, réactif, adaptatif, capable de monter en puissance ou de descendre en consommation efficacement dans tous les types d'usages.
Et bon courage pour réécrire les systèmes d'exploitations pour fonctionner principalement sur des GPGPU... Question consommation, AMD et NVidia ont encore un sacré retard, c'est quand même le plus gros poste de consommation d'un ordinateur de nos jours...

Alors, oui, dans une ère où les ventes de PC tout type confondu régressent, Intel souffre.
Mais jusqu'à preuve du contraire, l'alternative crédible à un CPU Intel dans un serveur ou une station de travail, on le cherche encore. C'est pas faute de nous le promettre "bientôt", mais dans les faits, on attend toujours. Tout comme les PowerPC G4 et G5 devaient en leur temps exploser les x86 d'Intel...

avatar C1rc3@0rc | 

Résumer la différence entre le x86 et l'architecture ARM de la sorte c'est affligeant.

les x86 s'est imposé artificiellement par des pratiques anti-concurentielles (dumping, abus de position dominante, étouffement du marché, et des pires)

ARM s'est imposé par son efficacité technologique.

Le x86 a toujours compté sur la conjecture de Moore comme argument commercial de renouvellement, a toujours reposé sur l'obsolescence programmée (conjecture de Moore: 18 mois) et le monolithisme etn'a jamais été conçu pour l'efficacité .

ARM a initialement cherché l'efficacité et la plasticité et la pérennité ( petits marchés hyper exigeants, grosse contraintes sur l'efficacité et la fiablilité dans le temps)

L'efficacité énergétique n'a jamais été une considération d'Intel jusqu'au Core 2 et dans les faits elle n'a quasi pas bougée.

L'efficacité énergétique a toujours été l'impératif d'ARM et continue de progresser alors que la puissance des processeurs doubles a chaque génération en moyenne.

Intel a montré que la gravure sous les 22nm n'offrait quasi aucun gain de puissance ni de consommation.

Nvidia a démontré que le travail sur l'architecture a 28nm permettait de doubler l'efficacité énergétique et que la marge de progression était considérable.

Intel a montré qu'avec beaucoup de travail sur l'architecture le x86 pouvait moins gaspiller d'énergie. Mais un processeur qui consomme moins parce qu'il est éteint, n'est pas un processeur efficace energetiquement, c'est juste qu'il gaspille moins.

L'idee saugrenue d'accelerer l'OS avec du GPGPU c'est Intel qui l'a développé, cela s'appelait Larabee. Intel a aussi tenté de vendre le multiprocesseur comme remplaçant de la puissance par core. Dernière en date l'iGPU dans le die qui fait redondance avec l'unité vectorielle.

Le GPGPU c'est pour le vectoriel, pas le sequentiel. OpenPower c'est la demarche inverse d'Intel…

Sans monopole, Intel est enfin en position de concurrence, et cela change tout!

avatar byte_order | 

> Résumer la différence entre le x86 et l'architecture ARM de la sorte c'est affligeant.

En effet. Faudrait rentrer dans le détail de ce que sont vraiment les puces x86 et ARM actuellement pour mieux voir la différence et aussi tout ce qu'ils ont en commun, mais ça ne semble pas être l'objectif, visiblement Intel semble avoir fait du mal à leur mère dans leur enfances à certains ici.

> les x86 s'est imposé artificiellement par des pratiques anti-concurentielles
> (dumping, abus de position dominante, étouffement du marché, et des pires)

Que sont devenus les zilog, motorolla 68k, sparc, dec alpha, SGI mips, power pc ?
Pourtant, tous ces processeurs ont existés et pour certains ont eu de nombreuses années pour faire leur preuve face à un 8088 poussif au possible à ces débuts.
Windows pour Alpha a existé, Unix tourne depuis toujours sur à peu près tout ce qui peut exécuter du code, et pourtant :
- Windows pour Alpha n'a jamais décollé, faute de prouver la réalité du bond en avant promis mais qui dans les faits n'a jamais atteint le seuil suffisant pour justifier une migration matérielle
- SGI a abandonné ses propres MIPS (et son OS) pour proposer des stations de travail sous x86 et Linux avec leurs cartes de calcul 3D, faute de prouver que leur CPU pouvait faire la différence
- Les 68k de Motorola, bien que conceptuellement mieux foutu à n'en point douter, n'ont pas réussi à monter en puissance sur le long terme et sont du coup resté cantonné à un marché de niche, faute d'arriver à justifier d'un gain suffisant pour porter Windows dessus
- Les PowerPC ont brillés par une campagne de dénigrement pendant des années pour finalement être remplacé par... du x86.

Intel a imposé ses x86 à Apple par quelle pratique anticoncurrentielle !?

> ARM s'est imposé par son efficacité technologique.

C'est le cas du x86 tout autant. Sinon il serait mort depuis longtemps. Mangé par le PowerPC par exemple. Mais finalement non.

avatar byte_order | 

> Le x86 a toujours compté sur la conjecture de Moore comme argument commercial
> de renouvellement, a toujours reposé sur l'obsolescence programmée (conjecture de
> Moore: 18 mois) et le monolithisme etn'a jamais été conçu pour l'efficacité .

Ben voyons, ne disons rien sur l'énorme boulot pour passer à du SMP, l'architecture superscalaire n'est que du vent marketing, Intel se tourne les pousses depuis 20 ans, mais bien sûr.

Les ARM modernes sont tous multicores eux aussi.

> L'efficacité énergétique n'a jamais été une considération d'Intel jusqu'au Core 2
> et dans les faits elle n'a quasi pas bougée.

Logique vu qu'avant le marché mobile, quasiment tous les CPU étaient branché sur le secteur.

> Intel a montré que la gravure sous les 22nm n'offrait quasi aucun gain de
> puissance ni de consommation.

Euh, mettre deux fois plus de core sur la même surface de gravure, cela compte pas ?
Avoir deux fois plus de tâches en parallèle, ce n'est pas un gain de puissance pour vous !?

> Nvidia a démontré que le travail sur l'architecture a 28nm permettait de
> doubler l'efficacité énergétique et que la marge de progression était considérable.

Vu d'où les fondeurs de GPU partaient, encore heureux.
Rappellons qu'un GPU impose le type de traitement qui va pouvoir s'exécuter dessus, il n'est pas un processeur générique. Les CPU de chez AMD ou NVidia sont la preuve que c'est pas aussi facile qu'on le croit.

> L'idee saugrenue d'accelerer l'OS avec du GPGPU c'est Intel qui l'a développé,
> cela s'appelait Larabee. Intel a aussi tenté de vendre le multiprocesseur
> comme remplaçant de la puissance par core.

Donc, oui, vous considérez que proposer plus de parallelisme n'est pas un critère de puissance. Pourtant c'est exactement sur quoi repose la "puissance" de calcul des GPGPU. Chaque "unit" est peu performante en soit, mais elles sont très nombreuses et bossent en synchrone sur le même flux de données sur un bus hyper rapide.

avatar malcolmZ07 | 

@Flash :
Toujours besoin d'être insultant et agressif dans n'importe quel de tes commentaires. Même si je suis d'accord sur le fond concernant le x86...

avatar oomu | 

peu crédible qu'intel subisse le sort de kodak.

avatar alastorne | 

La mort (annoncée) d'un géant.

avatar oomu | 

hein ? apple is dooOOOoooomed ?

queuah ? IBM a disparu ?!

HEIN ?! AT&T a été dégommée ?!

qu'ouis-je ?! Microsoft a été évaporée ?

Nom de zeus, XEROX a été dissoute dans l'acide !!

+ sérieusement, si ces entreprises géantes devaient mourir à chaque fois qu'elles changent d'orientation et concède qu'un marché leur échappe... on serait entouré de zombies corporates.

heu nope. Intel évoluera, se recentrera peut être sur des marchés moins glamour et en vue du grand public (le cloud, le gros zordi) ou rebondira à l'occasion d'une nouvelle évolution des usages et formats.

Sauf à être dirigée pendant 15 ans par un clown sous acide (et un conseil d'administration entièrement bâillonné), l'entreprise est trop grosse pour disparaître. Ce n'est pas Kodak ou Sun, ni elle n'a qu'un produit comme Blackberry.

avatar insgardoced | 

Alalala le zenfone2 551ml avec processeur Intel etait une merveille!!!

avatar PierreBondurant | 

12,000 qui vont prendre la porte à cause de l'absence totale de vision du management.
Dommage qu'aucun des directors ne soient licenciés pour cet échec.

avatar occam | 

Comment Paul Otellini, CEO d'Intel jusqu'en 2013, a raté le tournant iPhone :
http://www.theatlantic.com/technology/archive/2013/05/paul-otellinis-int...

Une image qui frappe :
http://cdn.theatlantic.com/static/mt/assets/science/sweetchart2.jpg

Si l'on considère le chiffre d'affaires de'Intel depuis ses premiers microprocesseurs dans les années '70, et abstraction faite des crises exogènes de 2001 et 2008, la courbe de croissance décrit un sigmoïde caractéristique d'une fonction logistique.

En termes crus : la croissance décélère et atteint une limite, le marché est saturé.

avatar C1rc3@0rc | 

PierreBondurant

+1

Meme cause, meme resultat pour RIM. Sauf que RIM a pas de boué de sauvetage.

avatar bitonio | 

@PierreBondurant :
J'ai du mal à croire que sur 12000 licenciements il n'y ait pas un seul poste directeur. Généralement on a 1 directeur pour 10-100 employés, faites une règle de trois.

avatar DouceProp' | 

Intel ? Disparaître ? Ça va si mal ? Même si les pécés se vendent moins, il s'en vend encore non ?

avatar simnico971 | 

@DouceProp' :
Les appareils mobiles et les ARM sont le futur.
Camion, tout ça...

avatar rolmeyer | 

@simnico971 :
Ah ben oui c'est sûr tout les bureaux, les serveurs cloud et les banques vont tourner sous ARM ...mouhahaha

avatar enzo0511 | 

@rolmeyer :
De nombreuses entreprises avec notamment des banques tournent avec des clients terminal léger sous arm ;)

avatar Flash | 

Mais l'immense majorité tourne sur x86, et c'est pas près de changer.

avatar iPop | 

@Flash :
Vu les prix de l'x86, si les banques veulent faire des économies, elle migreront vers l'ARM.

avatar byte_order | 

Ah, les banques vont d'elles memes recompiler l'ensemble du code source (qu'elles ont, hein, n'est-ce pas !?) du système d'exploitation et des applications qu'elles utilisent pour pouvoir migrer sur ARM ?

Y'a d'autres critères à prendre en considération.
Les premiers d'entre eux actuellement sont :
- Windows pour ARM existe ?
- si oui, nos applications sont disponibles pour Windows ARM ?
- quels PC sous ARM existent ?

Quand aux prix des puces x86, faut comparer ce qui est comparable.
Quand vous aurez un ARM comparable à un core i5, comparer donc le prix, vous verrez que l'écart n'est pas si grandiose que ça. Une usine de gravure en 14nm ça coute a peu près pareil, que ce soit pour y graver de l'ARM ou du x86...

avatar oomu | 

Le Capital exige des croissances à deux chiffres. En dessous, c'est un enfer innommable. hAAAAA

avatar C1rc3@0rc | 

@DouceProp
«Intel ? Disparaître ? Ça va si mal ? Même si les pécés se vendent moins, il s'en vend encore non ?»

Intel disparaitre, non, le x86, oui.
Le x86 est un zombie grabataire maintenu grace a des appareillages toujours plus intrusifs et compliqués et une stratégie financière alambiquée hors de tout les principe de l'économie de marché. C'est un monstre sovietique monolithique artificiel!

Il n'y a pas que le PC qui se vend moins. Il y a plusieurs phénomènes qui s'ajoutent:
- fin de la conjecture de Moore
- stagnation de la puissance du x86 qui a atteint ses limites
- puissance des ARM mobiles qui ont atteint la puissance des x86 de PC
- inexistence d'Intel sur le secteur mobile
- fin du monopole Wintel (Intel souffre avec un peu de retard comme Microsoft a souffert)
- croissance du marché du processeur et nécessité de baisser la consommation encore plus vite
- explosion des couts de R&D et de production (Intel a du abandonner ses projets de nouvelles fabriques, pour recycler l'existant et a du abandonner ou reporter d'autres evolutions a cause du couts et de la baisse de rentabilité)

Il faut aussi faire un calcul simple.
Si l'A10 équivaut en puissance a un core i5 mobile haut de gamme voire un core i7, il balaye le Core M et est au moins aussi puissant que les Core i5 portables qui équipent les Mac actuels.

Partant de la Apple ne fait pas produire 300 millions et des poussières d'A10 pour ses iDevice, mais 25 millions de plus (25 millions de Mac/an).
Sur les 325 millions Apple place les plus parfaits, cadence et nombre de core maximum, dans les Mac.
Ceux qui vont avoir des défauts, vont etre sous-cadencés, avoir des core desactivés et rentrer dans les iDevice...
C'est une économie d'échelle qui permet de diminuer le taux de déchet, donc d'augmenter la rentabilité.

1 Core M c'est 3 x le prix d'un A10 !
1 Core x c'est 5 x le prix d'un A10 !

Si Apple fait cela, les autres constructeurs sont pas cons et vont suivre.

avatar k43l | 

On lit n'importe quoi en commentaire. Les puces Intel sont déjà dans de trop rare téléphone voila la raison de l'arrêt. Les Zenphone sont les plus emblématiques.
Malheureusement, tout les OS mobile ont été conçu pour les architectures ARM. Ils faut donc à chaque fois que le constructeur adapte l'OS à l'Atom. Carrément de plus en plus utilise leur propre solution ARM (qualcomm en souffre de plus en plus). Ils arrêtent donc les frais dans un marché beaucoup trop concurrentiel.

avatar C1rc3@0rc | 

«Malheureusement, tout les OS mobile ont été conçu pour les architectures ARM.»

Pas Windows 10
;)

Bon ok c'etait la blague du jour.

Sinon y a aussi Linux et Android qui tournent bien sur Atom, c'est juste que l'Atom tourne pas...

avatar Dumber@Redmond | 

@C1rc3@0rc :
Ben évidemment Linux est heureusement pas comme Windows et n'a pas besoin d'un CPU avec 10 Gflops de bruissante brute pour afficher une pauvre fenêtre ombrée...
Sinon la recompilation tu en as entendu parler ?

avatar k43l | 

Sauf que Windows 10 mobile n'a jamais opté pour un processeur x86. Il ne rentre même pas dans les préconisations. Preuve s'il en fallait une que les OS mobiles ont tourné le dos au x86 depuis le départ.
Tout comme personne ne crois au ARM sur les ordinateurs.

avatar byte_order | 

c'est pas vraiment les OS qui tournent le dos, mais les plateformes matérielles en mobilité ont toutes préférés des CPUs moins puissants mais connues pour être moins énergivores (la contrainte première en mobilité) et peu chers (seconde contrainte dans un marché a forte concurrence).

Android et iOS, s'il le fallait, pourrait être très rapidement porter sur une nouvelle architecture CPU, c'est pas vraiment un problème. Dans le cas de Android, cela déjà été fait, justement.

Par contre, l'ecosystème applicatif existant, lui, serait plus long à migrer côté iOS, étant compilé en natif.

avatar fte | 

@byte_order :
Les applications peuvent être compilées en bitcode indépendant du processeur pour soumission à l'appstore. Ainsi nombre d'applications n'ont déjà plus besoin d'être recompilées si le processeur venait à changer de façon importante. Ça serait fait côté serveur chez Apple.

Mais franchement je ne vois aucune raison pour Apple de changer d'architecture à ce stade.

Sauf si...

Sauf si Apple se lançait dans les hybrides ultraportables

avatar byte_order | 

> Malheureusement, tout les OS mobile ont été conçu pour les architectures ARM

Hein !?
Fort heureusement, le code source des OS modernes est nettement plus portables de nos jours que lors des années 80-90.

Ce n'est pas l'OS qui impose l'ARM (sinon nous n'aurions jamais eu de tablettes Android x86 par exemple), mais le fait que l'essentiel des machins mobiles est construit à base de puce ARM pour de simple raison de coût, de l'aspect "jetable" de ce type de produit et de la concurrence acharnée (et donc la guerre des prix qui va avec) des fondeurs ARM, dont tous ne survivront pas d'ailleurs (et donc la remontée des prix des puces ARM est inévitable).
Intel ayant bradé totalement leurs puces Atoms pour essayer de rentrer sur ce marché, mais même ainsi leur PDM n'a pas décollé, ils n'ont jamais eu quelque chose a proposer en face de la guerre des prix des ARM "jetables".

C'est plutot rassurant qu'ils abandonnent ce marché, tout comme NVidia l'a fait en ayant constaté qu'ils ne seraient jamais concurrentiel et que cela les couleraient au contraire.

Encore une fois, le marché du CPU bas de gamme n'est pas la vache à lait d'Intel.
Même Qualcom et Samsung ne peuvent lutter sur ce marché.

avatar C1rc3@0rc | 

«le fait que l'essentiel des machins mobiles est construit à base de puce ARM pour de simple raison de coût, de l'aspect "jetable" de ce type de produit et de la concurrence acharnée (et donc la guerre des prix qui va avec) des fondeurs ARM, dont tous ne survivront pas d'ailleurs (et donc la remontée des prix des puces ARM est inévitable)»

Les machines mobiles sont construites sur ARM parce que c'est d'abord une question d'efficacité énergétique et de fiabilité. ARM a fait ses preuve dans l'embarqué, les infrastructures telecom, les terminaux,... depuis des années.

Et c'est pas faute d'avoir essayé d'imposer artificiellement l'Atom, mais meme en payant les constructeurs ils ne veulent pas d'Atom!

Niveau des prix, le plus complexe ARM, l'A9x tourne dans les 30-35$. Les moins chers sont sous les 5$. Et c'est un prix rentable, pas comme les Atom qui etaient hyper subventionnés pour passer sous les $20 pour les moins puissants, et a ce prix c'est pas juste de la braderie, c'est clairement du dumpling.
Si la logique d'Intel implique une croissance de la marges continue avec des remontées des prix une fois toute concurrence stérilisée, ARM est un modele opposé avec une mutiplicite de constructeurs et de puces a façons. La concurrence et la complémentarité de l'écosystème ARM est intrinsèque!

Les ARM ne sont pas plus jetables que les x86.

«Encore une fois, le marché du CPU bas de gamme n'est pas la vache à lait d'Intel.»

Ben si, bas, moyen, haut,... Intel a pour modele de monopole absolu, x86 everywhere. Ça permet de fixer les prix et d'imposer les modeles. Faut comprendre que le modele d'Intel est financier avant d'etre commercial et qu'Intel a toujours faussé la concurrence.

avatar Elmediterraneo | 

Bon ben il reste plus qu'a Apple d'adapter le Thunderbolt à ARM et je ne vois plus ce qui les retiendraient les Mac sur X86.

avatar byte_order | 

Les performances ?
Ah, non, c'est vrai, Apple a habitué ses clients à avoir des ordinateurs au CPU poussifs depuis quelques années déjà en soudant des processeurs d'ordinateurs portables dans des machines vendues comme des stations de travail haut de gamme, en gelant depuis des années les MacPro vendus comme des supercalculateurs...

Donc, ouais, go, le client Apple est probablement prêt à tout racheter, y compris les MAJ logiciels en version ARM. De toute façon, il aura pas le choix.

Et pis y'a gisement de grosses marges. Go, Apple, go.

avatar enzo0511 | 

@Flash :

Tous les Mac tournaient sous PowerPC auparavant cela n'a pas empêché Apple de migrer vers une nouvelle architecture

Tout comme aujourd'hui 99% des smartphones et tablettes ne tournent pas sous Intel et pourtant voient leur puissance plus que doubler tous les 18 mois

Quasiment tous les fondeurs aujourd'hui peuvent produire des ARM avec un coût bien moindre qu'un processeur Intel

L'histoire nous dira bientôt...

Et bientôt c'est dans moins de 2 ans

avatar byte_order | 

La courbe de progression des performances d'un CPU en début de vie commerciale n'est pas linéaire. Il n'y aucune raison logique de croire que les fondeurs de puces ARM vont continuer pendant 20 ans à produire chaque année une nouvelle version 2x plus puissante que la précédente, consommant pas plus que la précédente et coutant le même prix que la précédente.

> Quasiment tous les fondeurs aujourd'hui peuvent produire des ARM
> avec un coût bien moindre qu'un processeur Intel

A puissance égale !?
C'est bien joli de comparer 2 CPU, faudrait -il avoir 2 produits équivalents, pas seulement de même catégorie.
Hors jusqu'à preuve du contraire, en moyen et haut de gamme Intel, y'a pas de concurrent ARM disponible pour l'instant. On ne sait donc rien ni du prix ni de combien de temps cela prendra aux fondeurs ARM pour en proposer un.

Il me semble que certains fabricants ARM ont eux aussi, après des années d'améliorations "easy" des performances de leurs CPU, ont commencé à rencontré des problèmes de dissipations thermiques, de gestion de la conso dynamique complexe, de parallèlisation des pipelines pas si parallèliser que ça, etc.

On en reparle d'ici 2 ans.
Car, évidement, pendant 2 ans, les ingénieurs chez Intel ne vont rien faire, eux. Forcément, hein. Ils ont atteint les 20 coeurs a 4Ghz, c'est bon, ils arrêtent là. Pfff.

Quand à la migration PowerPC -> Intel, 1) Apple n'avait de toute façon pas le choix et 2) la PDM des Macs à l'époque c'était quoi, 5% ?
Ici, on parle de 90% des PC & stations de travail, des serveurs, une part non négligeables des NAS d'entreprises aussi... Va falloir plus qu'une simple "évidence" pour que la migration se justifie...

Pages

CONNEXION UTILISATEUR