Processeurs : Samsung aurait aussi du mal à affiner ses gravures

Nicolas Furno |

L’une des principales raisons qui ont poussé Apple à abandonner Intel en faveur de ses propres puces se compte en nanomètres. Le fondeur a eu beaucoup de mal à affiner la gravure de ses processeurs, ce qui est l’une des explications pour justifier le ralentissement des progrès en termes de performance ces dernières années. Et c’est aussi l’une des justifications derrière le retour réussi d’AMD, qui bénéficie de l’expertise de TSMC pour les gravures les plus fines.

Le SoC Samsung du Galaxy Note 3 (image Honou (CC BY 2.0))

TSMC s’impose toujours davantage sur ce marché et le fondeur taïwanais aurait battu Samsung sur un autre marché. Qualcomm devait à la base travailler avec le constructeur coréen pour produire le Snapdragon 875G, un futur SoC gravé à 5 nm. Sauf que la branche dédiée aux semi-conducteurs de Samsung ne parviendrait pas à atteindre la productivité nécessaire pour ce contrat. Le taux de déchets serait encore trop important, si bien que Qualcomm aurait finalement donné le contrat à TSMC.

Un autre signe que la gravure à 5 nm n’est pas au point chez Samsung est à chercher du côté des Note 20 qui viennent d’être présentés. On les attendait avec un processeur maison Exynos reposant sur cette finesse de gravure, ils sont finalement arrivés avec un modèle d’ancienne génération, toujours gravé à 7 nm.

D’après les rumeurs, la gravure à 5 nm proposée par TSMC sera prête pour les Apple A14 qui seront utilisés dans les iPhone de 2020 et aussi pour leurs variantes destinées aux premiers Mac Apple Silicon. La firme de Cupertino avait été aussi parmi les tous premiers sur le 7 nm, introduit avec l’Apple A12 des iPhone XS. Et pendant ce temps, TSMC a commencé ses recherches pour graver à 2 nm

avatar DrStax | 

Belle performances de TSMC 👍

avatar PierreBondurant | 

@DrStax

C’est très impressionnant quand on sait que la précision du microscope le plus performant est un dixième de nanomètre

https://www.futura-sciences.com/sciences/actualites/atome-titan-krios-microscope-plus-puissant-monde-72042/

avatar Dimemas | 

Non mais ... ce n’est pas du vrai 5 ou 2nm les gars ...

avatar PierreBondurant | 

@Dimemas

https://www.anandtech.com/show/14175/tsmcs-5nm-euv-process-technology-pdk-drm-eda-tools-3rd-party-ip-ready

Je suis pas du tout un spécialiste des processeurs, si tu as 2 min pour m’expliquer de quel 5nm on parle, je suis preneur!

avatar YetOneOtherGit | 

@PierreBondurant

Un circuit intégré intègre des transistors qui intelligemment agencé permettent de réaliser des fonctions logiques, qui elles même bien agencés font le fonctionnement logique du circuit.

Et donc au commencement il y a le transistor.

En simplifiant et schématisant un rien la finesse de gravure défini la taille d’un de ces transistors.

Plus la gravure est fine plus l’on peut mettre de transistors par unité de surface (la densité)

La diminution de ce pas de gravure est un des challenges industriels les plus conséquents et onéreux qui soit.

Depuis bien longtemps on considère que l’on atteint des limites possibles de la physique et pourtant le processus continue en décélérant mais il continue.

Après il n’y a pas de normalisation pour définir cette finesse et chaque fondeur n’utilise pas les mêmes approches, donc les chiffres des un et des autres ne sont pas totalement comparables.

Il faut savoir que la création d’une chaîne de production pour un nouveau processus est une tâche extrêmement onéreuse qui s’amortit sur le long terme.

avatar PierreBondurant | 

@YetOneOtherGit

Merci pour ta réponse.

avatar YetOneOtherGit | 

@PierreBondurant

C’est une base rapide tu devrais trouver bien mieux en fouillant sur le net 😉

avatar fernandn | 

A quand le pico ?
En attendant le yoctomètre...

avatar Rifilou | 

@fernandn

Ensuite on passera à des circuits en 3D. On ne peut pas trop réduire la finesse de gravure si on ne veut pas s’exposer à des problèmes quantiques notamment l’effet tunnel

avatar fernandn | 

En attendant la gravure virtuelle...

avatar R-APPLE-R | 

@fernandn

Et la gravure invisible 😆

avatar cecile_aelita | 

@R-APPLE-R

Karadoc : - On commencera par une brève histoire du camouflage d'hier à aujourd'hui.

Perceval : - Et quand on dit hier, ça veut pas dire que c'était hier ! Alors commencez pas à faire vos bourrins, parce que ça va mal se mettre, là !

Karadoc : - Et on continuera par des exemples pratiques de l'utilisation du camouflage en situation réelle : camouflage d'approche, camouflage intempestif...

Perceval : - Camouflage édulcoré.

Kadoc : - Camouflage caca.

Perceval : - Pour finir par une brève initiation au rétro-camouflage, le camouflage des amis

avatar ValentBay | 

@romainB84

Merci pour le fou rire

avatar heero | 

Alalala
Il y a eu la course aux GHz, puis la course aux Core et maintenant la course aux nm

Il faudra bien un jour admettre qu’on ne pourra pas tout le temps et chaque année a toujours plus, y a bien un moment il y aura une limite

Étonnant Apple ferme de plus en plus son hardware et software vers du simple pour l’utilisateur lambda (macOS qui enlève des accès simples à certaines options d’année en année, et qui le rend de plus en plus « basic », de moins en en moins d’apps Pro maison) mais elle court après le dernier des processeur

avatar YetOneOtherGit | 

@heero

"Il y a eu la course aux GHz, puis la course aux Core et maintenant la course aux nm"

La course à la finesse de gravure et à la fréquence de cadencement sont liée.

La course à la finesse de gravure et à la multiplication des cœurs sont liée.

Cette chronologie que tu expose n’existe pas sous cette forme, la course à la finesse de gravure est au cœur des enjeux depuis que Moore a énoncé sa loi empirique.

Le reste que tu mets en avant en est le corollaire.

avatar Maestrorocco | 

@heero

Effectivement cette simplification a l’outrance et la maternisation des utilisateurs devient pénible ...

avatar raoolito | 

@Maestrorocco

"la maternisation des utilisateur"

c'est à dire ? Vous voulez un cours de physique appliquée pour connaitre en detail les différents process de finesse de gravure ?

avatar Maestrorocco | 

@raoolito

Non je ne parle pas de ça, mais des limites de plus en plus strictes sur iOS et j’en ai peur bientôt sur macOS. Je pense qu’un jour Apple songera à interdir toute application en dehors de l’app store et ça ...

avatar raoolito | 

@Maestrorocco

Ok je prenais le mauvais post a l'origine de votre reponse
En fait je trouve cette incursion d'ios et macos hors du sujet, meme si en soit il y a sujet à discussion bien sur 👌

avatar YetOneOtherGit | 

« L’une des principales raisons qui ont poussé Apple à abandonner Intel en faveur de ses propres puces se compte en nanomètre. »

Je ne partage pas cette hiérarchisation des motivations de la transition et je ne suis pas le seul dans ce cas.

Pour moi la transition aurait eu lieu même si Intel restait à l’état de l’art.

Le passage à ARM va permettre à Apple de produire de nouveaux des machines fortement différenciées des offres concurrentes en terme de design et d’expérience utilisateurs.

Une fois que la concurrence c’est approprié largement les levier de différentiation par le design qu’avait utilisé Apple il ne reste plus grand chose pour singulariser des PC tournant sur MacOS : L’OS justement et l’image de marque d’Apple.

Nous étions aux limites et elles seraient atteintes même si Intel n’avait pas fait de nombreux faux pas.

C’est la possibilité d’avoir des offres très différentes de la concurrence qui est, pour moi, la première des motivations marketing et économique de cette transition ARM.

En reprenant le contrôle total du Hard et du Soft Apple se réappropriait pleinement ce qui fait une grande part de son pouvoir de d’attraction.

avatar YetOneOtherGit | 

En complément à mon propos.

Il y a, à mon avis, de très grandes chances que la baseline marketing accompagnant le lancement du premier Mac Arm soit dans l’esprit : « Le Mac réinventé »

Car c’est bien de cela dont-il s’agit dans le cadre de cette transition : réinventer d’abord le Laptop et essayer de ringardiser mes offres concurrentes.

avatar debione | 

@YetOneOtherGit
Je pense que c'est plus un effet de bord qu'Apple accueil avec grand plaisir. Pour moi, passer sous ARM est juste une histoire comptable. Si passez sous ARM leurs coutaient plus que cela leur rapporterait, ils n'y penserait même pas.
-Moins cher=>plus de gain
-Pouvoir sortir les nouveautés selon leurs cahiers, donc plus de puissance marketing=>plus de gain
-Pouvoir à terme enfermer plus l'utilisateur=>plus de gain

Pour l'histoire de réinventer le laptop, euh, non, ça sera peut-être un argument marketing, mais dans les faits, on aura à peu près le même os, qui fonctionnera sur une machine avec clavier et écran, avec un proc et de ram... Un truc qui s'ouvrira en deux comme tous les laptop...
Actuellement c'est les hybrides qui ringardisent le mac, tu payes 3000.- pour un truc qui fait même pas tablette et pire n'a même pas un écran tactile (et j'ai un mbp, je l'ai pour certaines raisons, mais bon dieu que j'aimerais avoir un écran tactile dessus et encore mieux pouvoir détacher l'écran et en faire mon iPad)...
Un hybride sauce Apple, j'en rêve (en vain je sais), pouvoir faire d'un iPhone un ordi central (comme Samsung tente de le faire) arrêter de devoir multiplier les appareils, les adaptateurs, les abonnements etc etc...

Bref, j'ai bien peur que ce ne soit que dans le marketing pour la masse que cela soit ringard, Apple à tellement pris de retard dans le formfactor... En même temps, du moment qu'ils en vendent en masse, aucune raison de faire une révolution. Car je ne considère pas du tout le passage à ARM comme une révolution, un peu comme si ils décidaient de repasser sous n-vidia ou comme le passage power-pc/intel... Rien de révolutionnaire pour l'utilisateurs, aucune différence même...

avatar YetOneOtherGit | 

@debione

"une histoire comptable"

Je monterai quand même d’un niveau : une histoire de stratégie marketing et produits 😉

avatar YetOneOtherGit | 

@debione

"Pour l'histoire de réinventer le laptop, euh, non, ça sera peut-être un argument marketing"

Je mettais en avant une baseline marketing avec cette re-invention;-)

Par contre il me semble assez clair que la transition ouvre des degrés de liberté en terme de design et d’expérience client.

Les laptop ARM risquent d’avoir de réels éléments de différentiation avec l’offre Wintel.

Wait&see 👀

avatar YetOneOtherGit | 

@debione

"Actuellement c'est les hybrides qui ringardisent le mac"

Là je n’adhère absolument pas, pour moi l’hybride est une approche batarde qui est conceptuellement d’une absolue inélégance en l’état.

Mais ce n’est qu’un jugement personnel 👅

avatar YetOneOtherGit | 

@debione

"Apple à tellement pris de retard dans le formfactor..."

Là aussi je n’adhère pas.

Le paradigme WIMP est une chose, le multi-touch en est une autre.

Pour l’instant rien de ce que j’ai vu ne me convainc en terme d’hybridation.

C’est pour moi une fausse bonne idée fruit d’une paresse intellectuelle fantasmant un meilleur des deux monde chimérique.

Pour une fois je me risque à exprimer mais dégoûts conceptuels qui évidemment n’engagent que moi et quelques ayatollahs de l’IHM 👅

avatar debione | 

@YetOneOtherGit
J'y adhère quand j'utilise Logic avec logic remote... Le nombre de fois ou j'essaye d'appuyer sur l'écran de mon mac en me disant: Mais bordelllll!!!! ;)
C'est le fait d'utiliser 2 paradigme différent en même temps. Un multitouch et une interface clavier souris. De fait je ressens un énorme manque dans ces cas là. (et pour certaines action seulement, le simple fait que ce soit possible, sans rien changer au paradigme de base me serait fortement utile)

avatar YetOneOtherGit | 

@debione

C’est un des beaux débat de l’époque et un des réels défi que d’essayer de proposer élégamment le meilleur des deux mondes 😉

avatar sachouba | 

@YetOneOtherGit

Si les processeurs x86 d'Intel avaient continué à gagner en performances au même rythme que les processeurs ARM et avaient donc toujours des performances largement supérieures à ceux-ci, Apple n'aurait probablement pas pris le risque de grandement pénaliser les performances de ses machines.

avatar YetOneOtherGit | 

@sachouba

"Si les processeurs x86 d'Intel avaient continué à gagner en performances au même rythme que les processeurs ARM et avaient donc toujours des performances largement supérieures à ceux-ci, Apple n'aurait probablement pas pris le risque de grandement pénaliser les performances de ses machines."

Absolument pas d’accord, c’est là une logique de technicien pas une vision produit.

La clientèle Apple dans sa plus grande part n’achète pas une fiche technique.

Rester sur une architecture x64 était un pis-aller faute d’autres opportunités limitant les possibilité d’Apple d’offrir des produits fortement différencier.

Les performances d’Intel n’entre pas dans ce constat, tant que les Mac sont des PC faisant tourner MacOS les ressort de différenciation sont assez limités.

C’est le cœur de l’identité d’Apple : proposer des produits différenciés et différenciant.

Je le répète, le x64 était un pis-aller subit fausse de mieux, l’ARM une issue longuement préparée pour retrouver une capacité à se différencier.

avatar sachouba | 

@YetOneOtherGit

Peu importe la stratégie d'Apple, bien peu de professionnels (audio, vidéo, programmation...) achèteraient un Mac si leurs processeurs étaient 4 fois moins puissants que ceux des PCs Windows concurrents.

Si les clients Mac se fichaient des performances CPU de leur ordinateur, seuls des Mac avec un processeur de base se vendraient, et non des versions i7 ou i9.

avatar YetOneOtherGit | 

@sachouba

"Peu importe la stratégie d'Apple, bien peu de professionnels (audio, vidéo, programmation...) achèteraient un Mac si leurs processeurs étaient 4 fois moins puissants que ceux des PCs Windows concurrents."

Ça tombe bien : c’est une clientèle marginale 😎

J’ai toujours le sentiment qu’en 2020 beaucoup penses encore les réalité du marché du Mac dans le paradigme des années 90 😳😳

avatar YetOneOtherGit | 

@sachouba

"Si les clients Mac se fichaient des performances CPU de leur ordinateur, seuls des Mac avec un processeur de base se vendraient, et non des versions i7 ou i9."

Regardes le prix moyen des Mac pour Apple des ventes dans les rapports d’activité du temps où les volumes étaient donnés : en 2018 nous étions à 1 400 $ / Mac.

Les réalité du marché ne sont pas là où tu les imagines ;-)

avatar sachouba | 

@YetOneOtherGit

Si les clients Mac se fichent des performances de leur Mac, alors ils se fichent des performances de leur iPhone/iPad également.
Si c'est le cas, Apple doit être au courant (grâce aux volumes détaillés de ventes, comme tu le précises).

Pourquoi Apple met-elle donc un point d'honneur à vanter les performances du CPU de ses puces Ax ? Et pourquoi investit-elle autant dans l'amélioration des performances CPU des puces Ax en premier lieu, puisque cela n'a aucun impact sur les ventes de ses appareils ?

avatar YetOneOtherGit | 

@sachouba

"Pourquoi Apple met-elle donc un point d'honneur à vanter les performances du CPU de ses puces Ax ? Et pourquoi investit-elle autant dans l'amélioration des performances CPU des puces Ax en premier lieu, puisque cela n'a aucun impact sur les ventes de ses appareils ?"

Très différent de ta vision de la performance comme éléments de choix rationnel d’un produit dans un comparatif de fiches techniques

Les référence à l’amélioration des performances lors des keynote ont la même raison d’être que le keynote : construire le sentiment d’obsolescence de la génération qu’on possède pour motiver le renouvellement.

Les keynote n’ont pas vocation à conquérir des clients en dehors du cercle des aficionados : elles ont vocation à faire sentir qu’on ne peut plus raisonnablement vivre avec une génération de produits dépassées.

Et il en est de même sur la présentation des produits sur le site.

Par contre dans la publicité grand public ce n’est jamais mis en avant.

Apple c’est du lifestyle pas de la fiche technique.

Tu as une vision très techno-centric du marketing et des enjeux.

avatar andr3 | 
avatar Valiran | 

"L’une des principales raisons qui ont poussé Apple à abandonner Intel en faveur de ses propres puces se compte en nanomètre."

Non, je suis loin d'être d'accord.

Pour moi le point numéro 1 c'est la course au dollar.

Si Apple visait les performances de ses machines, y'a bien longtemps qu'elle aurait dégagé AMD de ses GPU pour du nVidia.

Le point numéro 2, c'est de ne plus pouvoir être comparé à un bête PC.
Acheter Apple, ce sera acheter un produit totalement différent, pas seulement un PC dans une coque full alu.

Le point numéro 3, avoir facilement une avalanche d'app grâces aux apps iOS/iPadOS.

Le point numéro X, tuer le hackintosh.

avatar YetOneOtherGit | 

@Valiran

"Le point numéro X, tuer le hackintosh."

Vraiment assez loin sur la liste des priorités.

Mais je te rejoins pleinement sur le fait que considérer que le moteur de la transition vers ARM repose sur les faux pas d’Intel est une fausse évidence bien trop facile 😎

avatar Ramlec | 

@Valiran

Heureusement que c’est bien écrit « l’une des principales raisons » et non « LA » principale raison.

On aurait eu une diatribe sur les différents points qui ont amené Apple à quitté Intel, sinon.

avatar YetOneOtherGit | 

@Ramlec

Le fait que ce soit la seule raison évoquée lui donne un poids symbolique que pour moi elle ne mérite pas.

D’autant plus que cette allusion n’était absolument pas nécessaire à l’incipit de l’article.

C’est je crois une réelle et intéressante divergence de point de vue avec l’auteur de l’article 😉

avatar Inconnu-Soldat | 

Il faut se souvenir que MacG prédisait que Samsung avait beaucoup trop d’avance sur TSMC pour que ce dernier le rattrape un jour.

Si Apple a abandonné Intel, c’est essentiellement car son travail ancien et très poussé sur l'architecture ARM associé à son souci de tout maîtriser lui a prouvé l’efficience de son processeur qui pouvait dépasser largement ce qu’Intel pouvait proposer.

Quant à nos habituels analystes à deux balles qui placent le marketing et le financier premier, il est évident qu’ils ne connaissent pas grand chose en matière industrielle. Les évolutions sont d’abord industrielles poussées par le marketing et la conséquence du produit et de la gestion est le résultat financier. Si le marketing suffisait nombre d’entreprises coulées seraient encore en vie et Nokia leader incontesté du téléphone n’aurait pas disparu.

avatar YetOneOtherGit | 

@Inconnu-Soldat

"Les évolutions sont d’abord industrielles poussées par le marketing et la conséquence du produit et de la gestion est le résultat financier."

👏👏👏

Je rajouterai que chez Apple vision marketing et industrielle sont fortement imbriqués c’est une de leurs grande force.

Et quasiment tout l’état major a une formation initiale technique ou scientifique pas business

Tim Cook : MBA a Duke après un Bachelor of Science in Industrial Engineering

Eddiy Cue : bachelor’s degree in Computer Science and Economics à Duke

Craig Federighi : Master of Science degree in Computer Science and a Bachelor of Science in Electrical Engineering and Computer Science à Berkeley.

Phil Schiller : B.S. in biology

Johny Srouji : Bachelor & Master Computer Science

John Giannandrea : Bachelor of Science with Honors in Computer Science

Jeff Williams : MBA a Duke après un bachelor’s degree in Mechanical Engineering

...

Apple est une boîte de tech, pas de produits d’école de commerce.

Et c’est assez rare à ce niveau de taille d’entreprise.

L’exact contraire que l’image à courte vue que veulent en avoir beaucoup ici.

Après bien évidemment ils ne sont pas hémiplégiques : ils comprennent la tech mais n’en méprisent pas pour autant les fondement du business 😎

avatar Moebius13 | 

Quelqu'un a dit dans les commentaires qu'à un moment donné on ne pourrait pas aller plus loin mais si, en fait on a encore une marge énorme.

- sur la finesse de gravure on peut descendre à 5nm
- graver en 3D
- utiliser du graphène plutôt que du silicium pour la montée en fréquence
- augmenter la taille du Die et le nombre de cœurs
- mettre au point de nouvelles architectures plus efficaces

Ensuite on a tout un champ à explorer en matière d'informatique quantique où on en est à peine au tout début.

Bien sûr le quantique ne peut remplacer l'actuel, il est plutôt complètementaire dans ses possibilités, mais un mix des deux ouvre des perspectives incroyables.

Ensuite on peut imaginer une mise en réseau et une généralisation de l'informatique via le cloud où l'on aurait accès à bien plus de puissance qu'on ne pourrait en avoir, y compris dans une très grosse tour à la maison.

Les GPU montrent également qu'aujourd'hui ils ont plus de potentiel que les CPU pour de très nombreux calculs et eux-aussi ont encore beaucoup de marge, notamment sur la finesse de gravure et la montée en fréquence.

Dans 10 ans nos smartphone actuels nous sembleront être des antiquités bien poussives et si l'ipad existe encore on pourra faire dessus des choses qui aujourd'hui nécessitent un Laptop musclé voire même une tour avec un cpu de bureau

Quant au gpu on peut déjà faire sur Ipad pro des jeux du niveau de la PS3/debut PS4, alors dans 10 ans je crois que si on en est encore au local et pas tout via le streaming, on pourra afficher des jeux du niveau de ceux qui vont sortir sur les prochaines consoles de cette fin d'année.

Pensez même à l'apple watch, d'ici au modèle 10 ou Apple Watch X, elle sera probablement plus puissante qu'un IPhone 8 avec des applications santé qui en feront un compagnon indispensable au quotidien.

Je ne parle même pas des éventuelles lunettes connectés et du potentiel de la réalité augmentée, tout ça mue par des Soc miniature mais très puissants.

Nous ne sommes qu'au début de ce qu'on sera capable de faire selon moi et dans 10 ans (encore une fois), les bêtes Siri, Alexa et Google paraîtront stupides face à leurs successeurs qui nous comprendront bien mieux et pourront traduire en temps réel nos paroles dans une autre langue lors d'un voyage à l'étranger.

Bref, vivement le futur 😊

avatar YetOneOtherGit | 

@Moebius13

"augmenter la taille du Die"

Toujours très délicat et ce n’est pas pour rien que cela n’évolue pas fortement depuis des années sur ce front.

Réaliser un wafer dépourvu d’impureté est quasiment impossible, on accepte donc un taux raisonnable d’impureté sur le wafer.

Plus la surface de chaque die est grande plus la probabilité d’avoir une impureté condamnant ce die à la poubelle augmente.

Les produit basé sur des die de grande taille sont onéreux car il y a beaucoup de rebus.

avatar Biking Dutch Man | 

J’ai entendu dire que ces mesures ne sont pas équivalentes entre fabricants. Je ne suis pas un spécialiste, mais peut être que qqn sur le forum a plus de connaissance que moi?

CONNEXION UTILISATEUR