ARM renforce la DynamIQ de l'intelligence artificielle

Stéphane Moussie |

C’est une annonce qui tombe à pic : alors qu’on apprenait en fin de semaine dernière qu’Apple serait en train de développer une puce spécifique pour l’intelligence artificielle, ARM vient de dévoiler une nouvelle technologie, DynamIQ, apportant des progrès significatifs dans ce domaine.

Image ARM. Cliquer pour agrandir

L’entreprise qui conçoit le design de base des processeurs utilisés par quasiment toute l’industrie mobile assure que les performances en intelligence artificielle seront multipliées jusqu’à 50 fois au cours des 3 à 5 prochaines années par rapport aux puces actuelles. Autre promesse, une communication jusqu’à 10 fois plus rapide entre le CPU et les accélérateurs matériels spécialisés du système sur puce.

DynamIQ change aussi du tout au tout la façon dont sont gérés les multiples cœurs des processeurs. Alors que l’architecture actuelle big.LITTLE fait fonctionner les cœurs par paire (typiquement 2 cœurs basse consommation et 2 cœurs haute performance), DynamIQ donne plus de souplesse ; il est possible d’avoir une configuration avec jusqu’à 8 cœurs hétérogènes. Par exemple, 1 cœur haute performance accompagné de 7 cœurs basse consommation, ou bien 2 cœurs puissants et 4 cœurs économiques.

ARM DynamIQ

ARM s’attend à ce que les premiers smartphones exploitant ses plateformes Cortex-A75 et Cortex-A55 (les premières à être compatibles avec DynamIQ) arrivent au premier trimestre 2018, voire un peu avant.

Il sera intéressant de voir comment les fabricants exploitent ces nouvelles possibilités, notamment Apple qui personnalise déjà largement les solutions d’ARM et qui voudrait donc mettre les bouchées doubles sur l’intelligence artificielle.


avatar @ymeric | 

Ça annonce de belles performances (puissance et consommation) pour les futurs Ax d'Apple !

avatar C1rc3@0rc | 

Ça va plus loin que ça, puisqu'il est question d'artchitecture asymetrique et de multiplication des coprocesseurs specialisés. On revient a l'ere des Mac 68k ou des realisations comme le Cell (powerPC equipant les PS3).

Si on revient encore un peu dans le temps, il etait question de machines conçu pour l'IA, avec les Lisp Machine (1973), des ordinateurs adaptés specialement pour le multitraitement et l'execution au niveau materiel des programmes en Lisp (langage de predilection de l'IA).

Ce qui est encore plus interressant c'est de voir que l'on revient sur les problematiques laissées en plan au debut des annees 90 avec des solutions aujourd'hui moins elaborées mais qui mettent l'accent sur la voie des big data plutot que sur l'intelligence de realisation.

Il est aussi interressant de voir que l'echec actuel du x86 laisse la place a des coprocesseurs ultraspecialisés qui sont bien plus pertinent et qu'une architecture comme ARM, ouverte a la collaboration et au paralellisme offre aujourd'hui un champ d'innovation... pourtant debuté a la fin des annees 80. Illustration de la nocivité des systemes monopolistiques...

avatar lmouillart | 

"Il sera intéressant de voir comment les fabricants exploitent ces nouvelles possibilités, notamment Apple qui personnalise déjà largement les solutions d’ARM et qui voudrait donc mettre les bouchées doubles sur l’intelligence artificielle."

Il n'y a rien besoin de définir spécialement au niveau matériel, cette spécialisation ou répartition par profil d'application ou d'utilisation peu très bien être effectuée au niveau de l’ordonnancer de tâches de l'OS.

Ensuite pour la partie "IA" et autre traitement de données de masse, c'est souvent plus performant via un gpgpu ou dsp dédié.

avatar Giloup92 | 

En forme, Stéphane, pour le titre !

avatar Malum | 

À propos d'IA l'ordinateur Deepmind - qui cesse ses confrontations - a écrasé par 3 à 0 le champion du monde de Go. Il paraît qu'il faisait des coups iconoclastes qui semblaient stupides aux joueurs, ce qui ne l'a pas empêché de gagner ses trois parties. Du reste (c'est le monde à l'envers) les joueurs de Go tentent d'apprendre à partir des coups de Deepmind.

avatar oomu | 

"Du reste (c'est le monde à l'envers) les joueurs de Go tentent d'apprendre à partir des coups de Deepmind."

non non, ce n'est pas le monde à l'envers.

La motivation des communautés de joueurs de Go a toujours été d'approfondir la théorie du Go, d'étudier le jeu lui même et de comprendre pourquoi des stratégies marchent et pas d'autres. D'où leur usage déjà antérieur de logiciels et algorithmes pour approfondir.

Du coup, le comportement de AlphaGo est un formidable événement pour comprendre de nouvelles approches et compréhension du jeu lui même.

Voyez cela comme des scientifiques découvrant subitement un nouveau paradigme ou mystère ouvrant des possibilités : passionnant.

avatar LeGrosJeanLou | 

@lmouillart

Pardonne moi mais je te trouve un peu péremptoire sur le sujet. Déjà parce que le savoir-faire d'Apple en matière de puce ARM n'est plus à démontrer (alors qu'après tout elle utilise les mêmes cortex que tout le monde). Ensuite parce qu'il s'agit ici d'une nouvelle architecture sur puce qui va permettre de multiplier les "core" spécialisés, et si aujourd'hui le GPU est le plus efficace (que le CPU) pour traiter les données d'une IA on peut toujours imaginer une architecture encore plus spécialisée et donc performante pour cette tâche.

Personnellement j'attends de voir avant de me faire un avis définitif.

avatar Stardustxxx | 

"C’est une annonce qui tombe à pic : alors qu’on apprenait en fin de semaine dernière qu’Apple serait en train de développer une puce spécifique pour l’intelligence artificielle, ARM vient de dévoiler une nouvelle technologie, DynamIQ, apportant des progrès significatifs dans ce domaine."

Date de l'article cité en lien qui décrit la technologie d'ARM : 21 Mars 2017.
Ca fait un moment que ça a été annoncé, je ne vois donc pas ce qui tombe a pic ?

avatar Mike Mac | 

@Stardustxxx

Si je suis ton raisonnement : avec son annonce, Apple fait une réponse à la proposition ARM , qui date de mars, en matière d'intelligence artificielle.

Et MacGe nous enfume avec un procédé informatif type "Retour vers le futur".

Est-ce bien cela ?

avatar Stardustxxx | 

@Mike Mac
Je faisait juste remarquer une petite erreur temporelle de 3 mois dans le timeline des annonces...
mais comme tu dis si bien c'est un procédé informatif de type retour vers le futur...

avatar harisson | 

Je pense que l'approche d'Apple de faire une puce IA dédiée est la meilleure (certes plus coûteuse), les chips qui font tout (CPU, GPU, IA, etc) risquent de devenir des usines à gaz complexes à faire évoluer et risquent de diminuer l'ensemble des perfs, y compris énergétiques.

CONNEXION UTILISATEUR