Ouvrir le menu principal

iGeneration

Recherche

Core ML : le cerveau pas si lent d'Apple

Mickaël Bazoge

vendredi 09 juin 2017 à 16:04 • 17

iOS

Parmi toutes les nouveautés présentées par Apple cette semaine, il en est trois destinées aux développeurs qui sortent particulièrement du lot : la réalité virtuelle avec des Mac puissants capables de développer des expériences VR, la réalité augmentée avec ARKit qui donne déjà des résultats épatants, et l’intelligence artificielle.

Core ML est un framework qu’Apple exploite dans bon nombre de ses services et applications (Siri, Appareil photo, le clavier QuickType…). Le constructeur l’ouvre maintenant aux développeurs tiers afin qu’ils mettent au point des applications plus intelligentes, et les premiers résultats sont plutôt encourageants même s’il reste du travail, bien sûr. L’apprentissage automatique est un concept qui parait un peu lointain, mais les outils mis à disposition par la Pomme le rendent plus abordable.

Cliquer pour agrandir

Mais il faut garder à l’esprit que Core ML n’est rien s’il ne s’appuie pas sur des modèles d’apprentissage automatique, comme des réseaux neuronaux, des modèles linéaires, des arbres de décision… Pour faire simple, ces modèles permettent à l’application intégrant Core ML de reconnaitre des objets en tout genre : animaux, paysages, arbres, véhicules, babioles, personnes… Apple oblige, tout est calculé dans l’iPhone ou l’iPad, rien n’est envoyé sur les serveurs mais il convient de « nourrir » Core ML. C’est pourquoi le constructeur propose de télécharger des modèles open source, ce qui permet de tester rapidement les capacités de la technologie.

Mais tout cela, c’est du blabla. Pour se rendre compte du potentiel de Core ML, nous avons tout simplement compilé deux applications embarquant des modèles conseillés par Apple. La première, simplement baptisée ML (Github), utilise le modèle ReNet50 qui reconnait des objets dans mille catégories. Le principal atout de cette app, c’est qu’elle affiche le nom de l’objet en direct : la reconnaissance est immédiate, mais les résultats sont souvent fantaisistes. Exemple en vidéo :

Paul Haddad, le développeur de Tapbots, a utilisé le modèle VGG16 avec plus de succès :

Certains résultats sont assez amusants, comme ce Mac Pro “alu” pris pour… un chauffage. Après tout, ce n’est pas complètement faux !

L’autre application testée, CoreML Vision (Github), offre un taux de déchet plus faible, mais les résultats sont moins rapides à obtenir. Il faut en effet prendre une photo puis patienter quelques secondes avant d’obtenir un résultat, mais celui-ci tape juste assez souvent… et parfois avec une précision diabolique ! Nous avons installé le modèle Inception V3, qui là aussi détecte des objets de mille catégories.

Cliquer pour agrandir
Cliquer pour agrandir

Le pourcentage donné par l’application correspond à la probabilité que l’objet reconnu soit celui pris en photo. Les résultats ne sont pas infaillibles évidemment, comme le montrent les deux exemples ci-dessous :

Cliquer pour agrandir

Si personne n’a appris au modèle à reconnaitre une paire de ciseaux ou une montre connectée, ces résultats ne sont pas étonnants. La qualité de la prise de vue peut aussi jouer.

Analyser et identifier des objets, c’est une première étape essentielle évidemment, mais il faut imaginer les utilisations qui en découleront. Il revient à Apple — qui en fait déjà usage — et surtout aux développeurs tiers d’imaginer les possibilités qui s’ouvrent grâce à Core ML.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Apple sauterait l’iPhone 19, pour atteindre l’iPhone 20 à temps pour le vingtième anniversaire

23/10/2025 à 21:45

• 38


Apple pourrait conclure un accord avec Starlink dans les mois à venir, par la force des choses

23/10/2025 à 21:00

• 28


La zone tactile de votre HomePod ne fonctionne plus. Nous avons la solution !

23/10/2025 à 20:40

• 0


Sam Sung, l’employé d’Apple devenu célèbre malgré lui, raconte son histoire douze ans plus tard

23/10/2025 à 20:31

• 8


Ce fabricant de literie connectée rappelle pourquoi la domotique devrait toujours être locale

23/10/2025 à 20:30

• 29


Apple ferait partie des entreprises intéressées par le catalogue de films et séries de Warner Bros. Discovery

23/10/2025 à 17:09

• 35


Elon Musk veut connecter directement les smartphones à Starlink pour en faire un opérateur mobile mondial

23/10/2025 à 16:26

• 61


Vente de SFR : Patrick Drahi demande aux trois opérateurs plus d’argent et de rapidité

23/10/2025 à 16:06

• 27


Promo : un robot aspirateur Roborock à 400 € compatible avec Maison 🆕

23/10/2025 à 15:16

• 35


La boîte du MacBook Pro M5 est plus fine, car Apple a retiré le chargeur et son emplacement

23/10/2025 à 11:30

• 45


Free Mobile coupe déjà son réseau 3G grâce à son contrat d’itinérance avec Orange

23/10/2025 à 10:30

• 34


Où trouver un iPhone 17, 17 Pro et 17 Pro Max en stock ? 🆕

23/10/2025 à 09:35

• 162


GM va supprimer CarPlay de toutes ses voitures, y compris les véhicules thermiques

23/10/2025 à 09:14

• 115


Le 2 nm s’annonce salé : Apple pourrait payer (beaucoup) plus cher ses puces A20 pour l'iPhone 18 Pro

23/10/2025 à 08:30

• 32


Les chiffres se suivent et se ressemblent : l’iPhone Air ne trouve pas son public 🆕

23/10/2025 à 07:45

• 123


ChatGPT dégagé de WhatsApp par Meta

22/10/2025 à 21:45

• 13