Apple et Google font cause commune sur l'apprentissage automatique sur mobile

Stéphane Moussie | | 11:15 |  12

Google et Apple ont chacun leurs technologies mobiles d’apprentissage automatique, qui ne recouvrent pas exactement les mêmes choses. Sur Android il y a TensorFlow Lite, qui permet de créer et de faire tourner des modèles d’apprentissage automatique (réseaux neuronaux, modèles linéaires, arbres de décision…). Sur iOS il y a Core ML, qui sert uniquement à intégrer dans des applications des modèles déjà prêts.

Ces deux technologies se rapprochent maintenant avec la prise en charge de TensorFlow Lite par Core ML. Concrètement, les développeurs disposent d’un nouvel outil pour convertir les modèles TensorFlow Lite (.tflite) en modèles Core ML (.mlmodel) pour ensuite les déployer dans des applications iOS.

Google, qui a collaboré avec Apple sur cette prise en charge, fait ainsi de TensorFlow Lite une grande porte d’entrée pour l’apprentissage automatique sur mobile.

Catégorie : 

Les derniers dossiers sur iGeneration

Ailleurs sur le Web


12 Commentaires Signaler un abus dans les commentaires

avatar marc_os 06/12/2017 - 11:44

Et côté macOS ça sera disponible également ?

avatar ovea 06/12/2017 - 11:47 via iGeneration pour iOS (edité)

Ça veut dire que pour développer des modèles en l'utilisant son smartphone, c'est pas possible sur iPhone ?

qu'on peut juste utiliser le résultat (entraînement) d'un modèle validé lors de l'utilisation d'un smart phone android, et donc que l'apprentissage avec ses mise à jour permanente n'est pas dispo sur iOS ???

Qu'est-ce que c'est que …

avatar r e m y 06/12/2017 - 11:48 via iGeneration pour iOS

@ovea

Un iPhone sait deja tout, il n'a pas besoin d'apprentissage! Alors qu'un smartphone Android... 😜

avatar ovea 06/12/2017 - 11:49 via iGeneration pour iOS

@r e m y

Oué mais là je suis perplexe 😕

avatar Ze_misanthrope 06/12/2017 - 20:30

Oui tu as raison, sur Android, il faut apprendre au téléphone, sur iPhone, il faut apprendre aux utilisateurs !

avatar p@t72 06/12/2017 - 23:20

👍👍👍

avatar iPop 06/12/2017 - 12:09 via iGeneration pour iOS

Bon, moi ça me dépasse , j'ai rien compris😿

avatar p@t72 06/12/2017 - 23:21 (edité)

C'est pour ça que tu es un utilisateur apple!

avatar occam 06/12/2017 - 12:12 via iGeneration pour iOS

J'aime assez TensorFlow. TF Lite sur iOS semble encore plus intéressant, par la multiplication du déploiement.
L'ouverture de TensorFlow contraste malheureusement avec le caractère encore assez reclus de CoreML.
À se demander si Apple ne serait pas en train de sacrifier une fois de plus une technologie prometteuse et de haut niveau sur l'autel de l'exclusivité à tout prix.

avatar IGerard 06/12/2017 - 12:20 via iGeneration pour iOS

Quand on fait de l'IA on calcule des modèles de fonction qui permettent ensuite d'être évalués... l'apprentissage c'est la phase de calcul de cette fameuse fonction ...

Ce calcul est super coûteux en général et peut durer des jours sur des fermes de GPU NVidia par exemple

Cette fonction est représentée par une structure de donnée définit par l'outil utilisé, ici TensorFlow Lite ... cette définition tu la transporte sur un smartphone pour être évaluée sur des données disponibles à un moment donné sur ton smartphone ...

ML à sa propre structure de données pour exprimer la dite fonction... ce que fait le machin dont parle l'article c'est de transformer le modèle TFL en ML ...

En général on ne fait que de l'évaluation sur le smartphone ... ce qui est bien moins coûteux que la phase d'apprentissage... mais qui peut être coûteux quand mm ... d'où le TPU ou Neural engine dans l'A11 Bionic

Mais le modèle utilisé par FaceID par exemple, est enrichi en cours de route sur l'iPhone lui mm... car le Neural Engine le permet... il y a des modèles qui peuvent être enrichis de manière itérative / incremental... calcul moins coûteux quand mm qu'un apprentissage réalisé de zéro.

avatar RedMak 06/12/2017 - 12:23 via iGeneration pour iOS

Un model c’est pas juste un fichier mais c’est le resultat de plusieurs millier (million) d’itérations qui ameliore le model et du coup la « compréhension » de cette intelligence.
Ces itérations on besoin de temps et de surtout de ressource (processeur, ram..).
CoreML d’Apple utilise un model pret à l’emploi, si l’app detecte ine anomalie ou une potentielle amelioration possible, elle envoie ces infos au serveur(qui a plus de ressource) qui va créer un nouveau model amélioré puis l’app le telecharge et l’utilise à la place de l’ancien.
Je trouve ca plus « logic »et plus rapide.
Pour donner in exemple: à chaque màj majeur du système, il re-index les fichier et donc prend des ressources et ces pour ca que la batterie et épuisé rapidement les premiers jours, imaginez maintenant que chaque app va créer ces propre models ! C’est tres energivore sans parler qu’il peut y avoir des problèmes techniques (genre app killé par le user alors qu’elle n’a pas encore creer le model ..)

avatar ovea 06/12/2017 - 12:36 via iGeneration pour iOS (edité)

Ouiii, mais on est bien sur la phase développement, là où on peut se contenter de son iPhone et son Mac de développement avec l'accès à des ressources en réseau quasi illimités !

Alors où est le problème, sinon de ne pas pouvoir le faire sur iOS/mOS+render farms ?

(+) il semblerait que cet opérateur se déplace vers une structure pas très clair, à moins que Google ne soit le seul, ou celui privilégié par Apple sans liberté de développement libre et indépendant