Ouvrir le menu principal

iGeneration

Recherche

Exécuter un grand modèle de langage sur son iPhone, c’est déjà possible

Stéphane Moussie

vendredi 05 janvier 2024 à 17:02 • 22

App Store

En un an, le domaine des intelligences artificielles génératives a évolué de manière considérable. Non seulement ChatGPT n’est plus l’unique robot avec lequel vous pouvez discuter, mais en plus vous pouvez faire vivre ceux-ci sur vos propres appareils. Alors que nous vous avions expliqué au printemps dernier comment exécuter un grand modèle de langage sur votre Mac, il est depuis devenu possible de faire de même rien qu’avec votre iPhone.

Parmi les applications iOS du genre, il y a notamment MLC Chat, qui a l’avantage d’être gratuite et open source. L’application pèse pas moins de 3,3 Go car elle embarque par défaut Mistral 7B (« 7B » pour 7 milliards de paramètres), un modèle libre créé par la start-up française Mistral AI. L’intégration de Mistral 7B est intéressante, car ce modèle est globalement meilleur que Llama 2 7B, le modèle mis à disposition gratuitement par Meta (et disponible en option dans MLC Chat).

Le modèle Mistral exécuté sur un iPhone par le biais de MLC Chat

Grâce à MLC Chat, vous pouvez donc utiliser Mistral sans connexion internet. Vous pouvez lui poser toutes sortes de questions, lui demander de résumer un texte, lui faire traduire des phrases, etc. Par rapport à ChatGPT, les réponses mettent un peu plus de temps à arriver et elles sont généralement moins pertinentes — l’assistant a la fâcheuse tendance à privilégier l’anglais, entre autres choses.

L’utilisation de MLC Chat fait chauffer rapidement l’iPhone — un iPhone 15 Pro lors de mes essais —, signe que les calculs demandent beaucoup de puissance. L’éditeur de l’application recommande d’ailleurs un appareil avec au moins 6 Go de RAM pour Llama-7B. Tous ces inconvénients (lenteur relative, modèle moins perfectionné, forte consommation de ressources) font qu’il reste plus agréable d’utiliser ChatGPT, mais il faut bien mettre les choses dans leur contexte. Il y a d’un côté une IA générative propriétaire qui tourne sur de gros serveurs, de l’autre un modèle de langage ouvert exécuté par un iPhone.

Apple est en train de s’attaquer aux défauts actuels des IA génératives locales en développant ses propres technologies, du modèle de langage jusqu’à son cadre d’exécution pour, qui sait, créer un Siri moins bête.

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Orange TV s’améliore sur Apple TV : qualité HD+, enregistreur optimisé…

17:13

• 6


La première bêta d’iOS 18.6 sur le point de sortir

16:32

• 2


Des iPhone 17 uniquement eSIM en France ? Les opérateurs sont fin prêts

16:10

• 33


France Identité : l’intégration de la carte grise disponible en bêta

14:25

• 73


Grosse panne sur les réseaux mobile et fixe de SFR

13:44

• 41


Un Steam Deck caché dans un clavier Apple pour l'utiliser avec des lunettes AR

13:00

• 12


iOS 26 va faciliter le transfert d’eSIM avec les smartphones Android

12:30

• 4


iOS 26 peut réserver de l’espace de stockage pour les mises à jour automatiques

11:04

• 9


iOS 26 : les pochettes animées sur l’écran de verrouillage fonctionneront sur les services tiers

10:04

• 12


Découverte de Messages dans iOS 26 : sondages, traduction, interface…

15/06/2025 à 10:00

• 38


Sortie de veille : une WWDC 2025 réussie ? Notre débrief d’iOS 26, Liquid Glass…

14/06/2025 à 12:50

• 11


iOS 26 : une nouvelle bêta 1 pour les développeurs

13/06/2025 à 20:45

• 60


Microsoft trolle Apple sur Liquid Glass, mais attention au retour de manivelle

13/06/2025 à 20:30

• 53


SAV : l'iPhone XS qui avait lancé l'eSIM chez Apple devient un produit en fin de vie

13/06/2025 à 16:51

• 34


HomePod et Apple TV devraient être compatibles Thread 1.4 avec tvOS 26

13/06/2025 à 16:38

• 10


Crazy Taxi, Sonic CD, Golden Axe et de nombreux jeux SEGA deviennent gratuits parce que le développement est abandonné

13/06/2025 à 16:00

• 21