Ouvrir le menu principal

iGeneration

Recherche

Siri apprend à apprendre sur le cloud, mais agit en local

Nicolas Furno

mardi 12 septembre 2017 à 07:00 • 35

iOS

Siri a largement dépassé son rôle de simple assistant vocal des débuts. Apple utilise ce nom pour désigner toutes les fonctions d’assistance de ses produits, qu’il s’agisse des suggestions d’apps de Spotlight, des résultats de recherche dans Safari ou bien du cadran dédié de watchOS 4. Toutes ces fonctions n’ont d’intérêt que si Siri en sait le maximum sur vous, mais le constructeur a toujours refusé de collecter des données personnelles.

Le cadran Siri, l’une des nouveautés de watchOS 4. Cliquer pour agrandir
Le cadran Siri, l’une des nouveautés de watchOS 4. Cliquer pour agrandir

Dans un entretien accordé à Fast Company, Greg Joswiak a réitéré cet engagement et assuré qu’Apple pouvait en offrir autant que ses concurrents, mais sans compromettre la vie privée de ses utilisateurs. La clé, rappelle-t-il, est de faire le maximum directement sur les appareils Apple qui sont déjà très puissants et ne cessent de s’améliorer, génération après génération.

Photos, par exemple, analyse tous vos clichés à la recherche des personnes et aussi des objets qui s’y trouvent, mais l’app fait tout ce travail sans aucun serveur (lire : Photos : Apple copie Google… la confidentialité en plus). Chaque iPhone, iPad et Mac est mis à contribution pour enrichir la bibliothèque de l’utilisateur, iCloud ne servant plus qu’à synchroniser les données chiffrées. Avec iOS 11, les noms des personnes identifiées seront aussi synchronisés via iCloud, mais les serveurs ne servent qu’à transférer les données, pas à faire le travail d’identification lui-même.

C’est la même chose pour les commandes vocales de Siri. Par exemple, si vous demandez à l’assistant de créer un rendez-vous avec Jean, la requête est effectivement envoyée sur les serveurs d’Apple pour la partie reconnaissance, mais c’est votre appareil qui se charge de l’effectuer en local. C’est votre appareil qui crée l’événement et qui va chercher le bon contact dans votre carnet d’adresse local, le serveur n’a renvoyé qu’une directive générique et impersonnelle.

Cette stratégie est centrale chez Apple et elle distingue l’entreprise de Google ou de Facebook, où le serveur est au centre. Jusque-là, l’entreprise de Tim Cook a été pénalisée par ce choix en termes de fonctions et d’intelligence, mais les modèles s’améliorent chaque année et les vitesses de traitement aussi. Le constructeur travaillerait même sur une puce dédiée spécifiquement à l’intelligence artificielle, pour améliorer encore son assistant.

La toute première version de Siri, sur un iPhone 4S. Cliquer pour agrandir
La toute première version de Siri, sur un iPhone 4S. Cliquer pour agrandir

L’article détaille le processus mis en place par Apple pour améliorer son assistant. L’entreprise exploite bien ses serveurs, mais uniquement sur des données anonymes, et uniquement pour créer les modèles de données. Pour faire simple, les fonctions d’intelligence artificielle reposent toutes sur un modèle qui doit permettre de faire face à n’importe quelle situation. Il ne s’agit plus seulement de programmer une série de questions/réponses comme aux débuts de Siri, il s’agit de créer un système capable de comprendre n’importe quelle question et d’apporter une réponse appropriée.

Pour que Siri apprenne à apprendre, Apple travaille sur six mois de données anonymes et génère à partir de cette masse d’informations un modèle de machine learning. Ce modèle est ensuite intégré à iOS, macOS et watchOS et il est appliqué aux données en local. À ce stade, il n’y a plus d’interaction avec les serveurs, c’est Siri qui travaille en local à partir du modèle créé sur les serveurs.

Ce modèle est constamment amélioré par Apple sur ses serveurs, à partir des données collectées anonymement et chaque mise à jour des systèmes d’exploitation est l’occasion d’améliorer Siri sur tous les iPhone, iPad, Mac et Apple Watch. Cela sert autant pour améliorer la qualité de la reconnaissance vocale de Siri, que pour détecter un rendez-vous dans un message ou un mail, ou bientôt pour améliorer les cartes présentées sur le cadran Siri des montres.

Les données les plus importantes, toutes celles qui concernent votre vie privée, restent ainsi sur votre terminal. Elles transitent sur les serveurs d’Apple, uniquement pour la synchronisation, chiffrées de bout en bout et donc illisibles même si l’entreprise le souhaitait. Ces données peuvent représenter plusieurs centaines de mégaoctets et elles sont enrichies régulièrement. Par exemple, iOS 11 est capable de comprendre que vous vous intéressez à un lieu à partir de vos recherches Safari et proposer des résultats liés à ce lieu.

Photo Fast Company. Cliquer pour agrandir
Photo Fast Company. Cliquer pour agrandir

Cette transformation de Siri vers l’intelligence artificielle est encore assez récente, elle a commencé il y a seulement deux ans. Auparavant, Apple était resté sur le modèle original, assez simple, où l’assistant vocal piochait dans une immense base de données de questions et réponses. Le constructeur en a aussi profité pour développer son propre moteur de reconnaissance vocale et remplacer celui de Nuance qui servait jusque-là. Et l’intelligence artificielle a aussi servi à améliorer la qualité des voix.

Tous ces efforts sont toujours en cours et les effets sont surtout visibles pour les utilisateurs anglophones pour le moment. iOS 11 apporte justement des voix anglaises en net progrès en termes de réalisme. Tout le monde devrait toutefois en profiter à terme, tandis qu’Apple devrait continuer à améliorer en permanence les modèles sur ses serveurs.

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

La Russie bloque WhatsApp et restreint progressivement Telegram

15:12

• 10


En exclusivité, voici comment la Ferrari dessinée par Jony Ive se chargera

14:09

• 40


Le double support Qi2 et Qi d'Ugreen en promo dès 25 € au lieu de 50 €

13:15

• 2


Xiaomi défie l’AirTag avec une balise à 18 € compatible avec les réseaux Localiser d’Apple et de Google

12:26

• 14


Avec la Sihoo Doro C300, retrouvez la liberté de bouger… tout en étant parfaitement soutenu 📍

11:21

• 0


Les stocks de l’iPhone 16e seraient au plus bas, nouvel indice du lancement imminent du 17e

10:25

• 5


Le Vision Pro, grand oublié de la nouvelle génération d'AirTag

10:07

• 5


Astuce : empêcher le volume de l’alarme de l’iPhone de baisser tout seul

10:04

• 15


Les OS 26.3 corrigent une vulnérabilité bas niveau exploitée pour des attaques très sophistiquées

09:16

• 7


Huawei Watch GT 6 Pro : un premier pas (prudent) vers la détection du diabète

08:20

• 4


Babel au bout du fil : T-Mobile lance la traduction instantanée

06:05

• 10


Promo : le cadenas SBS compatible Localiser descend à 22 €

00:47

• 16


Électricité : Frank Énergie mise sur le prix du marché, mais est-ce une bonne idée ?

11/02/2026 à 23:22

• 51


iOS 18, macOS 15 et macOS 14 reçoivent des mises à jour de sécurité

11/02/2026 à 23:00

• 10


Apple reculerait une bonne partie des nouveautés de Siri à iOS 26.5

11/02/2026 à 22:30

• 86


Spotify met dehors un grand nombre d’app tierces en fermant ses API

11/02/2026 à 21:15

• 37