Ouvrir le menu principal

iGeneration

Recherche

Astuce : désactiver l’enregistrement de vos requêtes Siri sur les serveurs d’Apple [MàJ]

Nicolas Furno

mardi 30 juillet 2019 à 09:38 • 111

iOS

Apple martèle à longueur d’années qu’elle fait tout pour préserver la vie privée de ses utilisateurs, mais même Apple fait écouter une partie des requêtes de Siri par des humains pour améliorer son assistant vocal. L’information est apparue après des polémiques similaires concernant Alexa d’Amazon et l’Assistant de Google, mais Siri n’est pas différent finalement, comme on l’a appris en fin de semaine dernière :

Les trois entreprises ont beau expliquer que c’est nécessaire pour améliorer le service, que seule une petite portion des requêtes sont traitées ou encore que l’anonymat des utilisateurs est respectée, c’est un comportement qui peut poser problème. Heureusement, il y a en général des options pour l’éviter, même si elles ne sont pas mises en avant. Pour Siri, il y a bien un moyen, mais il n’est clairement pas pensé pour être mis en place facilement.

Pour que Siri cesse d’envoyer une partie de vos requêtes sur des serveurs où elles pourraient être sélectionnées pour une analyse humaine, vous devez créer un profil de configuration en utilisant l’app Apple Configurator. Décochez la case « Autoriser la journalisation côté serveur des commandes Siri » dans la section dédiées aux restrictions, puis installez ce profil sur tous vos appareils et vous serez tranquille.

En créant un profil avec l’app Apple Configurator et en décochant la case encadrée, vous désactiverez totalement l’envoi de vos requêtes Siri sur les serveurs d’Apple.

Cette solution nécessite d’avoir un Mac sous la main, ce qui n’est évidemment pas le cas de tous les utilisateurs d’iPhone et iPad. C’est pourquoi un chercheur en sécurité propose sur GitHub un profil prêt à emploi que vous pouvez installer directement sur votre appareil iOS. Comme c’est sur GitHub, le code source est accessible publiquement et permet de vérifier que le profil ne fait qu’une chose, désactiver l’enregistrement sur les serveurs d’Apple des requêtes Siri.

Pour l’installer, vous devez ouvrir le lien direct vers le profil depuis un appareil iOS et autoriser son installation. Ouvrez ensuite l’app Réglages, vous devriez voir une ligne « Profil téléchargé » en haut de l’écran. Dans cette catégorie, vous verrez le profil téléchargé à l’étape précédente et vous pourrez l’installer. Comme il n’est pas signé, iOS demande une confirmation supplémentaire, mais il n’y a pas de risque à l’installer.

Une fois que c’est fait, vous ne noterez aucun changement sur votre appareil, Siri fonctionnera comme avant. Mais ce que vous demandez à l’assistant vocal d’Apple ne sera plus stocké sur des serveurs et potentiellement écouté par des humains. Espérons que le constructeur ajoute une case dans les réglages de Siri pour éviter de passer par un profil, comme le font déjà ses concurrents.

Pour désactiver le traitement humain des commandes vocales Alexa, ouvrez l’app d’Amazon, puis dans les paramètres, ouvrez la section « Alexa et vos informations personnelles » et enfin « Gérer comment vos données contribuent à améliorer Alexa ». Décochez les deux cases pour que vos enregistrements audio ne soient pas traités.

Pour faire la même chose avec Google Assistant, ouvrez l’app et touchez votre avatar en haut à droite de l’écran pour accéder aux paramètres. Sélectionnez ensuite le bouton « Gérez votre compte Google », puis « Infos perso et confidentialité », faites défiler pour trouver « Commandes relatives à l’activité » et décochez le paramètre « Activité vocale et audio ». Dans les deux cas, vous trouverez aussi un historique des commandes enregistrées avec des options pour faire le ménage.

Ces options permettent de désactiver l’exploitation des commandes vocales pour Alexa (gauche) et Google (droite).

[MàJ 30/07/2019 10h50] : point important à ne pas oublier, l’astuce évoquée ici ne concerne que les appareils iOS et tvOS. L’Apple Watch et le HomePod ont aussi accès à Siri et, sauf erreur de notre part, il n’est pas du tout possible de désactiver le stockage des requêtes sur les serveurs d’Apple.

Source :

Soutenez MacGeneration sur Tipeee

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Promos Apple : iPad Air M3 13” dès 639 €, iPad Pro M5 dès 840 €, MacBook Pro M5 dès 1 649 € (+ cashback)

11:31

• 1


Une station de chargement en bambou pour vos terminaux iOS

09:37

• 0


Comment éviter les appels indésirables sur iPhone : les solutions vraiment efficaces

08:00

• 21


Black Friday surveillance : des caméras et sonnettes vidéos HomeKit à petits prix

06:30

• 45


Jusqu'à - 50 % chez ShopSystem : les coques iPhone les plus fines au monde ! 📍

29/11/2025 à 22:55

• 0


Sortie de veille : le Black Friday bat son plein et iOS 27 fait déjà parler de lui

29/11/2025 à 12:33

• 9


Darty : jusqu’à 120 € de chèques-cadeaux sur toute la gamme Apple (iPhone 17 Pro/Max, MacBook Air M4, iPad, accessoires…)

29/11/2025 à 12:33

• 12


J’ai travaillé trois jours avec iPadOS 26 et un écran externe : c’était bien assez

29/11/2025 à 10:00

• 50


Black Friday : la Fnac en rajoute une couche avec 20 € de remise supplémentaire sur iPad, en plus de la promo de départ

28/11/2025 à 20:38

• 5


Apple Plans et Apple Ads pourraient tomber sous le coup du DMA à leur tour

28/11/2025 à 19:08

• 30


La compatibilité AirDrop des Pixel 10 bloque le Wi-Fi chez certains utilisateurs

28/11/2025 à 16:55

• 10


Black Friday : l'aspirateur Roborock Saros 10R à 855 €, un prix jamais vu

28/11/2025 à 15:56

• 33


Black Friday : les meilleures promotions sur les produits Apple (MacBook Air, iPhone, iPad...)

28/11/2025 à 15:20

• 10


Vous avez un Mac ? L'offre CyberGhost à −83 % + 4 mois offerts s'envole pour le Black Friday 📍

28/11/2025 à 14:07

• 0


Black Friday : l’iPhone 16e dévisse à 499 €, l’iPhone 17 Pro Max perd 180 € 🆕

28/11/2025 à 13:41

• 9


Le guide 2025 des accessoires Localiser : les meilleurs traqueurs pour tout retrouver

28/11/2025 à 13:10

• 15