Siri : des oreilles humaines écoutent des conversations parfois très privées enregistrées par accident

Mickaël Bazoge |

Pour améliorer Siri, Apple fait appel à des sous-traitants chargés d'écouter des extraits audio captés auprès d'utilisateurs. Une pratique qui est celle de toute l'industrie : Amazon et Google emploient aussi ces petites oreilles discrètes… et parfois indiscrètes. Dans le cas d'Apple, c'est bien plus embêtant en raison de la position très ferme de l'entreprise sur la confidentialité des données.

« Votre iPhone en sait beaucoup sur vous. Mais pas nous », assure Apple sur un panneau géant à New York.

Une source de ces sous-traitants a évoqué son travail et ses inquiétudes auprès du Guardian. Il n'est en effet pas rare d'entendre des conversations très privées qui, manifestement, n'étaient pas destinées à Siri. Vente de drogue, discussions autour d'un contrat commercial, et même des couples qui font l'amour, c'est arrivé plus d'une fois.

Siri n'est pas censé écouter aux portes. L'assistant ne se lance qu'après avoir entendu son déclencheur, « Dis Siri ». Or, il est assez fréquent que l'assistant s'active par accident. Sur l'Apple Watch il n'est même plus utile de le convoquer, il suffit de porter la montre à sa bouche puis de parler1. Le sous-traitant explique d'ailleurs que les extraits audio accidentels proviennent souvent de l'Apple Watch et du HomePod.

« La régularité des déclencheurs accidentels avec la montre est incroyablement élevée », détaille cette source. « [L'Apple Watch] peut enregistrer des extraits de 30 secondes. Ce n'est pas si long, mais vous pouvez avoir une bonne idée de ce qui se passe ».

Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre.

S'il est possible à ces employés de signaler à leur direction ce type d'activations non désirées, c'est uniquement en tant que problème technique. Il n'existe aucune procédure pour les enregistrements « sensibles » qui pourraient faire l'objet d'une enquête policière, par exemple. Les extraits audio captés par Siri sont accompagnés d'informations qui pourraient aider à identifier l'utilisateur : localisation, détails de contacts, données d'application.

Ces informations servent à déterminer si Siri a répondu correctement à la requête de l'utilisateur. Les extraits ne comprennent pas d'identifiant ni de nom spécifique ; de plus, il est très difficile de lier un enregistrement à un autre. Malgré tout, « il ne devrait pas être trop compliqué d'identifier la personne que l'on écoute », raconte l'infiltré. « Spécialement avec des déclencheurs accidentels : [on peut entendre] des adresses, des noms, etc. ».

Vraiment ?

Cette situation pourrait être encore plus dommageable si les extraits sont écoutés par de mauvaises personnes : les vérifications lors de l'embauche des personnels chargés de l'écoute sont peu fouillées « et le volume de données auxquelles nous avons librement accès est assez vaste ». Si quelqu'un chez ces sous-traitants avait des intentions néfastes, il n'aurait pas beaucoup de mal à mettre un nom derrière une voix.

Chez Amazon, il est possible de désactiver l'envoi de messages à des fins de contrôle qualité (une option qui ne sert pas à grand chose, de l'aveu même de l'entreprise). Il n'existe rien de tel chez Apple. Le livre blanc sur la sécurité du constructeur précise :

Les enregistrements vocaux de l’utilisateur sont conservés pendant six mois, afin que le système de reconnaissance vocale puisse les utiliser pour mieux comprendre la voix de l’utilisateur. Une autre copie est enregistrée après six mois, sans son identifiant, afin qu’Apple puisse l’utiliser pour améliorer et développer Siri, et ce, pendant deux ans au total. Un petit sous‐ensemble de fiches, transcriptions et données associées sans identifiant sont susceptibles de continuer à être employées par Apple pour l’amélioration continue et le contrôle de qualité de Siri au‐delà de deux ans.

Le constructeur indique au Guardian que « moins d'1% des activations quotidiennes de Siri » sont utilisées pour le service qualité, et que les extraits ne durent généralement que quelques secondes.

Qu'Apple fasse analyser des extraits audio à des sous-traitants dans le but d'améliorer la qualité de compréhension et de réponse de Siri n'a rien de choquant. Les machines n'ont pas notre oreille, après tout, et certaines situations nécessitent la compréhension d'un contexte que seul un humain peut appréhender. C'est le cas pour tous les éditeurs d'assistants connectés.

Ce qui est ici reproché finalement, c'est les cas d'activation accidentelle de Siri qui peut lancer l'enregistrement de l'extrait d'une conversation privée. Cette histoire va peut-être pousser Apple à serrer la vis et surtout à communiquer plus clairement sur ce qui passe dans les coulisses de Siri.


  1. Ça ne fonctionne pas tout le temps. On peut désactiver cette fonction dans les réglages de la montre, Général > Siri > Levez pour parler.  ↩

avatar anonx | 

Vous comprenez j’ai surtout choisi Apple pour la confidentialité... m’voyez 🤣

avatar UraniumB | 

@anonx

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar baklawa | 

@UraniumB

Problème technique ou pas je constate que des enregistrements sont accessibles par des sous-traitants. Ce n'est pas non plus compliqué à comprendre que ça puisse choquer certains d'autant plus que ce n'est clairement pas mentionné dans la politique de confidentialité.

avatar pagaupa | 

@baklawa

+1
Les ravages de la sous-traitance, quelque soit le domaine...

avatar UraniumB | 

@pagaupa

Les ravages des ramasses miettes, quelque soit l’article...

avatar TrollMan06 | 

@anonx

Marrant, on ne voit plus ces personnes sur cette news 😂

Mis à part le fanboy UraniumB 🤦‍♂️

avatar anonx | 

@TrollMan06

Il a copié/collé son message partout 😂

Il me fait penser aux types à Las Vegas avec leurs énormes panneaux, Bible en main, criant à tout le monde qu’il faut se ranger et arrêter de pêcher 😳

avatar TrollMan06 | 

@anonx

😂😂😂

Le pire c’est que c’est lui qui n’a rien compris à l’article 🤣

avatar comvis | 

@anonx

Vous comprenez plutôt pourquoi j’ai désactivé Siri 😅

avatar webHAL1 | 

Le plus amusant dans cette histoire est de voir combien de personnes, à chaque actualité sur Google ou Amazon, viennent nous dire ici à quel point Apple est mieux. Ayons une pensée pour elles, leur monde doit vaciller sur ses fondations aujourd'hui... ;-)

avatar madaniso | 

@webHAL1

une pensée pour elles en effet :)

avatar UraniumB | 

@madaniso

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar p@t72 | 

t’inquiète,t'en trouveras toujours pour défendre la pomme...
regarde plus bas!

avatar UraniumB | 

@p@t72

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar UraniumB | 

@webHAL1

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar webHAL1 | 

@UraniumB

Et sinon, tu as lu l'article ?

- - - - - - - - - - - - - - - - - -
« il ne devrait pas être trop compliqué d'IDENTIFIER la personne que l'on écoute », raconte l'infiltré. « Spécialement avec des déclencheurs accidentels : [on peut entendre] des ADRESSES, des NOMS, etc. »
[...]
« le volume de données auxquelles nous avons LIBREMENT accès est assez VASTE ». Si quelqu'un chez ces sous-traitants avait des intentions néfastes, il n'aurait PAS BEAUCOUP DE MAL à mettre un UN NOM DERRIÈRE UNE VOIX.
- - - - - - - - - - - - - - - - - -

Il y a des employés chez des sous-traitants d'Apple qui écoutent les conversations enregistrées par Siri. Peux-tu expliquer en quoi c'est un "problème technique" ? Et pourquoi tu affirmes que ce n'est le cas que quand "Siri est activé par erreur" ? Ces employés n'écoutent pas les conversations enregistrées par Siri quand l'utilisateur l'active volontairement ? Enfin ils ont librement accès à un volume de données assez vaste. Qu'est-ce qui te permet d'affirmer "le peu de données reçues" ?

avatar Depret Lucas | 

Ben je tiens à dire que cela ne leur permet pas de nous identifier ;)

avatar bibi81 | 

Ça dépends de la séquence enregistrée.

avatar Depret Lucas | 

@bibi81

Ben tout

avatar bibi81 | 

Et donc si dans la séquence enregistrée il y a ton nom alors ils peuvent t'identifier ;)

avatar shaba | 

Rien de neuf, on savait déjà ça depuis longtemps ! C’est pas la joie ces assistants qu’on nous refile à tour de bras.

avatar CorbeilleNews | 

@shaba

Et là on peut encore les désactiver (si cela le fait vraiment ???) mais un jour on ne pourra peut-être plus le désactiver puisque tout ces gens qui l'utilisent comme ils me disent souvent "n'ont rien à cacher" 🤣🤣🤣

Ah les 🤡🤡🤡

avatar shaba | 

@CorbeilleNews

Ils n’ont plus rien à cacher surtout...

avatar anonx | 

@shaba

Pas mal 😂

avatar CorbeilleNews | 

@shaba

Ah oui bien vu je leur dirai désormais avant vous n'aviez rien à cacher, désormais vous n'avez plus rien à cacher 🤗

avatar marenostrum | 

je vois pas ce que ça change. la plupart des gens ont des vies banales. avec rien d'intéressant dedans.

avatar didloan92 | 

@shaba

D’un autre côté personne ne vous oblige à les acheter 😀

avatar shaba | 

@didloan92

C’est pour ça que je n’en ai pas acheté :) j’utilise bien Siri sur mon iPhone qui est très pratique quand on a les mains occupées mais c’est tout. Hors de question d’avoir un Google truc qu’on trouve dans les boites de chocapic tellement ils ont envie de nous les refiler...

avatar EBLIS | 

Apple te vend la même chose, seule différence, une boîte de Chocapic design et un beau discours pour faire passer la pilule.

avatar fousfous | 

Pouvoir obliger la watch à entendre le dit Siri pour activer Siri ce serait bien, parce que depuis watch os 5 ma watch passe son temps à activer Siri.

avatar colossus928 | 

@fousfous

D'apres macg : "Ça ne fonctionne pas tout le temps. On peut désactiver cette fonction dans les réglages de la montre, Général > Siri > Levez pour parler."

Ca ne corrige pas ton problème ?

avatar pillouti | 

J’étais resté sur le principe que tout se faisait en local, via le processeur du tel...

avatar shaba | 

@pillouti

Ah non tout se fait en réseau au contraire.

avatar pillouti | 

@shaba

« Choqué et déçu. »

avatar shaba | 

@pillouti

Aucune raison d’être choqué ni déçu, c’est juste impossible que ça se fasse en local pour des raisons évidentes de mises à jour permanentes, d’actualité etc. Après officiellement rien ne leur permet de nous identifier contrairement à Google...

avatar marenostrum | 

comment ça, t'es connecté avec eux avec tes identifiants. ils savent bien que l'appareil est à toi. même sans Siri, t'es repérable. Siri c'est pour t'écouter, t'enregistrer. ils savent bien que c'est toi. même ta voix est enregistrée chez eux.

avatar Depret Lucas | 

@marenostrum

Oh que non ;) tu peux aller voir sur leur site ;)

avatar Nightstalker | 

Justement, en lisant la page 68 du guide de sécurité d'iOS on voit bien que non seulement certaines informations identifiant l'utilisateur sont envoyées chez Apple et/ou ses sous-traitants, avec la musithèque, les listes de tâches, le nom et autres informations diverses des contacts enregistrés) :

"To facilitate Siri features, some of the user’s information from the device is sent to the server. This includes information about the music library (song titles, artists, and playlists), the names of Reminders lists, and names and relationships that are defined in Contacts. All communication with the server is over HTTPS.

When a Siri session is initiated, the user’s first and last name (from Contacts), along with a rough geographic location, are sent to the server. This allows Siri to respond with the name or answer questions that need only an approximate location, such as those about the weather."

Edifiant.

avatar webHAL1 | 

@Nightstalker

L'article de MacG précise également :

« Les extraits audio captés par Siri sont accompagnés d'informations qui pourraient aider à identifier l'utilisateur : localisation, détails de contacts, données d'application. [...] Les extraits ne comprennent pas d'identifiant ni de nom spécifique ; de plus, il est très difficile de lier un enregistrement à un autre. Malgré tout, "il ne devrait pas être trop compliqué d'identifier la personne que l'on écoute", raconte l'infiltré. "Spécialement avec des déclencheurs accidentels : [on peut entendre] des adresses, des noms, etc." Cette situation pourrait être encore plus dommageable si les extraits sont écoutés par de mauvaises personnes : les vérifications lors de l'embauche des personnels chargés de l'écoute sont peu fouillées "et le volume de données auxquelles nous avons librement accès est assez vaste". Si quelqu'un chez ces sous-traitants avait des intentions néfastes, il n'aurait pas beaucoup de mal à mettre un nom derrière une voix. »

avatar Nightstalker | 

@webHAL1

A la vu des commentaires de Depret il me semblait juste qu'il ait bien l'info provenant directement d'Apple corroborant les affirmations du sous-traitant pour arrêter de nous bassiner ;)

avatar webHAL1 | 

@Nightstalker
« [...] il me semblait juste qu'il ait bien l'info provenant directement d'Apple corroborant les affirmations du sous-traitant [...] »

Très juste. 👍

avatar shaba | 

@marenostrum

Justement, ils assurent que ton identifiant est détaché des enregistrements et que rien ne permet de t’identifier.

avatar marenostrum | 

ça c'est ce qu'ils disent. mais à tout moment ils peuvent faire tout dans ton iPhone. c'est un appareil connecté avec eux en permanence.

et c'est ton argent qui les intéresse pour le moment, pas tes opinions.

avatar shaba | 

@marenostrum

Je ne pense pas, s’ils font n’importe quoi leur image est foutue et donc les marges qu’ils s’accordent avec.

avatar SyMich | 

il ne devrait pas être trop compliqué d'identifier la personne que l'on écoute », raconte l'infiltré. « Spécialement avec des déclencheurs accidentels : [on peut entendre] des adresses, des noms, etc. »
"le volume de données auxquelles nous avons librement accès est assez vaste ». Si quelqu'un chez ces sous-traitants avait des intentions néfastes, il n'aurait pas beaucoup de mal à mettre un nom derrière une voix.

Bref vu le volume de données auxquelles ils ont LIBREMENT ACCÈS (on parle de sous traitants peu regardant sur les critères de recrutement!), il est probablement courant de pouvoir identifier les personnes écoutées.

avatar shaba | 

@SyMich

Si le nom de la personne est mentionné dans l’enregistrement oui. Sinon, vu que les enregistrements ne sont ni liés entre eux ni à un identifiant ce n’est pas possible.

avatar marenostrum | 

elle t'appelle comment ta femme toi ? même sans ça t'es repérable par ton IP, géolocalisation, etc. moi par ex exemple j'ai activé l'Automatisation dans HomeKit. ils savent quand je dors, quand je quitte la maison, quand je rentre, où je travaille, les sites que je fréquente, les achats, etc. tout.

avatar shaba | 

@marenostrum

Là encore, non. Pour HomeKit ils utilisent un identifiant Siri aléatoire qui est détaché de ton identifiant réel. Ils ne savent rien de ce que tu fais avec tes appareils.
Lis ça c’est assez intéressant et détaillé (en français): https://www.apple.com/fr/privacy/approach-to-privacy/

avatar marenostrum | 

s'ils le veulent ils le peuvent sans problème. et pas seulement eux, mais tout app installé dans ta machine, peut tout faire. comme la boite israélienne, etc. c'est pas un problème en informatique. même l'opérateur français peut savoir tout sur toi.

avatar shaba | 

@marenostrum

L’opérateur oui puisque les sms et appels classiques ne sont pas cryptés entres autres.
Pour le reste c’est faux, les apps ne peuvent pas accéder à ce qu’elles souhaitent. Lis cette page c’est instructif. Après crois ce que tu veux :)

Pages

CONNEXION UTILISATEUR