Siri : des oreilles humaines écoutent des conversations parfois très privées enregistrées par accident

Mickaël Bazoge |

Pour améliorer Siri, Apple fait appel à des sous-traitants chargés d'écouter des extraits audio captés auprès d'utilisateurs. Une pratique qui est celle de toute l'industrie : Amazon et Google emploient aussi ces petites oreilles discrètes… et parfois indiscrètes. Dans le cas d'Apple, c'est bien plus embêtant en raison de la position très ferme de l'entreprise sur la confidentialité des données.

« Votre iPhone en sait beaucoup sur vous. Mais pas nous », assure Apple sur un panneau géant à New York.

Une source de ces sous-traitants a évoqué son travail et ses inquiétudes auprès du Guardian. Il n'est en effet pas rare d'entendre des conversations très privées qui, manifestement, n'étaient pas destinées à Siri. Vente de drogue, discussions autour d'un contrat commercial, et même des couples qui font l'amour, c'est arrivé plus d'une fois.

Siri n'est pas censé écouter aux portes. L'assistant ne se lance qu'après avoir entendu son déclencheur, « Dis Siri ». Or, il est assez fréquent que l'assistant s'active par accident. Sur l'Apple Watch il n'est même plus utile de le convoquer, il suffit de porter la montre à sa bouche puis de parler1. Le sous-traitant explique d'ailleurs que les extraits audio accidentels proviennent souvent de l'Apple Watch et du HomePod.

« La régularité des déclencheurs accidentels avec la montre est incroyablement élevée », détaille cette source. « [L'Apple Watch] peut enregistrer des extraits de 30 secondes. Ce n'est pas si long, mais vous pouvez avoir une bonne idée de ce qui se passe ».

Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre.

S'il est possible à ces employés de signaler à leur direction ce type d'activations non désirées, c'est uniquement en tant que problème technique. Il n'existe aucune procédure pour les enregistrements « sensibles » qui pourraient faire l'objet d'une enquête policière, par exemple. Les extraits audio captés par Siri sont accompagnés d'informations qui pourraient aider à identifier l'utilisateur : localisation, détails de contacts, données d'application.

Ces informations servent à déterminer si Siri a répondu correctement à la requête de l'utilisateur. Les extraits ne comprennent pas d'identifiant ni de nom spécifique ; de plus, il est très difficile de lier un enregistrement à un autre. Malgré tout, « il ne devrait pas être trop compliqué d'identifier la personne que l'on écoute », raconte l'infiltré. « Spécialement avec des déclencheurs accidentels : [on peut entendre] des adresses, des noms, etc. ».

Vraiment ?

Cette situation pourrait être encore plus dommageable si les extraits sont écoutés par de mauvaises personnes : les vérifications lors de l'embauche des personnels chargés de l'écoute sont peu fouillées « et le volume de données auxquelles nous avons librement accès est assez vaste ». Si quelqu'un chez ces sous-traitants avait des intentions néfastes, il n'aurait pas beaucoup de mal à mettre un nom derrière une voix.

Chez Amazon, il est possible de désactiver l'envoi de messages à des fins de contrôle qualité (une option qui ne sert pas à grand chose, de l'aveu même de l'entreprise). Il n'existe rien de tel chez Apple. Le livre blanc sur la sécurité du constructeur précise :

Les enregistrements vocaux de l’utilisateur sont conservés pendant six mois, afin que le système de reconnaissance vocale puisse les utiliser pour mieux comprendre la voix de l’utilisateur. Une autre copie est enregistrée après six mois, sans son identifiant, afin qu’Apple puisse l’utiliser pour améliorer et développer Siri, et ce, pendant deux ans au total. Un petit sous‐ensemble de fiches, transcriptions et données associées sans identifiant sont susceptibles de continuer à être employées par Apple pour l’amélioration continue et le contrôle de qualité de Siri au‐delà de deux ans.

Le constructeur indique au Guardian que « moins d'1% des activations quotidiennes de Siri » sont utilisées pour le service qualité, et que les extraits ne durent généralement que quelques secondes.

Qu'Apple fasse analyser des extraits audio à des sous-traitants dans le but d'améliorer la qualité de compréhension et de réponse de Siri n'a rien de choquant. Les machines n'ont pas notre oreille, après tout, et certaines situations nécessitent la compréhension d'un contexte que seul un humain peut appréhender. C'est le cas pour tous les éditeurs d'assistants connectés.

Ce qui est ici reproché finalement, c'est les cas d'activation accidentelle de Siri qui peut lancer l'enregistrement de l'extrait d'une conversation privée. Cette histoire va peut-être pousser Apple à serrer la vis et surtout à communiquer plus clairement sur ce qui passe dans les coulisses de Siri.


  1. Ça ne fonctionne pas tout le temps. On peut désactiver cette fonction dans les réglages de la montre, Général > Siri > Levez pour parler.  ↩


avatar pagaupa | 

Ah ah la confidentialité Apple!
Elle en prend un coup...

avatar UraniumB | 

@pagaupa

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar pagaupa | 

@UraniumB

Oui oui! On lui dira! 😂😂😂

avatar UraniumB | 

@pagaupa

On ne peut rien faire comprendre aux rageux anti-Pomme 😉 C’est tellement pathétique 😌

avatar pagaupa | 

@UraniumB

Pas plus qu’un fan d’Apple.
L’un comme l’autre est dans l’excès.

avatar UraniumB | 

@pagaupa

Il y a cependant une différence entre « accro » et « fan ». Le premier adore une chose sans aucune réelle raison. Le second, quant à lui, a les siennes. 😉😌

avatar pagaupa | 

@UraniumB

C’est ta définition...
Pour moi, l’accro comme le fan est en manque de raison.

avatar UraniumB | 

@pagaupa

Donc si on aime quelque chose, on est en manque de raison ? 🤨

avatar pagaupa | 

@UraniumB

L’amour est irrationnel, effectivement 😜 et rend aveugle 😂

avatar UraniumB | 

@pagaupa

Très mature !

avatar pagaupa | 

@UraniumB

Non juste terre à terre. 😜

avatar webHAL1 | 

@UraniumB

Apparemment tu as manqué mes questions, je vais donc t'aider et les re-poster :

Il y a des employés chez des sous-traitants d'Apple qui écoutent les conversations enregistrées par Siri. Peux-tu expliquer en quoi c'est un "problème technique" ? Et pourquoi tu affirmes que ce n'est le cas que quand "Siri est activé par erreur" ? Ces employés n'écoutent pas les conversations enregistrées par Siri quand l'utilisateur l'active volontairement ? Enfin ils ont librement accès à un volume de données assez vaste. Qu'est-ce qui te permet d'affirmer "le peu de données reçues" ?

avatar UraniumB | 

@webHAL1

J’ai lu tes réponses. Mais bon j’y répond pas car ça ne sert à rien. Vous êtes drôle aussi, vous prenez ça comme l’affaire du siècle alors qu’il n’en est rien. On pourrait parler de Google et compagnie car il y a tant à dire sur ces derniers...mais non faut cracher sur Apple dès que l’opportunité se présente. D’accord, ici il y avait à débattre (moi même je ne sais pas trop quoi penser de cette affaire) mais par pitié arrêtez de faire vos rageux sur ce forum ça devient juste ch*ant. Merci.

avatar webHAL1 | 

@UraniumB
« Mais bon j’y répond pas car ça ne sert à rien. »

Et copier-coller 5 ou 6 fois le même commentaire contenant des affirmations fausses, ça sert à...?

« Vous êtes drôle aussi, vous prenez ça comme l’affaire du siècle alors qu’il n’en est rien. »

Ah ? Je ne me souviens pas d'avoir parlé de "l'affaire du siècle". Ni que personne d'autre n'ait utilisé cette qualification, d'ailleurs.

« On pourrait parler de Google et compagnie car il y a tant à dire sur ces derniers... »

Ah bien sûr. Un article démontre qu'Apple emploie les mêmes procédés que ses concurrents, alors qu'elle passe son temps à mettre en avant la protection de la vie privée de ses clients, mais ce dont il faut parler c'est de "Google et compagnie". Évidemment.

« [...] mais non faut cracher sur Apple dès que l’opportunité se présente. »

Oui, sacrilège ! S'étonner que la Pomme fasse appel à des sous-traitants qui ont accès à des conversations enregistrées, par erreur ou non, par Siri et qui peuvent identifier les clients concernés, c'est bien sûr "cracher sur Apple". Heureusement que tu es là pour le souligner.

« D’accord, ici il y avait à débattre (moi même je ne sais pas trop quoi penser de cette affaire) »

Tiens donc ? Tu ne sais "quoi penser de cette affaire", mais tu t'empresses de copier-coller 5 ou 6 fois le même commentaire contenant des affirmations fausses ? Voilà qui est intéressant.

avatar pagaupa | 

Tout se fait en local sur l’iphone!...
Mdr...

avatar Fluo | 

Finalement, j’ai eu bien raison d’installer plutôt Alexa à la maison. Bien plus efficace, beaucoup moins cher, et finalement pas moins discret.

Je pensais que Siri n’était pas écoutable. Plus rien ne justifie sa nullité...

avatar Krysten2001 | 

@Fluo

Apple ne sait pas qui parle 🤷‍♂️ et en revend pas tes données

avatar bibi81 | 

Apple ne sait pas qui parle 🤷‍♂️

Ce n'est pas ce que dit l'article ;)

et en revend pas tes données

Ni Amazon ni Google ne revend les données, hein ! C'est bien trop précieux pour être vendu ;)

avatar Krysten2001 | 

@bibi81

Et alors ? Ce ne sont que des médias c’est écrit noir sur blanc sur le site d’Apple ;)

avatar bibi81 | 

Ce ne sont que des médias c’est écrit noir sur blanc sur le site d’Apple ;)

Apple écrit le fonctionnement quand il n'y a pas de bug, en cas de bug, ce qui est écrit sur le site d'Apple ne s'applique manifestement plus.

avatar Krysten2001 | 

@Fluo

Ils ne collectent quasiment pas de données par rapport à Google

avatar UraniumB | 

@Fluo

C’est un problème TECHNIQUE qui n’intervient que quand Siri est ACTIVÉ par ERREUR ! Et Apple n’utilise que le PEU de données reçues UNIQUEMENT pour AMÉLIORER ses PRODUITS ! C’est pas compliqué à comprendre...

avatar ckermo80Dqy | 

@Fluo

Troll et ça marche...

avatar Vanton | 

C’est vrai que l’Apple Watch a tendance à se déclencher pour un oui ou pour un non...

Souvent elle me fait sursauter en se mettant à répondre n’importe quoi, après avoir été activée par erreur... Et donc après m’avoir écouté un moment sans que je ne le réalise...

Effectivement, même si je ne doute pas qu’Apple fasse des efforts pour minimiser les possibilités de savoir qui je suis en écoutant ces extraits, ça m’arrangerait qu’ils ne les confient pas à n’importe qui... Non pas que j’aie beaucoup de choses à cacher, mais tout de même.

avatar ClownWorld 🤡 | 

Purée les fanboys android se délectent de cet article alors qu’il est bien écrit que c’est un sous-traitant et c’est des enregistrements non voulus
ANDROID T’ENREGISTRE H24 et c’est pas un sous-traitant !

avatar UraniumB | 

@ClownWorld 🤡

+1000

« ANDROID T’ENREGISTRE H24 et c’est pas un sous-traitant ! » Peux-tu m’expliquer stp ?

avatar macinoe | 

C'est touchant l'espoir et la crédulité.

Parmi tous les enfoirés de GAFA, les gens sont près à se battre pour celui qu'ils jugent un peu moins enfoiré que les autres. Ou plutôt celui qui a la campagne de com la plus efficace allant dans ce sens.

Vous croyez vraiment que vous n'avez pas d'autres choix que la peste ou le cholera ?

avatar 421 | 

Jamais de Siri, Alexa, Google ou ne ne sais pas quoi, jamais de tv connectée, d’enceinte connectée, de serrure connectée, d’alarme connectée, de vidéosurveillance connectée...
Never never never

avatar onemorething | 

Voilà pourquoi j’ai complètement désactivé Siri (et même la localisation) depuis des années :) je n’ai pas besoin de partager quoi que ce soit.

avatar pagaupa | 

@onemorething

Si seulement ça suffisait...

avatar mouahaha | 

La sous-traitance c'est très utile pour les agences de renseignement, ça permet de restez en partie dans la légalité et ça dédouane les gentilles entreprises qui ne veulent que le bien de l'humanité à peu de frais. :)

avatar pim | 

Ça m’a aussi motivé pour désactiver Siri. Je l’avais laissé activé en me disant que ça pourrait m’être utile en cas de chute, si je ne peux rien faire d’autre que d’appeler, mais en fait avec l’Apple Watch au poignet je peux avoir du secours immédiatement. À moins de perdre un bras !

On laisse déjà assez de traces comme ça avec les payements par carte, les cartes de fidélité qui ne servent qu’au traçage des habitudes des clients, les cookies de navigation sur internet et les bornages du portable quand on est en goguette sur les boulevards extérieurs, pas besoin d’avoir en plus des bouts de conversation dans la nature. Le but pour moi c’est avant tout d’éviter de relancer sans cesse les SMS promotionnels pour Jardiland, qui me sortent par les yeux.

avatar beber666 | 

Et voilà, cet article est pour tous les fanboys qui pensaient qu'Apple valait mieux que les autres, ça fait du bien de voir enfin une partie de la vérité dévoilée et mettre au tapis tous ces coups de com' qu'on lit depuis des années :-)))

avatar en ballade | 

Siri écoute pour des soucis d'amélioration et pourtant il reste très nul

avatar christopher.saez | 

Je suis un peu deçu, le respect de la vie etait mon fer de lance.... Hate de voir leur communication de crise.... Mais ca va finir que je vais couper siri....

avatar debione | 

Au fait, pourquoi on paye plus cher nos appareils Apple?

avatar p@t72 | 

faire plaisir aux actionnaires ;-)

avatar debione | 

Ah mais punaise je les oublié toujours ceux là... 😋

Pages

CONNEXION UTILISATEUR