Microsoft poursuit son programme d'écoute de Skype, avec plus de transparence

Mickaël Bazoge |

Microsoft va poursuivre son programme d'écoute visant à améliorer le service de traduction automatique de Skype. Il s'est avéré que l'éditeur faisait écouter à des sous-traitants humains des extraits audio de quelques secondes provenant d'utilisateurs de ce service (lire : Skype Translator : Microsoft utilise aussi des oreilles humaines). C'est également le cas pour Cortana. Pas vraiment une surprise : Apple, Google, Amazon et Facebook aussi procèdent de même pour leurs différents assistants.

Mais contrairement aux autres1, Microsoft a décidé de continuer à faire écouter ces fragments audio anonymisés. L'entreprise a en fait revu, en des termes plus clairs, sa déclaration de confidentialité. On peut ainsi y lire :

Notre traitement de données personnelles à ces fins inclut à la fois des méthodes de traitement automatisées et manuelles (humaines). (…) Nous examinons manuellement les extraits de code courts d’un petit échantillon de données vocales. Nous avons suivi des étapes pour les rendre anonymes afin d'améliorer nos services vocaux, tels que la reconnaissance et la traduction.

Dans le même registre, Microsoft a aussi revu la foire aux questions de la fonction Skype Translator : on peut ainsi apprendre que des employés peuvent transcrire des enregistrements audio. L'éditeur assure également que les sous-traitants se doivent de respecter les standards les plus élevés en matière de respect de la vie privée, que ce soit en Europe ou ailleurs. La FAQ en anglais a été revue, pas encore sa version française.

À l'image de ce que propose Google et Amazon, Microsoft permet de supprimer les enregistrements audio sur son tableau de bord confidentialité. Mais il n'est pas (encore ?) possible de se retirer du programme d'écoute.


  1. Amazon donne la possibilité de ne plus participer au programme d'écoute Alexa.  ↩

avatar oomu | 

"Il s'est avéré que l'éditeur faisait écouter à des sous-traitants humains des extraits audio de quelques secondes provenant d'utilisateurs de ce service"

wow... j'ai raté de ces trucs moi..

cela me rappelle aussi comment l'URSS et tant d'autres, avant, maintenant et demain faisait écouter à des sous-traités humains des extraits audios de quelques secondes et plus provenant d'autres utilisateurs de services.

avatar niclet | 

Moi qui avait réinstallé Skype pour certaine raisons, m’en va te foutre ça aux vidange sans hésiter. Je vais même leur écrire pour leur dire que je trouve ça inadmissible cette écoute aussi transparente soit-elle. C’est pas comme s’ils n’avaient pas les moyens d’avoir une équipe pour faire leurs améliorations de produit à circuit fermé.

avatar Sorabji | 

Outre le fait d’être écouté, je me demande quelle est la position la plus cynique des deux: assumer et continuer, comme le fait Microsoft, ou faire la mijorée et suspendre, tout en continuant probablement, comme Google ou Facebook. Les deux sans doute.

avatar alan1bangkok | 

@Sorabji

et pas  ?
tiens donc ...

avatar Sorabji | 

@alan1bangkok

Apple aussi. S’il fallait à chaque fois citer tous les GAFAM, voire toute la Silicon Valley (voire toutes les sociétés du monde informatique qui jouent ce jeu), on en sortirait plus.

avatar debione | 

@Sorabji

Il est pourtant bien plus court d'écrire GAFAM, que Facebook...

avatar Sorabji | 

@debione

Vous n’avez pas vraiment lu ce j’ai écrit manifestement.

avatar J'en_crois Pas_mes yeux | 

@Sorabji "la mijorée et suspendre, tout en continuant probablement, comme Google ou Facebook."
C'est quand même super une application honnête qui nous prévient que son application est un spyware ? NON Je préfère une application qui nous vole nos informations contrairement aux engagements pris à celle qui nous fait signer un contrat acceptant un spyware dans nos appareils. Pourquoi Préférer le malhonnête à l'honnête ? Parce nous pouvons et nous devons poursuivre l'entreprise qui nous espionne contre notre grés alors que l'on ne peut rien d'une entreprise à qui nous avons donné notre accord. Je préfère un président qui se cache pour "se faire tailler une pipe" qu'un qui annonce la couleur bi(ll)e (t) en tête que "les chats, il les attrapent à pleine queue".
Avec élisant le second on affirme que le comportement annoncé est un acte totalement acceptable qui conduit aux plus hautes fonctions.

avatar oomu | 

c'est pour cela que je n'ai jamais supporté les "connards décomplexés" (ou autrement dit les "dinosaures partouzeurs de droite").

avatar foxot | 

Bah de toute façon y’a pas de secret, pour faire du machine learning et avoir une IA qui fonctionne bien après, il faut une base de données immense pour qu’elle s’améliore qu’il n’est de toute façon pas possible à constituer uniquement en interne.
Et si base de données il y a, il faut bien que des humains passent derrière pour expliquer à l’IA ce que contient tel extrait ainsi que corriger ses erreur.
Mais laisser à l’utilisateur la possibilité de refuser que leurs données soient exploitées comme ça serait un strict minimum, et pour ce point Microsoft et Apple ont encore des progrès à faire ^^

Par contre macg, ce serait bien que vous profitiez de ce scandale pour parler justement de qui sont ces fameuses petites mains qui déchiffrent l’info pour l’IA ;)
La chaîne youtube undropdanslamare en a fait une super vidéo intitulée « Ghost Work: l’envers de la Silicon Valley » ( https://youtu.be/DRiGEw5Hui0 ) que je vous recommande chaudement. Pour moi le vrai scandale dans toute cette histoire il est surtout là.

avatar flagos | 

Oui une petite option non activée par défaut serait la solution la plus simple.

avatar oomu | 

" Et si base de données il y a, il faut bien que des humains passent derrière pour expliquer à l’IA ce que contient tel extrait ainsi que corriger ses erreur."

le truc, c'est que je m'en fiche si ça les aide et pour quoi : je ne veux pas aider.

avatar foxot | 

@oomu

T’as pas dû lire mon commentaire en entier parce que j’ai dit que laisser le choix à l’utilisateur serait le strict minimum.
Donc tu devrais pouvoir choisir si tes données sont exploitées ou non, et c’est pas le cas et le problème est là.
Le problème c’est pas que des gens écoutent des bouts de conversation pour les retranscrire pour entraîner l’IA parce que c’est NÉCESSAIRE et qu’on ne peut pas faire autrement, le problème c’est que l’utilisateur n’a pas le choix d’accepter ou refuser du moment qu’il utilise ces fonctionnalités.
Donc ouep j’suis d’accord avec toi, si tu veux pas aider, tu ne devrais pas y être obligé.

avatar UraniumB | 

Solution ——> Discord

avatar anonx | 

Ça me rappelle les gens qui sortent à tout bout de champs « complotiste thèse complotiste... PAS D’SOURCE, TROOOOOLLLLLL TROLLL TROLL TROLLLLLL »

😂😂 font la tronche en ce moment ces bouffeurs de bobards avec ces histoires d’écoutes des GAFAM et autres Epstein 🤪

YACC/CLANG? Reviens parmis nous 🤣

avatar pagaupa | 

Décidément! Big brother est partout...
Nous ne sommes plusdans la science fiction! 🤔🙁

avatar Bigdidou | 

@pagaupa

« Décidément! Big brother est partout... »

Microsoft (et les autres) t’écoutent pour te surveiller ? Et pour être certains que tu n’as pas d’émotions et qu’ils vont envoyer la police chez toi si c’est le cas ?

En général à ce stade, les gens voient pleins de petits policiers sous le canapé.
Méfie toi ;)

Ces histoires posent un problème de confidentialité (plus théorique qu’autre chose, mais bon, mieux vaut prendre le mal à la racine, je suis d’accord).
Mais de surveillance de masse, c’est délirant.

avatar pagaupa | 

@Bigdidou

Rien n’empêche plus cette surveillance de masse. La technologie est là et un état peut contraindre une société avec des lois...

avatar jopaone | 

En effet comme le dit @foxot plus haut , dans ces opérations d’ « écoute » , il n’est pas question d’espionner la vie des gens (dont les GAFAM se contrefichent) mais d’améliorer leurs IA , qui se basent sur de nombreux exemples et qui sont des modèles supervisés (des humains labelisent les données d’entraînement). Si vous voulez un bon service de traduction automatique il faut en passer par là. Informer les utilisateurs et continuer à améliorer son service est à mon sens la meilleure option, à condition - bien évidemment - de donner le choix aux utilisateurs de participer ou non.

avatar debione | 

Perso, ce qui me dérange le plus, c'est pas qu'ils améliorent leurs assistants via certaines écoute humaine. Ce qui me dérange c'est qu'ils délèguent cette écoute, ça c'est très gênant. Comme si ces boîtes n'avaient pas les moyens d'avoir un département dédié à cela. Et c'est la que le bat blesse, c'est que si on peut se fier (relativement) a ce que disent ces boîtes à propos de la confidentialité de nos données, on aucune idée de comment sont les contrats qui lient les GAFAM et ces fameuses entreprises tiers. Ni même si on peut juridiquement leurs faire confiance.

avatar jopaone | 

@debione

Le travail de labellisation est extrêmement chronophage et rébarbatif, Microsoft ou Google (mais aussi beaucoup de startups) préfèrent faire sous-traiter ce travail pénible. Il existe notamment des plateformes qui proposent à des micro-travailleurs de le faire, payés à la tâche. L’une de ces plateformes les plus connues « Mechanical Turk » est proposée par un certain... Amazon.

avatar oomu | 

@debione

je sais je sais, on est geek, on est individualiste, on est post-moderne de droite dans un monde qui n'a aucune conséquence et nos actes n'ont aucun lien de toute façon avec les choix d'autrui.

Mais prenons votre idée de "délégation"

maintenant, retournons là, et voyons plutôt ainsi : "que signifie la délégation à celui ou celle qui la reçoit ? Qu'est-ce qui est délégué ?"

Un exemple: La modération par des êtres sensibles et vivants (et organiques) des vidéos violentes que postent les gens sur leurs pages "privées".

https://www.theverge.com/2019/6/19/18681845/facebook-moderator-interview...

avatar Ali Ibn Bachir Le Gros | 

Putain leur traduction au burin de leurs conditions générales. J'imagine pas la misère qu'ils doivent payer les gens qui écoutent leurs échantillons vu la misère qu'ils payent leurs traducteurs. Et leur service client. Les grosses boîtes externalisent tout et le moins cher possible.

avatar oomu | 

La "paie" n'est qu'un élément de la "misère" et de l'aliénation.

avatar foxot | 

@Ali Ibn Bachir Le Gros

Bah justement, si tu tiens as te renseigner sur le sujet je t’invites à regarder cette vidéo =>
https://youtu.be/DRiGEw5Hui0
C’est effarant ce qu’ils font...

CONNEXION UTILISATEUR