Des oreilles humaines pour améliorer la cervelle d’Alexa

Mickaël Bazoge |

L’intelligence artificielle a besoin d’un peu d’huile de coude humaine pour lubrifier ses neurones. Amazon emploie des milliers de personnes dans le monde pour littéralement écouter aux portes des utilisateurs d’Alexa, raconte aujourd’hui Bloomberg.

Ces équipes sont chargées de transcrire et annoter les enregistrements audio des possesseurs d’enceintes Echo et consorts. Il s’agit d’abord de s’assurer qu’Alexa a bien compris les requêtes et a apporté une réponse satisfaisante. Ce travail de scribe permet aussi de nourrir la petite cervelle de l’assistant, d’améliorer sa compréhension du discours humain et in fine, de l’aider à mieux répondre aux ordres.

Le boulot est confié à des employés d’Amazon et à des intérimaires, qui travaillent à Boston, au Costa Rica, en Inde ou encore en Roumanie. Pendant neuf heures par jour, ces salariés écoutent jusqu’à mille clips audio. Dans un exemple donné par la publication, un employé a relevé les occurrences de « Taylor Swift » dans les ordres vocaux des utilisateurs d’Alexa.

Il arrive aussi à ces forçats de tomber sur des enregistrements qui sortent de l’ordinaire, comme une chanson massacrée par une utilisatrice sous sa douche, ou encore les pleurs d’un enfant. Les équipes partagent parfois des extraits sur leur messagerie interne… Dans les cas plus sérieux comme des enregistrements d’agression sexuelle, les employés doivent se débrouiller avec leur conscience bien qu’Amazon assure que des procédures sont en place.

Cette histoire rappelle celle des grandes oreilles de Ring qui, elles aussi, ont accès aux enregistrements vidéo des sonnettes connectées acquises par Amazon (lire : Les employés de Ring ont pu espionner les sonnettes et caméras de leurs utilisateurs). Le géant du commerce en ligne se défend de tout espionnage, et explique que ces annotations ne concernent qu’un tout petit échantillon des enregistrements audio d’Alexa.

Ces opérations sont effectuées pour « améliorer l’expérience des consommateurs », assure Amazon. « Par exemple, ces informations nous aident à entraîner nos systèmes de reconnaissance vocale et de compréhension du langage. Alexa peut ainsi mieux comprendre les requêtes, et s’assurer que le service fonctionne bien pour tout le monde ». L’entreprise ressert le couplet des garde-fous et de sa tolérance zéro pour les abus, et assure de son engagement pour la sécurité et la confidentialité de ses clients.

Les employés n’ont pas accès aux informations qui permettraient d’identifier les utilisateurs, et « toutes les données sont traitées avec un haut degré de confidentialité ». Malgré tout, Bloomberg a obtenu une capture d’écran sur laquelle figurait un numéro de compte, le prénom de l’utilisateur ainsi que le numéro de série de l’appareil.

Il existe une option dans les réglages d’Alexa qui désactive la possibilité d’utiliser des messages pour améliorer les transcriptions, mais Amazon reconnait que des enregistrements provenant de ces utilisateurs peuvent toujours être analysés par ses équipes.

Désactiver cette option ne sert pas à grand chose de l’aveu même d’Amazon.

Les enregistrements transcrits par les petites oreilles humaines d’Amazon sont les requêtes des utilisateurs lancés après avoir dit le mot magique « Alexa » (ou un autre déclencheur). Alexa peut toutefois s’activer sans y être invitée, par exemple via un mot entendu de travers. Les employés d’Amazon, qui sont tenus de retranscrire tous les bouts d’enregistrement, peuvent tomber chacun sur une centaine de ces extraits non désirés par jour.

Les algorithmes ont besoin de mieux connaitre les spécificités des langages, ce qui permet par exemple à l’assistant d’Amazon de distinguer les mots « avec ça » du déclencheur « Alexa » (lire : Apprendre le français à Alexa n'a pas été chose facile pour Amazon).

Apple fait d’ailleurs de même pour Siri : des humains écoutent des extraits audio impossibles à identifier, qui sont stockés pendant six mois avec un identifiant aléatoire. Ensuite, l’enregistrement peut être conservé pendant deux ans, mais sans aucun identifiant, selon le livre blanc sur la sécurité édité par Apple.

Google pratique de la même manière pour son Assistant, mais les extraits audio ne sont pas associés avec un identifiant.

avatar Bigdidou | 

Les GAFAM ne se fixent aucune limite, et il n’y a manifestement aucune limite technique.
Tout ça avec du personnel précaire non formé qui peut faire n’importe quoi.
C’est délirant.

avatar bonnepoire | 

C’est toujours marrant de voir les mêmes reprocher à Apple le contraire de ce qu’elle défend...

avatar Bigdidou | 

@bonnepoire

« reprocher à Apple le contraire de ce qu’elle défend... »

Trop compliqué.

avatar bonnepoire | 

M’étonne pas!

avatar Bigdidou | 

@bonnepoire

« M’étonne pas! »

Ah, donc tu me reproches de faire quelque chose que tu admets que je ne peux pas faire.
Pas joli, joli.

avatar broketschnok | 

@Bigdidou

T’es un bon champion toi!!!

avatar Bigdidou | 

@broketschnok

« T’es un bon champion toi!!! »

T’as pas idée.

avatar broketschnok | 

@bonnepoire

+1

avatar gwen | 

@Bigdidou

Comment sais tu que ces humains ont un emplois précaires et surtout ne sont pas formés ?
Surtout que l’article semble dire le contraire.

avatar Bigdidou | 

@gwen

« Comment sais tu que ces humains ont un emplois précaires et surtout ne sont pas formés ? « 

Un indice : des intérimaires.
Sinon, tu penses que quand on va chercher des gens en Inde et au Costa Rica, c’est pour bien les former et leur proposer un emploi stable, de bonnes conditions et une carrière ?

« Surtout que l’article semble dire le contraire. »

Il semble aussi donner la recette de la pièce de lotte confite avec son duo de petits pois, mais non.

avatar gwen | 

@Bigdidou

Il y a de très bon ingénieurs en Inde comme des personnes sûrement très bien formé pour la tâche demandée. En Inde on n’est pas plus bête qu’ailleurs il me semble.

Quand au salaire, il est sûrement en adéquation avec ce qui se pratique dans le pays.

Bref tu n’en sais rien et tu as un ton condescendant et raciste. C’est fort dommage.

avatar Bigdidou | 

@gwen

« Bref tu n’en sais rien et tu as un ton condescendant et raciste »

N’importe quoi.
Tu imagines que Amazon va chercher des ingénieurs en Inde et au Costa Rica ou en Roumanie pour faire ce genre de travail et bien les payer ? En intérim ?
Et tu considère que ce boulot est au niveau des ingénieurs indiens et sinon ne leur confie quand même pas mieux ? C’est qui, le raciste (tu vois, c’est facile d’être con) ?
Tu es complètement satellisé.

Lis plutôt les mien de rua negundo et le boulot passionnant d’A. Casilli (un autre raciste, sans doute) au lieu de m’insulter à coup d’âneries et de clichés.
Enfin, si tu es capable de les comprendre, j’en doute un peu.
Quelle misère intellectuelle, quand même, tu fais presque pitié.

avatar rua negundo | 

@gwen

C’est indigne d’accuser Bigdiou de racisme. C’est une technique rhétorique malhonnête.

avatar rua negundo | 

« L’intelligence artificielle a besoin d’un peu d’huile de coude humaine pour lubrifier ses neurones. »

Plus qu’un peu même : cf. Les travaux d’A. Casilli

https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/la-tacheronnisation-est-elle-lavenir-du-travail

https://www.liberation.fr/amphtml/debats/2019/01/09/a-un-doigt-de-remplacer-les-machines_1701894

avatar MaTMaC | 

C'est ouf quand même !
Même si on pouvait s'y attendre, l'entendre dire officiellement fait froid dans le dos !
Le coup de la case a cocher qui sert a rien c'est le ponpon ? Ça laisse songeur sur les autres éditeurs...

avatar Osei Tutu | 

Le prix de la paresse humaine

avatar AhRiMaN | 

Ça doit être bien chiant comme taf

avatar Ro | 

Scandale ordinaire ??

avatar themasck | 

les pubs sur Igen sons de plus en plus invasives 3/4 de page sur mon navigateur SAFARI

avatar lulubotine | 

@themasck

Moi j’aime bien la petite nouveauté par chez moi. Des écrans de pubs avec un super son nasillard quand tu fais ton plein d’essence !
C’est horrible

avatar iVador | 

Je viens d’insulter Alexa en citant votre article. Ça apprendra à ceux qui m’écoutent.

avatar marenostrum | 

des données de cons

avatar Lu Canneberges | 

@bidibout

Tu fais référence à quel bouton suivant ?

avatar Clément34000 | 

Tu m’étonnes après que les Alexia et compagnie soit plus efficace que Siri lol

Bientôt, c’est un ou une salariée qui te répondra quand tu appelleras Alexa, ou Roberta, ou Monica... lol

avatar Adrienhb | 

Vous oubliez de mentionner qu’une fois l’enregistrement faisait penser à une agression sexuelle et que la hiérarchie d’Amazon n’a pas souhaité donner suite. (Source Le Figaro, 11/4/19)

avatar Paquito06 | 

J’avais un dejeuner avec Thomas Kurian (Google) hier et on parlait d’Alexa justement. Quelle surprise de voir les gens interloqués par cette news aujourd’hui. Comment pourrait il en etre autrement? Pour apprendre des Hommes, il faut d’autres humains. Dans l’Intelligence Artificielle (IA), il y a 90% d’artificiel, 10% d’intelligence. Tout est basé sur l’Humain, a partir duquel il faut apprendre. Heureux sont les simple d’esprit qui pensent ne pas etre sur ecoute avec des produits high tech.

avatar Nesus | 

Vous faites du placement de produit maintenant chez macg ?
Avec le pire industriel qui soit qui plus est. (S’il y en a qui ne comprenne pas, regardez cash investigation). Bravo !

avatar JLG47_old | 

Donc ils écoutent même sans être sollicités. C’est un vrai très gros problème.

avatar laurentdelyon | 

C’était soit disant l’homme et la machine et en fait c’est l’homme qui parle à la machine et l’homme.
On touche le fond avec ces conneries

avatar apaisant | 

J'en ai rien à faire qu'on espionne ma maison si c'est pour améliorer les algorithmes ou pour me proposer des publicités mieux ciblées.
Je suis content de vivre dans le monde dans lequel je vis.

CONNEXION UTILISATEUR