Troubles de la parole : Siri, Google Assistant et Alexa vont améliorer leur compréhension

Mickaël Bazoge |

Apple, Google et Amazon travaillent à rendre leurs assistants plus accessibles aux personnes qui bégaient ou plus généralement, qui souffrent de troubles de l'articulation de la parole (dysarthrie). Siri, Google Assistant et Alexa leur font de mauvaises manières : ils ont du mal à comprendre la requête, quand ils ne coupent pas tout simplement leurs micros avant que l'utilisateur ait fini de poser sa question.

Apple a rappelé au Wall Street Journal l'existence d'une fonction qui oblige Siri à écouter la demande vocale tant que le bouton d'accueil ou le bouton latéral est appuyé (dans Accessibilité > Bouton latéral). Mais le constructeur en fait davantage : il s'est constitué une base de données composées de 28 000 extraits audio provenant de podcasts, dans lesquels on peut entendre des bégaiements. Ces informations seront exploitées pour améliorer le système de reconnaissance vocale de Siri.

Google n'est pas en reste : le moteur de recherche teste un prototype d'app (le projet Euphonia) qui permet aux personnes qui ont des difficultés de prononciation de communiquer avec l'Assistant Google ainsi qu'avec les produits Home. Une application qui sert aussi à collecter des extraits audio de paroles atypiques, et à entraîner un modèle d'apprentissage automatique. Amazon a de son côté intégré dans Alexa la technologie Voiceitt qui remplit un peu le même rôle : entraîner un algorithme à reconnaître des modèles vocaux uniques.

La tâche n'est pas aisée, reconnait-on chez Google. Si les assistants connectés peuvent reconnaitre facilement la plupart des voix « standards », c'est que les modèles vocaux des utilisateurs lambda sont relativement proches, malgré les accents. La parole des personnes atteintes de dysarthrie est plus complexe car beaucoup plus variée dans son expression. De facto, cela les rend plus difficiles à comprendre et à analyser.

Accédez aux commentaires de l'article