Projet de synthétiseur vocal : place à la parole silencieuse

Résumé : Des chercheurs du CNRS et de l'Inserm ont mis au point un synthétiseur vocal capable de créer de la parole à partir de l'articulation d'une personne muette. Une avancée technologique non négligeable qui garantit un nouveau moyen de communication.

Par , le 

Réagissez à cet article !

Nouveau sur handicap.fr ! En 2017, chaque mois, votre media en ligne vous propose un vaste dossier thématique, comprenant une série d'articles identifiables à un logo loupe sur fond orange. Pour initier ce rendez-vous, voici une enquête sur les bénéfices que les nouvelles technologies  peuvent apporter aux personnes handicapées. 4ème volet sur un synthétiseur vocal inédit… (autres articles en lien ci-dessous)

Un nouveau moyen de parler sans émettre de son ? Pour comprendre la nature du lien entre articulation et son, des chercheurs de l'Inserm (Institut national de la santé et de la recherche médicale) et d'autres scientifiques du CNRS (Centre national de la recherche scientifique) travaillent à la conception d'un synthétiseur vocal capable de recréer une parole de synthèse. Muni de plusieurs capteurs, ce dispositif, qui en est à ses débuts, devrait pouvoir détecter les mouvements des lèvres, de la mâchoire et de la langue pour retranscrire oralement, via un logiciel informatique, des propos intelligibles. « À terme, cette application pourrait servir aux personnes atteintes d'un cancer du larynx », précise Thomas Hueber, chargé de recherche au CNRS, qui participe à ce projet prometteur, bien qu'encore très exploratoire.

Des mouvements « convertis » en voix

En articulant silencieusement, le locuteur peut être « traduit » vocalement grâce à un nouvel algorithme d'apprentissage développé par l'équipe de scientifiques. Cet outil est capable de décoder un ensemble de signaux liés à l'articulation. Plus concrètement, un capteur placé sous la mâchoire de l'utilisateur, ainsi qu'une caméra positionnée au niveau de la bouche, exécutent une retranscription instantanée. « Cette association permet de suivre simultanément les mouvements des articulateurs interne (comme la langue) et externe (comme les lèvres) », précise le CNRS dans un communiqué publié en décembre 2016.

Parole en temps réel

Petite nouveauté de ce procédé technologique inédit, « il recrée la parole de synthèse en temps réel, après une courte période de calibration (contrairement aux systèmes de lecture labiale automatique) », expliquent les chercheurs. Ceci permettrait par exemple aux personnes concernées de « communiquer dans des lieux ou circonstances nécessitant de la discrétion ou, au contraire, dans des environnements extrêmement bruyants dans lesquels l'exploitation d'une voix enregistrée à l'aide d'un microphone est très difficile », ajoutent les initiateurs du projet.

Prochaine interface cerveau-machine

Les progrès sont donc considérables, et loin d'être les derniers... « Ces nouveaux résultats sont une étape nécessaire vers un objectif encore plus ambitieux », préviennent les auteurs des travaux publiés dans la revue scientifique américaine PLOS Computational Biology.Porté par l'Inserm, ce futur projet amène les chercheurs à se pencher sur un autre type de recherche : l'élaboration d'une interface cerveau-machine. Le but ? Reconstituer la parole directement à partir de l'activité cérébrale.

© Christelle Gambon / Thomas Hueber

Réagissez à cet article !  

Handicap.fr vous suggère les liens suivants :

Sur Handicap.fr

"Tous droits de reproduction et de représentation réservés.© Handicap.fr. Cet article a été rédigé par Aimée Le Goff, journaliste Handicap.fr"


Soumettre votre avis

Rappel :

  • Merci de bien vouloir éviter les messages diffamatoires, insultants, tendancieux...
  • Pour les questions personnelles générales, prenez contact avec nos assistants
  • Avant d'être affiché, votre message devra être validé via un mail que vous recevrez.

Haut

Recevez la newsletter Handicap.fr

Découvrir Autonom-ease - notre sélection de produits et de solutions pour vous et vos proches