Le projet ACDC (Audio Cockpit Denoising for voice Command) a pour objectif de concevoir un système de commande vocale performant pour les avions de l’armée française.
Porté par la Direction Générale des Armées dans le cadre de l’initiative Man Machine Teaming, ce partenariat fructueux entre Dassault Aviation, Thalès Avionics et le Loria a été mis en avant lors du Forum Innovation Défense organisé par le Ministère des Armées, puis sélectionné parmi de nombreux projets pour être présenté à Madame Florence Parly, Ministre des Armées, en décembre 2020.
La commande vocale pour des avions à la pointe de la technologie
La loi de programmation militaire place l’innovation au cœur de sa stratégie. Dans le cadre de la fabrication du prochain avion de combat à l’horizon 2030, le Ministère des Armées prévoit un avion connecté et doté de technologies performantes.
Seuls à bord de leur cockpit, les pilotes de l’armée exécutent de multiples tâches simultanément et ont les deux mains sur le manche et la manette de gaz. Demander la distance jusqu’au prochain point de ravitaillement, commander d’afficher la carte tactique, s’informer sur la distance qui les sépare de leur cible : les pilotes sont en interaction constante avec le système. Alors comment effectuer ces commandes tout en gardant une attention optimale ? L’utilisation d’un système qui obéit à la voix s’avère être la réponse la plus appropriée à ces besoins.
Le défi : atténuer le bruit pour une reconnaissance vocale performante
L’enjeu majeur dans la conception de ce système est d'atténuer les bruits parasites pour une reconnaissance performante des commandes du pilote. En effet, le cockpit de l’avion est envahi par les sons du moteur, les bruits aérodynamiques, des vibrations qui peuvent causer des interférences avec les paroles de ce dernier.
Dans un contexte où la moindre erreur pourrait être fatale, il est impératif d’atténuer, voire de faire disparaître ces bruits de fond.
C’est sur ce point qu’Irina Illina, enseignante-chercheuse à l’Université de Lorraine et Dominique Fohr, chargé de recherche CNRS dans l’équipe Multispeech (CNRS, Inria, Université de Lorraine), ont amené leur expertise en traitement de la parole : « les méthodes que l’on utilise sont fondées sur des réseaux de neurones profonds (DNN - Deep Neural Networks) : au cœur des algorithmes utilisés en intelligence artificielle et dans le traitement du signal, ce sont des algorithmes qui apprennent à partir d’exemples », explique Dominique Fohr.
L’équipe a développé des modèles fondés sur les réseaux de neurones profonds pour séparer le bruit de la parole et a ensuite évalué ces modèles dans différentes conditions expérimentales.
Ces outils ont été enrichis par un module sémantique innovant afin de reconnaître les mots en fonction de leur sens et les replacer dans leur contexte, grâce à des représentations sémantiques.
En plus du bruit, plusieurs contraintes ont dû être prises en compte dans la conception du logiciel : « Le lexique militaire et sa phraséologie sont complexes. Nous avons donc introduit le lexique de l’aéronautique à nos algorithmes et adapté le système de reconnaissance vocale à ce vocabulaire spécifique, précise Irina Illina. Nous avons également travaillé sur la prise en compte de l’accent des pilotes francophones lorsqu’ils s’expriment en anglais pour une bonne compréhension des personnes non-natives par le système. »
Défis relevés pour nos chercheurs, fiers d’avoir participé à un projet novateur de grande envergure stratégique. Ce programme de 18 mois s’est terminé fin 2020 et les résultats présentés aux partenaires sont prometteurs.
- Plus d’informations sur l’initiative Man Machine Teaming
- Page de l’équipe Multispeech : multispeech.loria.fr
- Vidéo du Forum Innovation Défense, qui s’est déroulé du 2 au 4 décembre 2020, présentation du projet et intervention de Dominique Fohr à 55’’