[Sciences et Société] 3 questions à Patrick Flandrin, Président de l'Académie des sciences

 
Publié le 17/03/2021 - Mis à jour le 8/05/2023
Patrick Flandrin

Dans le cadre du cycle de conférences Sciences et Société, nous avons interviewé Patrick Flandrin, Directeur de recherche CNRS au laboratoire de physique de l'École Normale Supérieure de Lyon. Il a été élu le 8 décembre 2020 Président de l'Académie des sciences pour la période 2021-2022. Patrick Flandrin donnera une conférence jeudi 25 mars à 18h30 en live sur YouTube sur le traitement du signal. 

Comment définissez-vous au grand public le traitement du signal et quels en sont les domaines d'applications ?

Un signal est le support physique d’une information. Dès qu’il y a passage d’information, il y a signal. Nous vivons aujourd’hui dans un monde où l’information est omniprésente et le traitement du signal est donc un peu partout autour de nous. Un smartphone est par exemple un concentré de traitement du signal, avec bien sûr tous les aspects de transmission des communications vocales, mais aussi de compression d’images, de vidéos ou de musique. Sans un codage comme JPEG, les photos numériques occuperaient des espaces de mémoire gigantesques ; même chose pour le MP3 en musique. Le traitement du signal est présent dans bien d’autres aspects de notre vie quotidienne. Ainsi, le champ de la santé offre de nombreux exemples d’applications, que ce soit pour le suivi du rythme cardiaque, la localisation de foyers épileptiques dans le cerveau, l’échographie ou l’imagerie par résonance magnétique. De même dans de grands secteurs comme l’énergie ou les transports, où la prolifération de capteurs et la nécessité de traiter l’information qu’ils collectent placent le traitement du signal au centre d’enjeux globaux comme les villes intelligentes. Tout ceci sans compter les apports à des questions de science fondamentale, l’exemple récent le plus spectaculaire étant celui de la détection des ondes gravitationnelles dans lequel le traitement du signal a joué un rôle central.

Le traitement du signal est à la croisée des mathématiques, de la physique et de l'informatique. Qu'est-ce qui en fait une discipline à part entière aujourd'hui ?

Acquérir des données, les mettre en forme, les transformer, les nettoyer pour mieux les analyser et en extraire une information utile, ce sont des préoccupations que l’on retrouve dans toute science expérimentale. Les scientifiques ont longtemps fait cela sans trop y penser, tout comme Monsieur Jourdain faisait de la prose sans le savoir. Le traitement du signal adjoint à cette pratique implicite des approches explicites, qu’elles soient physiques pour la modélisation, mathématiques pour la formalisation, ou informatiques pour l’élaboration d’algorithmes de calcul optimisés. En se situant ainsi au croisement de ces champs constitués que sont la physique, les mathématiques et l’informatique, mais sans se réduire à aucun, on obtient un ensemble de méthodes qui définissent aujourd’hui une véritable discipline scientifique qui intègre, dans le continuum d’une chaîne unique, des préoccupations allant de l’acquisition à l’extraction et l’interprétation d’information.

Quels sont les défis de demain du traitement du signal ?

La notion même de signal ne cesse d’évoluer et de s’enrichir, avec des modalités de plus en plus variées (données multimedia, corpus textuels, graphes d’interactions,…) et des quantités d’information à traiter toujours plus grandes. La surveillance de l’environnement passe par exemple par l’imagerie hyperspectrale qui opère dans des centaines de canaux fréquentiels différents. Des projets comme les véhicules autonomes nécessitent, en amont des tâches de décision, l’acquisition et le traitement d’un nombre considérable d’informations. La prolifération actuelle des données et leur besoin de traitement a résulté depuis quelques années en l’émergence d’une « science des données » dont l’intersection avec le traitement du signal est très grande. Ceci a résulté en particulier en un développement de méthodes d’apprentissage s’appuyant davantage sur les données observées que sur des modèles, méthodes qui sont au cœur de la révolution de l’intelligence artificielle. Là encore, il y a une grande porosité avec le traitement du signal, ce dernier gardant néanmoins son identité et ses spécificités, dont la ligne directrice reste d’assurer le développement de méthodes génériques et efficaces numériquement, tout en s’appuyant sur une compréhension fine des données.