Bulles acoustiques

Localiser les interlocuteurs pour les réduire au silence

Aux Etats-Unis, des chercheurs ont imaginé une technologie futuriste qui permettrait de mettre en sourdine différentes zones d'une pièce, mais aussi de créer des zones sonores actives. Le concept fait appel à des haut-parleurs connectés à des robots-microphones dopés à l’IA.

Pour isoler le son de chaque interlocuteur dans une pièce, le système des chercheurs de l'université de Washington se base sur de petits microphones mobiles, capables de se déplacer de manière autonome. (Source: April Hong/University of Washington)
Pour isoler le son de chaque interlocuteur dans une pièce, le système des chercheurs de l'université de Washington se base sur de petits microphones mobiles, capables de se déplacer de manière autonome. (Source: April Hong/University of Washington)

Alors que les smartphones peuvent capter notre attention au point de nous plonger dans une bulle au sens métaphorique, des technologies en développement pourraient créer des bulles à proprement parler, du moins au niveau de la dimension acoustique. Des chercheurs de l'université de Washington ont ainsi mis au point un prototype qui évoque le «cône de silence» du célèbre roman de science-fiction «Dune»: un dispositif futuriste en mesure d’insonoriser un petit périmètre, histoire de pouvoir s’isoler des sons ambiants (et ce, sans devoir s’équiper d’un casque audio à réduction de bruit…).  

Le concept de haut-parleur intelligent des chercheurs, dévoilé dans le revue Nature Communications, va même plus loin. Il promet de pouvoir mettre en sourdine différentes zones d'une pièce, mais aussi de créer des zones sonores actives, afin que les personnes se trouvant dans différentes parties d'une chambre, d’un café ou d’un bureau puissent entendre des sons distincts selon les critères désirés.

Robots-microphones autonomes

Toutefois, pour manipuler le son d’une zone spécifique via des haut-parleurs, il est d’abord nécessaire d'isoler chaque locuteur et d’associer un contexte spatial en 2D à chaque discours, expliquent les chercheurs dans l’introduction de leur article. Pour y parvenir, la technologie qu’ils ont développée repose sur un essaim de petits microphones mobiles, capables de se déplacer de manière autonome en se basant non pas sur des caméras mais uniquement sur le son. Ces robots-microphones fonctionnent pour l'heure sur une même table, mais l'objectif consiste à pouvoir déployer un essaim à l'échelle d’une pièce. Chaque robot produit un son à haute fréquence lorsqu'il s'éloigne de son chargeur, un peu à l’image d’une chauve-souris, et utilise ces signaux pour éviter les obstacles et se déplacer. 

Algorithmes d'apprentissage profond

Ce système distribué d’analyse acoustique est connecté à une technologie d'intelligence artificielle. Grâce aux algorithmes d'apprentissage profond élaborés par l'équipe de l’université de Washington, la solution est en mesure de séparer des conversations simultanées, même si deux personnes ont des voix similaires. Pour dissocier les sources sonores, le système tire profit des robots-micros une fois déployés, chacun captant les sons à une distance différente. «Nous avons mis au point des réseaux neuronaux qui utilisent ces signaux retardés pour distinguer ce que chaque personne dit et suivre leur position dans l'espace. Il est donc possible d'avoir quatre personnes ayant deux conversations, d'isoler n'importe laquelle des quatre voix et de localiser chacune d'entre elles dans une pièce», explique Tuochao Chen, co-auteur de l’étude. 

Reste que ce dispositif pose bien entendu d'énormes enjeux relatifs à la protection de la vie privée. Pas sûr en effet que tout un chacun accepte que ses conversations soient captées en permanence… 

Tags
Webcode
aaD3zBU6