Le son opère sa mue depuis déjà plusieurs années. Mais aujourd’hui l’oralité a franchi un cap et la technologie atteint désormais une maturité qui permet de s’affranchir du texte et parfois de l’image.
Peut-on parler d'une révolution sonore ?
La jeune génération passe par le son et la voix. On ne sait pas vraiment pourquoi mais les jeunes ne tapent plus sur leur clavier de smartphone. On les entend enregistrer leurs messages vocaux, le téléphone près des lèvres. L’interface par la voix est en train d’exploser. Aujourd’hui, il nous ait déjà possible d’assurer de plus en plus de tâches avec la parole. L’avènement des assistants vocaux a accéléré le mouvement. On les retrouve dans un très grand nombre de foyer. Plus personne ne trouve étrange de parler à Siri, Alexa ou lancer un " Ok Google " au beau milieu du salon. Cette révolution est amené à s’accélérer avec le progrès technologique. Demain, piloter un objet sera encore plus simple. Les technologies vont être plus pertinentes et de qualité. L’expérience deviendra toujours plus satisfaisante. Certains prédisent la fin des claviers, je ne suis pas loin de le penser. Ce qui est évident, c’est que la communication entre l’homme et la machine va de plus en plus passer par la voix. Aujourd’hui, près de deux tiers de la navigation web se fait au travers d’une interface vocal. Par exemple quand je demande à Alexa de me donner le bulletin météo ou à Google de me transmettre les dernières actualités ou tout autre recherche sur internet.
Si le son devient une interface, quels sont ses futurs évolutions en tant que média ?
L’explosion du Podcast est déjà une bonne indication de la consommation de contenus sonores. Mais il ne faut pas que le podcast concurrence la musique. L’approche doit être surtout acoustique. Le son comme espace : c’est vers ça qu’il faut tendre. L’immersion sonore va devenir la norme. Cela passe par des technologies comme le Dolby Atmos qui permet, avec de simples écouteurs, d’avoir une expérience immersive. Apple Music pousse déjà des formats immersifs sur sa plateforme. Cela va inonder le marché et demain on écoutera le contenu audio en format immersif avec un casque adapté de manière évidente. Cela permettra de (re)découvrir la spatialisation du son. Enveloppant !
Le Covid a provoqué une explosion de l’usage à distance. Le réseau social basé sur la voix Clubhouse a été une petite révélation. Comment vous l’expliquez ?
Le Covid a créer beaucoup d’usage a distance. Enfermés dans nos petits espaces au cœur des confinements, la voix nous a permis de communiquer et le son de nous échapper. D’ailleurs, les marques l’ont bien compris. L’expérience sonore commence à être primordiale dans une stratégie de contenus. Nous avons travaillé récemment avec l’Oréal qui voulait vendre un parfum en ligne. Pour ressentir à distance, il n’y a rien de mieux que le son. En écoutant le son, le consommateur doit pouvoir ressentir ce que le parfum procure. C’est ce que nous avons fait pour le parfum InfraRed de VIKTOR & ROLF. L’audio provoque un imaginaire et un lien de connexion émotionnel plus fort que l’image.
Le futur de l’audio est également scruté de près par les constructeurs automobiles. Pourquoi ?
C’est lié au déploiement de la voiture électrique. Bien plus silencieuse que sa grande sœur thermique, elle va permettre une expérience sonore de grande qualité. Des constructeurs comme Renault ou PSA travaille déjà sur des contenus audios en utilisant la technologie Dolby Atmos. Elle permet de s’immerger en profondeur dans un environnement. Il suffit de fermer les yeux pour se retrouver plonger dans un lieu exotique, une atmosphère envoutante. Les constructeurs font le pari du son, notamment pour occuper les passagers lors du rechargement des voitures électriques.
Mais dans le domaine de l’automobile électrique, le son représente un autre enjeu. Le bruit du moteur ayant disparu, les marques vont devoir trouver une mélodie sonore pour leurs véhicules. La réglementation l’impose pour des raisons de sécurité, c’est le VSP, le Vehicule Sound Pedestrial. Aujourd’hui, quand la Zoé électrique de Renault circule en ville, nous sommes capable de la reconnaître à sa sonorité futuriste et significative. C’est d’ailleurs au sein de l’Ircam que ce son a été inventé.
Quel est la mission première d’Ircam Amplify ?
Chez Ircam Amplify, on fait maturer des technologies pour répondre aux usages de demain. Aujourd’hui, nous travaillons par exemple sur le clonage vocale. Par exemple, nous sommes capables de cloner la voix de célébrités d’antan pour les faire revivre. Récemment, nous avons pu réaliser une vraie-fausse interview entre l’animateur Thierry Ardisson et Dalida dans le cadre émission Hôtel du Temps diffusée sur France 3. Nous planchons aussi sur des algorithmes capable d’analyser la voix. Cela permet de déceler la fatigue, le stress d’une personne. Aujourd’hui, un algorithme est capable de corriger le placement de la voix lorsqu’on lui lit un discours. C’est une sorte de coach pour améliorer sa prise de parole en public ou lors d’un cours d’enseignement. Enfin, nous essayons d’améliorer l’intelligence artificielle qui génère nos playlists musicales. Souvent, les propositions de musiques, d’artistes, en fonction de nos gouts sont décevantes. Nous essayons de multiplier les critères pour rendre l’expérience enfin pertinente.
INFO PLUS : Qu’est ce que l’IRCAM ?
L’Institut de recherche et coordination acoustique/musique est aujourd’hui l’un des plus grands centres de recherche publique au monde se consacrant à la création musicale et à la recherche scientifique. Lieu unique où convergent la prospective artistique et l’innovation scientifique et technologique, l’institut réunit plus de cent soixante collaborateurs.