Logo du site de la Revue Informatique et musique - RFIM - MSH Paris Nord

Le mixage, un maillon essentiel dans le métier de RIM
Introduction aux actes du colloque « Techniques et pratiques du studio audio »

Laurent Pottier
octobre 2014

DOI : https://dx.doi.org/10.56698/rfim.276

Index   

Texte intégral   

Introduction

1Cette publication fait suite à un colloque qui s’est tenu les 7 et 8 octobre 2013 à l’université de Saint-Étienne, organisé par le CIEREC (EA-3068) sur le thème « Techniques et pratiques du studio audio », sous la direction scientifique de Georges Bloch, alors responsable du département son du CNSMDP, d’Olivier Colin, directeur du FIL (SMAC de Saint-Étienne) et de moi-même.

2Depuis la fin des années 1950, les pratiques de studio audio ont joué un rôle sans cesse croissant pour faire des produits artistiques commerciaux à partir de musiques enregistrées. Jusqu’à une époque récente, les ingénieurs du son étaient principalement formés sur le terrain et les formations dans ce domaine étaient rares (principalement des BTS). Depuis quelques années, on voit se développer des formations professionnelles de haut-niveau dans le domaine, mais les documents spécialisés restent encore rares et souvent incomplets. Par ailleurs, les outils évoluent très rapidement et avec l’avènement du tout numérique et la généralisation du home-studio, il est difficile de se repérer face à la prolifération d’environnements audionumériques divers.

3Ce colloque se proposait donc de faire le point sur quelques uns de ces environnements et notamment sur les pratiques qui leur sont associées, en faisant intervenir à la fois des universitaires reconnus internationalement, musicologues, compositeurs ou ingénieurs du son, mais aussi des professionnels travaillant aux différents échelons de la chaîne de production en studio. Il avait plus une vocation pédagogique, d’échanges et de discussion sur les pratiques qu’une vocation de recherche. Il était en particulier destiné aux étudiants du master professionnel RIM et du master recherche en arts numériques ainsi qu’à tous les chercheurs, ingénieurs du son, musiciens, étudiants, réalisateurs en informatique musicale, développeurs de logiciels audionumériques intéressés.

1. Expériences personnelles « live »

4Dans une période de ma vie où j’étais régulièrement sur scène, jouant des claviers électroniques, j’ai sans arrêt constaté le rôle absolument fondamental des ingénieurs du son dans la production musicale des musiques amplifiées.

5J’ai fait partie de l’organisation Cyclope dans la banlieue sud de Paris qui regroupait des groupes pop-rock d’esthétiques diverses et avait pour objectif de réinvestir tous les bénéfices des spectacles dans la production technique des spectacles suivants. Cela nous a permis de réaliser des concerts1 avec des dispositifs de sonorisation et de retour « top niveau ». En 1978, nous avions engagé le sonorisateur ayant suivi la tournée de Genesis et ces conditions exceptionnelles m’avaient déjà permis de saisir à quel point toute musique amplifiée pouvait être valorisée par des dispositifs haut-de-gamme et l’intervention de spécialistes hautement qualifiés.

Figure 1. Dispositif scénique en 1978, Les Ullys

img-1-small450.png

6En 19862, en jouant dans un festival organisé au stage Richter à Montpellier, sonorisé par l’entreprise « Point Show » de Nîmes, nous disposions pour la première fois d’un système de retour produisant des effets stéréophoniques. Si les conditions d’écoute sur scène pour les musiciens de rock sont souvent exécrables, jouer avec une écoute spatiale de qualité permettant d’entendre les autres interprètes sur différents plans procure des sensations et un confort de jeu exceptionnels permettant une aisance et une grande précision dans le jeu.

Figure 2. Stage Richter, Montpellier, 1986

img-2-small450.png

7Le troisième exemple concerne l’enregistrement d’un concert donné à Montpellier dans la cour des Ursulines dans le cadre du festival de Radio France en 19913. Les équipes de l’INA assuraient la sonorisation ainsi que l’enregistrement et la diffusion en direct sur France Musique du concert. Nous avions bénéficié en live d’un enregistrement digne d’un grand studio donnant un relief et une qualité sonore exceptionnels à notre musique.

Figure 3. Festival de Radio France et de Montpellier, 1991

img-3.png

8Le quatrième exemple est un contre-exemple. En 1995, j’ai eu l’occasion de jouer au festival Présences de Radio France à Paris dans un groupe rassemblant des interprètes4 d’horizons variés réunis pour l’occasion dans un concert unique5, en première partie d’un groupe de jazz fusion. L’œuvre avait été travaillée pendant plusieurs mois au préalable. Mais le concert a été sabordé par les ingénieurs du son qui n’ont pas pris le temps et n’avait peut-être pas l’envie de s’occuper sérieusement de la balance et du mixage. Comme résultat, malgré une musique sophistiquée, un savant mélange de contemporain, de rock progressif et de rock dur, la voix était au premier plan sans aucun traitement, très agressive, les niveaux des instrument très déséquilibrés, et cette œuvre, qui aurait pu être une belle réussite, a finalement été un échec total, du fait de la qualité de la sonorisation.

9À travers ces différents exemples, j’ai acquis la certitude d’une évidence : l’importance du mixage dans la production en concert, comme bien évidemment également en studio.

2. Le métier de RIM dans les centres de création

10En travaillant à l’IRCAM dans les départements pédagogie et production, j’ai eu à plusieurs reprises la sensation que le travail de l’ingénieur du son n’était pas assez intégré au travail de production des pièces réalisées dans ce centre pourtant prestigieux. Les compositeurs qui produisent des pièces à l’IRCAM disposent d’outils pour l’analyse, la synthèse et le traitement du son qui sont extrêmement sophistiqués. Les assistants musicaux, les réalisateurs en informatique musicale (RIM), accompagnent les compositeurs pendant leur résidence, mais leur profil, spécialisé autour des outils informatiques, ne l’est pas assez sur le mixage. Souvent, les pièces produites ne font appel à des ingénieurs du son qualifiés que lors du concert, une fois que tous les sons ont déjà été assemblés et mixés, le plus souvent par le compositeur lui-même avec l’aide du RIM dans les studios du centre. Il est alors trop tard pour réaliser un mixage adapté au lieu du concert, aux timbres des instruments acoustiques dans le cas de musiques mixtes.

11De ce constat est apparue la nécessité, dans le cadre d’une structure qui formerait des RIM, de donner à ces derniers de vraies compétences dans le domaine du mixage.

12Mon passage au GMEM, à Marseille, entre 1997 et 2005 m’a conforté dans mes opinions. Les différentes productions auxquelles j’ai pu participer dans ce centre ont toujours eu lieu dans une collaboration étroite et régulière entre le compositeur, le RIM et l’ingénieur du son6. Le GMEM est un centre issu de la musique concrète, et à ce titre son personnel dispose d’un savoir-faire et d’un professionnalisme importants dans les domaines de la prise de son et du mixage. Leurs outils, leurs instruments ne sont pas uniquement les instruments acoustiques, les logiciels de synthèse et de traitements, mais en priorité les microphones, les haut-parleurs et leurs oreilles !

13Au GMEM, c’est aussi là que j’ai pu expérimenter les techniques de spatialisation du son pour la production musicale, même si j’avais eu l’occasion dans les années 1990 d’utiliser le spatialisateur de l’IRCAM. Ce domaine, complémentaire de celui du mixage, m’est également apparu comme un domaine fondamental permettant de donner du relief à la musique, que ce soit en concert ou pour l’enregistrement. Pour l’enregistrement, la situation est relativement complexe, puisque un disque produit doit pouvoir être diffusé sur des dispositifs disponibles chez les consommateurs. En concert, par contre, il est possible de créer des pièces en choisissant le dispositif de diffusion et de spatialisation dont on a besoin. Les deux grands types de dispositifs de spatialisation actuels, les orchestres de haut-parleurs (acousmoniums) et les dispositifs holophoniques (2D ou 3D) permettent des créations avec des reliefs impressionnants qui peuvent modifier en profondeur la façon d’écrire la musique.

3. Les thèmes de cette publication

14Les intervenants du colloque « Techniques et pratiques du studio audio » n’ont pas tous accepté écrire un texte pour cette publication. À la différence de la plupart des colloques organisés par le CIEREC, celui-ci n’a fait intervenir qu’un nombre réduit d’universitaires, donnant largement la parole à des professionnels, ingénieurs du son, développeurs, compositeurs et enseignants.

15Lors de la préparation de ce colloque, nous avions donné assez de liberté à chacun des intervenants quand à leur sujet traité, leur donnant seulement le titre du colloque et en leur demandant d’intervenir pour illustrer ce qu’il leur semblait important et/ou actuel dans leur activités professionnelles. Nous avons été surpris de voir à quel point le thème de la spatialisation revenait souvent7.

16La salle de conférence étant dotée d’un système de diffusion 5.1, Pascal Besnard, ingénieur du son Radio France avait ainsi présenté les choix et esthétiques de mixages multicanal appliqués aux musiques actuelles. Il nous avait donné à entendre des pièces de Larry Carlton8 dont il avait fait le mixage, de Peter Gabriel9, de Robert Plant10, d’Hector Zazou11 et d’Hadouk Trio Live12, qu’il avait enregistrées, expliquant les choix esthétiques, techniques et les différentes constructions d’images sonores associées à chaque production. Les travaux que réalise Pascal Besnard, qui n’a pas souhaité écrire dans cette publication, sont toutefois disponibles sur le Web, en versions non compressées13.

17Sur la spatialisation, nous avions aussi écouté la présentation de Jean-Marc Duchenne, compositeur, sur « L’espace du studio et l’espace de la projection : entendre ce qu’on compose et composer ce qu’on va entendre » et dont les réflexions sont également disponibles sur Internet14.

18Dans cette publication, Hans Tutschku professeur de composition et responsable des studios à l’université d’Harvard (USA) discute de « L’espace entourant - l’espace personnel, quelques concepts spatiaux dans mes œuvres ». Jean-Marc L’Hotel, chef opérateur du son Broadcast a également accepté de nous livrer ses réflexions poétiques, sonores et spatiales dans son texte « Du preneur de son au marcheur sensible ».

19Quelques chercheurs et développeurs de logiciels ont abordé la question des outils numériques. Emmanuel Favreau, responsable développements logiciels au GRM, avait présenté les « Libertés et contraintes dans le développement d’outils de traitement sonores » en montrant les relations existant entre le compositeur et le concepteur de logiciels (les GRM-TOOLS15) à travers ses collaborations avec Diego Losa, également présent, compositeur et responsable des enseignements en électroacoustique au CRR de Saint-Étienne.

20De son côté, Ivan Cohen, concepteur et développeur de logiciels Orosys / Two Notes, présente ses travaux sur la « Simulation d’amplificateurs de guitare pour le studio » tandis que Victor Lazzarini16, professeur à la National University of Ireland à Maynooth, un des grands spécialistes de la programmation avec les langages DSP Faust et Csound, les fait se rejoindre dans son article « Des programmes Faust dans Csound ». Les développements les plus récents autour du langage Faust et son intégration dans les technologies du Web sont par ailleurs abordés dans l’article publié conjointement par des chercheurs du CIEREC et de GRAME : « Faust : contrôle et DSP sur le web ».

21Plusieurs ingénieurs du son avaient également abordé quelques préoccupations particulières qui leur tenaient à cœur. Bruno Preynat, ingénieur du son au studio E de Montbrison avait présenté « Les avantages controversés du mastering durant le mixage... », Jean Taxis, ingénieur du son enseignant dans la formation de musicien ingénieur du son au CNSMD de Paris avait parlé de « L’évolution des techniques et les reports de décisions artistiques ». Enfin, Nicolas Hoste, ingénieur du son à Ohmnibus Studios de Saint-Étienne, présente dans cette publication un article sur « La séance studio d’enregistrement au casque ».

22Quelques conférenciers ont abordé des questions d’ordre plus général, comme Georges Bloch qui présente ici un point de vue historique sur « L’improvisation composée : une utopie fructueuse née avec la musique interactive (1977-1985) ». Paul McGeechan17, professeur à l’université́ UWS de Glasgow s’intéresse aux musiques commerciales dans son article « La seule limite est votre imagination ». Enfin Rémi Adjiman, maître de conférences et directeur du département SATIS à l’université d’Aix-Marseille, dans le laboratoire ASTRAM retrace brillamment l’historique du son au cinéma dans son article « Entre technique, évolution des métiers et création : une évolution de la bande sonore au cinéma ».

23Les aspects pédagogiques avaient également été abordés, lors d’une table ronde réunissant David Fierro, Diego Losa, Marc David Sanchez & Dominique Skorny, tous enseignants au CRR de Saint-Étienne, en électroacoustique, en musiques actuelles ou en instruments, le CRR proposant depuis 2010 des cours individuels de MAO aux élèves. C’est Lionel Rascle, enseignant dans les écoles de musique de Rives de Giers et de Saint Chamond ainsi que dans le Master PRO RIM, qui présente dans ce numéro de revue une vision personnelle originale de la pédagogie, autour de l’utilisation des logiciels libres et ouverts. Enfin Roey Izhaki18, étudiant puis enseignant à l’école supérieure SAE de Londres, auteur d’un ouvrage de référence sur le mixage, nous fait part de ses réflexions, issues de ses expériences d’enseignements et de pratique de studio, en comparant les forces et les faiblesses des outils analogiques et numériques.

Notes   

1  Groupe Mantra, rock progressif, 1977-1980, Paris.

2  Groupe Eneida, rock progressif, 1982-1987, Montpellier.

3  Groupe Solstice, jazz-rock, 1983-1992, Montpellier.

4  Nicolas Isherwood, Frédérick Martin, Nicolas Mazet,  Laurent Pottier et Kasper Toeplitz.

5  K. W. Act pour voix de basse et groupe de rock de Frédérick Martin (création : 09/02/1995).

6  Jérôme Decque.

7  À tel point que le concert organisé lors de la manifestation, diffusé sur l’acousmonium de Jean-François Minjard, n’était composé que de pièces spatialisées : Jean-Marc Duchenne, Bibelots agrandis, 2006, 14’ 10 ; Jean-Jacques Girardot, Nowhere Bells, 2012, 12’ 30 ; Jean-Marc L’Hotel, Marche et Rêve... une introduction, 2013, 15’ ; Diego Losa, Sortie d’un rêve dans une nuit étrange... très loin d’ici, 2012, 15’.

8  Enregistré à Vienne en 2012, norme R128.

9  Peter Gabriel avec 47 musiciens classiques, Studios de Radio France, février 2010.

10  Enregistré live au studio 104 de Radio France, 2005.

11  Corps électriques, 2007.

12  Enregistrement live à la Gaîté lyrique, mixé en direct en 5.1 avec écoute binaurale (semaine du son 2013).

13  http://nouvoson.radiofrance.fr/pascal-besnard, site permettant d’écouter du son multicanal et binaural sur le Web.

14  http://sonsdanslair.free.fr/ ou encore http://multiphonie.free.fr/

15  http://www.inagrm.com/grmtools

16  Texte disponible en français et en anglais.

17  Texte disponible en français et en anglais.

18  Texte disponible en français et en anglais.

Citation   

Laurent Pottier, «Le mixage, un maillon essentiel dans le métier de RIM», Revue Francophone d'Informatique et Musique [En ligne], Numéros, n° 4 - Techniques et pratiques du studio audio, mis à  jour le : 24/10/2014, URL : https://revues.mshparisnord.fr:443/rfim/index.php?id=276.

Auteur   

Quelques mots à propos de :  Laurent Pottier

Maître de conférence HDR en musicologie, responsable du master 2 professionnel RIM (réalisateur en informatique musicale) à l’université Jean Monnet de Saint-Étienne, CIEREC – EA3068, laurent.pottier@univ-st-etienne.fr