EMS 09 – Ponencia- Synthèse sonore et composition musicale: Problématiques et outils d’écriture électroacoustique

I Autor: Jean Bresson, Carlos Agon
Idioma: Francés
Fecha de Publicación: 15/06/2009
Actividad en donde fue presentado: EMS 09. Herencia y futuro


Publicación

Dans cette contribution nous présentons des éléments de réflexion concernant l’écriture électroacoustique, établis en préalable à nos travaux de recherche sur la synthèse sonore en composition musicale assistée par ordinateur (Bresson, 2007). Parallèlement aux problématiques d’ordre technique ou scientifique qui ont pu être traitées durant ces travaux, et avant de nous engager dans la réalisation d’outils de composition adaptés à la création sonore, nous nous sommes en effet posé quelques questions relevant plus des pratiques et théories musicales, sur la façon dont un compositeur, avant même de choisir de manipuler un outil électronique ou informatique, conçoit ou envisage le son : Ce son a-t-il une «forme» préalable qu’il s’agit de mettre à jour ? Est-il nécessairement issu ou dérivé d’un son perçu et préexistant ? Quelle en est la part d’intuition, de logique ? Différentes collaborations et expériences, ainsi qu’une série d’entretiens effectués auprès de compositeurs et théoriciens, nous ont alors permis de dégager un certain nombre de problématiques plus spécifiques que nous essaierons de développer ici. Parmi celles-ci, nous nous intéresserons au positionnement du compositeur par rapport à des notions musicales traditionnelles comme celle d’instrument, d’interprétation ou de partition, ou encore aux problèmes de la notation et des représentations symboliques et sonores en musique. Nous considérerons également différents types d’outils informatiques pour la création électroacoustique en nous intéressant aux approches compositionnelles sous-jacentes, afin de mettre ceux-ci en regard des problématiques précédentes. Par cette démarche nous soulevons des problèmes bien connus des compositeurs et musiciens tournés vers l’électroacoustique, qui poseront les bases théoriques avec lesquelles nous avons essayé de renouer dans le contexte d’environnements modernes de composition assistée par ordinateur.

1. Instruments, interprétation, partitions
La synthèse sonore et la composition musicale électroacoustique remettent en cause un certain nombre de notions musicales basées sur le schéma instrumental traditionnel. Cependant, par nécessité ou par commodité, une analogie est souvent maintenue avec ce dernier. Il peut en effet s’avérer préférable de s’appuyer sur des catégories et concepts théoriques établis pour favoriser le développement progressif et cohérent des nouvelles pratiques musicales : «Il me semble important de garder des catégories qui appartiennent au monde traditionnel des instruments, et de les porter dans le domaine de la synthèse, non pas pour retrouver des sons, mais pour établir la continuité d’une culture» (Ph. Manoury). Il est intéressant de s’arrêter en premier lieu sur la notion même d’instrument, fréquemment utilisée dans le domaine de la synthèse sonore ou dans les systèmes de composition utilisant la synthèse sonore. Cette terminologie se trouve notamment être fondamentale dans les nombreux langages et environnements de synthèse sonore de la famille Music N (Mathews 1969), dont Csound (Boulanger 2000) est le principal représentant actuel, qui  distinguent dans les processus de synthèse un «orchestre» (ensemble d’instruments, ou modules élémentaires de traitement ou génération de signaux) et une partition (score) supposée activer ces instrument à des dates, durées et avec des paramètres donnés. On retrouve également cette séparation des concepts dans des environnements de plus haut niveau comme le système Chroma (Stroppa 2000) où des classes d’objets également qualifiées d’instruments se réfèrent à des processus de synthèse implicites (notamment sous forme d’instruments Csound) et sont instanciées par des paramètres compositionnels.

Cette idée d’instrument de synthèse pose le problème de la lutherie électronique et soulève une autre distinction entre les activités de lutherie et de composition ; distinction qui pourtant, avec la musique électroacoustique, est devenue moins évidente qu’elle ne l’était dans la musique instrumentale. Déterminer si la «lutherie électronique» s’insère ou non dans l’activité compositionnelle est un exemple de question qui distinguera les différentes approches musicales de l’électroacoustique, et les différents outils informatiques dédiés. Dans les systèmes de type Music N que nous venons de citer, par exemple, la création d’instruments est généralement à la charge du compositeur, mais la modularité permise par la séparation entre instruments (processus) et partition (paramètres) en maintient la distinction par rapport au processus de composition à proprement parler. Les technologies et outils de synthèse par modèles physiques, en revanche, intègrent radicalement ces deux activités, puisqu’une partie importante du travail avec ces outils consiste justement à créer des structures physiques virtuelles qui seront mises en vibration : «Le compositeur n’est plus seulement utilisateur d’instruments existants, mais il construit ses instruments» (C. Cadoz).

Une autre notion attenante à la précédente est celle d’interprétation. Si la performance électroacoustique n’implique pas nécessairement d’interprète, la perte d’incertitude et de variabilité liée à la suppression de cet intermédiaire est souvent pointée comme une problématique compositionnelle majeure. Ainsi nous avons pu observer chez certains compositeurs des démarches visant ouvertement à réinsérer une forme d’interprétation dans leur approche de l’électroacoustique. Marco Stroppa, par exemple, introduit par la programmation une part d’indéterminisme dans le processus de transfert des données de paramétrage vers les systèmes de synthèse, afin que deux sons issus d’un même processus et avec les mêmes paramètres (c’est-à-dire de deux représentations sonores identiques) soient systématiquement différents, bien qu’identifiables comme étant le «même son». Dans le cadre d’œuvres mixtes associant instruments et électronique, Philippe Manoury développe quant à lui le concept de partition virtuelle pour la synthèse sonore. Dans son travail, les processus de synthèse sont préprogrammés, mais certains des paramètres sont indéterminés jusqu’au moment de l’interprétation où ils sont extraits ou calculés à partir d’analyses et de captation en temps réel du jeu des instrumentistes : «On connaît a priori la nature des transformations mais pas les valeurs exactes qui vont les définir» (Manoury 1990). A l’origine des systèmes de création musicale en temps réel, il y avait en effet une recherche visant à se rapprocher du rapport instrumental à la musique, disparu pour un temps avec la synthèse sonore : les données provenant d’un jeu instrumental réel sont infiniment plus riches et «naturelles» que si elles avaient été spécifiées manuellement ou à l’aide de programmes. Ces exemples nous montrent donc que la notion d’interprétation, «synonyme d’absence de prédétermination totale», garde un sens avec la synthèse sonore : «à partir du moment où la musique qui est codifiée est incomplète, elle a besoin d’être interprétée pour exister» (Ph. Manoury). Enfin, l’approche de la synthèse par modèles physiques, parallèlement à la notion de lutherie électronique ou virtuelle, met aussi en avant une notion de geste instrumental inspirée du modèle d’une interprétation humaine.

Pour finir, notons que la partition, en tant que contexte d’écriture, d’interprétation ou encore d’analyse, et même si elle n’est pas destinée à être lue et interprétée directement par un musicien, a elle aussi un rôle important à jouer dans la musique électroacoustique. Support musical formel et fédérateur, elle a vocation à se doter d’une flexibilité nouvelle afin de permettre l’intégration des différentes notions que nous avons évoquées et l’établissement de démarches cohérentes avec la synthèse et les techniques électroacoustiques. Il n’est donc pas sans intérêt d’essayer d’entrevoir ce que serait une partition rendant compte formellement et musicalement de processus de synthèse et de leurs paramètres. Sans trop entrer dans les détails quant aux caractéristiques d’une telle partition – voir par exemple (Ebbeke 1990) – nous nous concentrerons ici sur d’autres problèmes qui lui sont liés : celui de la notation puis, plus généralement, des représentations symboliques pour le son et la synthèse sonore.

2. Ecriture et notation
Dufourt (1981) analyse et soutient le rôle déterminant de l’écriture en tant que médiation graphique, projection de la musique et du son sur un espace plan (une partition sous une forme ou une autre), dans la formation de la pensée musicale. Or il est difficile de parler d’écriture sans évoquer une forme de notation, ensemble de conventions graphiques associant des signes et leur organisation mutuelle a des paramètres musicaux ou sonores, et permettant de décrire, lire, transmettre une musique. Par sa fonction de substitution du réel, de représentation musicale d’une réalité sonore, la notation musicale joue en effet un rôle important dans la manière de penser et formaliser la musique. Des très nombreux ouvrages et références pourraient ainsi nous rappeler, selon différents points de vue, le rôle essentiel et structurant de la notation dans la composition musicale et dans la musique écrite en général.

Dufourt note également que depuis toujours la notation est réorganisée et redéfinie à l’introduction de nouveaux paramètres dans la musique, ainsi sous-tendue par la notion de «champ fonctionnel à multiples facteurs». Cependant l’absence de consensus existant à l’heure actuelle, à la fois sur les nouveaux paramètres sonores et les signes qui y seraient associés, semble constituer un obstacle au développement des discours théoriques sur la musique électroacoustique – Ebbeke (1990) propose une discussion documentée à ce sujet.  

Différentes stratégies sont généralement adoptées pour la notation des partitions électroacoustiques. En donnant des informations sur des opérations à réaliser (déclenchement de processus, etc.), on décrit le «comment faire» de la synthèse et l’on se rapproche alors du concept de tablature (realization scores, Thies 1985). En utilisant des symboles graphiques se rapportant à des éléments perçus des structures sonores, on obtient une notation plus proche de l’écoute musicale (Listening scores, Thies 1985) mais aussi beaucoup plus approximative. Dans aucun cas la notation ne peut donc rendre compte ou décrire la réalité complexe ni l’intention compositionnelle portée par le son. «Quand on a de l’électronique sur une pièce instrumentale, on trouve soit une notation purement signalétique (on ne sait pas ce qui va se passer, on a simplement l’élément de déclenchement), soit une représentation mimétique […], mais en aucun cas il n’y a de réelle lecture possible du phénomène électroacoustique» (H. Dufourt). Des descriptions plus complètes des sons et des processus de synthèse doivent donc généralement compléter la partition afin de permettre de s’en faire une idée plus précise et/ou de les reconstruire. «Le problème est qu’une véritable écriture, ce n’est pas simplement une notation, mais quelque chose qui intègre toute la théorie. Or ces fonctions sont encore dissociées en informatique musicale : on contrôle un ordre, ou un autre, mais on n’a pas cette prise globale, à la fois intuitive et rationnelle. Il faudrait avoir l’intuition du son et en même temps pouvoir dire, en analysant l’écriture, ce qui est écrit et ce que cela signifie». En effet si l’on considère la notation musicale conventionnelle, et compte tenu de tous les paramètres entrant en jeu dans un phénomène sonore, cette notation n’en rend compte que très partiellement (à l’aide de durées, de hauteurs et d’intensités), mais permet cependant d’en exprimer l’intention musicale. Rapportée au domaine électroacoustique, la notation devrait donc également représenter une organisation formelle et abstraite et des sons, tout en induisant les modalités de cette formalisation. Elle permettrait alors la lecture, la compréhension et l’identification des sons perçus ou imaginés à partir de symboles qui les rendraient «manipulables» par la pensée, en signifiant à la fois les intentions musicales et le résultat correspondant.

Il semble alors possible de relativiser la question d’absence de consensus sur la notation électroacoustique, qui constitue probablement une ouverture sur la constitution de démarches compositionnelles originales avec la synthèse sonore. Pour Malt (2000) la représentation symbolique choisie pour cette notation doit en effet correspondre à une sémantique graphique personnelle, définissable par les compositeurs. Au travers de conventions et systèmes variés, ceux-ci manifestent ainsi chacun à leur manière une approche et un point de vue sur le son et la synthèse. Assayag (1993) situe également la notation en regard de la notion de langage dans le cadre du développement des environnements de composition assistée par ordinateur : «La notation agit avec un logiciel de CAO non seulement comme matérialisation des informations circulant dans le système mais comme support de l’inventivité formelle. À ce titre, la notation devrait être dotée de la même souplesse, de la même ouverture (en termes d’extensibilité et de programmabilité) que le langage même et constituer, à terme, le ‘milieu’ naturel d’expérimentation de l’utilisateur.»

3. Vers des représentations symboliques
Les technologies numériques constituent un élément fondamental dans le questionnement actuel sur la représentation symbolique du son. À défaut d’un système de notation, une représentation symbolique devrait en effet permettre de considérer le son abstrait de sa réalité acoustique afin de favoriser sa formalisation dans un contexte musical. Or la représentation numérique d’un signal, si elle peut être considérée théoriquement comme symbolique (car composée d’une suite de nombres), ne constitue pas (ou rarement) une représentation symbolique «musicale».

Il est possible de ramener le son à un niveau de représentation musical en s’appuyant sur des valeurs comme la hauteur, la durée d’évènements, auxquelles sont associées des valeurs de paramétrage pour un système de synthèse. Cependant une spécification plus fine des structures sonores nécessitera souvent une approche plus complexe des paramètres de synthèse et de leur représentation dans un système informatique. Les représentations statiques, compactes et structurées, comme la représentation d’un signal par une somme de partiels, peuvent sembler plus à même de porter un sens musical, mais leur caractère symbolique n’est pas assuré pour autant : «[…] avant de devenir des symboles, les régularités extraites [des analyses du signal] sont des candidats potentiels à être des symboles […] Parmi ces formes, ces régularités, il y a celles qui ont une résonance avec notre cognitif et celles qui n’en ont pas du tout» (C. Cadoz). Différentes étapes d’abstraction et de calcul sont ainsi généralement nécessaires pour passer (dans un sens ou dans l’autre) d’une représentation numérique d’un signal sonore à une représentation musicale.

Ce problème a été traité plus ou moins directement à différentes reprises dans la littérature. Nous nous sommes intéressés aux systèmes de représentation décrits notamment par A. Camurri et M. Leman dans les années 1990. Pour Leman (1993), parmi les descriptions musicales (ou manières d’exprimer ou de formaliser un sens musical), la représentation acoustique se caractérise par une unité de la forme et du contenu, dans laquelle il n’est pas question d’interprétation ni de convention se rapportant aux symboles. Cette représentation correspond donc aux signaux numériques, et par extension aux éventuelles représentations analytiques qui en sont issues. Dans une représentation symbolique, au contraire, on utilise des signes, des étiquettes se rapportant à des objets, et dont la lecture et l’interprétation (ou compréhension de ce à quoi ils font référence) est nécessaire à l’accès au sens. Entre ces deux domaines, le domaine sub-symbolique implique des mécanismes automatiques établissant une causalité entre les représentations acoustiques et symboliques, dans la formation (mentale ou concrète) d’un l’objet représenté (Camurri, 1991). Même si ce n’est pas forcément sous forme informatique, les structures musicales passent donc nécessairement par ce niveau sub-symbolique pour accéder à une réalité sonore. Si les données dans le domaine symbolique, porteuses d’information sémantique, ont une signification pour l’utilisateur (compositeur) et peuvent être abstraites de leur contexte (l’ordinateur), dans le domaine sub-symboliques, au contraire, elles n’ont de sens qu’en rapport à leur contexte de traitement.

Au-delà de ces conversions systématiques du symbolique vers le signal, qui ne font qu’éviter le problème, une représentation symbolique d’un son en tant qu’un objet compositionnel impliquerait donc une conception intermédiaire et flexible, voire une navigation entre les différents niveaux de représentation. Stroppa et al. (2002) évoquent le problème d’un même objet sonore, considéré selon le cas comme «résultat d’un processus de synthèse» ou comme «entité logique musicalement relevante». Ce ne sont pas là deux types d’objets différents mais bien un même objet vu sous deux points de vue différents. Encore une fois la définition d’un niveau de représentation symbolique implique ainsi des considérations d’ordres de grandeur, de réduction de données et d’information, mais aussi des choix et appréciations subjectives. Intégrant cela dans un contexte de composition, une représentation symbolique complète pourrait se manifester dans une insertion des données et processus sub-symboliques à l’intérieur de l’espace symbolique des représentations musicales. C’est une idée qui sera reprise dans l’approche que nous avons développée avec la CAO et la programmation visuelle (Bresson & Agon 2007). L’abstraction musicale opérée dans un processus de synthèse sonore réalisé dans ce contexte engage en effet une forme de symbolisme, soit par des descriptions et structures de données utilisées, soit par la hiérarchisation des données et opérations au travers de processus d’abstraction (au sens informatique du terme).

4. Outils informatiques et approches musicales
Après des considérations théoriques, nous proposons de mettre ici en regard différentes techniques et outils de synthèse sonore ou de création électroacoustique aux différentes problématiques que nous avons pu rencontrer. Par les paramètres qu’il propose à l’utilisateur et ses principes de fonctionnement, un outil a en effet une influence sur les résultats sonores qu’il engendre mais aussi sur la démarche compositionnelle qui se crée autour de lui, déminant ainsi une certaine conception de la structure formelle du son et de la manière dont il peut être appréhendé musicalement.
La plupart des synthétiseurs «traditionnels» sont basés sur des techniques d’échantillonnage, voire de synthèse additive ou FM, mais offrent à l’utilisateur un contrôle principalement basé sur des structures de type «notes» (évènements à hauteur, durée et intensité relativement stables). Il s’agit alors pour le compositeur de décrire une partition, semblable à celles que l’on connaît dans le domaine instrumental, qui doit simplement être transcrite dans un format de données adapté au processus de synthèse en question. La standardisation de ce type de contrôle calqué sur le mode instrumental, en particulier grâce au protocole MIDI, permet de mettre facilement en oeuvre un tel système, dans lequel le processus de composition, qui vise l’écriture d’une partition, et le processus de synthèse sonore, qui «lit» et exécute cette partition, sont relativement modulaires et indépendants. C’est également, dans une moindre mesure, le cas des langages de type Music N, dans lesquels le concept de note est préservé en tant que spécification acoustique, induisant une séparation de la microstructure – au niveau du signal, des «instruments» de synthèse – et de la partition.

Certains outils de synthèse permettent une plus grande ductilité du matériau sonore, et des accès plus complexes aux structures internes du son. Le problème se pose alors de définir les abstractions musicales qui permettront de spécifier ces structures sonores. Dans ce contexte, la démarche d’analyse/synthèse sonore (extraction de données d’analyse d’un signal sonore, transformation de ces données et synthèse d’un nouveau signal), outre son intérêt scientifique de pour l’identification et la compréhension du rôle des différents paramètres sonores, s’est avérée fondamentale dans beaucoup de démarches et projets compositionnels (voir le concept de «modèle sonore» dans Stroppa et al. 2002). Différents outils et technologies comme le vocoder de phase, l’analyse additive ou l’analyse source/filtre ont été largement utilisés par les musiciens pour pallier la complexité du phénomène sonore et des problèmes qui en retournent dans la création de sons de synthèse. L’analyse fournit des données sonores naturelles (réservoirs de formes temporelles, d’organisations spectrales, ou autres) assurant, même à l’issue d’éventuels traitements musicaux, la richesse et la cohérence des sons synthétisés (Risset 1993). Ces processus d’analyse/traitement/synthèse sonore peuvent être réalisés de façon relativement simple et à l’aide d’une large palette d’outils et d’algorithmes dans des environnements tels que AudioSculpt (Boogards & Röbel 2004) ou Spear (Klingbeil 2005), qui permettent par ailleurs de contrôler graphiquement la localisation et les détails du traitement des données d’analyse.

De manière générale, les données d’analyse utilisées pour la synthèse sonore peuvent être issues de captations en temps réel, ou de traitements «off-line» sur des sons enregistrés, qui constituent deux approchent bien distinctes. Dans les systèmes temps réel, la captation sonore ou gestuelle permet une intégration directe de données naturelles dans les processus de synthèse. S’il s’agit de l’usage le plus répandu dans la pratique contemporaine, il n’est pas pour autant le seul pertinent d’un point de vue musical. Dans les environnements «non temps réel» (on parle de temps «différé»), on considérera ces données comme des structures statiques utilisées comme matériau initial dans les processus de composition, privilégiant une vision plus globale sur le matériau. Par ailleurs, le temps différé permet de mettre en œuvre des processus plus complexes contrôlant le son dans ses moindres détails, de créer des structures élaborées à l’aide de formalismes temporels avancés et dans une logique d’écriture indépendante de la chronologie linéaire et immédiate. Les travaux de Jean-Claude Risset se sont notamment positionnés dans ce sens :«C’est le temps différé qui permet d’étendre à la microstructure sonore des possibilités de notation et de travail proprement compositionnel» (Risset 1993). Malgré les intérêts du contrôle de la synthèse en temps réel (notamment l’interactivité, ou la compensation des pertes de variabilité et d’imprévu dues à l’automatisation), cette caractéristique de temps différé pourvoit ainsi les processus de synthèse sonore d’une portée musicale souvent inaccessible dans les systèmes temps-réel.

Une autre approche de la synthèse consiste à créer des sons sans données ni référence à des sons initiaux. Pour déterminer les paramètres d’une technique ou d’un algorithme de synthèse sonore donné, des systèmes de contrôle de la synthèse proposent alors aux compositeurs des représentations abstraites ou des conventions graphiques permettant d’augmenter le potentiel musical des représentations sonores de bas niveau (souvent préétablies par les processus de synthèse sous-jacents). Les techniques spectrales, et en particulier additives, restent les plus utilisées. Les paramètres spectraux (temps, fréquence, intensité) sont les mêmes qui sont utilisés en musique traditionnellement ; Leur représentation (mentale, graphique ou même informatique) en est donc facilitée et permet de jouer sur les valeurs et rapports temporels, fréquentiels, ou dynamiques dans un contexte musicalement intuitif et relativement familier. Dans cette logique de représentation spectrale, les outils purement graphiques révèlent une première approche radicale, avec une manière de concevoir le son strictement liée à la médiation visuelle et confinée dans une représentation bidimensionnelle temps / fréquence. A la suite des travaux de I. Xenakis, et notamment du système UPIC, différents logiciels ont été créés, permettant de développer cette approche graphique de la synthèse sonore, généralement en parallèle à des techniques d’analyse/resynthèse – ex. Sonographe (Lesbros 1996) ou MetaSynth.

L’établissement d’abstractions par la modélisation sonore et la structuration des données permet d’envisager des organisations formelles plus avancées, notamment dans le domaine temporel. Partant d’objets plus ou moins abstraits, représentant tout ou partie d’une réalité sonore, différentes stratégies permettent alors de composer cette organisation temporelle, par exemple en organisant des évènements dans une structure logique – ex. Boxes (Beurivé 2000), ou en interpolant entres différents états d’un générateur – ex. Diphone (Rodet & Lefevre 1997). Ces exemples, bien que demeurant limités à cet égard, s’approchent de l’idée de partition pour la synthèse en tant que représentation d’une organisation spatiale et temporelle de paramètres sonores. Les environnements de synthèse granulaire ou concaténative sont d’autres moyens d’organiser paramètres et entités sonores – voir par exemple CataRT (Schwartz et al. 2006). Certains systèmes originaux permettent également d’étendre la conception graphique à des dimensions structurelles plus poussées, comme Genesis (Castagne & Cadoz 2002) avec la construction de structures physiques, ou IanniX (Coduys & Ferry 2004) avec une représentation graphique ouverte et multiparamétrique.

5. Conclusion – CAO  : une autre approche pour la synthèse et l’écriture électroacoustique
En guise de conclusion nous donnons ici un rapide aperçu de l’approche que nous avons adoptée dans nos travaux. Ceux-ci se situent essentiellement dans le contexte de la Composition Assistée par Ordinateur (CAO), et plus précisément des environnements programmables dont fait partie OpenMusic (Assayag et al. 1999). Dans ces environnements, l’ordinateur est considéré comme un outil permettant non seulement de réaliser des taches plus ou moins complexes, mais surtout de formaliser, d’exprimer, de développer des idées ou intuitions musicales. De nombreux environnements entrant dans cette catégorie ont été créés depuis les débuts de l’informatique musicale : Formes(Rodet & Cointe 1984), Arctic(Dannenberg et al. 1986), Nyquist  (Dannenberg 1997), SuperCollider (McCartney 2002) sont des exemples de langages ou extensions de langages de programmation existants permettant de développer des processus musicaux orientés vers la synthèse sonore. Cependant un environnement comme OpenMusic (qui est un langage de programmation visuel, contrairement aux précédents) nous a permis de mettre en avant une forme d’expressivité supplémentaire liée notamment aux outils et représentations graphiques, mais surtout à l’ensemble du savoir faire et démarches compositionnelles préalables et existant dans cet environnement, et par conséquent  susceptibles d’interagir avec les processus de synthèse sonore.

Un certain nombre d’outils ont donc été créés dans OpenMusic et permettent de mettre en œuvre dans une même démarche compositionnelle modèles et processus musicaux et sonores, étendant ainsi le domaine la CAO à celui de l’électroacoustique. La notion de modèle compositionnel mise en parallèle avec celle de modèle informatique nous a permis de développer un cadre théorique et fonctionnel pour la composition électroacoustique, dans lequel le son est représenté comme un programme, un processus structuré (Bresson & Agon 2007). Ce programme est le reflet d’une organisation musicale et d’une intention compositionnelle avant d’être lié, plus ou moins explicitement, à un processus de synthèse sonore à proprement parler. L’abstraction, la modularité, les interfaces graphiques proposées par l’environnement de programmation visuelle permettent de structurer ce programme. La structure fonctionnelle organise donc sa complexité en maintenant une hiérarchie entre les abstractions musicales et les processus de bas niveau. En effet nous avons noté précédemment que le caractère symbolique d’une représentation du son pouvait tenir à la fois des représentations des données de description sonores, et du traitement symbolique de ces données. C’est l’organisation d’une telle structure, décrivant de manière symbolique les relations et comportements des entités qui la composent, qui permettra de constituer à la fois un objet sonore et un objet portant un sens musical – «a dynamic structure, where behavioural laws and signal processing configurations combine to define an object capable of being viewed both as a sound producing entity and as a logical object musically meaningful» (Eckel & Gonzalez-Arroyo 1994). Nous retrouvons ici une idée importante dans la CAO telle que nous la concevons, mettant en avant l’équivalence, sinon la prédominance des processus sur les objets musicaux.

Par l’association de la programmation et des représentations graphiques, et même s’ils n’ont pas pour ambition de résoudre les nombreuses problématiques qui ont pu être soulevées, ces outils et cet environnement donnent ainsi aux utilisateurs les moyens de créer une sémantique subjective des structures sonores et un niveau symbolique qui leur sont propres, et peut-être de développer des démarches compositionnelles se rapprochant d’une écriture électroacoustique.

Par souci de concision, nous avons ici laissé de côté les questions temporelles dans la synthèse et l’écriture des sons. Celles-ci présentent pourtant un intérêt majeur, et font l’objet de nos recherches et perspectives actuelles. Des représentations temporelles des processus de synthèse ont été proposées, notamment utilisant l’éditeur de maquettes dans OpenMusic, qui nous ont permis d’intégrer certains aspects de contrôle temporel dans le cadre des modèles compositionnels orientés vers le son et la synthèse sonore.

Remerciements
En complément d’une littérature riche sur les sujets que nous avons évoqués, dont nous avons conscience de ne citer qu’une infime partie, les éléments que nous présentons, comme précisé en introduction, ont été principalement nourris de rencontres avec des compositeurs et théoriciens, parmi lesquels nous souhaiterions remercier en particulier Hugues Dufourt, Philippe Manoury, Claude Cadoz et Marco Stroppa, pour le temps qu’ils nous ont accordé à l’occasion d’entretiens et de discussions informelles.

Références
ASSAYAG, G. «CAO : Vers la partition potentielle.« Les Cahiers de l’Ircam (3) – La Composition Assistée par Ordinateur, Ircam – Centre Pompidou, 1993.
ASSAYAG, G., RUEDA, C., LAURSON, M., AGON, C., DELERUE, O. «Computer-Assisted Composition at IRCAM: From PatchWork to OpenMusic.»Computer Music Journal, 23(3), 1999.
BEURIVÉ, A. «Un logiciel de composition musicale combinant un modèle spectral, des structures hiérarchiques et des contraintes.» Actes des Journées d’Informatique Musicale (JIM), Bordeaux, France, 2000.
BOGAARDS, N., RÖBEL, A. «An interface for analysis-driven sound processing.» AES 119th Convention, New York, USA, 2004.
BOULANGER, R. (dir.) The Csound Book. MIT Press, 2000.
BRESSON, J. La synthèse sonore en composition musicale assistée par ordinateur. Modélisation et écriture du son. Thèse de Doctorat, Université Pierre et Marie Curie, Paris 6, France, 2007.
BRESSON, J., AGON, C. «Musical Representation of Sound in Computer-Aided composition: A Visual Programming Framework.» Journal of New Music Research, 36(4), 2007.
CAMURRI, A. «On the Role of Artificial Intelligence in Music Research.» Interface – Journal of New Music Research, 19(2-3), 1991.
CASTAGNE, N., CADOZ, C. «GENESIS: A Friendly Musician-Oriented Environment for Mass-Interaction Physical Modeling.» Proceedings of the International Computer Music Conference (ICMC), Goteborg, Sweden, 2002.
CODUYS, T., FERRY, G. «Iannix – Aesthetical/Symbolic Visualisations for Hypermedia Composition.» Proceedings of the Sound and Music Computing Conference (SMC), Paris, France, 2004.
DANNENBERG, R. B., McAVINNEY, P., RUBINE, D. «Arctic: A Functional Language for Real-Time Systems.» Computer Music Journal, 10(4), 1986.
DANNENBERG, R. B. «Machine Tongues XIX: Nyquist, a Language for Composition and Sound Synthesis.» Computer Music Journal, 21(3), 1997.
DUFOURT, H. «L’artifice d’écriture dans la musique occidentale». Critique, 408, 1981.
EBBEKE, K. «La vue et l’ouïe. Problématique des partitions dans la musique électro-acoustique.» Contrechamps, 11, 1990.
ECKEL, G., GNZALEZ-ARROYO, R. «Musically Salient Control Abstractions for Sound Synthesis.» Proceedings of the International Computer Music Conference (ICMC), Aarhus, Denmark, 1994.
KLINGBEIL, M. «Software for Spectral Analysis, Editing and Synthesis.» Proceedings of the International Computer Music Conference (ICMC), Barcelona, Spain, 2005.
LEMAN, M. «Symbolic and subsymbolic description of music.» In Haus, G. (dir.) Music Processing, Oxford University Press, 1993.
LESBROS, V. «From Images to Sounds, A Dual Representation.» Computer Music Journal, 20(3), 1996.
MALT, M. Les mathématiques et la composition assistée par ordinateur (concepts, outils et modèles). Thèse de doctorat, Ecoles des Hautes Etudes en Sciences Sociales, Paris, France, 2000.
MANOURY, Ph. «La note et le son : un carnet de bord.» Contrechamps, 11, 1990.
MATHEWS, M. V. (dir.) The Technology of Computer Music. MIT Press, 1969.
McCARTNEY, J. «Rethinking the computer music language: SuperCollider.» Computer Music Journal, 26(4), 2002.
RISSET, J.-C. «Synthèse et matériau musical.» Les cahiers de l’Ircam (2) – La synthèse sonore. Ircam – Centre Pompidou, 1993.
RODET, X., COINTE, P. «Formes : Compostion and Scheduling of Processes.» Computer Music Journal, 8(3), 1984.
RODET, X., LEFEVRE, A. «The Diphone Program : New Features, New synthesis Methods and Experience of Musical Use.» Proceedings of the International Computer Music Conference (ICMC), Thessaloniki, Greece, 1997.
SCHWARZ, D., BELLER, G., VERBRUGGHE, B., BRITTON, S. «Real-Time Corpus-Based Concatenative Synthesis with CataRT. Proceedings of the International Conference on Digital Audio Effects (DAFx), Montreal, Canada, 2006.
STROPPA, M. «Paradigms for the high level musical control of digital signal processing.» Proceedings of the International Conference on Digital Audio Effects (DAFx), Verona, Italia, 2000.
STROPPA, M., LEMOUTON, S., AGON, C. «OmChroma ; vers une formalisation compositionnelle des processus de synthèse sonore.» Actes des Journées d’Informatique Musicale (JIM), Marseille, France, 2002.
THIES, W. «Notationsmöglichkeiten für elektronische Musik.» Interface – Journal of New Music Research, 14(3-4), 1985.

Jean Bresson, Carlos Agon

IRCAM – CNRS UMR STMS
1, place I. Stravinsky 75004 Paris, France
{bresson,agon}@ircam.fr