Voir également
Une histoire de l'informatique musicale
entre macroforme et microcomposition
Depuis le début du XXe
siècle, la création musicale est apparue de plus en plus tributaire de
constructions conceptuelles. Notre environnement subit d'importants
bouleversements idéologiques, scientifiques et technologiques. Dans le long
terme, ces évolutions modifient bien des systèmes de pensée et conduisent à
réviser le champ de l'expérience, y compris celui de l'expérimentation
artistique. Les techniques sont en train de modifier notre appréhension du
sensible, prolongeant les possibilités de création ou de perception. Elles
deviennent des piliers pour la réflexion artistique et suscitent une nouvelle
expérience esthétique [1].
Se servir des découvertes scientifiques pour élaborer un matériau
musical peut paraître une idée ancienne. Pourtant, le passage dans les années
50 de techniques électroniques et électro-acoustiques à une représentation
numérique, propre à calculer aussi bien l'évolution structurelle de l'œuvre que
l'évolution spectrale des sons qui la composent, bouleverse les données de la
création musicale. Jamais avant l'ordinateur un outil de composition n'avait
réussi à réunir à la fois le niveau global et le niveau élémentaire de la
création ! La musique est astreinte à redéfinir sa propre substance. La
confrontation ainsi engendrée entre une machine aux possibilités colossales et
des esprits créatifs qui ambitionnent d'y puiser un réservoir de possibles sans
en être prisonnier, symbolise tout à fait ce qui fut ailleurs qualifié d'art technologique [2].
La transformation des instruments et du matériau accompagne
souvent une évolution des formes et des structures. Si elles ne se traduisent
pas toujours par des œuvres marquantes, ces évolutions stylistiques opèrent
pourtant des modifications que le long terme permet d'apercevoir. Il ne nous
revient pas de réécrire l'histoire de l'informatique musicale en offrant un
panégyrique de ses œuvres, mais d'analyser les transformations musicales les
plus remarquables. Situer l'émergence de l'informatique musicale en tant que
telle revient à définir les éléments qui ont permis de franchir une étape en
totale rupture avec la période précédente. Ces éléments sont avant tout d'ordre
technique, car c'est de la découverte scientifique de nouveaux outils que sont
d'abord venues les émergences stylistiques. Ces "révolutions"
technologiques ont modifié le concept d'écriture dont la tradition musicale
avait depuis des siècles fait sa qualité première. Parallèlement elles ont
aussi renouvelé la notion d'instrument.
Outre qu'il est permis de
constater que le passage de l'outil ordinateur au concept d'informatique
musicale se traduit par une réorientation des moyens, il est notable que cette
technique a aussi ouvert de nouvelles voies à des domaines connexes, comme
l'acoustique ou la psychologie de la perception. La mise à jour de ces données
peaufine l'actualisation du champ de l'expérimentation des musiciens et leur
offre d'élargir l'information esthétique [3] à des
attributs de perception tels l'espace, travaillés avec
toute l'acuité requise. L'ensemble de ces domaines (technologiques, acoustiques
et naturellement esthétiques, les théories succédant toujours aux théories) a
bâti au cours des années cette forme particulière d d'expression artistique, un
art technologique à nul autre pareil. L'informatique musicale n'est donc pas
née de l'appropriation intuitive d'une nouvelle technologie. Elle
concentre bien un faisceau d'intérêts marqués sur lesquels il n'est jamais
inutile de revenir.
En 1945, la mise au point par John Mauchly et Prosper Eckert à la Moore School
(Philadelphie) du premier ordinateur à structures logiques, est impulsée à
partir des travaux de John von Neumann qui rejoindra
le groupe. Cette machine fait suite aux prototypes de calculateurs
électroniques, notamment à ceux de John Atanassof et
d'Alan Turing. Le projet s'appelle EDVAC pour Electonic Discrete
Variable Computer. Il est concrétisé dans l'ENIAC
(Electronic Numerical
Integrator and Computer : 30 tonnes, 18 000
tubes pour une mémoire vive de 200 bits).
En 1946-1947, les travaux sur le transistor [4]
entrepris aux Bell Laboratories par John
Bardeen, William Shockley et Walter Brattain
permettent une amélioration des performances en réduisant l'encombrement. Le
transistor sera appelé à détrôner tubes et lampes dont l'invention était
pourtant récente [5].
L'accélération
des capacités techniques, qui fut par la suite croissante, augmentera sans
cesse la rapidité d'obsolescence des machines.
Gardons donc à l'esprit que l'UNIVAC et l'IBM 701, commercialisés vers 1951,
font aujourd'hui figure de brontosaures face à nos micros.
Les premiers ordinateurs à utiliser le transistor n'apparaissent
qu'en 1955, et encore, ils ne sont réellement efficients qu'avec la deuxième
génération, entièrement transistorisée vers 1959 (IBM 7090 et 7094), soit plus
de dix ans après l'invention du transistor. C'est la première véritable
révolution, le début d'une ère informatique qui transforme l'interaction avec
la machine. Car, les ordinateurs Bull qu'utilise Barbaud
dans les années 50 comme l'Illinois Automatic Computer (Illiac)
d'Hiller et Isaacson, en 1956, pour leur célèbre Illiac Suite, occupent plusieurs pans de mur,
chauffent beaucoup, et demandent une patience infinie pour obtenir des
résultats.
À partir de
La troisième révolution a lieu dans les années soixante-dix,
lorsque la société Intel Fairchild met au
point le microprocesseur Intel 4004, circuit intégré à mémoire qui peut
recevoir des instructions et traiter de données. Il est à l'origine l'une
troisième génération, celle des micro-ordinateurs (l'Altaïr
et le Micral en 1974). Les techniciens qui
collaborent aux recherches musicales sont amenés à construire des processeurs
spécialisés dans le traitement du signal, dont les plus célèbres sont le Syter de J.-F. Allouis (construit
au GRM) et la 4X de G. Di Giugno
(IRCAM).
Ces processeurs de son (D.S.P. pour Digital Sound Processor) ont étés à leur tour
miniaturisés, et tiennent aujourd'hui sur une carte de station de travail. Les
microprocesseurs ne cessent d'augmenter leurs puissances de travail et le
nombre d'éléments intégrés : chaque nouvelle puce qui sort tous les dix-huit à
vingt-quatre mois a une capacité double de la précédente. Cette observation
prend aujourd'hui force de loi (la fameuse loi de Moore). Elle justifie la
course de vitesse engagée, depuis la naissance de l'informatique, contre
l'obsolescence du matériel : à peine commercialisé, ce matériel doit
prendre en compte une nouvelle donne de la vie scientifique aux implications
révolutionnaires.
Vitesse de calcul ne signifie pas capacité de travail ! Seule
l'amélioration des formes de langage de communication avec la machine peut
véritablement améliorer le rendement. C'est ainsi que de 1953 à 1958 sont
apparus les premiers vrais langages de programmation (Fortran, Algol). Avec
eux, l'interface homme / machine s'opère plus aisément. Les programmes se
spécialisent, et dans cette mouvance apparaissent des logiciels de synthèse
numérique. Notamment, en 1959 aux Bell Laboratories,
Music III de Max V. Mathews fut le premier vrai
langage opératoire de description des sons. Music I (1957) avait inauguré le
premier programme de synthèse sonore, et constitue de ce fait la première
véritable synthèse numérique. Le principe de modularité de Music III développe
les faibles possibilités de ses prédécesseurs. Music V (1967) sera l'ancêtre de
nombre de programmes encore utilisés. Avec ces programmes de synthèse
entièrement numérique puis avec la mise en place de systèmes de synthèse
hybrides, c'est-à-dire de systèmes analogiques à commande numérique
[6],
dans les années soixante-dix, l'informatique offre aux musiciens de prolonger
leurs recherches sur le phénomène sonore, entamées avec la musique concrète
dans les années d'après-guerre.
De cette cohésion entre matériel et logiciels ergonomiques naît
l'informatique. Le néologisme, hybride des termes information et automatique,
est forgé par le philosophe Philippe Dreyfus.
En
La musique de la première moitié du XXème siècle cherche à
renouveler son matériau mais hésite encore entre le calcul combinatoire et
l'utilisation de sons inconnus, directement issus des nouveaux procédés
électroniques. L'informatique musicale permet justement de dépasser le cadre de
cette réflexion sur la formalisation. À la fois libération, le matériau
devenant vraiment neuf, et contrainte, la connaissance de la réalité du sonore
étant en tout point trop restreinte, les nouvelles technologies informatiques
permettent une redécouverte du matériau. Au milieu du XXème siècle, vers les
années 1947-1950, le noyau fédérateur qui subsiste à l'arrivée du magnétophone
et des techniques électroniques, réside dans la manifestation d'un sonore perceptible et construit (musique concrète en
France, et Music for Tape aux États-Unis). Le pouvoir offert
primitivement par la technologie de l'enregistrement (première transcription
spatiale de l'évanescence du sonore), est soudain
considérablement amplifié avec la synthèse sonore. La synthèse crée en
l'absence de toute source sonore, ex nihilo, et produit des effets sur
nos sens découplés de leurs origines physiques. En ouvrant la voie à une
création purement abstraite, la technologie numérique ranime donc une vieille
utopie musicale. Deux éléments semblent fonder cette promesse :
* Une technique qui serait à même de produire tous les
sons, de permettre une prise de possession de l'univers sonore dans sa totalité
continue.
* La mise à disposition d'un nouvel instrument, parfait,
multiple et polyvalent .
Ces axiomes constituent ce que Martin Laliberté
appelle le "mythe fondateur" de l'informatique musicale
[8].
Ils traduisent une espèce d'inconscient collectif focalisé autour des propriétés
créatrices de la "machine univers" [9].
Ce mythe explique en fait les espoirs déçus et les errements des premiers
utilisateurs de la synthèse numérique. Les nouvelles technologies numériques
doivent donc concentrer leurs efforts sur la mise en place d'une esthétique du
fonctionnel, aidée en cela dans les évolutions organologiques : au synthétiseur RCA
d'Olson et Belar (1955) succède
le premier synthétiseur numérique à modulation de fréquence, le synclavier de J. Appleton (avec l'ingénieur S. Alonso) en
1973. Les programmes d'aide à la composition des années 70-90 (Musica, Esquisses, et surtout Max de Miller Puckette, 1988) fournissent dans un même ensemble, calculs
formels et algorithmes de synthèse élaborés.
En partant de ces acquisitions, la recherche tente d'ouvrir
plusieurs espaces pouvant servir de cadre à une définition du musical. Ces
espaces, qu'ils soient abordés par de praticiens (Hiller, Xenakis, Chowning ou Risset par exemple)
ou par des musicologues (Dalhaus, Molino,
Nattiez, Deliège entre autres) se répartissent
toujours entre les deux grandes classes prédéfinies : l'approche
extrinsèque, fonctionnelle, et l'approche intrinsèque, immanente. Pour les uns,
la musique peut avoir une existence en soi ; pour les autres, ne
fonctionne que ce qui est perçu, et l'informatique doit permettre de construire
cette représentation esthétique.
Dans la première tendance, formaliste, les
compositeurs privilégièrent la structuration d'événements : d'abord de
façon inductive, en se servant des théories musicales (Barbaud,
1950, Xenakis, 1953, Hiller et Isaacson, 1956), puis
de façon déductive, en inférant statistiquement les possibilités d'apparition
d'un événement, et en utilisant des modèles issus des sciences humaines (Babbitt, dès 1955 avec le synthétiseur RCA, ou Riotte en 1961, et
surtout Xenakis, également en 1961, avec la mise en place des programmes stocchastiques ST/10).
Dans la tendance fonctionnelle, les compositions musicales par
ordinateur obéissent à une logique différente : les compositeurs préfèrent
privilégier des rapports de timbre et d'harmonie (travaux de Mathews et Pierce sur la synthèse sonore, 1957-1959), des
virtualités nouvelles (Shepard, 1964, Risset, 1965, sons paradoxaux), et catalyser le matériau
musical pour en déduire une dynamique de l'œuvre (Risset,
Little Boy, 1968). Plus qu'une
"organisation des sons", la musique, au travers de ce matériau sonore
qui lui dicte sa forme, son expression, se révèle alors comme une communication
construisant son ordre propre. La spécificité des technologies numériques
bouleverse le rapport du sonore au musical. L'informatique dans tous ces cas de
figure ne reste qu'un outil. Pour la faire accéder au statut d'instrument il
lui faut une interaction avec le corps, c'est-à-dire une interface qui produise
de l'information à partir de l'énergie, ce qui caractérise en propre
l'organologie traditionnelle. C'est le sens des recherches entreprises à partir
de 1975 à l'ACROE sur l'établissement d'une synthèse
gestuelle [10] et qu'on
retrouve encore dans les recherches du studio
Puce muse sur le méta-instrument de Serge de Laubier.
Grâce au renouvellement du lien qui unit les deux questions fondamentales de la
recherche musicale depuis le début du siècle, l'esthétique contemporaine de
l'informatique musicale marie les questions intéressant la relation entre le
temps et l'énergie à celles intéressant le fonctionnement du cerveau humain et
les mécanismes cognitifs.
Une "prise de conscience théorique" [11]
des données acoustiques, psycho-acoustiques et musicales modélisables encourage
l'informatique musicale naissante à créer un matériau particulier. La
découverte d'une évolution temporelle des composantes acoustiques force à
découpler paramètres physiques et paramètres entendus. Le rapprochement entre
l'étude acoustique du processus d'évolution du son (transitoires, enveloppes)
et la construction artistique de la forme de l'œuvre (construction du temps au
niveau macroscopique), vient cristalliser l'esthétique de l'informatique
musicale autour d'une nouvelle forme d'attention à sa réceptivité. Nourrie des
recherches de la psychologie, de la neuropsychologie et de la cognition, cette
esthétique s'attache à bouleverser les formes de la perception. Une hiérarchie
fonctionnelle de la perception, voire de la pertinence esthétique, se bâtit qui
permet à la musique d'intégrer ces données dans des conduites esthétiques
neuves. La conception de la musique s'ébauche à l'heure actuelle par cette
double modélisation scientifique et artistique. Ce renouvellement rend
indispensable aujourd'hui le recours aux technologies numériques (c'est le cas
par exemple des œuvres issues de la tendance spectrale de M. Lindberg ou de K. Saariaho), même
si toutes les œuvres ainsi créées n'utilisent pas obligatoirement des sons de
synthèse. Les compositeurs cherchent à extraire une idée compositionnelle sans
s'attacher à un modèle théorique, et recourent à un travail en amont sur la
perception de l'œuvre, travail qui concerne à la fois le matériau sonore
(induit d'une réalité sensorielle concrète ou déduit des techniques de
synthèse) et son agencement musical. Cette appréhension nouvelle, en se
dégageant de la connaissance objective (fondée sur le temps linéaire), révèle
une structuration de la réalité qui échappe en d'autres circonstances à notre
perception immédiate ; elle dévoile une qualification subjective qui
permet de restituer au temps toute ses dimensions, et
de pénétrer plus avant dans la construction de structures musicales.
On notera que l'informatique musicale est née d'un contexte
institutionnel, philosophique et scientifique. La mise en avant de la notion de
recherche musicale permet une interaction féconde entre technicien et artistes.
Ce contexte est favorisé par l'implication croissante des institutions
publiques, par des résultats scientifiques et artistiques de plus en plus
significatifs dans le domaine de l'analyse/synthèse du son, et enfin par la
constitution d'une communauté internationale de l'informatique musicale. Née en
France à partir de la fin des années 60 et au début des années 70, cette
communauté s'est structurée en un réseau d'acteurs essaimés dans des petites
structures : ACROE à Grenoble, GMEM à Marseille, GMEB à
Bourges qui devient en
Pour parvenir à cette expérimentation musicale, la confrontation
entre le vécu sensible et les lois physiques paraît un point de passage obligé.
[13].
L'informatique opère une intermédiation qui démultiplie la puissance créatrice.
L'intervention des systèmes informatiques temps réel autorise la création
d'œuvres qui, au fur et à mesure de leur déroulement temporel, modifient leur
parcours en fonction de l'interprétation. La technologie intervient sur le
processus d'élaboration et sur le processus d'interprétation (ainsi l'étonnant Duo
pour un pianiste de J.-C. Risset en 1989). Rester
réceptif face aux résultats de ces processus demande au compositeur de
réorienter sa manière de construire une œuvre.
Les progrès des composants électroniques plus performants (accroissement
de la vitesse de calcul, diminution du dégagement thermique, de
l'encombrement...) sont à l'origine d'une évolution marquante du matériau
musical et de la standardisation des instruments de synthèse : c'est
l'apport principal du temps réel. La technique passe de l'enregistrement à la
musique mixte, puis des systèmes de synthèse hybride aux systèmes temps
réel. Au fur et à mesure, l'exigence de souplesse et de rapidité se traduit
surtout par une impatience devant l'instrument de production. Car le temps réel
se révèle être un leurre : en limitant le traitement du matériau au contrôle de
quelques paramètres, il limite la marge de maneuvre
du musicien. Le processus de synthèse demeure immuable et il ne permet pas
d'orienter les formalismes.
La simulation d'instrument existant n'a que peu d'intérêt, mais
elle permet de mesurer la distance qui nous sépare encore de l'organologie
traditionnelle. L'interactivité et le temps réel ont été introduits quand, la
technique aidant, le compositeur put faire prendre en charge une partie de sa
création, souvent confiée à l'interprétation [13].
La composition se situe hors du temps linéaire ; elle n'a pas
à se soucier des réponses immédiates. Seule une limitation de la mémoire
auditive impose des écoutes immédiates pour mieux jauger, estimer,
comparer.
Dans l'absolu, il faut pouvoir prendre le temps de spécifier dans
les moindres détails de la microstructure les caractéristiques des sons
recherchés. Par conséquent le compositeur se méfie d'un temps figé. Certains
ont poursuivi le plus longtemps possible l'expérience de la synthèse en temps
différé pour permettre de progresser dans le travail de micro-composition. La
musique mixte fut le vecteur privilégié de cette construction. J.-C. Risset, par exemple, dans Inharmoniques pour soprano et bande et trois moments newtoniens pour sept
instruments et sons synthétisés par ordinateur, en 1977, continue à faire de
son travail d'expérimentation sur la synthèse le préalable à l'élaboration de
son matériau compositionnel. La création musicale s'achemine vers un compromis
entre temps réel et temps différé pour conserver les avantages et les qualités
de chacun de ces procédés. Le temps réel reste surtout utilisé pour son
traitement en direct de l'interprétation, et le temps différé pour sa richesse
d'exploitation des sons de synthèse.
Grâce à l'informatique, le contrôle du "temps dans le
son" et celui du "son dans le temps" [14]
parviennent à une réalité compositionnelle. Le matériau est littéralement sculpté.
C'est dire que la composante temporelle devient un paramètre fondamental,
intégré à la composition, et dont on joue à l'infini. La synthèse permet de
réguler certaines fréquences et de passer ainsi de fréquences perçues comme des
rythmes à des fréquences perçues comme des hauteurs musicales. La limite
fusionnelle entre la dimension rythmique et la dimension mélodique peut fonder
certaines mixités de perception où la musique s'enrichit de nouveaux attributs.
Cette fusion rythme - mélodie se retrouve à l'origine de la pièce de Brian Ferneyhough Time and Motion Study(1976)
et elle perdure chez nombre de nos contemporains. Comprendre l'évolution des
phénomènes permet d'intégrer la puissance créatrice du temps, et de dépasser
les contingences du formalismes. Cette intégration a
lieu dans un œuvreespace d'écoute, manifestation
obligée de la perception de la composition.
La gestion de l'espace devient également une préoccupation
poïétique. Du moment que la musique intègre des transducteurs sonores, ces
derniers peuvent se soumettre à un contrôle compositionnel. Le
développement apporté à la finesse de ce contrôle renouvelle l'unicité de
l'œuvre en concert. L'unité musicale intègre même de nouvelles dimensions,
comme l'acoustique architecturale des lieux d'écoute. Intervenir sur
l'architecture d'une salle pour en corriger l'acoustique reste très onéreux.
L'idée s'est donc fait jour de capter les sons émis à la source pour créer une
réverbération et même des réflexions. Les systèmes récents (ACS,
SIAP, Lexicon, Eres,
Yamaha) prennent le son à proximité de la source puis le traitent et enfin
diffusent au travers de haut-parleurs répartis dans toute la salle.
John Chowning a lié dès le début de ses travaux sur la
synthèse (1964) le problème de la confection du son à celui de son contrôle
spatial. Ses compositions relient entre eux les paramètres de perception de
l'espace : image et angle de focalisation, distance à la source et
réverbération, perception du mouvement. Le programme se charge de frayer nimporte quel parcours décrit sous forme graphique dans un
espace à deux ou trois dimensions. Turenas
(1972) qui en est l'une des plus brillantes illustrations, réussit à faire
passer l'espace de sa fonction figurative à sa dimension fonctionnelle et
formelle. L'œuvre ne fait appel qu'à quatre haut-parleurs mais l'espace
illusoire créé n'est nullement limité. Les Polytopes
(1972) et Diatopes (1978) de Xenakis réunissent les
dimensions spatiales avec celles du visuel et de la kinesthésie. Boulez
recherche un continuum timbral dans une écriture bien
particulière qui utilise les fonctions formelles. Dans Répons (1981) il
crée une variété de jeux dans l'espace et avec l'espace.
Les préoccupations stylistiques des compositeurs des années 90
reviennent à un bouleversement conceptuel en situant leurs recherches vers des
limites temporelles. Contraints de revisiter certaines notions
psycho-acoustiques, ils en viennent à forger de nouveaux matériaux à partir des
données de la science cognitive déduites de elles-mêmes
de l'informatique musicale. Une certaine esthétique maximise le contrôle des
paramètres de temps et d'espace revêtant pour l'écoute de la musique des
fonctionnalités de premier ordre.
Ainsi Lituus de José Manuel Lopez Lopez, ou
les Miniatures de Philippe Hurel constituent
des explorations des interactions entre une recherche sur le timbre des
instruments et une macroforme qui évolue dans le
temps. La superposition ou la transposition d'un de ces modes de gestion du
temps dans l'autre permet de créer des masses sonores gouvernées par des
correspondances entre le diachronique et le synchronique. Ce jeu de fractales,
où harmonie et timbre obéissent à des règles similaires dans leur construction,
amplifie les données immédiates et traduit une prégnance de la forme qui
correspond à notre appréciation intuitive de l'équilibre et de l'harmonie du
tout.
Contrôler la gestion de l'espace et du temps musical revient dès
lors à pouvoir manier les grands rythmes, à organiser une écoute dans les
contours de l'évolution irréversible du processus musical, et à permettre à la
musique de s'inscrire dans le vécu. Toutes ces évolutions stylistiques de la
musique ne peuvent s'accommoder d'allégeance à une quelconque notion de progrès
ou de régression. Il reste à constater l'apport de tous à chacun et de chacun à
tous, les influences de chaque système de composition sur la création musicale
tout entière. Cet univers relatif et déconcentré où tous les points de
bifurcation de l'information tissent un réseau planétaire de communication est
renforcé par Internet. L'informatique musicale a rejoint les préoccupations des
musiciens en matière de création. Elle réconcilie le code et le message, la
structure et l'objet.
Elle fait mieux que de rendre désuète la dualité cerveau-ordinateur : elle
trace une nouvelle voie et institue un contexte significatif des ambitions
créatrices.
L Rondeleux
A
consulter sur la toile :
Anne Veitl, Formation
du domaine de l'informatique musicale, Repères chronologiques : XIXe siècle
-> 1983, Observatoire Tscimuse
une histoire de l'informatique : http://histoire.info.online.fr/
120 années de musique électronique : http://120years.net
cf la version pdf 120 Years of
Electronic Music
Wikipédia, article Informatique musicale
BARBAUD (Pierre), Introduction à la
composition musicale automatique, Paris, Dunod,
1966.
BARRIERE (Jean-Baptiste) [collectif sous la direction de], Le
timbre, métaphore pour la composition, Paris, Christian Bourgois
IRCAM, coll. Musique/Passé/Présent, 1991.
BATTIER (Marc), Sculpter la transparence
L'écriture, le geste, l'environnement, Les cahiers de l'IRCAM-Recherche et
Musique, 1, automne 1992, pp. 57-75.
BRETON (Philippe), Une histoire de l'informatique, Paris,
Le Seuil, coll. Points, 1990, 1ère éd., Paris, La Découverte, 1987.
DUFOURT (Hugues), Art et science, in : La revue musicale,
383-384-385, Varèse vingt ans après , Paris, Richard-Masse, 1985,
pp. 91-109.
DUFOURT (Hugues), musique, pouvoir, écriture, Paris,
Christian Bourgois, coll. Musique/Passé/Présent, 1991.
DURIEUX (Frédéric), Réseaux et création, Les cahiers de
l'IRCAM-Recherche et Musique, 1, automne 1992, pp. 87-103.
HILLER (Lejaren A.), Music composed with computers : an historical survey,
in : Lincoln
(Harry B). [éd.], The Computer and Music, New
York, Cornelle University Press, Ithaca, 1970, pp. 4296.
HILLER (Lejaren A.), Composing
with computers : A progress
report, 1ère parution in : Computer Music Journal, Vol.5, 4,
Hiver 1981, 2de parution in : The
Music Machine, Roads (Curtis) éd., Cambridge, Massachussets, London, the MIT Press,
1989.
LALIBERTÉ (Martin), Informatique musicale : utopies
et réalités, Les cahiers de l'IRCAM- Recherche et musique, 4, 4ème
trimestre 1993, pp. 163-172.
MOLES (Abraham), Théorie de l'information et perception
esthétique, Paris, Denoël-Gonthier, 1958, 2de éd.
1972.
RISSET (Jean-Claude), Musique, recherche, théorie,
espace, chaos, InHarmoniques 8/9, Musique
Recherche Théorie, 1991, pp. 271-316.
RISSET (Jean-Claude), Synthèse et matériau musical, Les
cahiers de l'IRCAM-Recherche et Musique, 2, 1er trimestre 1993,
pp. 43-65.
RONDELEUX (Luc), Influence des représentations
numériques sur l'évolution du langage musical en France et aux
États-Unis, 1957-1982 : de la première synthèse au protocole MIDI,
vingt-cinq années de bouleversements dans l'expérimentation musicale, Thèse
de Doctorat de musique et musicologie du XXème siècle, EHESS,
1995.
RONDELEUX (Luc), De la cao à la cmao
: l'évolution historique d'un concept de modélisation musicale, Journées dÂ’informatique musicale JIM'95,
Paris, 1995.
RONDELEUX (Luc), LALIBERTÉ
(Martin), 1957-1997: quarante années de représentations numériques au service
de l'acoustique musicale et de la création artistique, Actes du 4ème Congrès
français d'Acoustique (Cfa 97) Proceedings
of the 4th French Acoustics
Congress, Marseille, France, 14-18 avril 1997, SFA teknea, Vol. 1,
pp. 633-636.
RONDELEUX (Luc), Quarante années de représentations
numériques au service de la création musicale, Alliage, 33-34, hiver
1997-printemps 1998, pp. 80-91. Cf : travaux
VEITL (Anne), Politiques de la musique
contemporaine - Le compositeur, la recherche musicale et l'Etat en France de
1958 à 1991, Paris, L'Harmattan, 1997, 254 p.
WESSEL (David) et RISSET
(Jean-Claude), Les illusions auditives, 1ère parution article ACOUSTIQUE -
les illusions auditives in : Encyclopedia
Universalis, vol. 1, Paris, 1979,
pp. 167-170. 2de parution in : Musique
et ordinateur, M. Battier,
P. Bernard et G. Charbonneau (eds),
Les Ulis - Centre expérimental du spectacle,
Université Paris-Sud, 1983, pp. 93-105.
[1] Un site illustré et très intéressant reprend les éléments cités :
http://120years.net cf
la version pdf 120 Years of
Electronic Music
[2] Cf. Alliage,
n°33-34, "Statut esthétique de l'art technologique", Hiver
1997-Printemps 1998.
[3] Ce concept
d'information, issu de la théorie de Shannon, servira à A. Moles pour établir
sa Théorie de l'information esthétique (1958) et à de nombreux
compositeurs pour construire leur approche de la technologie ; voir par exemple
HILLER (Lejaren A.), Informationstheorie
und Computermusik, Darmstädter Beiträge zur Neuen Musik,
Vol. 8, Mainz, B. SchottÂ’s sohne,
1964. Repris en partie in : WINCKEL (Fritz),
Computermusik, Musica,
19, 1965.
[4] Les premiers spécimens du type à pointes étaient constitués par
un cristal de germanium sur la surface duquel étaient appuyés deux pointes
métalliques très proches l'une de l'autre. À ce prototype primitif, manquant de
stabilité, ont succédé le transistor à jonctions et, plus récemment, le
transistor à effet de champ.
[5] La lampe à triode
remonte au début du siècle : elle fut mise au point par Lee de Forest en 1907.
[6] Synthi sound
de P. Zinovieff, PIPER de G. Ciamaga
et surtout le système GROOVE de Mathews et Moore.
[7] Le premier programme d'intelligence artificielle est élaboré en
1956 au M.I.T. par H. A. Simon et A. Newell.
[8] LALIBERTÉ
(Martin), Informatique musicale : utopies et réalités, Les cahiers de
l'IRCAM - Recherche et musique, n°4, “Utopies”,
4ème trimestre 1993, pp. 163-172.
[9] LEVY (Pierre), La machine univers, Paris, La Découverte,
coll. sciences et société, 1987, 2de éd., Paris, Le
Seuil, coll. Points sciences, 1992.
[10] CADOZ (Claude), LUCIANI
(Andréa), FLORENS (Jean-Loup), Synthèse musicale par
simulation des mécanismes instrumentaux et transducteurs gestuels rétroactifs
pour l'Â’étude du jeu instrumental, Revue dÂ’acoustique, n°59, 1981, pp. 279-292.
[11] DUFOURT (Hugues), Les
difficultés d'une prise de conscience théorique (1981) in : musique,
pouvoir, écriture, Paris, Christian Bourgois, coll. Musique/Passé/Présent,
1991, pp. 191-197.
[12] Cf. VEITL (A.), La vie des
musiques électroacoustiques en France et la politique d'aide publique à la
recherche musicale : repères historiques (1966-1990) et enjeux actuels,
Colloque 50 ans de la musique concrète, Paris, Centre d' Études et de Recherche
Pierre SCHAEFFER, 1998.