Marie-Noëlle Heinrich Création musicale et nouvelles technologies : quelle renc

Marie-Noëlle Heinrich Création musicale et nouvelles technologies : quelle rencontre possible ? In: Quaderni. N. 48, Automne 2002. Le risque : les choix technopolitiques. pp. 41-51. Citer ce document / Cite this document : Heinrich Marie-Noëlle. Création musicale et nouvelles technologies : quelle rencontre possible ?. In: Quaderni. N. 48, Automne 2002. Le risque : les choix technopolitiques. pp. 41-51. doi : 10.3406/quad.2002.1739 http://www.persee.fr/web/revues/home/prescript/article/quad_0987-1381_2002_num_48_1_1739 Création création musicale **^ «****» et nouvelles technologies. Quelle rencontre possible ? Marie-Noëlle Heinrich Enseignant chercheur en Sciences de l'Information et de la Communication En quoi musique et technologie sont-elles devenues indissociables ? Aujourd'hui, l'on ne peut parler de la musique sans évoquer la technique qui l'accompagne. Pour étudier l'évolution de la musique, deux directions s'imposent : d'un côté, l'évolution technologique et, de l'autre côté, l'évolution théorique. En effet, à l'aide des nouvelles technologies, les nouveaux instruments prolongent les instruments traditionnels et provoquent un élargissement de la notion d'instrument. L'évolution théorique, quant à elle, veut provoquer une rupture avec les règles classiques du contrepoint et de l'harmonie. Avant l'arrivée des nouvelles technologies pour la création musicale, les idées étaient prisonnières de l'appareillage musical. C'est grâce à la mutation de l'instrument, d'une part, et à la mutation esthétique d'autre part, que la création musicale connaît aujourd'hui plus de liberté. L'ordinateur et les nouvelles technologies radicalisent donc les attitudes de création, remettent en cause les habitudes composi- tionnelles, par des exigences de redéfinition complète des problèmes, par le recours à la modélisation. Le compositeur travaille à la fois sur le son et avec les sons, et peut penser en continuité le matériau et son organisation. Ainsi, pour la première fois dans l'histoire de la musique, la création musicale mêle les processus de production et d'exécution. Il est besoin également de penser l'écriture autrement. "Musique" et "recherche" sont pourtant deux mots qui, à première vue, ne semblent pas QUADERNI N°48 - AUTOMNE 2002 CREATION MUSICALE ET TECHNOLOGIES «41 posséder grand-chose en commun. Car la musique évoque l'intuition, l'émotion ; la recherche fait penser à la rationalité, à la connaissance. Mais les deux domaines ont évolué de telle sorte à ne plus constituer des pôles opposés : aujourd'hui, l'activité artistique s'articule à la science et à la technologie. Indissociable de la science et de la technologie, la recherche musicale a participé à la création de structures institutionnelles1 pour porter la recherche en relation avec la création artistique. Le compositeur doit développer de nouvelles compétences, avoir des connaissances scientifiques. Le recours aux nouvelles technologies donne au compositeur de nouveaux pouvoirs, mais impose également des contraintes. Le créateur peut contrôler toutes les phases de la création, et être à la fois luthier, compositeur et interprète, dans une logique de continuité du processus de création. Mais le créateur doit expliciter de nouvelles règles. La relation instrumentale est modifiée, le geste tend à disparaître. Il y a nécessité de remettre le créateur au centre du processus de création. Les relations entre compositeur et interprète sont également modifiées. L'auditeur doit changer son attitude d'écoute. L'ensemble des mutations technologiques bouleverse les conditions de production et de réception, ainsi que les conditions même d'existence du phénomène musical. Entraînant une nouvelle forme d'industrialisation de la musique, les nouvelles technologies changent ainsi le statut de l'objet musical et de la musique elle-même. Ruptures esthétiques de la musique au XXe siècle C'est le passage de la musique tonale à la musique atonale qui apporte des changements esthétiques importants. Au début du XXe siècle, la musique atonale marque la rupture avec la musique "traditionnelle" - ou musique tonale -. Elle se définit comme abandon de la tonalité traditionnelle, développement d'une nouvelle complexité rythmique, reconnaissance du timbre comme élément essentiel, création d'une forme absolument nouvelle pour chaque uvre, exploration de processus mentaux plus profonds. C'est la naissance de la musique contemporaine, caractérisée par la notion de rupture avec les règles classiques : les règles de l'harmonie2 et du contrepoint3 sont brisées. Ainsi, comme le souligne Célestin Deliège4, musicologue, c'est précisément la génération d'ondes électroacoustiques en musique qui est venue mettre fin à l'histoire de l'harmonie en Occident. Changements technologiques et révolutions musicales Aux XIXe et XXe siècles, l'électricité puis l'électronique transforment fondamentalement l'environnement musical. L'électricité permet l'amplification et la communication à distance et transforme l'espace et le temps des relations communicationnelles. L'électronique, quant à elle, apporte l'automatisation. Deux innovations techniques de la fin du XIXe siècle révolutionnent notre rapport au son. D'une part l'enregistrement, avec le phonographe, inventé par Thomas Edison en 42 CREATION MUSICALE ET TECHNOLOGIES QUADERNI N°48 - AUTOMNE 2002 1875, qui permet la reproduction du son en l'absence de sa cause, la distanciation de l'instrument, la possibilité de fixer, découper, analyser le son. Le phonographe permet aussi l'inscription sur l'espace et donc la possibilité d'inverser le sens du temps. De même que le télégraphe Chappe naît à l'époque de la création de l'État moderne, que le télégraphe électrique se développe avec l'extension de la Bourse, le phonographe accompagne les transformations de la vie privée de la seconde moitié du XIXe siècle et se développe comme un outil (support) de la sphère privée. 1875 constitue donc une date essentielle dans l'histoire des machines à communiquer. Car pour la première fois un dispositif de communication est utilisé pour le divertissement et dans la sphère privée. D'autre part, le son électrique - matérialisé par le téléphone, inventé par Alexander Graham Bell en 1876 -, permet le traitement des signaux sonores dans le domaine électrique (aujourd'hui en grande partie numérique) et la transmission à distance5 . Risset affirme que le téléphone marque l'avènement du traitement électrique du son, qui libère la genèse et le traitement du son des contraintes mécaniques. Un réseau téléphonique a deux grandes fonctions techniques : transmettre la voix, réaliser la connexion entre l'émetteur et le récepteur. Nous considérons que 1906, avec l'arrivée de l'électronique, est la date où se produit la plus importante rupture : c'est la lampe triode, inventée par Lee De Forest, qui permet l'amplification. La triode permet d'amplifier un signal électrique. L'amplification sera au point dans les années vingt et favorisera le développement de la radio. Arrivent ensuite les premières applications de l'électricité en musique : le Thereminvoxen 1920, les Ondes Martenot en 1928, le Trautonium en 1930 (par Oskar Sala), la guitare électrique Rickenbacker A-30 en 1931, l'orgue électrique Hammond en 1934. Le second courant essentiel des changements musicaux contemporains démarre après la Seconde Guerre mondiale, en 1948, avec l'invention du transistor et les premiers essais radiophoniques. L'électronique continue son développement. Le magnétophone à bande apparaît au début des années 1950, puis la guitare électrique. Le magnétophone permet le développement de la musique concrète, dont le but est la manipulation et le traitement de sons naturels ou instruments enregistrés. Schaeffer considère le microphone comme un véritable instrument. Comme le souligne Risset, grâce à l'électricité, à l'électronique, à l'informatique, le son peut être enregistré, détaché de sa source, manipulé, transformé, créé de toutes pièces, et pour la première fois, s'affranchir des contraintes mécaniques. Au début des années 1960, l'électronicien américain Robert Moog présente le synthétiseur de sons analogique. Le synthétiseur ouvre la voie vers une conception différente des instruments électroacoustiques. Ce qui distingue l'ordinateur du synthétiseur, c'est sa généralité. La synthèse est une activité périphérique, car elle peut être déléguée à un périphérique de l'ordinateur QUADERNI N°48 - AUTOMNE 2002 CREATION MUSICALE ET TECHNOLOGIES «43 nommé convertisseur numérique/analogique. et aboutissent à des utilisations musicales. En 1969, Mathews réalise un programme d'ordinateur, Music V, où l'utilisateur construit un instrument hypothétique, à partir de blocs de programmation. Ce programme de synthèse préfigure les synthétiseurs modulaires et la programmation objet. L'informatique musicale est née. Très vite, le travail sur le temps-réel - calcul du son dans un temps inférieur ou égal à sa durée réelle - devient une obsession. Les recherches technologiques commencent dès le début des années 70. Le compositeur et chercheur américain John Chowning développe la synthèse par modulation de fréquence, technique originale de synthèse des sons par ordinateur qui permet d'engendrer une infinité de sons pour un coût de mise en uvre peu élevé ; le premier synthétiseur numérique est né. En 1974, Appleton et Alonso réalisent le Synclavier, premier synthétiseur numérique, dans lequel la commande fait appel à un clavier mais aussi à une roue et à des touches de fonction, qui permettent de déclencher et modifier des séquences. Les méthodes de contrôle tirent parti des expériences de Mathews et Moore sur Groove. 1976 marque le début des travaux de l'ACROE (Association pour la Création et la Recherche sur les Outils d'Expression, Grenoble) sur les capteurs gestuels rétroactifs commandant des synthèses par simulation de modèles physiques. Ces recherches préfigurent les réalités virtuelles L'interdiscipline art-science-technologie La date-clé est 1948 : elle marque la naissance de la musique concrète, dans les studios de la Radio Télévision Française (devenue 1'O.R.T.F.), grâce à Pierre Schaeffer, ingénieur et homme de radio. Schaeffer utilise comme matériau sonore des sons enregistrés, qui sont ensuite modifiés et montés en studio. Les sons ne sont pas créés par un instrument, mais extraits du réel, uploads/s3/ heinrich.pdf

  • 30
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager