Étude comparative d’In the Mood for Love à l’aide d’ELAN

Eleonore ASQUITH

(Édition: Capucine FAURE)

ELAN, qui signifie EUDICO Linguistic Annotator, est un logiciel d’annotation pour du matériel visuel et audio. Il a été développé en 2000 sous un nom différent et a été relancé sous son nom actuel en 2002 par l’Institut Max Planck de psycholinguistique aux Pays-Bas. ELAN est programmé en langage Java et est compatible avec Windows, macOS et Linux. Curieusement, il n’a pas été initialement conçu comme un logiciel spécifiquement destiné à l’analyse musicale, mais plutôt comme un outil linguistique pour la recherche sur la structure et la dynamique de la communication humaine. Un large éventail de disciplines académiques a bénéficié de ce logiciel, notamment la recherche liée à la langue des signes, l’acquisition du langage chez l’enfant, la psychologie et même la musicothérapie. Néanmoins, il est particulièrement adéquat pour l’analyse de la musique de film, car la musique peut ainsi être examinée en parallèle avec ce qui se passe à l’écran grâce à un alignement temporel précis des annotations. ELAN est également bien adapté pour l’étude comparative, car il permet de lier jusqu’à quatre fichiers vidéo dans une même session.

Dans cette étude, nous utiliserons ELAN pour comparer deux scènes du film In the Mood for Love de Wong Kar-wai (花樣年華), sorti en 2001. Ce qui est intéressant dans ces deux scènes, c’est qu’elles reprennent toutes les deux la même pièce; Yumeji’s Theme de Shigeru Umebayashi. Il s’avère que, de manière très « wong kar-wai-esque », tel qu’on on peut le voir dans des films comme Chungking Express, le réalisateur choisit de répéter neuf fois la même pièce de musique tout au long du film. Les deux scènes choisies sont la première scène comprenant de la musique (5:00-6:00), et la scène finale avec Yumeji’s Theme, à l’exception du générique de fin (1:12:39-1:13:55). En utilisant ELAN, nous démontrerons comment, même si la même pièce de musique est utilisée, deux œuvres radicalemet différentes émergent à travers le geste, la couleur, l’ambiance et l’émotion.

1. Exploration des possibilités d’ELAN

Notre périple débutera par la découverte des fonctionnalités proposées par ELAN avant d’explorer comment elles peuvent être utilisées pour étudier et comparer les deux scènes d’In the Mood for Love.

1.a. Fonctionnalités

Les multiples traits distinctifs d’ELAN facilitent l’annotation et l’analyse des vidéos, ouvrant ainsi la voie à une analyse qualitative et quantitative précise. Tout d’abord, ELAN prend en charge l’annotation des modalités audio et vidéo, s’adaptant ainsi aux chercheurs manipulant une palette diversifiée de données. Les annotations de ces données peuvent être effectuées manuellement ou de manière semi-automatique, toutes synchronisées avec la chronologie multimédia. L’annotation semi-automatique implique généralement l’utilisation d’outils automatiques ou d’algorithmes pour faciliter le processus, tout en laissant place à une supervision et une correction manuelles par l’utilisateur. Pour preuve, des données générées par des logiciels tiers utilisant l’automatisation, tels que les systèmes de reconnaissance automatique de la parole (ASR), peuvent être importées dans ELAN et affinées par les utilisateurs. Ceci est possible grâce à la compatibilité d’ELAN avec une grande variété de formats de fichiers. Une autre caractéristique précieuse d’ELAN réside dans sa capacité à créer des niveaux multiples d’annotations et à organiser ces niveaux en hiérarchies. Cela découle de l’utilisation d’un format de données basé sur XML, permettant ainsi le stockage des documents d’annotation de manière élégante. XML est un langage informatique de balisage. Il permet de structurer les informations de manière hiérarchique (avec un élément racine et d’autres éléments à l’intérieur) et d’expliciter leur rôle au sein de la structure. Par exemple, ELAN peut créer des niveaux d’annotations pour la transcription et la traduction de la parole, se révélant d’une grande utilité dans l’analyse de la musique dotée de paroles.

1.b Comment utiliser le logiciel ?

En outre, comment pouvons-nous tirer parti de ce logiciel pour analyser avec finesse une scène cinématographique imprégnée de musique ? ELAN propose une interface épurée et raffinée. Pour commencer, il suffit de glisser-déposer un fichier dans le logiciel (voir ci-dessous).

Cependant, si plusieurs fichiers doivent être analysés dans une même session (jusqu’à 4 pouvant être affichés simultanément), cliquez sur « Fichier », puis sur « Nouveau » pour sélectionner plusieurs fichiers. Ceci s’est avéré particulièrement utile dans mon analyse, car j’ai pu synchroniser les deux scènes de manière à ce que la musique soit diffusée exactement en même temps, offrant une comparaison visuelle côte à côte. De plus, les fichiers vidéos ont été importés avec des fichiers wav correspondants, permettant ainsi la visualisation de la forme d’onde (voir ci-dessus). La navigation au sein des fichiers importés est facile à appréhender grâce à une série de commandes multimédias de style magnétoscope, agrémentées de fonctionnalités étendues. Vous pouvez avancer ou reculer à cinq niveaux différents :

  • Par pixel
  • Par image
  • Par seconde
  • Par ‘scrollview’
  • Sauter au début ou à la fin

Des notations alignées dans le temps (basées sur un temps de début et de fin spécifique) peuvent être réalisées en sélectionnant un segment, en faisant un clic droit, puis en double-cliquant à l’endroit où une sélection et une couche alignée dans le temps se croisent. Une boîte de texte apparaîtra alors, permettant l’insertion d’une notation. La couche sur laquelle l’annotation est placée peut être hiérarchisée et ordonnée. Lorsqu’une couche est ajoutée, elle peut être assignée à un « parent », ce qui signifie qu’elle est subordonnée à une autre couche (comme illustré dans l’image ci-dessous). Lors de l’analyse de la musique de film, les couches peuvent représenter différentes catégories telles que le bruit de fond (son diégétique), la forme musicale, le mouvement de la caméra, la vitesse du mouvement ou même la synchronisation entre la musique et l’image.

Comme nous pouvons le constater dans l’analyse des scènes d’In the Mood for Love, le temps est représenté sur l’axe des abscisses, tandis que les niveaux sont représentés sur l’axe des ordonnées. L’onde sonore du thème de Yumeji se trouve au-dessus de l’axe des abscisses (auquel elle correspond). En haut à gauche se trouvent les deux vidéos, la scène 1 à gauche et la scène 2 à droite. Au fur et à mesure de la lecture des vidéos, dont la synchronisation correspond au thème de Yumeji, la forme d’onde et les notations défilent en temps réel (représentées par la ligne rouge).

2. Comparaison des deux scènes

Bien que les deux scènes diffusent exactement la même musique, elles racontent des histoires très divergentes et véhiculent des atmosphères très distinctes. Ainsi, la musique prend également une nuance légèrement modifiée à chaque occurrence. Un axiome qui pourrait être évoqué est que la même scène avec une musique différente peut engendrer de nouvelles connotations ; par exemple, une scène de personnes jouant sur une plage prend instantanément une teinte menaçante si le thème de Jaws[1] y est ajouté. Mais cela fonctionne également dans l’autre sens. Le contexte dans lequel s’inscrit la musique influe sur la manière dont nous la recevons et l’écoutons.

Yumeji’s Theme est répété neuf fois tout au long du film à des moments précis marquant la relation entre Chow Mo-wan et Su Li-zhen. Dans In the Mood for Love, le temps, représenté par Chronos, est complètement dissout, et c’est à travers la répétition de Yumeji’s Theme que nous ressentons une progression. Dans un tout autre contexte, cette répétition pourrait être considérée comme poussée à l’extrême vers la farce, cependant, il y a une belle poésie derrière ce mécanisme. Le temps n’est pas représenté par la chronologie, mais par les moments magnifiques qui jalonnent la vie d’une personne.

Les scènes choisies représentent la première et la dernière occurrence où le thème sera joué (sans compter le générique de fin). La sensualité caractérise la première scène, qui met l’accent sur les corps des personnes présentes, privilégiant les torses et les membres plutôt que les visages. Bien que la scène se déroule de nuit, elle se situe à l’intérieur et la lumière diffuse une teinte jaune chaleureuse, éclairant les contours des corps et correspondant aux sentiments joyeux et ludiques ressentis par les personnes présentes. Les magnifiques couleurs et motifs des vêtements ajoutent encore à cette scène vive et tactile. Cela contraste avec la deuxième scène, située à l’extérieur, avec un éclairage plus sombre et plus obscur. Plutôt que de se concentrer sur l’élégance des corps, cette deuxième scène met l’accent sur les émotions brutes des personnages, choisissant de se focaliser sur leurs visages (comme nous le savons, les yeux sont les fenêtres de l’âme). Nous sommes déjà confrontés à d’importantes dualités juxtaposées ; intérieur et extérieur, lumière et obscurité. Cependant, ces différences ne s’arrêtent pas là. Alors que les deux scènes commencent avec une certaine distance par rapport aux sujets à l’écran, la caméra dans la deuxième scène franchit cette frontière en s’approchant des personnes, allant même jusqu’à montrer leurs visages ou leurs mains qui se touchent. Pendant ce temps, la caméra dans la première scène reste une spectatrice, ne franchissant jamais le seuil de l’autre pièce, ne réagissant que lorsque le sujet s’en approche. Ainsi, la deuxième scène est une scène plus privée et intimement émotionnelle. Alors que la première scène est dépourvue de tout son autre que la musique, l’analyse ELAN révèle que 4 couches de son diégétique sont présentes dans la deuxième scène. De plus, alors que la deuxième scène se déroule essentiellement en temps réel, la première scène est filmée au ralenti. Cela dissout davantage les structures temporelles du film.

Les notations d’ELAN révèlent de nombreux parallèles entre les deux scènes et leurs interactions avec la musique, en particulier dans les 2e, 3e, 4e et 5e couches. Nous pouvons constater que les deux scènes ont le même mouvement de caméra, un panoramique lent vers la gauche, au début de Yumeji’s Theme. Il existe également des parallèles entre différentes images fixes, par exemple les images fixes à 0:30 montrent toutes deux le visage de Chow (voir ci-dessous). De nouveau, à 0:10, un homme et une femme côte à côte (voir ci-dessous). Cependant, dans la première scène, l’homme est le mari de Su Li-zhen et dans la deuxième scène, il s’agit de Chow.

Conclusion

En comparant les deux scènes avec ELAN, nous prenons conscience de la gamme d’émotions et d’idées que Yumeji’s Theme est capable de transmettre. Alors que dans la première scène, nous entendons une valse sensuelle, ludique et dramatique, avec l’anticipation tentante de ce qui va suivre, dans la deuxième scène, nous entendons les magnifiques violons qui deviennent troublants alors que nous réfléchissons à tous les moments passés liés au thème. Nous pleurons pour les personnages qui ne comprennent pas la trahison de leurs partenaires et qui aspirent à l’amour, incapables d’admettre leurs sentiments jusqu’à ce qu’il soit trop tard. À la fin du film, en écoutant Yumeji’s Theme, nous n’entendons plus la romance, mais plutôt la douleur, le désir ardent et les regrets.


[1] Jaws, Steven Spielberg, 1975

Les logiciels MuseScore et Audacity : deux outils pour l’analyse et musicale

Léa RICARD

(Édition : Nolwenn DANHYER)

Introduction : 

La musicologie numérique est d’une grande aide dans l’analyse musicale et la recherche musicologique. Nous allons nous intéresser à deux logiciels forts utiles dans la gravure musicale et l’édition audionumérique : Musescore et AudaCity. Ils voient respectivement le jour en 2002 et 1999 et ont connu de nombreuses mises à jour visant à optimiser leur utilisation. Ces logiciels de pointe me sont aujourd’hui indispensables dans le cadre de mon master recherche. En effet, ayant besoin de graver sur ordinateur une partition manuscrite des motets de Pascal Colasse, Musescore m’accompagne au quotidien. Couplé à Audacity, il me permet également de mener à bien mon UV de terrain qui consiste à mettre au point des supports pédagogiques pour les cours d’écriture de L2. Dans ce blog, nous allons donc découvrir les aspects spécifiques de ces deux logiciels, et explorer de façon approfondie leur utilisation dans le domaine de l’édition musicale, tout mettant en évidence leur utilisation en analyse.

I-MuseScore : une notation musicale efficace:

A) Une notation intuitive :

Musescore est un excellent outil de gravure musicale. Il possède notamment une interface intuitive pour la création de partitions et présente  l’avantage d’être gratuit. Cette facilité d’utilisation permet par exemple d’écrire les notes de musique à partir du clavier d’un ordinateur et d’insérer des chiffrages directement sous une basse grâce à la commande (Ctrl+G). Cela permet en outre de réaliser des supports pédagogiques ou de noter une basse chiffrée très rapidement. L’outil « texte de portée » permet d’y superposer des chiffrages romain ou d’autres indications. Ainsi, son utilisation en analyse musicale prend tout son sens et permet une lecture claire des chiffrages d’accord. L’outil « texte » permet également d’y ajouter directement des annotations. 

Chiffrage d’accord réalisé sur Musescore :

B) La maniabilité et la qualité de la notation :

Publicité

about:blank

Réglages de confidentialité

Ce logiciel offre également une grande qualité de notation. Par exemple, l’ajout de paroles synchronisées avec le texte grâce à la commande (Ctrl+L) permet d’adapter la taille des mesures sans que le tout ne soit décalé. De même, le fait de pouvoir disposer les instruments dans l’ordre souhaité, et de pouvoir revenir sur cet ordre après la création de la partition offre une grande liberté de modification dans le cadre d’une édition critique où chaque élément est discuté. Ainsi,  le rendu final de la partition permet aux interprètes une lecture aisée et facilite notamment sa diffusion. Outre les avantages d’un point de vue analytique précédemment exposés, Musescore offre donc de grandes possibilités dans le domaine de l’édition musicale, et notamment dans l’édition musicale critique. 

  • Extrait du motet Beatus vir de Pascal Collasse :

C) Une bibliothèque de partitions en ligne :

Ainsi, la prise en main du logiciel a permis la création d’une vaste bibliothèque de partitions en ligne depuis sa création. De ce fait, MuseScore offre une opportunité intéressante pour l’analyse comparative des  partitions, mais permet aussi de se rendre compte des tendances musicales en temps réel. Le risque est cependant, du fait de la gratuité du logiciel, que des informations peu scientifiques ou des partitions erronées circulent. Néanmoins, cette bibliothèque en ligne permet également une large diffusion de la musique et favorise son accessibilité auprès de tous les publics. Elle permet aussi de disposer de bases de données dans des domaines comme celui de l’orchestration. Il est plus rapide de vérifier qu’une source a été transcrite fidèlement sur un logiciel de gravure plutôt que de recopier la partition, au risque de faire soi-même des erreurs. Ainsi, cette base de travail intervient au même plan dans l’analyse musicale et permet un accès gratuit aux partitions. Cependant, des éditions critiques de qualité comme Urtext restent indétrônables face à la base de données que propose Musescore. Il est cependant à noter que de telles éditions sont elles-même réalisées à partir de logiciels de gravure musicale.

II-Audacity : un logiciel d’édition audio :

A) Enregistrement des fichiers :

Audacity est un logiciel qui permet notamment d’enregistrer des pistes audio et de les éditer. Ainsi, il est aisé de découper, copier et coller différentes parties d’un enregistrement. En outre, Audacity permet d’exporter les pistes audio créees dans un grand nombre de formats : mp.3, WAV… Il est donc aisé de rendre son travail compatible avec n’importe quel logiciel ou site internet. Par exemple, dans la conception de supports de cours d’analyse, allier l’utilisation de Musescore et de Audacity est fort utile. Il suffit par exemple d’exporter le fichier Musescore au format mp.3 avant de découper les portions de la piste qui nous intéressent. Cela permet de les analyser plus profondément. De plus, l’édition multipiste d’Audacity permet aux utilisateurs de superposer et de modifier plusieurs pistes audio. Cela offre grande flexibilité pour la production musicale et permet de réaliser une analyse comparative de deux extraits musicaux par exemple. Dans le cadre d’une création musicale, il est également possible de rajouter divers effets sur la piste enregistrée.  

B) Une analyse des ondes :

Publicités

https://c0.pubmine.com/sf/0.0.7/html/safeframe.html

REPORT THIS ADCONFIDENTIALITÉ

Enfin, ce logiciel permet de mener une analyse au niveau de la visualisation des formes d’ondes, des spectrogrammes et des fréquences. La visualisation des formes d’ondes aide à identifier les sections et les changements de parties dans une pièce musicale. Ce genre de procédés peut être utile pour mettre en lumière la forme d’une pièce par  exemple. Les spectrogrammes quant à eux peuvent mettre en évidence les caractéristiques spectrales récurrentes d’une pièce. Cette analyse permet aussi d’explorer les fréquences présentes dans un enregistrement. Cependant, AudaCity ne remplace pas des outils spécialisés dans le domaine de l’analyse du spectre sonore comme Acousmographe. 

III-Comparaison des logiciels :

A) Des utilisations divergentes :

Tout d’abord, Musescore est principalement conçu pour graver des partitions. Outre les notes de musique et les accords, il est également possible de préciser les dynamiques et les modes de jeu désirés. Ce logiciel a donc un fonctionnement essentiellement visuel. A l’inverse, Audacity repose sur l’enregistrement de pistes audio et leur modification. Cela mobilise des aspects d’avantage auditifs de l’analyse musicale. Ces deux approches sont néanmoins intéressantes à relier afin d’avoir un champ complet des possibilités qu’offrent ces deux logiciels. 

B) Une interface différente :

Pour finir, du fait de leur destination différente, Musescore et Audacity ne proposent pas le même type d’interface. D’une part, musescore offre une notation visuelle des partitions permettant de lire les notes de musique. D’autre part, Audacity est orienté vers l’édition audio. Néanmoins, ce logiciel propose des options permettant de manipuler les formes d’ondes, ce qui fait intervenir un aspect visuel relié à l’analyse musicale différent de celui de Musescore. 

Publicités

https://c0.pubmine.com/sf/0.0.7/html/safeframe.html

REPORT THIS ADCONFIDENTIALITÉ

Conclusion :

Pour conclure, l’utilisation de logiciels informatiques comme Musescore et Audacity est indispensable à tout étudiant ou chercheur s’intéressant à l’édition et à l’analyse musicale. D’une part, Musescore est un excellent outil de gravure musicale. D’autre part, Audacity se distingue dans l’édition de pistes audio. Leur association permet de créer des éditions et des supports pédagogiques de qualité, et leur gratuité favorise une large diffusion auprès de nombreux publics. 

Les logiciels MuseScore et Audacity : deux outils pour l’analyse et musicale

Léa RICARD

(Édition : Nolwenn DANHYER)

Introduction : 

La musicologie numérique est d’une grande aide dans l’analyse musicale et la recherche musicologique. Nous allons nous intéresser à deux logiciels forts utiles dans la gravure musicale et l’édition audionumérique : Musescore et AudaCity. Ils voient respectivement le jour en 2002 et 1999 et ont connu de nombreuses mises à jour visant à optimiser leur utilisation. Ces logiciels de pointe me sont aujourd’hui indispensables dans le cadre de mon master recherche. En effet, ayant besoin de graver sur ordinateur une partition manuscrite des motets de Pascal Colasse, Musescore m’accompagne au quotidien. Couplé à Audacity, il me permet également de mener à bien mon UV de terrain qui consiste à mettre au point des supports pédagogiques pour les cours d’écriture de L2. Dans ce blog, nous allons donc découvrir les aspects spécifiques de ces deux logiciels, et explorer de façon approfondie leur utilisation dans le domaine de l’édition musicale, tout mettant en évidence leur utilisation en analyse.

I-MuseScore : une notation musicale efficace:

A) Une notation intuitive :

Musescore est un excellent outil de gravure musicale. Il possède notamment une interface intuitive pour la création de partitions et présente  l’avantage d’être gratuit. Cette facilité d’utilisation permet par exemple d’écrire les notes de musique à partir du clavier d’un ordinateur et d’insérer des chiffrages directement sous une basse grâce à la commande (Ctrl+G). Cela permet en outre de réaliser des supports pédagogiques ou de noter une basse chiffrée très rapidement. L’outil « texte de portée » permet d’y superposer des chiffrages romain ou d’autres indications. Ainsi, son utilisation en analyse musicale prend tout son sens et permet une lecture claire des chiffrages d’accord. L’outil « texte » permet également d’y ajouter directement des annotations. 

Chiffrage d’accord réalisé sur Musescore :

B) La maniabilité et la qualité de la notation :

Publicité

about:blank

Réglages de confidentialité

Ce logiciel offre également une grande qualité de notation. Par exemple, l’ajout de paroles synchronisées avec le texte grâce à la commande (Ctrl+L) permet d’adapter la taille des mesures sans que le tout ne soit décalé. De même, le fait de pouvoir disposer les instruments dans l’ordre souhaité, et de pouvoir revenir sur cet ordre après la création de la partition offre une grande liberté de modification dans le cadre d’une édition critique où chaque élément est discuté. Ainsi,  le rendu final de la partition permet aux interprètes une lecture aisée et facilite notamment sa diffusion. Outre les avantages d’un point de vue analytique précédemment exposés, Musescore offre donc de grandes possibilités dans le domaine de l’édition musicale, et notamment dans l’édition musicale critique. 

  • Extrait du motet Beatus vir de Pascal Collasse :

C) Une bibliothèque de partitions en ligne :

Ainsi, la prise en main du logiciel a permis la création d’une vaste bibliothèque de partitions en ligne depuis sa création. De ce fait, MuseScore offre une opportunité intéressante pour l’analyse comparative des  partitions, mais permet aussi de se rendre compte des tendances musicales en temps réel. Le risque est cependant, du fait de la gratuité du logiciel, que des informations peu scientifiques ou des partitions erronées circulent. Néanmoins, cette bibliothèque en ligne permet également une large diffusion de la musique et favorise son accessibilité auprès de tous les publics. Elle permet aussi de disposer de bases de données dans des domaines comme celui de l’orchestration. Il est plus rapide de vérifier qu’une source a été transcrite fidèlement sur un logiciel de gravure plutôt que de recopier la partition, au risque de faire soi-même des erreurs. Ainsi, cette base de travail intervient au même plan dans l’analyse musicale et permet un accès gratuit aux partitions. Cependant, des éditions critiques de qualité comme Urtext restent indétrônables face à la base de données que propose Musescore. Il est cependant à noter que de telles éditions sont elles-même réalisées à partir de logiciels de gravure musicale.

II-Audacity : un logiciel d’édition audio :

A) Enregistrement des fichiers :

Audacity est un logiciel qui permet notamment d’enregistrer des pistes audio et de les éditer. Ainsi, il est aisé de découper, copier et coller différentes parties d’un enregistrement. En outre, Audacity permet d’exporter les pistes audio créees dans un grand nombre de formats : mp.3, WAV… Il est donc aisé de rendre son travail compatible avec n’importe quel logiciel ou site internet. Par exemple, dans la conception de supports de cours d’analyse, allier l’utilisation de Musescore et de Audacity est fort utile. Il suffit par exemple d’exporter le fichier Musescore au format mp.3 avant de découper les portions de la piste qui nous intéressent. Cela permet de les analyser plus profondément. De plus, l’édition multipiste d’Audacity permet aux utilisateurs de superposer et de modifier plusieurs pistes audio. Cela offre grande flexibilité pour la production musicale et permet de réaliser une analyse comparative de deux extraits musicaux par exemple. Dans le cadre d’une création musicale, il est également possible de rajouter divers effets sur la piste enregistrée.  

B) Une analyse des ondes :

Publicités

https://c0.pubmine.com/sf/0.0.7/html/safeframe.html

REPORT THIS ADCONFIDENTIALITÉ

Enfin, ce logiciel permet de mener une analyse au niveau de la visualisation des formes d’ondes, des spectrogrammes et des fréquences. La visualisation des formes d’ondes aide à identifier les sections et les changements de parties dans une pièce musicale. Ce genre de procédés peut être utile pour mettre en lumière la forme d’une pièce par  exemple. Les spectrogrammes quant à eux peuvent mettre en évidence les caractéristiques spectrales récurrentes d’une pièce. Cette analyse permet aussi d’explorer les fréquences présentes dans un enregistrement. Cependant, AudaCity ne remplace pas des outils spécialisés dans le domaine de l’analyse du spectre sonore comme Acousmographe. 

III-Comparaison des logiciels :

A) Des utilisations divergentes :

Tout d’abord, Musescore est principalement conçu pour graver des partitions. Outre les notes de musique et les accords, il est également possible de préciser les dynamiques et les modes de jeu désirés. Ce logiciel a donc un fonctionnement essentiellement visuel. A l’inverse, Audacity repose sur l’enregistrement de pistes audio et leur modification. Cela mobilise des aspects d’avantage auditifs de l’analyse musicale. Ces deux approches sont néanmoins intéressantes à relier afin d’avoir un champ complet des possibilités qu’offrent ces deux logiciels. 

B) Une interface différente :

Pour finir, du fait de leur destination différente, Musescore et Audacity ne proposent pas le même type d’interface. D’une part, musescore offre une notation visuelle des partitions permettant de lire les notes de musique. D’autre part, Audacity est orienté vers l’édition audio. Néanmoins, ce logiciel propose des options permettant de manipuler les formes d’ondes, ce qui fait intervenir un aspect visuel relié à l’analyse musicale différent de celui de Musescore. 

Publicités

https://c0.pubmine.com/sf/0.0.7/html/safeframe.html

REPORT THIS ADCONFIDENTIALITÉ

Conclusion :

Pour conclure, l’utilisation de logiciels informatiques comme Musescore et Audacity est indispensable à tout étudiant ou chercheur s’intéressant à l’édition et à l’analyse musicale. D’une part, Musescore est un excellent outil de gravure musicale. D’autre part, Audacity se distingue dans l’édition de pistes audio. Leur association permet de créer des éditions et des supports pédagogiques de qualité, et leur gratuité favorise une large diffusion auprès de nombreux publics. 

Marejada d’Angélica Negrón, garder le lien

Valentin LÉVY–CHAUDET

(édition : Servanne LEFEBVRE)

Marejada est une œuvre de la compositrice portoricaine Angélica Negrón, commandée en 2020 par le Kronos Quartet dans le cadre de l’initiative Fifty for the Future, une bibliothèque de cinquante œuvres contemporaines représentatives du répertoire pour quatuor à cordes du XXIe siècle. Cette pièce a été composée au cours de l’année 2020, en pleine pandémie, et doit être réalisée à travers une plateforme de visioconférence, Zoom en l’occurrence. Peu propice à la musique live du fait de problématiques de synchronisation et par la compression du son qu’elle oblige, la visioconférence est utilisée ici comme une composante de l’œuvre à part entière. Habituée des nouvelles technologies dans sa musique (électronique, robots, jouets), la compositrice tente à travers cette composition de dépasser la mise à distance imposée aux musiciens dans un contexte de pandémie. J’ai découvert cette œuvre il y a deux ans, en pleine pandémie. Le concept fort de cette œuvre m’a particulièrement marqué dans ce contexte, j’ai donc décidé de l’analyser à l’occasion de cette critique.

L’œuvre, qui dure un total de sept minutes et trente secondes, est construite en trois grandes parties, toutes accompagnées d’une même bande enregistrée. Cette dernière est constituée d’un enregistrement d’une plage porto-ricaine et d’oiseaux par les artistes sonores Ariel Alvarado et Manuel Vázquez et des sons électroniques ambiants. Elle complète le spectre sonore appauvri par la visioconférence et inspire ainsi une stabilité apaisante dans un monde d’incertitude temporelle.

Pour débuter la première partie, les quatre membres du quatuor jouent en pizz des accords, arpégés de fait par le décalage lié à la visioconférence. Les deux violonistes et l’altiste passent à l’archet et réalisent des arpèges rapides et répétés, pendant que la violoncelliste reste en pizzicato. Cette dernière finit par passer à l’archet également. L’œuvre explore ensuite plusieurs modes de jeu, avec des arpèges rapides et répétés, des notes en trémolo, des glissandi, et bien sûr des pizzicati. Malgré le décalage dans la synchronisation, on ressent véritablement des jeux de tentative de synchronisation, de question-réponse et d’écoute mutuelle, avec de longs moments de silence pour chacun des instruments. La partie s’achève au bout d’environ cinq minutes par la disparition progressive des sons électroniques ambiants, laissant seuls les bruits de nature accompagner les instruments. Dans la seconde partie (environ 1 minute), les artistes posent leurs instruments traditionnels et se munissent de percussions résonnantes (bols tibétains, handpans), qui viennent se mêler au son de la bande sonore. Les musiciens n’essaient plus de jouer en même temps, mais jouent les uns aux autres. La dernière partie (environ 1 minute) n’est plus composée que des sons de nature, les instruments résonnants eux-mêmes ayant disparu.

La dimension visuelle de l’œuvre est fondamentale également, avec un support vidéo réfléchi. En effet, la performance doit être réalisée avec en toile de fond virtuelle l’œuvre Seven Seas Beach, Puerto Rico, de l’artiste visuel Justin Favela, inspirée de l’esthétique des piñatas. On ne la voit dans son intégralité qu’au début de la troisième partie, après que les musiciens aient disparus.

En ôtant la composante de synchronisation temporelle, Angélica Negrón conserve une stabilité dans le déroulement grâce à la bande sonore qui accompagne toute la pièce. Dans une période comme la pandémie, composer pour ensemble en visioconférence est symbolique d’une volonté de garder le lien malgré la distance. Cela a d’autant plus de sens pour la compositrice, qui a quitté Porto Rico pour New York et se retrouve naturellement éloignée de son pays d’origine. Elle explique cette démarche dans la note d’intention de l’œuvre, dont voici un extrait :

Je voulais capturer le sentiment de joie et de calme que je ressens quand je suis à Puerto Rico dans des lieux magnifiques, tout en exprimant la complexité de l’expérience de diaspora pour ceux qui, comme moi, ne peuvent pas être présents physiquement dans ces lieux et proches de leurs amis et de leurs familles la plupart du temps.

Un pari réussi qui transporte le spectateur, lui aussi devant son écran, dans un autre monde apaisant, dans lequel le plaisir des musiciens à jouer ensemble dépasse la distanciation physique et la « mer agitée » (traduction du titre Marejada).

Lien YouTube vers la vidéo : https://www.youtube.com/watch?v=N1d3HnnH3Cc&ab_channel=KronosQuarte

A Sonic Onslaught : Death Grips au Bataclan, Paris

 Rafael SIFUENTES

(Édition: Thibault MALIDOR)


Date: 29/06/23
 
Le Bataclan de Paris, connu pour sa riche histoire musicale, a accueilli sur sa scène une nuit inoubliable de chaos sonore avec Death Grips, laissant un public en état d’admiration et de perplexité. L’atmosphère était chargée d’anticipation alors que les fans se rassemblaient pour un concert qui promettait d’être aussi intense et imprévisible que le groupe lui-même.
 
L’ambiance du spectacle était avant tout électrisante. Death Grips a maîtrisé l’art de repousser les limites, et cela, dès lors qu’ils sont montés sur scène. L’énergie dans la pièce était palpable, alimentée par l’intensité brute et sans compromis, caractéristique de leur musique. La foule, un mélange diversifié de fans, a été pleinement immergée dans l’expérience, libérant une énergie collective qui a résonné dans tout le lieu.
 
Musicalement, Death Grips a mis en valeur leurs prouesses techniques avec une performance aux airs chaotiques mais méticuleusement contrôlée. L’interaction entre la voix frénétique de MC Ride, la batterie tonitruante de Zach Hill et la production complexe d’Andy Morin était terriblement envoûtante. L’assaut sonore était implacable mais dans le chaos, une complexité mélodique a émergé, révélant la profondeur et la technicité de leurs compositions.
 
Le mariage de la technologie et de la créativité était un thème central de la performance. Death Grips a le don de mélanger de manière transparente des sons industriels abrasifs avec des éléments mélodiques inattendus, créant un paysage sonore aussi stimulant que gratifiant. L’utilisation d’éléments électroniques et d’échantillons, combinés à la batterie en direct de Hill, a su prouver la capacité du groupe à fusionner le numérique et l’analogique d’une manière à la fois innovante et cohérente.
 
Les visuels accompagnant la performance étaient un régal pour les sens. La scène était baignée d’un éventail hypnotique de lumières, de stroboscopes et de projections qui se greffaient à l’intensité de la musique. La synchronisation entre les visuels et l’assaut sonore a créé une expérience multimédia qui a élevé le concert à un voyage multisensoriel.
 
Death Grips a démontré une capacité rare à captiver le public avec leur son dur sans excuses, tout en les envoutant avec les subtilités de leurs compositions. C’était un témoignage de leur mélange unique d’agressivité et d’art, une aventure sonore qui a laissé une marque indélébile sur le Bataclan et ses heureux spectateurs.
 
Death Grips au Bataclan était plus qu’un concert ; c’était une expérience sonore immersive qui a repoussé les limites de ce que la musique live peut atteindre. La capacité du groupe à combiner de manière transparente la technologie et la créativité, associée à leur énergie implacable, a fait une performance qui sera gravée dans les souvenirs de ceux qui ont la chance d’y assister.

Grand Soir Numérique : Les adieux de la concubine de Yang Song

Masahiro AOGAKI

(édition : Nicolas DENIS)

   Yang Song (née en 1985 en Chine) a obtenu son master à la Hochschule für Musik de Freiburg, et a suivi le cursus de composition de l’IRCAM après des études en musicologie à l’Université de Mongolie, et en composition au Conservatoire central de musique de Pékin. Sa pièce intitulée « Les adieux de la concubine », commandée par l’Ensemble intercontemporain et l’Ircam-Centre Pompidou pour ensemble et électronique, a été créée par l’Ensemble intercontemporain dirigé par Carinna Niemeyer lors de la première partie du concert « Grand soir numérique » à la Cité de la musique le vendredi 8 décembre 2023.

   Inspirée par l’Opéra de Pékin qui est un spectacle traditionnel chinois, la pièce intègre une partie électronique (réalisée en collaboration avec Joao Svindzinski, réalisateur en informatique musicale à l’Ircam) utilisant la voix des personnages féminins, les Tsing Yi, comme principal matériau de départ. Ainsi, bien que l’histoire tragique de l’Opéra de Pékin, mettant en scène une Tsing Yi nommée Yu Ji (dernière reine de la dynastie Chu, 704-223 avant notre ère), ne soit pas directement transmise au public, la singularité vocale est extraite en tant que matériau sonore pur.

   Un extrait de cette voix originale a été présenté lors de la Table Ronde précédant le concert. Cette voix, caractérisée par de nombreux glissandos dans le registre aigu, se distingue naturellement des techniques vocales occidentales du bel canto. Comme l’a souligné Pierre Jodlowski, l’un des autres compositeurs présent ce soir-là lors de la Table Ronde, la singularité de cette voix est renforcée par l’âge inquantifiable des Tsing Yi pour nos oreilles et l’inintelligibilité de la langue, même pour l’auteur, qui est également originaire d’Asie.

   Dans la pièce, l’échange tantôt élégant, tantôt bousculant, dure 15 minutes entre la voix synthétique de l’Opéra de Pékin dans la partie électronique et l’ensemble instrumental sur scène. Les voix assez courtes, avec une spatialisation un peu discrète, sont diffusées par les haut-parleurs, enveloppant le public comme des nuages, tandis que les instrumentistes sur scène lancent des phrases fragmentées, notamment des glissandos avec vibratos, pour les imiter. L’électronique joue un autre rôle en traitant également les sons instrumentaux sur scène en temps réel.

   Bien que la compositrice ait exprimé son désir de créer une pièce transculturelle utilisant le langage musical contemporain et l’informatique, le partage de la morphologie du matériau entre l’ensemble et l’électronique, a réussi à révéler les différences dans les gestes sonores résultant des cultures occidentales et orientales ; dépassant ainsi la simple distinction entre l’instrumental et l’électronique, ou entre l’instrumental et le vocal.

   De plus, bien que la pièce débute comme un dialogue enchevêtré entre les deux entités, elles se superposent parfois, comme si les instrumentistes avaient complètement réussi à imiter la voix de l’Opéra de Pékin, évoquant le point d’atterrissage d’un processus d’apprentissage, similaire à l’acquisition du langage par un enfant. Si tel est le cas, la composition inversée, où des personnes vivantes imitent une voix synthétique établie ici, pourrait être particulièrement pertinente pour la réflexion contemporaine. C’est l’un des moments les plus impressionnants de cette pièce.

   Cette œuvre, qui prend pour sujet la tradition classique de son pays natal tout en explorant sa propre direction à travers des langages musicaux contemporains, a permis au public présent ce soir-là de se trouver au carrefour de l’Occident et de l’Orient, là où la frontière entre les deux n’est ni claire ni ambiguë, et d’examiner, par l’ouïe, leur poids égal dans son univers sonore unique.

Masada & Beyond : 70 ans d’exploration

Lucas ODDO
(édition : Timothée POMMIER)

Jeudi 2 novembre 2023 dans la grande salle Pierre Boulez à la Philharmonie de Paris se fêtait les soixante-dix ans de John Zorn, compositeur et improvisateur (entre beaucoup d’autres choses) états-uniens doté d’une grande carrière artistique. Son répertoire ne s’est jamais limité à un seul style ou à une seule esthétique, mais se déploie dans des univers divers en les mélangeant les uns les autres, univers qui touchent le « savant » comme le populaire ainsi que les musiques traditionnelles.

Ainsi, pour fêter sa septième décennie, il a décidé de nous offrir un concert polycéphale où l’improvisation et le traditionnel, le jazz, le contemporain et le deathmétal se réunissent à l’aide des différents ensembles avec lesquels il a travaillé ces dernières années.
Le concert était censé se diviser en quatre sections de musiques bien distinctes, mais la chanteuse Barbara Hannigan s’est malheureusement absentée à cause d’un problèmes de santé, ce qui nous laissa un concert de forme tripartite.

Le spectacle a débuté avec l’ensemble New Masada Quartet : John Zorn au saxophone ténor et direction, Julian Lange à la guitare électrique et son pédalier d’effets, Jorge Roeder à la contrebasse et à la basse électrique et Kenny Wollesen à la batterie et aux percussions. Comme indiqué sur le programme, le quartet joue des pièces mélodico-harmoniques qui introduisent des thèmes souvent inspirés de musiques traditionnelles juives. En assemblant klezmer et improvisations expérimentales, on reconnaît une virtuosité non-négligeable de la part des instrumentistes. Les improvisations sont dirigées d’une main par le saxophoniste en même temps qu’il joue. Ce fut une sage introduction au concert, où l’on pu profiter de la performance live du compositeur, mais aussi qui n’a pas demandé une écoute exigeante : au-delà des fabuleux bends à la guitare, ou des growls en overtone au saxophone, la musique restait très pulsée et principalement modale, même dans les instances d’improvisation, ce qui permettait à l’auditeur de suivre sans faire beaucoup d’efforts.

Lors de la deuxième partie, John Zorn à quitté la scène pour donner place à la formation Heaven and Earth Magick dans laquelle on retrouve Steve Gosling au piano, Sae Hashimoto au vibraphone, Jorge Roeder à la contrebasse et Ches Smith à la batterie. Première impression : il n’y a que deux partitions sur scène, l’une qui repose sur le piano, l’autre face au vibraphone. En effet, les deux claviers ont des parties écrites, tandis que la contrebasse et la batterie improvisent, cette fois-ci, sans la direction du compositeur.

Un mélange esthétique entre musique contemporaine atonale à pulsations irrégulières et improvisations free qui traduit les goûts de John Zorn pour, je cite « l’étrange, le morbide et l’ésotérisme »1. Il s’inspire de la nouvelle Casting the Runes (de M. R. James) et dans les revues socio-philosophiques Acéphale (constituées par Georges Bataille et André Masson). Deux pièces donc qui font chacune référence à ces ouvrages littéraires, dans lesquels la vibraphoniste développe un discours particulièrement virtuose (techniques variées d’utilisation d’archets, de maillets et de baguettes combinées à deux mains, vibratos soigneusement manipulés, etc…), ayant même des moments en solo. Mais aussi dans lesquels les musiciens improvisateurs (batterie et contrebasse) font preuve de grande intuition musicale tout en restant dans un cadre assez expérimental.

Musique qui exige un peu plus de concentration à l’oreille, mais qui reste énergique et intrigante pendant une bonne trentaine de minutes.

Finalement, le dernier ensemble, Simulacrum, monte sur scène. Il s’agit d’un trio constitué de John Medeski à l’orgue Hammond, Matt Hollenberg à la guitare électrique et son pédalier d’effets et Kenny Grohowski à la batterie. Trio qui mélange du deathmétal purement instrumental et du jazz plutôt progressif (cellules rythmiques et harmoniques qui rarement dépassent les huit mesures, sauf exception). Entre trois ou quatre pièces jouées, toutes d’un intensité non négligeable et surtout impossible à ignorer : atteignant un pic de 93.7 db (en comparaison au 80 db des ensembles précédents). Une grande partie du public a dû se boucher les oreilles à cause de la grande surcharge de fréquences aiguës. Entre la guitare électrique aux effets de distorsions et/ou de fuzz, l’amplification de l’orgue Hammond et les cymbales, les crash et le china à la batterie, le public a eu du mal à rester serein. Était-ce l’objectif de John Zorn ? On l’ignore, mais ce qui est sûr, c’est qu’il fut compliqué de profiter complètement de la musique de ce dernier ensemble, même si l’énergie du groupe, les timbres saturés des instruments et l’aspect évolutif pouvaient être d’un grand intérêt. La surprise était malheureusement étouffée par le mixage et le volume du set.

Lors de la fin du concert, ce fut cet ensemble qui est remonté sur scène pour faire un rappel et conclure le spectacle, mais déjà près d’un tiers du public était parti au moment des applaudissements.

En résumé, un concert plein de virtuosité, respirant l’expérience et très varié en termes d’ensembles (bien sûr), de styles, d’esthétiques, d’ambiances, mais aussi d’univers qui sont assez représentatifs du travail et de l’exploration que John Zorn veut nous montrer.
Comme une espèce de pente d’intensité ou de puissance, le concert fut, formellement, très surprenant. De plus, présenter un réservoir stylistique comme celui-ci et remplir une salle comme la Grande salle Pierre Boulez, n’est pas une tâche facile. Un super projet de « mise au courant » pour les fans les plus fidèles et de découverte pour les gens qui ne le connaissent peu ou pas du tout, qui mériterait de se répéter pour de ses quatre-vingts ans.

  1. Philharmonie de Paris, programme du concert Masada & Beyond, p. 6. ↩︎

Akousma : entre rétrospective et création, un parcours électroacoustique en plusieurs chapitres

Timothée POMMIER

(édition : Lucas ODDO)

Le dimanche 5 novembre, la Maison de la Radio et de la Musique a accueilli au Studio 104 le concert Akousma de l’INA GRM, une soirée inscrite dans la saison Multiphonies 2023-2024. Ce concert a permis une écoute immersive grâce à un système de diffusion d’une soixantaine de haut-parleurs : l’Acousmonium.

Divisé en deux parties distinctes, le programme débutait par un hommage à Bernard Parmegiani, pionnier de la musique électroacoustique disparu il y a dix ans. Des œuvres emblématiques du compositeur ont été mises en avant, telles que Capture éphémère, Dedans-Dehors et Immer/Sounds. Je ne connaissais pas Rêveries, une pièce créée en 2007 à l’occasion du quatre-vingtième anniversaire du compositeur. Plusieurs éléments de Rêveries sont issus de ses œuvres antérieures, ce qui confère à la pièce un caractère didactique. Parmegiani nous montre son amour pour les drones et le noise, tout en jouant avec la phase. Des sirènes stridentes, le bruissement des feuilles ; entremêlent de sons toniques et de sons complexes (terminologie schaefferienne), témoignent de la variété des sources sonores que le compositeur exploite. Nous avons l’impression de nous promener au travers de paysages tantôt accueillants, tantôt inquiétants. La matière sonore, toujours en mouvement, recèle de sons de synthèse rétrofuturistes qui nous emmènent aux confins de l’espace, comme si nous avions embarqué dans un vaisseau spatial. Les éléments aériens se transforment par la suite en éléments aquatiques. L’amerrissage, aux trois quarts de l’œuvre, se fait en douceur. On remarque des sons ponctuels qu’on pourrait presque qualifier d’effets sonores, similaires à des aspirations, qui viennent réinvestir le champ du stellaire. Parmegiani nous conduit vers une autre planète. On distingue l’utilisation de traitement granulaire qui donne aux sons l’aspect d’une radiocommunication qui interfère. La pièce s’achève par un son d’ambiance de salle de théâtre et trois coups, le dernier nous donnant l’impression d’un nouveau départ, celui d’un projectile dans l’espace.

La deuxième partie du concert présentait des œuvres inédites de Thomas Tilly, Valérie Vivancos et Gilles Racot.

Dans Against Soundscape, Tilly utilise exclusivement des bruits parasites et des artefacts, offrant un texture rugueuse qui déroute l’auditeur. Nous avons l’impression tangible de ne pas être au bon endroit, que le concert ne se déroule pas comme prévu, mais c’est précisément par cette sensation que l’on comprend le propos de l’artiste. Le titre de la pièce fait référence à la position de l’anthropologue britannique Tim Ingold qui critique la notion de « paysage sonore ». En effet, il affirme que cette dénomination et le contenu qu’on lui associe isolent arbitrairement l’expérience auditive des autres sens[1]. La pièce de Tilly nous fait découvrir l’autre côté du paysage : il ne donne pas à entendre ce qui est communément censé être écouté, mais ce qui enregistre, autrement dit le matériel de captation. Durant ce brillant exercice d’écoute réduite, nous avons l’impression de faire partie d’une expérience qui a pour vocation de briser le quatrième mur. Tilly nous fait découvrir un univers auquel on ne prête jamais l’oreille, investit un champ sonore oublié et éveille nos sens. Le mouvement rapide et désordonné des volets qui claquent, entre autres, nous donnent froid. Nous comprenons mieux la fonction des larsens et du bourdonnement des mouches lorsque nous connaissons l’approche du compositeur vis-à-vis du field recording : « Il ne s’agit pas que de capter le son, mais de placer le microphone au même rang que l’instrument de musique et d’envisager la situation de cet instrument dans l’espace comme une méthode de composition ; il s’agit de détourner son rôle d’outil de communication pour appréhender l’onde sonore autrement. S’attaquer à un immatériel croisant tout ce qui constitue et conditionne le matériel, s’attacher à parler et user du bruit comme quelque chose de précieux et unique, confronter ce bruit à ce que l’on appelle musique. »[2] Ainsi, Tilly nous montre les recoins d’une carte postale cornée et réussit, avec brio, à donner vie à des sons trop souvent négligés, questionnant la substantialité de l’écoute et défiant nos définitions de l’espace, de son parasite et de paysage sonore.

Idiorrhythms Part I de Valérie Vivancos prouve une maîtrise habile de la modulation de fréquence. La compositrice joue avec des filtres coupe-bas qu’elle appose sur des sonars, des drones et des sons au profil dynamique de type percussion-résonance. Nous reconnaissons là l’influence de Bernard Parmegiani. La pièce interroge la notion de fluidité au travers d’éléments perpétuellement en chute. L’évolution de l’œuvre nous conduit à travers des gravas qui semblent tomber à l’infini, évoquant une sensation de quelque chose qui s’écoule, mais qui n’est pas liquide. C’est ce qui constitue le matériau rythmique de l’œuvre. Au-delà de la manipulation des rythmes, des mélodies au lent portamento s’entrelacent, créant une atmosphère oscillant délicatement entre consonances et dissonances, comme un prélude à un éboulement sonore imminent. Les voix entrent en scène sur la consonne [m] et la voyelle [a] pour former une nappe, ajoutant une dimension vocale à l’ensemble. Ces voix, les clapotis agglomérés et les coups de tonnerre contribuent à l’intensité dramatique de la composition. Vivancos parvient à créer une œuvre où la répétition devient une force motrice, nous entraînant dans un voyage sonore qui culmine dans un souffle final puissant et mémorable.

Enfin, Gilles Racot nous a transportés dans une nature en pleine mutation avec Bec et plumes, une création inspirée par le chant du merle. De fait, nous pouvons reconnaître des chants d’oiseaux, mais progressivement ils se dénaturent. Racot emploie la répétition et le décalage, accentués par plusieurs traitements temporels comme par exemple le delay. On constate une alternance entre des passages réverbérés et des passages plus secs (dry). À ceci s’ajoutent des sweeps et des sons d’origine instrumentale qui sont traités granulairement. Leur fine décomposition donne une sensation kaléidoscopique. L’arrangement complexe et la spatialisation millimétrée renforcent les effets de surprise. Des descentes précipitées nous plongent dans une sorte de vortex. Fusionnant avec des grains de plus en plus courts et de moins en moins espacés, le chant du merle évoque finalement une boîte à musique défectueuse. Racot arrive donc à transformer des sons anecdotiques en matériaux inouïs.

En somme, le concert Akousma du 5 novembre fut une agréable soirée de (re)découvertes. L’interprétation des pièces de Parmegiani étaient l’occasion de revenir sur le parcours d’un compositeur historique. Les œuvres présentées, issues de commandes spéciales de l’INA GRM, ont témoigné de la vitalité de la scène acousmatique actuelle. Chaque compositeur a apporté sa contribution à un voyage dans une nature vaste, plus ou moins grouillante ou a contrario plus ou moins décharnée. Cette soirée a redéfini nos préconceptions sur l’écoute et nous a fait réfléchir à ce que pourraient être les nouveaux territoires du son.

[1] Ingold, T. (2007). Against soundscape. In A. Carlyle (Ed.), Autumn leaves: sound and the environment in artistic practice (pp. 10-13). Double Entendre.

[2] INA GRM (2023). Programme des concerts Akousma, Multiphonies 23-24 (p. 11).

Création: « Les adieux de la concubine » pour ensemble et électronique

Sejin JUNG

(édition : Jean-Marc GOOSSENS)

Titre : Les adieux de la concubine, pour ensemble et électronique

Compositrice : Yang Song

Création : le 8 décembre 2023, à la Philharmonie de Paris, par l’Ensemble intercontemporain dirigé par Corinna Niemeyer, Réalisation informatique musicale Ircam : João Svidzinski

Effectif : 11 musiciens

flûte (aussi flûte alto), clarinette (aussi clarinette basse), cor, trompette en si bémol, percussion, piano, harpe, cordes

Extraits de voix de l’opéra de Pékin : Zhengyan Zhu

Durée : environ 15 minutes

Le concert thématique « Grand soir numérique », tenu le vendredi 8 décembre à la salle des concerts de la Cité de la musique, a offert une sélection d’œuvres variées de cinq compositeurs, parmi lesquelles figurait la création de la compositrice chinoise Yang Song, intitulée « Les adieux de la concubine » pour ensemble et musique électronique.

Cette pièce se distingue par la manière dont la compositrice exprime son opposition à la guerre à travers sa démarche compositionnelle. En s’inspirant de Yu Ji, dernière reine de la dynastie Chu et figure emblématique du mouvement pacifique (704-223 avant notre ère), Yang Song a travaillé à partir d’extraits vocaux d’un chanteur ayant incarné ce rôle à l’opéra de Pékin. La voix féminine, au cœur de la partie électronique, propose un timbre unique qui fusionne avec des éléments traditionnels de musique chinoise (à quatre tons) basées sur les techniques vocales traditionnelles de l’opéra de Pékin. Ces éléments musicaux sont ensuite intégrés à la partie instrumentale sous forme de glissandos et de vibratos.

« Mon intention est de présenter au public ce drame classique de l’opéra de Pékin du point de vue d’une figure féminine qui a réellement existé dans l’histoire et à travers un langage musical contemporain. » 

D’une culture à l’autre, Entretien avec la compositrice Yang Song, par Michèle Tosi

Les couleurs uniques de l’expérience multiculturelle de Yang Song ajoutent une profondeur saisissante à la compréhension de cette pièce, soulignant les liens entre électronique et les instruments traditionnels. Il ne s’agit pas d’une simple juxtaposition de deux cultures, mais d’une connexion organique entre deux mondes distincts : d’une part, un récit découpé racontant le drame d’une figure historique dans sa partie électronique, et d’autre part, les parties instrumentales explorant les sonorités traditionnelles pékinoises.

Le récit échantillonné, décrivant l’histoire d’un personnage réel, se fond harmonieusement avec la musique électronique diffusée dans la salle de concert, tout en dialoguant avec la partie instrumentale qui propose des imitations. De plus, des manipulations électroniques en direct sont appliquées à certains passages de la pièce afin d’accentuer le côté émotionnel des sonorités et pour soutenir l’aspect dramatique. L’utilisation de techniques en temps différé et en temps réel démontre le souci du détail de la compositrice, qui souhaite révéler par ces techniques les voix de la concorde, étouffées depuis longtemps dans l’histoire, en leur insufflant un nouvelle vie afin de transmette un message de paix déchirant.

Cette approche, ancrée dans l’histoire de la composition, met en avant la diversité technique de la « voix » et ses inépuisables possibilités. Le lien entre le vibrato et le glissando, propre à la technique vocale chinoise, associé aux instruments occidentaux, se veut une tentative novatrice d’attirer l’attention du public sur de nouvelles perspectives sonores.

« L’idée est de réaliser une sorte de « dégradé » (son hybride) entre le timbre des instruments et la proposition originale du chanteur d’opéra. Cela élargit les possibilités de fertilisation croisée entre des éléments d’origines culturelles et stylistiques différentes. »

D’une culture à l’autre, Entretien avec la compositrice Yang Song, par Michèle Tosi

La recherche approfondie de Yang Song sur les sonorités orientales transparaît dans son exploration minutieuse de la lutherie traditionnelle, non seulement de la Chine mais aussi de ses pays voisins. Cette approche fascinante offre une perspective stimulante. Elle établit un pont entre les traditions musicales et possibilités contemporaines, offrant ainsi une nouvelle perspective sur l’évolution et la diversification des sonorités dans la musique mixte.

Francesca, l’interprétation live d’Hozier à Paris

Servanne LEFEBVRE

(édition Juan SEBASTIAN TORO)

En assistant au concert que donnait Hozier à Paris ce mercredi 29 novembre dernier dans le cadre de son actuelle tournée mondiale pour la sortie de son plus récent album « Unreal Unearth », j’aimerais souligner les différences remarquées quand à l’experience de l’écoute entre la version enregistrée en studio et la version jouée en live du morceau « Francesca », quatrième titre de cet album.

Observons premièrement que l’environnement d’écoute n’est pas le même d’un point de vue du contexte. En effet, le morceau lorsqu’il est écouté dans le cadre de l’album en version studio, il est précédé par First Time et suivi de I, Carrion (Icarion), morceaux joués dans un ordre bien défini par l’artiste, ce qui est une première différence par rapport à l’expérience live où l’artiste a choisi de mêler les morceaux de ces trois albums sans respecter l’ordre attribué au départ pour chacun d’eux respectivement. À savoir que Francesca était ce jour-ci précédé de From Eden et suivi de To Be Alone qui sont tous deux issus de son premier album Hozier. Ce simple changement affecte la réception du morceau qui est désormais sorti du contexte de l’album.

Ensuite, il est important de noter que la représentation live d’un morceau n’est pas qu’une expérience auditive, mais multi-sensorielle : l’artiste a choisi au préalable d’ajouter des effets visuels à sa représentation comme une vidéo projetée en arrière plan, des effets de lumières en rythme avec la musique etc. Ajouté à cela que les placements des instrumentistes et chanteurs y compris lui même, ajoutent une spatialisation du son qui n’est pas à la portée de l’auditeur qui écoute le morceau chez lui. 

Enfin, la représentation live d’un morceau est l’occasion pour l’artiste de jouer une version de sa chanson différente de la version studio, cette dernière étant figée. En effet, ce soir là l’artiste a choisi de consacrer plus de temps au solo de guitare ou encore de prolonger les parties majoritairement vocales de la chanson afin de maintenir la tension déjà présente lors du pont et le public en haleine.

Tous ces éléments réunis rendent comptes de l’impact sensationnel qu’a la musique live comparée à la musique enregistrée et qui laisse donc des libertés supplémentaires à l’artiste quand à la représentation de son morceau.

En écoutant cette chanson en live ce soir là je l’ai redécouverte dans un different contexte avec une expérience allant au delà du son, avec des éléments aussi visuels qui ont dépoussiérés la version figée enregistrée en studio.