Archives de catégorie : comptes-rendus

compte rendu 11 janv. : Temps réel

Le Traitement temps réel et le langage musical
11 janvier 2013

Résumé de la 3e séance de : Traitement temps réel et le langage musical
▪ un seul groupe : vendredi 11 janvier de 10h00 à 12h00

Pour cette 3e séance nous avons exploré la modulation en anneau et le frequency shifting (transposition de fréquence).

————————————————————
la modulation en anneau et le frequency shifting
————————————————————

comment ça marche

La modulation en anneau est surement le traitement le plus perceptible et le moins risqué à faire en temps réel de tous. Cette transformation est perceptible car le spectre et donc le timbre du son est modifié de façon significative et cette « séparation » du son traité du son d’origine augmente très fortement sa perceptibilité. Le même décalage du spectre qui rend la modulation en anneau perceptible diminue énormément les risques d’effet Larsen, car les fréquences qui sortent des haut-parleurs ne sont pas les même que celles qui rentrent par le microphone. Ainsi on empêche le « renforcement » qui provoque l’effet Larsen.

Pour faire une modulation en anneau on prend un signal complexe (entrée micro par exemple) et on le multiplie avec un oscillateur sinusoïdal « bipolaire » (oscillation positif et négatif autour de « 0 »). Le résultat est la somme ET la différence de toutes les fréquences du signal complexe (porteuse) avec la fréquence de l’oscillateur.

Si un son complexe avec un spectre harmonique de 1000 Hz, 2000 Hz, 3000 Hz et 4000 Hz est modulé à 250 Hz, le résultat est:

différence somme
750 1250
1750 2250
2750 3250
3750 4250

… et le son direct disparait. Puisqu’il n’y a plus de rapport « harmonique » entre les partiels de ce résultat, le son est « inharmonique ».

Si on module un son complexe par une fréquence égale à la fondamentale, on retrouve un son quasi identique à l’original. Par exemple, on va moduler 100-200-300-400 Hz avec 100Hz et on va avoir :

différence somme
0 200
100 300
200 400
300 500

Le 0 Hz va disparaitre de la perception car 0Hz n’est pas audible, et le reste va faire un son parfaitement aligné avec le spectre du son d’origine, avec un partiel de 500 Hz en plus. Dans le résultat, le 100Hz sera un peu moins fort que le 100 Hz dans le son d’origine car c’est le 2e harmonique décalée plus bas, mais globalement on aura un timbre très proche.

Ça voudrait dire que pour différents « rapports » entre la hauteur du son d’origine et la fréquence de modulation, on a différents timbres entres « harmoniques » et « inharmoniques ». Les changements de timbres s’effectuent donc soit en changeant la fréquence de modulation sur une hauteur constante, soi en changeant la hauteur sur une fréquence de modulation constante.

Si la fréquence de modulation et très basse, entre 0Hz et 20Hz, le résultat est un son avec des « battements » – un effet de « lfo ». Les battements sont d’une fréquence de 2 fois plus que la fréquence de modulation car c’est le résultat d’une confrontation entre l’original MOINS la fréquence de modulation et PLUS la fréquence de modulation (i.e. mod avec 1Hz fait un ambitus de 2Hz, donc battements de 2Hz également).

Si la fréquence de modulation est au dessus de la fondamentale de la note jouée, la « différence » crée une fréquence qui descend en dessous de 0Hz. Dans ce cas la fréquence se trouve « repliée » autour de zéro et redevient positive, subissant juste une inversion de phase.

Les sons très bruités marche moins bien ou pas du tout avec la modulation en anneau car le bruit « blanc » contient déjà de l’énergie dans tout le spectre, donc des modifications de ce spectre de bruit ne sont pas bien perceptibles. Par contre, les modulations de basses fréquences, puisque elle créent des battements (effet de changement d’amplitude) sont bien perceptibles sur du bruit.

La Frequency Shifting (transposition de fréquence) est en effet une « moitié » d’une modulation en anneau – uniquement la somme ou uniquement la différence. On peux bien sûr recombiner un frequency shifting « haut » et un frequency shifting « bas » pour retrouver exactement la même chose qu’une modulation en anneau.

Pour d’autres information sur la modulation en anneau (ou bien ring modulation) l’article sur wikipedia en anglais n’est pas mal:

http://en.wikipedia.org/wiki/Ring_modulation

 

le travail musical

Le travail musical avec modulation en anneau et/ou frequency shifting tourne autour globalement de trois axes de travail qui correspondent à trois « zones » de fréquences:

  1. Création de « battements » avec des fréquences basses de modulation. Les valeurs les plus marquées sont probablement entre 0Hz et 10Hz.
  2. Création d’un « ‘instrument préparé » où chaque note de l’instrument sonne avec un timbre différent. Dans ce cas on « accord » la modulation à une note quelque part au milieu de la tessiture de l’instrument.
  3. Un effet de « scintillement » ou une sorte de « pédale » aiguë en utilisant une fréquence de modulation bien au dessus des notes jouées par l’instrument.

Pour les premiers deux techniques, le son transformé est tellement lié à l’instrument acoustique qu’on a l’impression que l’instrument lui-même a été modifié. Par exemple, si on utilise la modulation pour créer des fausses « multiphoniques » sur l’instrument, il est TRES difficile pour l’auditeur d’entendre que c’est un traitement et non pas une vraie multiphonique! Pareil pour les battements qu’on a plus tendance à croire que l’instrumentiste les fait lui-même.

Le troisième technique se détache de l’instrument car le scintillement aiguë est bien au dessus de la tessiture de l’instrument et car il ne change pas de façon significative avec chaque note. Dans cette zone de fréquences, nous avons plutôt un « effet » qu’une réelle transformation de l’instrument.

En travaillant musicalement avec la modulation en anneau, il faut penser aux possibilités de ces trois « axes » de travail, en trouvant des moyens de CHANGER la fréquence de modulation pour varier le résultat musical – de préférence lié aux phrases musicales.

On peux aussi mettre plusieurs modulateurs en parallèle pour densifier le résultat, ou bien n’utiliser qu’un coté d’une frequency shifting pour épurer la densité.

On peux également modifier les paramètres de la modulation ou le niveau d’écoute de la modulation avec des détections de paramètres du son joué comme l’enveloppe d’amplitude ou la hauteur.

Il faut chercher et expérimenter.

Il y a l’objet « fshift~ » dans Max, mais aussi le module fshift dans tapemovie.

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation et d’écoute pour découvrir musicalement les possibilités

Nous avons joué voix, saxophone, flûte…

 

compte rendu 11 janv. : FM

Formation Musicale avec les classes d’Antoine Spindler et Ludivine Schaal
11 janvier 2013

Nous avons eu une séance de 13h50 à 14h50
Il y avait une douzaine d’enfants

Nous avons repris l’instrument harmoniseur avec le karlax, en rajoutant une fonction d’écho (délai).

  1. Déplacement de l’instrument dans l’axe « z », vers l’avant et vers l’arrière au dessus de l’épaule, provoque une « glisse »  – environ une octave plus bas vers l’avant et environ une octave plus haut vers l’avant.
  2. Déplacement sur l’axe gauche-droite (« x ») rajoute un temps de délai de 0 sec au centre à 1 sec sur le coté (réponse identique à gauche et à droite).

Nous avons fait des exercices, en essayant de faire participer tout le monde de manière égale. Chaque fois trois enfants étaient impliqués:

  • 1 tenait le micro
  • 1 manipulait le Karlax
  • 1 jouait son instrument

Au début, ils exploraient plutôt librement les possibilités de l’instrument, avec les instrumentistes jouant plutôt des notes tenues. Au fur et à mesure que la séance progressait, on faisait de plus en plus un travail sur la pulsation et la vitesse. Exemple: l’enfant au Karlax positionnait l’instrument un peu sur le coté afin de créer un temps de délai quelque part entre 0 sec et 1 sec. L’instrumentiste jouait une note staccato puis écoutait l’écho pour sentir le temps. Puis il se mettait à jouer une pulsation de notes staccato en répliquant ce temps. Ensuite, l’enfant au Karlax changeait légèrement le temps de l’écho et l’instrumentiste devait « suivre » en modifiant la vitesse de sa pulsation.

Les résultats étaient assez variés, mais ça semblait être une très bonne exercice d’écoute et d’interaction.

compte rendu 11 janv. : Culture

Dans la séance de Culture Electroacoustique du 11 janvier nous avons découvert une pièce de musique mixte, Metallics de Yan Maresz pour trompette et traitement temps réel. Nous avons écouté l’intégralité de cette pièce de 11 minutes en suivant la partition.

Nous avons aussi écouté le tout début d’une pièce que Yan Maresz à créée en 2001 d’après Metallics qui s’appelle Metal Extensions. C’est une ré-écriture de Metallics pour ensemble SANS électronique – un travail d’orchestration pour réinterpréter les traitements temps réel avec des instruments acoustiques…

Metallics

Metallics a été créée en 1995 à l’ircam sur la Station d’Informatique Musicale NeXT avec 3 cartes ISPW (http://en.wikipedia.org/wiki/ISPW).

La pièce est basée sur un travail d’écriture et d’analyse informatique des sourdines de trompette, et elle est structurée en sections selon l’utilisation (ou pas) de ces sourdines :

  • I – open
  • II – cup
  • III – straight
  • IV – harmon
  • V – whisper

metallics-structure

Selon Yan Maresz, le recours à l’électronique, dans Metallics, se cristallise autour de trois principes fondamentaux:

  • surpasser les limites de l’instrument,
  • jouer sur son identité
  • et explorer les ressources de son timbre.

types de traitements

  • delay, harmoniseur, filtrage, chorus, réverbération infinie, sampling
  • Les sons direct-to-disk
  • La spatialisation
  • Les réverbérations

Yan Maresz explique : « L’une des grandes découvertes, lorsqu’on commence à travailler avec la lutherie électronique, réside dans cette possibilité d’approcher les limites de l’instrument et de se permettre de les dépasser ».

Il y a des pages d’explication et d’analyse de cette oeuvre sur le site brahms.ircam.fr, dont j’ai tiré cette résumé:

Le titre – Metallics – évoque de prime abord la matière constitutive des instruments de la famille des cuivres. C’est bien en alchimiste des sons que Yan Maresz décante et fusionne les métaux, qu’il s’agisse des cuivres ou des percussions qui entrent çà et là dans la composition des sonorités. Le compositeur a cherché l’hybridation et l’ambiguïté des images sonores. Il a conçu son œuvre à l’intersection d’univers éloignés voire opposés : le jazz et la musique contemporaine, l’instrumental et l’électronique, le monde réel (les sourdines) et le monde virtuel (sourdines modélisées). Le projet compositionnel de Metallics repose principalement sur l’analyse et la modélisation informatique des sourdines de trompette, ainsi que sur l’utilisation du temps réel comme moyen de développer un environnement électronique capable d’élargir les possibilités de l’instrument tant sur le plan de la virtuosité que de la polyphonie. La virtuosité concerne autant le jeu instrumental – la vélocité, l’exploration de registres ou de modes de jeu – que l’emploi de l’électronique qui apporte une dimension polyphonique à cette pièce pour instrument soliste. Le compositeur a également développé des bancs de filtres capables simuler l’effet des sourdines. La forme de l’œuvre et les processus internes à chaque section dépendent directement du classement des sourdines en fonction de leur taux de distorsion spectral. Ainsi, l’œuvre fixe sa destinée à travers un parcours qui explore les sonorités de la trompette, des plus claires aux plus bruitées.

Aller sur le site de brahms.ircam.fr pour trouver beaucoup d’informations sur Metallics:

http://brahms.ircam.fr/media/repertoire/gen/maresz-metallics/co/metallics.html

compte rendu 16 nov et 7 déc : Formation Musicale

Formation Musicale avec la classe d’Antoine Spindler
16 novembre et 7 décembre 2012

Nous avons eu 2 séances, le 16 novembre et le 7 décembre de 13h50 à 14h50

16 novembre:
Nous avons fait une sensibilisation au jeu sur voix et leurs instruments en modifiant le son par des procédés très simples de délai (échos) et transposition (harmoniseurs). Ils ont tous joués leurs instruments en écoutant le résultat de la transformation. Quant à la transposition, ils ont essayé d’identifier l’intervalle de transposition à l’oreille.

Ils ont beaucoup aimé la transposition de la voix dans l’aigüe et dans le grave…

7 décembre:
Cette fois-ci j’avais préparé un instrument très simple avec le Karlax – un harmoniseur qui changeait de transposition en glisse en rapport avec l’axe « accélérateur Z » du Karlax. Ainsi, ils jouaient à 2, un jouant karlax et l’autre son instrument. Nous avons essayer de faire jouer tout le monde ET sur le Karlax ET sur leur instrument.

Ils ont essayé d’être à l’écoute de la transposition en fonction de la position du Karlax, et par moments ont essayer de « trouver » des intervalles et notes spécifiques.

Il y a de bonnes exercices possible à imaginer.

Antoine va lister différentes idées à poursuivre pour que je puisse commencer des développements d’outils pédagogiques – avec et sans Karlax.

compte rendu 6 déc : Culture

Voici les pièces que nous avons regardé durant la séance de Culture Electroacoustique du 6 décembre…

Le sujet était « quatuor à cordes »

 

Philippe Manoury

Tensio (2010) – avec électronique en temps réel (Ircam)

Nous avons regardé la partition en voyant particulièrement comment les traitements (descriptions et résultats) ont été noté. Nous avons écouté un extrait.

Aller voir absolument la page sur le site de Philippe Manoury qui parle Tensio ->

LES PROCÉDÉS DE COMPOSITION UTILISÉS DANS “TENSIO”

 

Il y a également une vidéo produite par l’Ircam où Philippe Manoury parle de la pièce :

Images d’une oeuvre n°10 : « Tensio » de Philippe Manoury


 

Jonathan Harvey

4th String Quartet (2003) – avec électronique en temps réel (Ircam)

Nous avons écouté un extrait. Je n’ai pas la partition.

page de la médiathèque de la cité de la musique:

http://mediatheque.cite-musique.fr/masc/?INSTANCE=CITEMUSIQUE&URL=/ClientBookLineCIMU/recherche/NoticeDetailleByID.asp

 

 

Gabriel Prokofiev

En contraste à ces 2 pièces de musique contemporaine, nous avons écouté un artiste « crossover » qui est à la fois dans la musique contemporaine ET dans la musique électronique populaire – il est lui-même à la fois compositeur et DJ.

Dans son Album Elysian Quartet (2006) il y a 4 mouvements d’un quatuor à cordes acoustique, puis divers « remixes » des ces mouvements.

Nous avons écouté:

  • Elysian Quartet (2006)
    • 1st movement
    • 2nd movement
    • 3rd movement
  • 1st Movement (G. Prokofiev Hip-Hop Remix)
  • 2nd & 3rd Movements (Max De Wardener Remix)
  • 2nd Movement (BoxSaga Remix)

Vous pouvez visiter le site de Gabriel Prokofiev:

Nonclassical

La prochaine fois, nous allons écouter une nouvelle création pour Karlax et ensemble:

Kaala, de Daniel Figols

compte rendu 6-7 déc : Lutherie

Lutherie Electronique et l’Interactivité
15-16 novembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 15h à 17h
▪ groupe 2 : vendredi 7 décembre de 15h à 17h

J’avais eu l’intention de commencer à voir MaxMSP, mais nous avons continué à voir tapemovie car il festait beaucoup de questions et on avait besoin de le voir en plus de détail.

Globalement, nous avons recommencé au début:

  • lancement
  • configuration de la partie tapemovie ET la partie tape

tm_config
t_config

  • init et build (construction)
  • le menu windows et les éditeurs des modules
  • la base des éditeurs

switch
snapshot
paramètres
spat

  • le principe de la matrice (mtrx)
  • création d’un « instrument » simple

entrée micro (adc)
harmoniseur/délai
contrôle Karlax

  • création d’un event (évènemement)
  • dynamisation et temporalisatin des events

J’ai crée une page dans ce site qui regroupe des liens vers des infos sur tapemovie :

  • – de très bonnes notes de cours d’Emilie Buttazzoni
  • – site de tapemovie
  • – esquisse de documentation
  • – mon mémoire contenant un chapitre tapemovie
  • – article sur tapemovie de la conférence « Journées d’informatique musicale » de 2010.

la page « liens tapemovie« 

compte rendu 6-7 déc : Temps réel et musique

Le Traitement temps réel et le langage musical
6-7 décembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 10h30 à 12h30
▪ groupe 2 : vendredi 7 décembre de 9h30 à 11h30

 

Pour cette 2e séance nous avons exploré l’harmoniseur (transposition de hauteur), d’abord tout seul, et ensuite avec temps de délai et pourcentage de réinjection (feedback).

Après un rappel des 5 grandes familles de traitements :

temps
amplitude
hauteur
timbre
espace
matière

Nous avons vu/écouter les principes musicaux du traitement de hauteur.

————————————————————
l’Harmoniseur
————————————————————

comment ça marche

Le traitement de hauteur par harmoniseur est assez simple : générer une transposition d’une entrée son (micro) en direct. Globalement il y a deux méthodes – la « traditionnelle » – dans le domaine temporel, et la plus récente – dans le domaine fréquentiel.

La première méthode consiste à varier la position de lecture dans un délai variable, générant une légère transposition pendant le temps de changement de position. Puisque l’harmoniseur devrait avoir l’aspect d’un délai négligeable et surtout fixe, le petit changement de position se fait en petite échelle (quelques millisecondes) avec un système de fenêtrage. Ce système fonctionne assez bien pour des petites transpositions (environ une tierce), mais pour les intervalles plus importantes on constate une déformation de timbre vers la petite voix des munchkins ou des chipmunks dans l’aigu, et vers les voix robots dans le grave. L’effet et justement le plus marqué et audible pour la voix. D’autres instruments peuvent subir des changements d’intervalle plus importante sans sembler perdre leur nature.

La raison de cette déformation est le non-respect des formants. Dans la voix surtout, mais aussi dans d’autres instruments, la cavité de résonance favorise certaines fréquences qui ne change pas avec la hauteur. Ce sont les formants, par exemple, qui créent les voyelles. Quand on transpose par harmoniseur « temporel », ainsi que par lecture d’échantillon, les formants sont transposés avec la vibration principale parce qu’ils font partie du son global. Les formants qui transpose de cette manière créent un effet artificiel, nous pointant le coté électronique et non pas purement musical. En générale, la transposition vers le grave est plus tolérante que vers l’aigüe.

Puisque cette méthode d’harmoniseur contient par sa nature un délai, il est l’usage de se servir de ce délai musicalement (voir les discussions sur le délai dans les comptes rendu du mois de novembre) – créant un retard transposé. Quand on met de la réinjection (feedback) de la sortie de l’harmoniseur/délai dans l’entrée, le son est de nouveau harmonisé puis retardé, créant un effet d’arpège dans une gamme à intervalle fixe.

La deuxième méthode est dans le domaine fréquentiel, et essaie de respecter l’emplacement des formants. Elle consiste à faire une analyse FFT (Transformation de Fourier Rapide, domaine fréquentiel), essaie d’identifier les formants, soustraire l’effet des formants, effectuer une transposition, puis ré-appliquer les formants. Ça peut faire des transpositions plus naturelles, mais dans certains cas ou intervalles peut générer des artefacts. Il faut plutôt essayer les 2 techniques et choisir en fonction de l’instrument et le dégrée de transposition.

Dans Max, la première méthode se fait avec un bout de patch fait au départ à l’Ircam qui s’appelle « harmv2 ». Dans tapemovie cette technique est implémenté par le module harm. La deuxième méthode se fait dans Max avec gizmo~, et dans tapemovie avec le module qui s’appelle également gizmo.

le travail musical

L’harmonisation de base sans délai crée justement de l’harmonie à une intervalle fixe. Cela étant dit, dans la musique (tonale ou modale) l’harmonie n’est jamais vraiment à une intervalle fixe. L’harmonie d’une tierce, par exemple, est parfois majeur parfois mineur selon la position dans la gamme. L’harmonisation peut donc rentrer en dissonance avec la tonalité. On peut éviter cette perception en faisant un travail musical plutôt atonal basé sur des intervalles et non pas des gammes, mais ce n’est pas toujours possible. Il faut donc changer l’intervalle de transposition de l’harmoniseur en fonction des notes jouées – soit en écrivant des changements de paramètres qui vont avec des notes spécifiques, soit avec un système (plus complexe) de reconnaissance de hauteur et modification de l’intervalle en conséquence.

L’importance et sur l’idée que l’intervalle va probablement devoir changer pour garder sa musicalité, mais les changements ne sont pas obligés d’être synchronisés dans des gammes précises. On peux, par exemple, facilement travailler les micro-intervalles.

L’ajout d’un temps de délai transforme l’harmoniseur en un outil de contrepoint puissant. Pensez à combiner toutes les techniques du travail avec le délai avec cette capacité à transposer pour avoir un outil souple et intéressant.

La réinjection de la sortie vers l’entrée de l’harmoniseur avec délai crée un effet de répétition en arpège d’une intervalle. Avec beaucoup de « feedback » et des intervalles très petites on peux créer des « petits nuages » autour de la note jouée.

Il y a globalement trois stratégies pour changer les valeurs:

1) changement par évènement à certains moments
2) changement par détection du son luis même (suiveur d’enveloppe lié au temps de délai, par exemple)
3) valeurs interprété sur un instrument électronique – comme, par exemple, le Karlax.

————————————————————
instrument Karlax avec tapemovie
————————————————————

…nous avons vu la maquettage d’un instrument de traitement de hauteur en utilisant un Karlax et l’environnement/application (fait avec Max/MSP) qui s’appelle tapemovie. (Voir le compte rendu de la Lutherie Electronique du même jour)

Au départ, nous avons fait un mapping Karlax vers un harmoniseur/délai de la manière suivante:

1er key main gauche (/key/1) connecté à la transposition d’un harmoniseur entre 25 centièmes de demi-ton et 5 demi-tons (quarte), avec une courbe exponentielle.
1er key main droite (/key/6) connecté au temps de délai du même harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.

Cette configuration nous semblait limitée et trop figée dans son mouvement, donc nous avons décidé de placer la transposition sur l’axe Z des accélérations : l’unisson au milieu, -20 demi-tons en penchant vers l’avant, +20 demi-tons en penchant vers l’arrière. Nous avons aussi placé la réinjection (feedback) de l’harmoniseur/délai sur la 2e touche de la main droite, entre 20% et 70%. Ça fait:

1er key main droite (/key/6) connecté au temps de délai de l’harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.
2e key main droite (/key/7) connecté au feedback de l’harmoniseur entre 20% et 70%, avec une courbe linéaire.
accélérateur z (/acc/z) connecté à la transposition de l’harmoniseur entre -20 demi-tons et +20 demi-tons, avec une courbe symétrique/exponentielle.

Plus tard (en cours de Lutherie de l’après-midi) nous avons placé le temps de délai sur l’accélérateur de l’axe x (penché gauche/droite).

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation pour découvrir musicalement les possibilités de cet harmoniseur/délai interprété par Karlax.

Nous avons joué voix, saxophone, piano, batterie, contrebasse…

Plusieurs personnes ont joué le Karlax, et plusieurs un instrument acoustique.

compte rendu 15-16 nov : Temps réel et musique

Résumé de la première séance de : Traitement temps réel et le langage musical

  • groupe 1 : jeudi 15 novembre de 10h30 à 12h30
  • groupe 2 : vendredi 16 novembre de 9h30 à 11h30

Au sujet du traitement temps réel et le langage musical, vous pouvez télécharger mon mémoire de Master II et lire le 1er chapitre (pages 2 à 31 : I – Les traitements et la musique) qui fait une bonne introduction. A télécharger ici.

Les « dimensions » du traitement

Pour parler « musique » et non pas « technique informatique » il faut considérer les traitements en fonction de catégories ou « dimensions » musicales. Acoustiquement, Il suffit que de 2 dimensions pour représenter tout événement sonore :

  • temps
  • Amplitude (musicalement parlant: intensité)

4 dimensions supplémentaires complètent la base qui permet de parler de la quasi-totalité des traitements temps réel sonores

  • hauteur
  • timbre
  • espace acoustique
  • matière

Les traitements

Pour placer les traitements dans ces dimensions musicales :

  • le temps concerne évidement les lignes de retard (délai), mais aussi l’enregitrement et la relecture ultérieur
  • L’intensité peut être traité par les VCA et les LFO, mais aussi des enveloppes
  • la hauteur concerne les harmoniseurs, essentiellement
  • le timbre se travaille avec des filtres, de la modulation en anneau, la distorsion non-linéaire, et toute sortes de traitements dans le domain fréquenciel (fft)
  • l’espace acoustique concerne tout ce qui est spatialisation et réverbe, ainsi que les filtrages associés (binaural/transaural/abisonics, etc)
  • La matière peut se travailler avec divers combinaisons des traitements déjà listé, ou bien un traitement total comme la synthèse granulaire

Le temps

On peut parler du temps comme une catégorie musicale (perception) ou comme une technique de traitement.

  • Le temps comme catégorie musicale couvre les idés de l’echo, la répétition ,le rythme, le contrepoint, la mémoire et la forme
  • Le temps comme technique de traitement peut aussi générer des résultats qui vont plutôt faire partie d’autres catégories musicales : flangeur, chorus, filtrage, réverbération, harmoniseur

Différentes « zones » de temps activent différentes types de perception:

  • Le temps court (1-15 ms)
    • Phase et couleur
  • Le temps moyen (15-80 ms)
    • Réflexion, epace
    • épaississement
  • Le temps long (> 80 ms)
    • Écho, répétition
    • Rythme, polyphonie
  • Le temps très long (> 10 seconds?)
    • Mémoire et forme

L’écriture pour le délai

Globalement, si la phrase ou « l’objet musical » joué est plus court que le temps du délai, nous allons entendre le délai comme une écho ou une répétition. Si la phrase ou objet musical est plus long, la sortie du délai se mélange et combine avec la phrase, et nous risquons plus d’entendre un rapport de superposition et peut-être de contrepoint. Si ce rapport est bien travaillé, le temps du délai peut ne pas être évident.

Un autre facteur de perception très important c’est la stabilité ou homogénéité de la source. Une attaque ou un changement brusque de note va être parfaitement perceptible  comme une écho, mais un son qui arrive en crescendo et qui part en decrescendo, dans lequel il n’y a pas de changements de note, ou bien les changements sont répétitifs comme un trille ou un trémolo – on n’entendra strictement pas le temps de l’écho mais plutôt une superposition ou épaississement du son instrumental.

On peut trouver cette stabilité ou homogénéité également dans des notes répétées. Une pulsation d’une seconde dans un délai d’une seconde se synchronise parfaitement avec la source, et nous entendons encore une doublure. Si, en plus, la répétition arrive progressivement en crescendo et repart en decrescendo, nous n’entendons ni le début ni la fin. Si on garde la pulsation mais on change de notes, on entend plutôt un effet de canon ou contrepoint avec une superposition verticale de notes.

Une fois la pulsation établie, une légère accélération ou décélération perturbe le rapport de contrepoint et peut rendre très intéressant le mélange. Si le temps est assez long, quelques secondes, on pourrait même anticiper le retour du délai en rejouant le son qui VA sortir juste avant qu’il sorte…

C’est également intéressant de combiner et superposer des différentes techniques. Par exemple, on peu jouer une « pédale » continue qui sonne dans le délai comme un épaississement et de temps en temps on peu rajouter une attaque ou change une note, puis cet événement sonore sera entendu parfaitement comme une écho – sans changer pour autant le moindre réglage!

Je vous propose d’aller lire pages 23 à 31 (2.4 Guide de l’écriture) de mon mémoire pour voir de plus près ces principes avec des petits exemples d’écriture.