Archives mensuelles : janvier 2013

compte rendu 24 janv. : FM

Formation Musicale avec la classe de Hector Sabo
24 janvier 2013

Nous avons eu une séance de 16h à 17h

Il y avait une douzaine jeunes adolescants

Nous avons fait une découverte du Karlax et de quelques instruments que j’ai proposés :

  • jouer des samples avec les pistons, filter par la rotation et spatialiser le son par le mouvement
  • jouer différentes sources et appliquer du filtrage par le mouvement et du LFO d’amplitude par la rotation
  • appliquer une transposition par les différentes touches et un délai par le mouvement
  • effectuer un traitement de type « granulaire » sur les sources par les touches et par le mouvement

Le plupart des enfants ont essayer le Karlax et découvert un peu son potentiel.

Un élève avait exprimé l’idée de jouer du son par la détection du mouvement par une caméra.

Nous allos faire un point avec le prof, Hector Sabo, et décider si, quand et comment nous allons refaire une séance.

compte rendu 24 janv. : Lutherie

compte rendu 24 janv. : Lutherie Electronique et l’Interactivité

Pour le cours de Lutherie jeudi dernier, nous avons vu l’utilisation des wiimotes avec nunchuk comme contrôleurs. Nous avons utilisé OSCulator comme application qui récupère les donnée du wii et les envoie en OSC vers Max.

Nous avons fait un patch dans Max à partir de l’objet « udpreceive » qui reçois les données wii en format OSC par le réseau. L’objet « route » avec comme argument le nom de l’adresse OSC isole les valeurs qu’on cherche utiliser.

Téléchargement de l’appli OSCulator.

 Le patch du cours :
wiimote-patch1

compte rendu 24 janv. : Temps réel

Résumé de la 4e séance de : Traitement temps réel et le langage musical

▪ jeudi 24 janvier de 10h00 à 12h00

Nous avons exploré la synthèse granulaire en employant le module munger (mng) dans tapemovie.

————————————————————
synthèse granulaire
————————————————————

wikipedia « Synthèse granulaire« :

La synthèse granulaire est issue des recherches sur les micro-sons, particulièrement des travaux de Dennis Gabor en 1947. Iannis Xenakis fut parmi les premiers à en faire une utilisation musicale en 1958 avec la pièce pour bande ConcretePH. Le premier logiciel de synthèse granulaire est créé par Curtis Roads en 1978. Barry Truax écrira le premier moteur de synthèse granulaire temps réel en 1986 et s’en servira pour traiter des sources acoustiques (inventant donc la granulation).

Le livre de référence sur la synthèse granulaire est Microsound de Curtis Roads, qui a lui-même composé plusieurs oeuvres électroacoustiques employant la synthèse granulaire. Beaucoup d’autres compositeurs ont utilisé cette technique, notamment Bary Truax qui a créé une oeuvre acousmatique d’envergure qui s’appalle Riverrun composé exclusivement avec la synthèse granulaire en temps réel en 1987. C’est une technique également très répandue en improvisation, car elle donne énormeément de possibilités de transformation et re-interprétation du son.

 

comment ça marche

L’idée de base est qu’un son « source » est est lu par petits grains, habituellement avec une durée de quelques millisecondes, et ces grains se combinent et se superposent de diverses manières pour créer des texures parfois riches, denses et complexes, et parfois très espacé et même rythmés. C’est un peu comme si on mettait un son dans une moulinette pour ensuite le « reconstituer » à sa guise.

Chaque lecure de « grain » a ses propriétés individuelles – position dans le son « source », intensité, durée, enveloppe, transposition, direction de lecture, panoramique… Chaque grain est déclenché par un « moteur » qui est un peu comme un métronome qui peut être très rapide (quelques millisecondes) ou très lent (quelques secondes), très régulier ou bien complètment aléatoire et arythmique. La densité du résultat est une fonction du temps entre chaque grain (vitesse de ce métronome) et la longeur (durée) des grains. Si des grains d’une durée de 100 ms sont lus toutes les 10 millisecondes, on va avoir une densité de 10 grains superposé, et on va avoir une texture plutôt dense, lisse et continue. Si on fait le contraire, des grains d’une durée de 10 ms lus toutes les 100 ms, on va avoir une texture éparse, transparent et plutôt pointilliste.

Le plupart des outils de synthèse granulaire fonctionne de la manière suivante (ou très similaire). On règle les paramètres globaux à la fois du moteur (temps entre chaque grain), et des grains eux-mêmes (position, intensité, durée, enveloppe, transposition, direction de lecture, pan…). Ensuite, on peut introduire une certaine variation aléatoire (ou stochastique) de chaque paramètre. C’est tout!

Des outils de synthèse granulaire diffèrent parfois par rapport à la manière de lire le son « source ». Typiquement, ils permettent de charger un son quelconque depuis un disque dur, ou bien parfois d’enregistrer un son venant d’une entrée micro. Dans ces 2 cas, le son est figé dans la mémoire vive et c’est la lecture décomposé/recomposé des grains qui le fait vivre.

Il existe aussi des outils granulaire qui utilise un espace de mémoire qui marche comme une ligne de retard – le son passe dans la ligne de retard en temps réel, avance petit à petit, puis disparait au bout du temps de retard. Les grains sont lus aléatoirement dans cette mémoire de son qui est constamment renouvelé, et qui reste « proche » du son direct.

Un objet Max/MSP basé sur cette deuxième famille de moteurs de synthèse granulaire qui utilisent une « ligne de retard » est

munger~, écrit par Dan Trueman. C’est cette objet que le module « mng » dans tapemovie utilise également. Vous pouvez trouver un peu d’info sur cet objet ainsi que des liens pour le télécharger ici -> http://www.roaldbaudoux.org/index.php?option=com_content&view=article&id=62:munger&catid=51:objets-complementaires

 

le travail musical

Beaucoup de possibilités existent de recomposition de la matière sonore, avec ou sans éléments aléatoires des paramètres de hauteur, intensité, temps, durée, enveloppe, pan et éventuellement gamme de transposition.

Un facteur important est que si les paramètres de la synthèse granulaire n’évoluent pas dans le temps, l’auditeur peut s’ennuyer assez vite. Il est donc important que les paramètres évoluent, mais aussi ils peuvent être interprétés par un contrôleur gestuel.

Avec la synthèse granulaire de type « munger » nous avons aussi le problème du non-maintenance du son – si l’instrument « source » arrête de jouer, au bout du temps de délai, le son granulaire s’arrête aussi. On peut prolonger le son avec un ou plusieurs délais pour le maintenir. Dans nos essaies en cours, nous avons passé le son par un délai « fibonacci » (delfib dans tapemovie) qui peut prolonger facilement plusieurs secondes ou mêmes plus d’une minute.

————————————————————
impros / essaies
————————————————————

Nous avons fait quelques essaies d’improvisation avec vibraphone, flûte et saxophone.

cours du vendredi 1 février

Voici des infos sur le programme de ce vendredi 1er février. Déjà on sera dans la salle 23, et non pas 30. Autrement, Il n’y aura pas le cours de Culture Electronique à 12h, ni la classe de FM à 13h50 comme initialement prévu. J’aurai des réunions très importants autour de MIDI et je ne pourrai pas assurer ces cours cette fois ci.

Il y aura:

  • 10h – 12h : Temps réel et musique
  • 15h – 17h : Lutherie Electronique
  • 17h  – 19h : suivi de projets

Faites-moi signe pour des rdv pour vos projets si vous souhaitez.

compte rendu 11 janv. : Temps réel

Le Traitement temps réel et le langage musical
11 janvier 2013

Résumé de la 3e séance de : Traitement temps réel et le langage musical
▪ un seul groupe : vendredi 11 janvier de 10h00 à 12h00

Pour cette 3e séance nous avons exploré la modulation en anneau et le frequency shifting (transposition de fréquence).

————————————————————
la modulation en anneau et le frequency shifting
————————————————————

comment ça marche

La modulation en anneau est surement le traitement le plus perceptible et le moins risqué à faire en temps réel de tous. Cette transformation est perceptible car le spectre et donc le timbre du son est modifié de façon significative et cette « séparation » du son traité du son d’origine augmente très fortement sa perceptibilité. Le même décalage du spectre qui rend la modulation en anneau perceptible diminue énormément les risques d’effet Larsen, car les fréquences qui sortent des haut-parleurs ne sont pas les même que celles qui rentrent par le microphone. Ainsi on empêche le « renforcement » qui provoque l’effet Larsen.

Pour faire une modulation en anneau on prend un signal complexe (entrée micro par exemple) et on le multiplie avec un oscillateur sinusoïdal « bipolaire » (oscillation positif et négatif autour de « 0 »). Le résultat est la somme ET la différence de toutes les fréquences du signal complexe (porteuse) avec la fréquence de l’oscillateur.

Si un son complexe avec un spectre harmonique de 1000 Hz, 2000 Hz, 3000 Hz et 4000 Hz est modulé à 250 Hz, le résultat est:

différence somme
750 1250
1750 2250
2750 3250
3750 4250

… et le son direct disparait. Puisqu’il n’y a plus de rapport « harmonique » entre les partiels de ce résultat, le son est « inharmonique ».

Si on module un son complexe par une fréquence égale à la fondamentale, on retrouve un son quasi identique à l’original. Par exemple, on va moduler 100-200-300-400 Hz avec 100Hz et on va avoir :

différence somme
0 200
100 300
200 400
300 500

Le 0 Hz va disparaitre de la perception car 0Hz n’est pas audible, et le reste va faire un son parfaitement aligné avec le spectre du son d’origine, avec un partiel de 500 Hz en plus. Dans le résultat, le 100Hz sera un peu moins fort que le 100 Hz dans le son d’origine car c’est le 2e harmonique décalée plus bas, mais globalement on aura un timbre très proche.

Ça voudrait dire que pour différents « rapports » entre la hauteur du son d’origine et la fréquence de modulation, on a différents timbres entres « harmoniques » et « inharmoniques ». Les changements de timbres s’effectuent donc soit en changeant la fréquence de modulation sur une hauteur constante, soi en changeant la hauteur sur une fréquence de modulation constante.

Si la fréquence de modulation et très basse, entre 0Hz et 20Hz, le résultat est un son avec des « battements » – un effet de « lfo ». Les battements sont d’une fréquence de 2 fois plus que la fréquence de modulation car c’est le résultat d’une confrontation entre l’original MOINS la fréquence de modulation et PLUS la fréquence de modulation (i.e. mod avec 1Hz fait un ambitus de 2Hz, donc battements de 2Hz également).

Si la fréquence de modulation est au dessus de la fondamentale de la note jouée, la « différence » crée une fréquence qui descend en dessous de 0Hz. Dans ce cas la fréquence se trouve « repliée » autour de zéro et redevient positive, subissant juste une inversion de phase.

Les sons très bruités marche moins bien ou pas du tout avec la modulation en anneau car le bruit « blanc » contient déjà de l’énergie dans tout le spectre, donc des modifications de ce spectre de bruit ne sont pas bien perceptibles. Par contre, les modulations de basses fréquences, puisque elle créent des battements (effet de changement d’amplitude) sont bien perceptibles sur du bruit.

La Frequency Shifting (transposition de fréquence) est en effet une « moitié » d’une modulation en anneau – uniquement la somme ou uniquement la différence. On peux bien sûr recombiner un frequency shifting « haut » et un frequency shifting « bas » pour retrouver exactement la même chose qu’une modulation en anneau.

Pour d’autres information sur la modulation en anneau (ou bien ring modulation) l’article sur wikipedia en anglais n’est pas mal:

http://en.wikipedia.org/wiki/Ring_modulation

 

le travail musical

Le travail musical avec modulation en anneau et/ou frequency shifting tourne autour globalement de trois axes de travail qui correspondent à trois « zones » de fréquences:

  1. Création de « battements » avec des fréquences basses de modulation. Les valeurs les plus marquées sont probablement entre 0Hz et 10Hz.
  2. Création d’un « ‘instrument préparé » où chaque note de l’instrument sonne avec un timbre différent. Dans ce cas on « accord » la modulation à une note quelque part au milieu de la tessiture de l’instrument.
  3. Un effet de « scintillement » ou une sorte de « pédale » aiguë en utilisant une fréquence de modulation bien au dessus des notes jouées par l’instrument.

Pour les premiers deux techniques, le son transformé est tellement lié à l’instrument acoustique qu’on a l’impression que l’instrument lui-même a été modifié. Par exemple, si on utilise la modulation pour créer des fausses « multiphoniques » sur l’instrument, il est TRES difficile pour l’auditeur d’entendre que c’est un traitement et non pas une vraie multiphonique! Pareil pour les battements qu’on a plus tendance à croire que l’instrumentiste les fait lui-même.

Le troisième technique se détache de l’instrument car le scintillement aiguë est bien au dessus de la tessiture de l’instrument et car il ne change pas de façon significative avec chaque note. Dans cette zone de fréquences, nous avons plutôt un « effet » qu’une réelle transformation de l’instrument.

En travaillant musicalement avec la modulation en anneau, il faut penser aux possibilités de ces trois « axes » de travail, en trouvant des moyens de CHANGER la fréquence de modulation pour varier le résultat musical – de préférence lié aux phrases musicales.

On peux aussi mettre plusieurs modulateurs en parallèle pour densifier le résultat, ou bien n’utiliser qu’un coté d’une frequency shifting pour épurer la densité.

On peux également modifier les paramètres de la modulation ou le niveau d’écoute de la modulation avec des détections de paramètres du son joué comme l’enveloppe d’amplitude ou la hauteur.

Il faut chercher et expérimenter.

Il y a l’objet « fshift~ » dans Max, mais aussi le module fshift dans tapemovie.

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation et d’écoute pour découvrir musicalement les possibilités

Nous avons joué voix, saxophone, flûte…

 

compte rendu 11 janv. : FM

Formation Musicale avec les classes d’Antoine Spindler et Ludivine Schaal
11 janvier 2013

Nous avons eu une séance de 13h50 à 14h50
Il y avait une douzaine d’enfants

Nous avons repris l’instrument harmoniseur avec le karlax, en rajoutant une fonction d’écho (délai).

  1. Déplacement de l’instrument dans l’axe « z », vers l’avant et vers l’arrière au dessus de l’épaule, provoque une « glisse »  – environ une octave plus bas vers l’avant et environ une octave plus haut vers l’avant.
  2. Déplacement sur l’axe gauche-droite (« x ») rajoute un temps de délai de 0 sec au centre à 1 sec sur le coté (réponse identique à gauche et à droite).

Nous avons fait des exercices, en essayant de faire participer tout le monde de manière égale. Chaque fois trois enfants étaient impliqués:

  • 1 tenait le micro
  • 1 manipulait le Karlax
  • 1 jouait son instrument

Au début, ils exploraient plutôt librement les possibilités de l’instrument, avec les instrumentistes jouant plutôt des notes tenues. Au fur et à mesure que la séance progressait, on faisait de plus en plus un travail sur la pulsation et la vitesse. Exemple: l’enfant au Karlax positionnait l’instrument un peu sur le coté afin de créer un temps de délai quelque part entre 0 sec et 1 sec. L’instrumentiste jouait une note staccato puis écoutait l’écho pour sentir le temps. Puis il se mettait à jouer une pulsation de notes staccato en répliquant ce temps. Ensuite, l’enfant au Karlax changeait légèrement le temps de l’écho et l’instrumentiste devait « suivre » en modifiant la vitesse de sa pulsation.

Les résultats étaient assez variés, mais ça semblait être une très bonne exercice d’écoute et d’interaction.

compte rendu 11 janv. : Culture

Dans la séance de Culture Electroacoustique du 11 janvier nous avons découvert une pièce de musique mixte, Metallics de Yan Maresz pour trompette et traitement temps réel. Nous avons écouté l’intégralité de cette pièce de 11 minutes en suivant la partition.

Nous avons aussi écouté le tout début d’une pièce que Yan Maresz à créée en 2001 d’après Metallics qui s’appelle Metal Extensions. C’est une ré-écriture de Metallics pour ensemble SANS électronique – un travail d’orchestration pour réinterpréter les traitements temps réel avec des instruments acoustiques…

Metallics

Metallics a été créée en 1995 à l’ircam sur la Station d’Informatique Musicale NeXT avec 3 cartes ISPW (http://en.wikipedia.org/wiki/ISPW).

La pièce est basée sur un travail d’écriture et d’analyse informatique des sourdines de trompette, et elle est structurée en sections selon l’utilisation (ou pas) de ces sourdines :

  • I – open
  • II – cup
  • III – straight
  • IV – harmon
  • V – whisper

metallics-structure

Selon Yan Maresz, le recours à l’électronique, dans Metallics, se cristallise autour de trois principes fondamentaux:

  • surpasser les limites de l’instrument,
  • jouer sur son identité
  • et explorer les ressources de son timbre.

types de traitements

  • delay, harmoniseur, filtrage, chorus, réverbération infinie, sampling
  • Les sons direct-to-disk
  • La spatialisation
  • Les réverbérations

Yan Maresz explique : « L’une des grandes découvertes, lorsqu’on commence à travailler avec la lutherie électronique, réside dans cette possibilité d’approcher les limites de l’instrument et de se permettre de les dépasser ».

Il y a des pages d’explication et d’analyse de cette oeuvre sur le site brahms.ircam.fr, dont j’ai tiré cette résumé:

Le titre – Metallics – évoque de prime abord la matière constitutive des instruments de la famille des cuivres. C’est bien en alchimiste des sons que Yan Maresz décante et fusionne les métaux, qu’il s’agisse des cuivres ou des percussions qui entrent çà et là dans la composition des sonorités. Le compositeur a cherché l’hybridation et l’ambiguïté des images sonores. Il a conçu son œuvre à l’intersection d’univers éloignés voire opposés : le jazz et la musique contemporaine, l’instrumental et l’électronique, le monde réel (les sourdines) et le monde virtuel (sourdines modélisées). Le projet compositionnel de Metallics repose principalement sur l’analyse et la modélisation informatique des sourdines de trompette, ainsi que sur l’utilisation du temps réel comme moyen de développer un environnement électronique capable d’élargir les possibilités de l’instrument tant sur le plan de la virtuosité que de la polyphonie. La virtuosité concerne autant le jeu instrumental – la vélocité, l’exploration de registres ou de modes de jeu – que l’emploi de l’électronique qui apporte une dimension polyphonique à cette pièce pour instrument soliste. Le compositeur a également développé des bancs de filtres capables simuler l’effet des sourdines. La forme de l’œuvre et les processus internes à chaque section dépendent directement du classement des sourdines en fonction de leur taux de distorsion spectral. Ainsi, l’œuvre fixe sa destinée à travers un parcours qui explore les sonorités de la trompette, des plus claires aux plus bruitées.

Aller sur le site de brahms.ircam.fr pour trouver beaucoup d’informations sur Metallics:

http://brahms.ircam.fr/media/repertoire/gen/maresz-metallics/co/metallics.html

Concours de composition électroacoustique ERASMUS

(français)

À l’occasion des Journées d’Informatique Musicale qui se tiendront les 13, 14 et 15 mai 2013 à l’Université Paris VIII, l’Association Française d’Informatique Musicale (AFIM), le Département Musique et le Service des relations et de la coopération internationales de l’Université Paris VIII organisent un concours européen de composition de musique électroacoustique, le concours ERASMUS.

Trois œuvres musicales seront sélectionnées pour le concert à l’Université Paris VIII qui aura lieu le 14 mai 2013. L’Université Paris VIII prendra en charge le voyage et l’hébergement des gagnants. L’ Association Française d’Informatique Musicale (AFIM) offrira un Premier Prix d’un montant de 1000 euros. Les prix seront annoncés au cours du mois d’avril 2013.

concours européen de composition de musique électroacoustique le concours ERASMUS.

Journées d’Informatique Musicale (JIM 2013)

 

(english)

The Association Française d’Informatique Musicale (AFIM), the Department of Music and the International Relations Department of the University Paris VIII is holding an international composition competition for electronic music in the framework of the Journées d’Informatique Musicale (JIM 13), May 13-15, 2013.

Three works will be selected (first, second and third award) for the concert-conference at the University Paris VIII on May 14, 2013. The University Paris VIII will support the travel and accommodation of the winners. The awards will be announced in April 2013. One work will be selected for a € 1000 cash first award offered by the Association Française d’Informatique Musicale (AFIM).