Archives de l’auteur : tmays

EXERCICE – partitions graphiques

Comme j’ai annoncé en cours, je vous donne une exercice de notation graphique à faire pour le prochain cours le 8 mars.

 

Vous avez le choix entre:

Exercice 1a : Edgard Varèse, un extrait du Poème Electronique

Exercice 1a

OU

Exercice 2a : James Tenney, un extrait de Fabric for Ché

Exercice 1b

 

Proposez une partition claire, lisible et intuitive. ça devrait être possible de la mettre sur une seule page.

compte rendu 14 févr : partitions graphiques

Premier atelier de partitions graphiques
14 février 2013

Ayant débordé d’une demi heure le cours de temps réel du matin, nous avons eu juste une demi heure pour commencer à aborder la notion de la partition graphique.

Les techniques de partitions graphiques vont nous être très utiles pour écrire des partitions pour l’ensemble électronique

En résumé, même la notation « traditionnelle » est une forme de notation graphique, et surtout « symbolique ». On ne décrit pas la musique en détail, mais on donne les codes d’interprétation. Il y a aussi globalement 2 types de partitions : les partitions servant à l’iterprétation et celles permettant une analyse de l’oeuvre et une compréhension de sa totalité. Pour les piècs mixtes et temps réel, il manque souvent cette 2e type de partition…

Les paramètres qui sont indiqués dans une partition graphique sont essentiellement les même qui sont dans des partitions traditionnelles:

durées (le plus souvent proportionnelles)
rythmes (le plus souvent proportionnelles)
hauteurs (parfois axe verticale, parfois couleur…)
dynamiques (souvent taille de l’objet graphique)
articulations (indications, morphologie de l’image)
timbres (forme, couleur, trait)
modes de jeu – techniques (indications…)

Exemples à étudier:

Gyorgyt Ligeti – Artikulation

Composé en 1958
partition graphique par Rainer Wehinger en 1970

Ligeti-Artikulation_1s

la partition en pdf:
http://ahsmusictechnology.pbworks.com/w/file/51626699/Ligeti%20-%20Artikulation%20%5BScore%5D.pdf

ou télécharger ici.

Analyse de l’oeuvre:
http://www.musique-millet.com/analyses_musicales_diverses/ligeti_artikulation.htm

vidéo où on regarde la partition défiler:


Karlheinz Stockhausen – Studie II
1954

stockhausen_elektronische_studieII

vidéo:

images de la partition:
http://www.britannica.com/EBchecked/media/2580/Page-from-the-score-of-Stockhausens-Electronic-Study-No


Henri Pousseur – Electre
http://www.britannica.com/EBchecked/media/2579/Page-from-the-score-of-Electre-by-Henri-Pousseur

pousseur-electre


page avec une galérie d’images de partitions graphiques:
http://blog.wfmu.org/freeform/2007/01/gallery_of_musi.html


Karlheinz Stockhausen – Kontakte I
http://blogfiles.wfmu.org/KF/2007/01/note/stockhausen_-_Kontakte_1.jpg

stockhausen_-_Kontakte_1


Iannis Xenakis – Orestia
http://blogfiles.wfmu.org/KF/2007/01/note/Oresteia_Iannis_Xenakis.jpg

Oresteia_Iannis_Xenakis


Cornelius Cardew – Treatise
http://blogfiles.wfmu.org/KF/2007/01/note/cardew_-_treatiseP183.jpg

cardew_-_treatiseP183


George Crumb – Makrocosmos
http://blogfiles.wfmu.org/KF/2007/01/note/Crumb_-_Makrocosmos.jpg

Crumb_-_Makrocosmos


Earl Brown – 4 Systems
http://www.earle-brown.org/score.php?work=12
1952

Four Systems


Sylvano Bussotti – Pièces de chair II. Pour piano, baryton, une voix de femme, instruments, Milano, Ricordi, 1970
http://www.urfm.braidense.it/risorse/grafica.htm

berlussotti-grafica

Piano Pieces for David Tudor (1959)
http://www.flickr.com/photos/margaperez/2976037593/

berlussotti2-2976037593_bd51718a23_z


Karl Garret
http://istianjinelearning.org/karlgarrett/2011/10/13/grade-8-graphic-scores/

karl-garrett-e04_dicastri_01-23x89pf


Oxford dictionary of music – graphic scores:
http://www.answers.com/topic/graphic-scores-1

 

 

compte rendu 14 févr : Lutherie

Lutherie Electronique et l’Interactivité
14 février 2013

On a fait un point sur les projets d’instruments de chacun (uniquement présents: Isabella, Sarah et Enrico). Isabella cherche faire un instrument de traitement contrôlé gestuellement par le Karlax, Sarah voudrait travailler à partir d’échantillons avec contrôle gestuel par iPhone, et Enrico chercherait à créer un instrument acoustique étendu avec l’accélérometre d’un wiimote (éventuellement) attaché dessus…

Nous avons fait une séance surtout pratique abordant les thèmes des cartes son reconnues par max/tapemovie, les mappings du module « midi », les mappings du module « oscreceive » par les module « mappers », et les mappings du karlax. Nous avons vu le module « cuesheet » qui permet de séquencer les « events » par bar d’espace ou par mapping.

Pour mapper vers un enchainement d’events dans cuesheet il faut utiliser le type de mapping « trig », in1 et in2 doivent être égale à la valeur à détecter (i.e. 127 127 ou 1. 1.), et la destination doit être « /cuesheet.1/go » et message « b » pour bang.

N’hésitez pas à poster vos questions sur le blog.

Prochaine séance le 8 mars. Il faudrait commencer à pouvoir jouer sur vos instruments, même de façon rudimentaire.

Je pense qu’il faudrait mettre le cours de Luthérie le matin afin de pouvoir terminer/valider une première version basique de vos instruments avant de faire une séance de jeu de l’ensemble dans l’après-midi.

compte rendu 14 févr : Temps réel

Le Traitement temps réel et le langage musical
14 février 2013

Nous avons travaillé sur deux de mes pièces, Le Patch Bien Tempéré numéro II pour saxophone et modulateurs en anneau, et  Le Patch Bien Tempéré numéro I  pour vibraphone et délais.

Le numéro 2 pour saxophone est uniquement por 4 modulateurs en anneau, les fréquences desquelles sont exprimées en notes transposées. Avant de jouer, on choisit l’instrument (soprano, alto, tenor, baritone) ce qui determine la valeur de transposition qui sera appliquée à toutes les modulations et détections de hauteurs. Divers saxophonistes en cours ont essayé la première section avec alto, tenor, baritone et soprano (Yanir – alto, Isabella – tenor, Andrès – baritone et soprano. Le constat générale semblait être que ca marche le mieux avec alto, mais je pense qu’il faudrait travailler d’avantage sur les autres instruments pour trouver la manière de les faire sonner mieux pour cette pièce et de profiter plus des avantages de chacun. A mon avis, ça doit pouvoir bien marcher avec les 4 saxophones principaux que nous avons essayé en cours.

Je vais envoyer la partition en pdf à tout le monde, puis je vais retravailler un petit peu le projet tapemovie de la pièce pour que ça puisse être ouvert avec le tapemovie.app et pas uniquement dans max5 comme est le cas actuellement.

Nous avons aussi travaillé sur le PBT I pour vibra e délais, avec Enrico jouant le vibra. Nous avons remarqué qu’il faudrait revoir un peu la notation rythmique pour la rendre plus claire, et aussi créer un paramètre d’ajustement global du tempo pour pouvoir répéter et entrainer à un tempo plus lent avant de pouvoir se mettre au bon tempo. Ce paramètre modifiera le clic et bien sûr le rapport de temps de tous les délais. Je vais aussi changer le son du clic car le son actuel n’est pas assez précis.

Je vais tout faire pour avoir les projets prêts pour la journée du 8 mars.

à partir du 8 mars, je voudrais inverser les cours de Temps réel et de Lutherie si possible. Lutherie serait le matin, dans ce cas, et Temps réel serait dans l’après-midi et deviendra en fait la séance de travail de l’ensemble électronique. Comme ça, on aura le matin pour avancer dans les préparations des instruments, et l’après-midi pour les jouer ensemble. Les instrumentistes qui ne font pas Lutherie pourront continuer le travail d’interprétation temps réel en jouant dans l’ensemble.

à discuter et affiner. Dites-moi si cette inversion de cours posera problèmes.

à bientôt.

programme de cours demain 14 février

Bonjour à tous,

Voici le programme pour demain (jeudi 14 février):

10h-12h : Temps réel et musique
(amenez vos instruments

12h-13h : premier atelier « partitions graphiques »

14h-16h : Lutherie Electronique
(amenez vos idées d’instruments)

16h-18h : Suivi de projets (rdv individuels)

Contactez-moi par mail pour demander un rdv.

à demain.

 

compte rendu 1 févr : Temps réel

Le Traitement temps réel et le langage musical
01 février 2013

Nous avons étudié les filtres basiques, en utilisant le module filt dans tapemovie, lui-même basé sur l’objet max biquad~ et filtergraph.
la grande difficulté à travailler avec les filtres en temps réel est que l’instrument/son qui joue est présent en acoustique, ainsi masquant la sortie du son filtré qui est « appauvri » par le filtrage…
Il faut de quelque manière séparer le sont filtré du son acoustique – soit sur le plan fréquentiel, soit sur le plan temporelle. Une séparation fréquentielle peut être fait par frequency shift et une séparation temporelle peut être fait avec un délai.
en deuxième partie, nous avons regardé un instrument pour le karlax avec 2 fshifts, 2 délais, et deux filtres.
voir l’image.
Yanir (sax alto) et Laure (karlax) ont fait une bon travail de découverte des possibilités de l’instrument – du point de vu des traitements et du point de vu de l’instrumentiste.
 

compte rendu 1 févr : Lutherie

compte rendu 1 févr : Lutherie Electronique et l’Interactivité

Hier pour le cours de Lutherie nous avons:

  • révisé l’utilisation des wiimotes avec OSCulator et Max
  • étudié comment récupérer les données des wiimotes dans tapemovie avec le module « wii »
  • étudié la question du mapping des données de la wii avec la partie « mapper » du module « wii »
  • construit une connexion très rudimentaire qui active une source jouant un sinus, et qui modifie la fréquence avec le « pitch » de la wii – en courbe exponentielle.

Ensuite nous avons étudier comment utiliser une interface de l’appli TouchOSC dans un iPhone ou iPad.

  • créer un réseau privatif avec l’ordinateur
  • connecter le iPhone ou le iPad à ce réseau
  • lancer TouchOSC et configurer l’ordinateur distant avec le nom ou numéro IP de votre ordinateur
  • Noter le numéro de port entrant et sortant de l’appli TouchOSC, ainsi que le numéro IP du iPhone ou iPad pour ensuite renseigner le patch de l’ordinateur pour assurer la communication dans les 2 sens
  • Passer l’appli TouchOSC en mode « jeu » de l’interface en faisant « done »
  • Dans Max: utiliser « udpreceive » avec le numéro de port exactement comme on avait fait avec la wii pour récupérer les différentes donnés de l’interface TouchOSC
  • Dans tapemovie, il faut utiliser un module oscrecieve. Il faut l’allumer, puis renseigner le bon numéro de port de réception. Si tout va bien on voit clignoter le bang d’activité. On peut cliquer sur « print » pour afficher l’arrivée des messages dans la fenêtre « status » (« fenêtre max »).
  • Pour mapper les valeurs qui viennent de TouchOSC et qui passent par oscreceive dans tapemovie, il faut utiliser le module « mapper » qui permet de faire rentrer n’importe quel message et le mapper comme tous les autres mappers. On peut configurer donc /1/fader1 qui vient de l’interface TouchOSC comme source pour un mapping vers n’importe quel paramètre de tapemovie. L’inconvénient c’est qu’il faut une instance du module « mapper » pour CHAQUE objet de l’interface TouchOSC que l’on veut mapper.

A la fin du cours on a vu TRES RAPIDEMENT 4 patches de suivi de mouvement par caméra avec extraction des données: quantité de mouvement, centre du mouvement, quantité et seuil de mouvement dans neuf zones de l’image, centrage d’une couleur spécifique.

Les patches Max pour le suivi de l’image et les contrôles basiques avec Jitter : télécharger

Pour le prochain cours le 14 février, il faut réfléchir sur ce que chacun voudrait faire comme instrument pour l’ensemble. Relisez le compte rendu Lutherie du 15-16 nov qui parle de ce que c’est qu’un instrument et quels sont les « critères » de qualité…

D’après le rdv avec Stéphane Clor, je vous proposerai un patch pan 4 hp sous peu…

 

 

compte rendu 24 janv. : FM

Formation Musicale avec la classe de Hector Sabo
24 janvier 2013

Nous avons eu une séance de 16h à 17h

Il y avait une douzaine jeunes adolescants

Nous avons fait une découverte du Karlax et de quelques instruments que j’ai proposés :

  • jouer des samples avec les pistons, filter par la rotation et spatialiser le son par le mouvement
  • jouer différentes sources et appliquer du filtrage par le mouvement et du LFO d’amplitude par la rotation
  • appliquer une transposition par les différentes touches et un délai par le mouvement
  • effectuer un traitement de type « granulaire » sur les sources par les touches et par le mouvement

Le plupart des enfants ont essayer le Karlax et découvert un peu son potentiel.

Un élève avait exprimé l’idée de jouer du son par la détection du mouvement par une caméra.

Nous allos faire un point avec le prof, Hector Sabo, et décider si, quand et comment nous allons refaire une séance.

compte rendu 24 janv. : Lutherie

compte rendu 24 janv. : Lutherie Electronique et l’Interactivité

Pour le cours de Lutherie jeudi dernier, nous avons vu l’utilisation des wiimotes avec nunchuk comme contrôleurs. Nous avons utilisé OSCulator comme application qui récupère les donnée du wii et les envoie en OSC vers Max.

Nous avons fait un patch dans Max à partir de l’objet « udpreceive » qui reçois les données wii en format OSC par le réseau. L’objet « route » avec comme argument le nom de l’adresse OSC isole les valeurs qu’on cherche utiliser.

Téléchargement de l’appli OSCulator.

 Le patch du cours :
wiimote-patch1

compte rendu 24 janv. : Temps réel

Résumé de la 4e séance de : Traitement temps réel et le langage musical

▪ jeudi 24 janvier de 10h00 à 12h00

Nous avons exploré la synthèse granulaire en employant le module munger (mng) dans tapemovie.

————————————————————
synthèse granulaire
————————————————————

wikipedia « Synthèse granulaire« :

La synthèse granulaire est issue des recherches sur les micro-sons, particulièrement des travaux de Dennis Gabor en 1947. Iannis Xenakis fut parmi les premiers à en faire une utilisation musicale en 1958 avec la pièce pour bande ConcretePH. Le premier logiciel de synthèse granulaire est créé par Curtis Roads en 1978. Barry Truax écrira le premier moteur de synthèse granulaire temps réel en 1986 et s’en servira pour traiter des sources acoustiques (inventant donc la granulation).

Le livre de référence sur la synthèse granulaire est Microsound de Curtis Roads, qui a lui-même composé plusieurs oeuvres électroacoustiques employant la synthèse granulaire. Beaucoup d’autres compositeurs ont utilisé cette technique, notamment Bary Truax qui a créé une oeuvre acousmatique d’envergure qui s’appalle Riverrun composé exclusivement avec la synthèse granulaire en temps réel en 1987. C’est une technique également très répandue en improvisation, car elle donne énormeément de possibilités de transformation et re-interprétation du son.

 

comment ça marche

L’idée de base est qu’un son « source » est est lu par petits grains, habituellement avec une durée de quelques millisecondes, et ces grains se combinent et se superposent de diverses manières pour créer des texures parfois riches, denses et complexes, et parfois très espacé et même rythmés. C’est un peu comme si on mettait un son dans une moulinette pour ensuite le « reconstituer » à sa guise.

Chaque lecure de « grain » a ses propriétés individuelles – position dans le son « source », intensité, durée, enveloppe, transposition, direction de lecture, panoramique… Chaque grain est déclenché par un « moteur » qui est un peu comme un métronome qui peut être très rapide (quelques millisecondes) ou très lent (quelques secondes), très régulier ou bien complètment aléatoire et arythmique. La densité du résultat est une fonction du temps entre chaque grain (vitesse de ce métronome) et la longeur (durée) des grains. Si des grains d’une durée de 100 ms sont lus toutes les 10 millisecondes, on va avoir une densité de 10 grains superposé, et on va avoir une texture plutôt dense, lisse et continue. Si on fait le contraire, des grains d’une durée de 10 ms lus toutes les 100 ms, on va avoir une texture éparse, transparent et plutôt pointilliste.

Le plupart des outils de synthèse granulaire fonctionne de la manière suivante (ou très similaire). On règle les paramètres globaux à la fois du moteur (temps entre chaque grain), et des grains eux-mêmes (position, intensité, durée, enveloppe, transposition, direction de lecture, pan…). Ensuite, on peut introduire une certaine variation aléatoire (ou stochastique) de chaque paramètre. C’est tout!

Des outils de synthèse granulaire diffèrent parfois par rapport à la manière de lire le son « source ». Typiquement, ils permettent de charger un son quelconque depuis un disque dur, ou bien parfois d’enregistrer un son venant d’une entrée micro. Dans ces 2 cas, le son est figé dans la mémoire vive et c’est la lecture décomposé/recomposé des grains qui le fait vivre.

Il existe aussi des outils granulaire qui utilise un espace de mémoire qui marche comme une ligne de retard – le son passe dans la ligne de retard en temps réel, avance petit à petit, puis disparait au bout du temps de retard. Les grains sont lus aléatoirement dans cette mémoire de son qui est constamment renouvelé, et qui reste « proche » du son direct.

Un objet Max/MSP basé sur cette deuxième famille de moteurs de synthèse granulaire qui utilisent une « ligne de retard » est

munger~, écrit par Dan Trueman. C’est cette objet que le module « mng » dans tapemovie utilise également. Vous pouvez trouver un peu d’info sur cet objet ainsi que des liens pour le télécharger ici -> http://www.roaldbaudoux.org/index.php?option=com_content&view=article&id=62:munger&catid=51:objets-complementaires

 

le travail musical

Beaucoup de possibilités existent de recomposition de la matière sonore, avec ou sans éléments aléatoires des paramètres de hauteur, intensité, temps, durée, enveloppe, pan et éventuellement gamme de transposition.

Un facteur important est que si les paramètres de la synthèse granulaire n’évoluent pas dans le temps, l’auditeur peut s’ennuyer assez vite. Il est donc important que les paramètres évoluent, mais aussi ils peuvent être interprétés par un contrôleur gestuel.

Avec la synthèse granulaire de type « munger » nous avons aussi le problème du non-maintenance du son – si l’instrument « source » arrête de jouer, au bout du temps de délai, le son granulaire s’arrête aussi. On peut prolonger le son avec un ou plusieurs délais pour le maintenir. Dans nos essaies en cours, nous avons passé le son par un délai « fibonacci » (delfib dans tapemovie) qui peut prolonger facilement plusieurs secondes ou mêmes plus d’une minute.

————————————————————
impros / essaies
————————————————————

Nous avons fait quelques essaies d’improvisation avec vibraphone, flûte et saxophone.