Voici une vidéo de notre préstation EES du vendredi dernier – 15 minutes.
à très bientôt pour la suite…
Voici une vidéo de notre préstation EES du vendredi dernier – 15 minutes.
à très bientôt pour la suite…
compte rendu 8 mars : Lutherie Electronique et l’Interactivité
Lutherie Electronique et l’Interactivité
8 mars 2013
Demarrage un peu difficile ce matin à cause du problème de la salle, et merci à Philippe pour nous avoir prêté la sienne!
Tout le monde c’est mis autour d’une grand table pour que chacun travaille son instrument et se branche à la sono. Il y avait encore beaucoup de questions sur tapemovie, le contrôle, le mapping, les events, le cuesheet, etc.
La prochaine fois il faut réserver une salle plus grande, et demander un consôle pour que tout le monde puisse se brancher dessus afin d’attaquer les enceintes.
L’état des instruments et naissant, mais présent. Ça commence à prendre forme!
Prochaine cours le 22 mars. On va faire une vraie séance de jeu électronique et mixte, en explorant l’étendu du son de chaque instrument, ses modes de jeu, son langage.
Premier atelier de partitions graphiques
14 février 2013
Ayant débordé d’une demi heure le cours de temps réel du matin, nous avons eu juste une demi heure pour commencer à aborder la notion de la partition graphique.
Les techniques de partitions graphiques vont nous être très utiles pour écrire des partitions pour l’ensemble électronique…
En résumé, même la notation « traditionnelle » est une forme de notation graphique, et surtout « symbolique ». On ne décrit pas la musique en détail, mais on donne les codes d’interprétation. Il y a aussi globalement 2 types de partitions : les partitions servant à l’iterprétation et celles permettant une analyse de l’oeuvre et une compréhension de sa totalité. Pour les piècs mixtes et temps réel, il manque souvent cette 2e type de partition…
Les paramètres qui sont indiqués dans une partition graphique sont essentiellement les même qui sont dans des partitions traditionnelles:
durées (le plus souvent proportionnelles)
rythmes (le plus souvent proportionnelles)
hauteurs (parfois axe verticale, parfois couleur…)
dynamiques (souvent taille de l’objet graphique)
articulations (indications, morphologie de l’image)
timbres (forme, couleur, trait)
modes de jeu – techniques (indications…)
—
Composé en 1958
partition graphique par Rainer Wehinger en 1970
la partition en pdf:
http://ahsmusictechnology.pbworks.com/w/file/51626699/Ligeti%20-%20Artikulation%20%5BScore%5D.pdf
ou télécharger ici.
Analyse de l’oeuvre:
http://www.musique-millet.com/analyses_musicales_diverses/ligeti_artikulation.htm
vidéo où on regarde la partition défiler:
—
Karlheinz Stockhausen – Studie II
1954
vidéo:
images de la partition:
http://www.britannica.com/EBchecked/media/2580/Page-from-the-score-of-Stockhausens-Electronic-Study-No
—
Henri Pousseur – Electre
http://www.britannica.com/EBchecked/media/2579/Page-from-the-score-of-Electre-by-Henri-Pousseur
—
page avec une galérie d’images de partitions graphiques:
http://blog.wfmu.org/freeform/2007/01/gallery_of_musi.html
—
Karlheinz Stockhausen – Kontakte I
http://blogfiles.wfmu.org/KF/2007/01/note/stockhausen_-_Kontakte_1.jpg
—
Iannis Xenakis – Orestia
http://blogfiles.wfmu.org/KF/2007/01/note/Oresteia_Iannis_Xenakis.jpg
—
Cornelius Cardew – Treatise
http://blogfiles.wfmu.org/KF/2007/01/note/cardew_-_treatiseP183.jpg
—
George Crumb – Makrocosmos
http://blogfiles.wfmu.org/KF/2007/01/note/Crumb_-_Makrocosmos.jpg
—
Earl Brown – 4 Systems
http://www.earle-brown.org/score.php?work=12
1952
—
Sylvano Bussotti – Pièces de chair II. Pour piano, baryton, une voix de femme, instruments, Milano, Ricordi, 1970
http://www.urfm.braidense.it/risorse/grafica.htm
Piano Pieces for David Tudor (1959)
http://www.flickr.com/photos/margaperez/2976037593/
—
Karl Garret
http://istianjinelearning.org/karlgarrett/2011/10/13/grade-8-graphic-scores/
—
Oxford dictionary of music – graphic scores:
http://www.answers.com/topic/graphic-scores-1
Lutherie Electronique et l’Interactivité
14 février 2013
On a fait un point sur les projets d’instruments de chacun (uniquement présents: Isabella, Sarah et Enrico). Isabella cherche faire un instrument de traitement contrôlé gestuellement par le Karlax, Sarah voudrait travailler à partir d’échantillons avec contrôle gestuel par iPhone, et Enrico chercherait à créer un instrument acoustique étendu avec l’accélérometre d’un wiimote (éventuellement) attaché dessus…
Nous avons fait une séance surtout pratique abordant les thèmes des cartes son reconnues par max/tapemovie, les mappings du module « midi », les mappings du module « oscreceive » par les module « mappers », et les mappings du karlax. Nous avons vu le module « cuesheet » qui permet de séquencer les « events » par bar d’espace ou par mapping.
Pour mapper vers un enchainement d’events dans cuesheet il faut utiliser le type de mapping « trig », in1 et in2 doivent être égale à la valeur à détecter (i.e. 127 127 ou 1. 1.), et la destination doit être « /cuesheet.1/go » et message « b » pour bang.
N’hésitez pas à poster vos questions sur le blog.
Prochaine séance le 8 mars. Il faudrait commencer à pouvoir jouer sur vos instruments, même de façon rudimentaire.
Je pense qu’il faudrait mettre le cours de Luthérie le matin afin de pouvoir terminer/valider une première version basique de vos instruments avant de faire une séance de jeu de l’ensemble dans l’après-midi.
Le Traitement temps réel et le langage musical
14 février 2013
Nous avons travaillé sur deux de mes pièces, Le Patch Bien Tempéré numéro II pour saxophone et modulateurs en anneau, et Le Patch Bien Tempéré numéro I pour vibraphone et délais.
Le numéro 2 pour saxophone est uniquement por 4 modulateurs en anneau, les fréquences desquelles sont exprimées en notes transposées. Avant de jouer, on choisit l’instrument (soprano, alto, tenor, baritone) ce qui determine la valeur de transposition qui sera appliquée à toutes les modulations et détections de hauteurs. Divers saxophonistes en cours ont essayé la première section avec alto, tenor, baritone et soprano (Yanir – alto, Isabella – tenor, Andrès – baritone et soprano. Le constat générale semblait être que ca marche le mieux avec alto, mais je pense qu’il faudrait travailler d’avantage sur les autres instruments pour trouver la manière de les faire sonner mieux pour cette pièce et de profiter plus des avantages de chacun. A mon avis, ça doit pouvoir bien marcher avec les 4 saxophones principaux que nous avons essayé en cours.
Je vais envoyer la partition en pdf à tout le monde, puis je vais retravailler un petit peu le projet tapemovie de la pièce pour que ça puisse être ouvert avec le tapemovie.app et pas uniquement dans max5 comme est le cas actuellement.
Nous avons aussi travaillé sur le PBT I pour vibra e délais, avec Enrico jouant le vibra. Nous avons remarqué qu’il faudrait revoir un peu la notation rythmique pour la rendre plus claire, et aussi créer un paramètre d’ajustement global du tempo pour pouvoir répéter et entrainer à un tempo plus lent avant de pouvoir se mettre au bon tempo. Ce paramètre modifiera le clic et bien sûr le rapport de temps de tous les délais. Je vais aussi changer le son du clic car le son actuel n’est pas assez précis.
Je vais tout faire pour avoir les projets prêts pour la journée du 8 mars.
—
à partir du 8 mars, je voudrais inverser les cours de Temps réel et de Lutherie si possible. Lutherie serait le matin, dans ce cas, et Temps réel serait dans l’après-midi et deviendra en fait la séance de travail de l’ensemble électronique. Comme ça, on aura le matin pour avancer dans les préparations des instruments, et l’après-midi pour les jouer ensemble. Les instrumentistes qui ne font pas Lutherie pourront continuer le travail d’interprétation temps réel en jouant dans l’ensemble.
à discuter et affiner. Dites-moi si cette inversion de cours posera problèmes.
à bientôt.
Le Traitement temps réel et le langage musical
01 février 2013
Formation Musicale avec la classe de Hector Sabo
24 janvier 2013
Nous avons eu une séance de 16h à 17h
Il y avait une douzaine jeunes adolescants
Nous avons fait une découverte du Karlax et de quelques instruments que j’ai proposés :
Le plupart des enfants ont essayer le Karlax et découvert un peu son potentiel.
Un élève avait exprimé l’idée de jouer du son par la détection du mouvement par une caméra.
Nous allos faire un point avec le prof, Hector Sabo, et décider si, quand et comment nous allons refaire une séance.
compte rendu 24 janv. : Lutherie Electronique et l’Interactivité
Pour le cours de Lutherie jeudi dernier, nous avons vu l’utilisation des wiimotes avec nunchuk comme contrôleurs. Nous avons utilisé OSCulator comme application qui récupère les donnée du wii et les envoie en OSC vers Max.
Nous avons fait un patch dans Max à partir de l’objet « udpreceive » qui reçois les données wii en format OSC par le réseau. L’objet « route » avec comme argument le nom de l’adresse OSC isole les valeurs qu’on cherche utiliser.
Téléchargement de l’appli OSCulator.
Résumé de la 4e séance de : Traitement temps réel et le langage musical
▪ jeudi 24 janvier de 10h00 à 12h00
Nous avons exploré la synthèse granulaire en employant le module munger (mng) dans tapemovie.
————————————————————
synthèse granulaire
————————————————————
wikipedia « Synthèse granulaire« :
La synthèse granulaire est issue des recherches sur les micro-sons, particulièrement des travaux de Dennis Gabor en 1947. Iannis Xenakis fut parmi les premiers à en faire une utilisation musicale en 1958 avec la pièce pour bande ConcretePH. Le premier logiciel de synthèse granulaire est créé par Curtis Roads en 1978. Barry Truax écrira le premier moteur de synthèse granulaire temps réel en 1986 et s’en servira pour traiter des sources acoustiques (inventant donc la granulation).
Le livre de référence sur la synthèse granulaire est Microsound de Curtis Roads, qui a lui-même composé plusieurs oeuvres électroacoustiques employant la synthèse granulaire. Beaucoup d’autres compositeurs ont utilisé cette technique, notamment Bary Truax qui a créé une oeuvre acousmatique d’envergure qui s’appalle Riverrun composé exclusivement avec la synthèse granulaire en temps réel en 1987. C’est une technique également très répandue en improvisation, car elle donne énormeément de possibilités de transformation et re-interprétation du son.
comment ça marche
L’idée de base est qu’un son « source » est est lu par petits grains, habituellement avec une durée de quelques millisecondes, et ces grains se combinent et se superposent de diverses manières pour créer des texures parfois riches, denses et complexes, et parfois très espacé et même rythmés. C’est un peu comme si on mettait un son dans une moulinette pour ensuite le « reconstituer » à sa guise.
Chaque lecure de « grain » a ses propriétés individuelles – position dans le son « source », intensité, durée, enveloppe, transposition, direction de lecture, panoramique… Chaque grain est déclenché par un « moteur » qui est un peu comme un métronome qui peut être très rapide (quelques millisecondes) ou très lent (quelques secondes), très régulier ou bien complètment aléatoire et arythmique. La densité du résultat est une fonction du temps entre chaque grain (vitesse de ce métronome) et la longeur (durée) des grains. Si des grains d’une durée de 100 ms sont lus toutes les 10 millisecondes, on va avoir une densité de 10 grains superposé, et on va avoir une texture plutôt dense, lisse et continue. Si on fait le contraire, des grains d’une durée de 10 ms lus toutes les 100 ms, on va avoir une texture éparse, transparent et plutôt pointilliste.
Le plupart des outils de synthèse granulaire fonctionne de la manière suivante (ou très similaire). On règle les paramètres globaux à la fois du moteur (temps entre chaque grain), et des grains eux-mêmes (position, intensité, durée, enveloppe, transposition, direction de lecture, pan…). Ensuite, on peut introduire une certaine variation aléatoire (ou stochastique) de chaque paramètre. C’est tout!
Des outils de synthèse granulaire diffèrent parfois par rapport à la manière de lire le son « source ». Typiquement, ils permettent de charger un son quelconque depuis un disque dur, ou bien parfois d’enregistrer un son venant d’une entrée micro. Dans ces 2 cas, le son est figé dans la mémoire vive et c’est la lecture décomposé/recomposé des grains qui le fait vivre.
Il existe aussi des outils granulaire qui utilise un espace de mémoire qui marche comme une ligne de retard – le son passe dans la ligne de retard en temps réel, avance petit à petit, puis disparait au bout du temps de retard. Les grains sont lus aléatoirement dans cette mémoire de son qui est constamment renouvelé, et qui reste « proche » du son direct.
Un objet Max/MSP basé sur cette deuxième famille de moteurs de synthèse granulaire qui utilisent une « ligne de retard » est
munger~, écrit par Dan Trueman. C’est cette objet que le module « mng » dans tapemovie utilise également. Vous pouvez trouver un peu d’info sur cet objet ainsi que des liens pour le télécharger ici -> http://www.roaldbaudoux.org/index.php?option=com_content&view=article&id=62:munger&catid=51:objets-complementaires
le travail musical
Beaucoup de possibilités existent de recomposition de la matière sonore, avec ou sans éléments aléatoires des paramètres de hauteur, intensité, temps, durée, enveloppe, pan et éventuellement gamme de transposition.
Un facteur important est que si les paramètres de la synthèse granulaire n’évoluent pas dans le temps, l’auditeur peut s’ennuyer assez vite. Il est donc important que les paramètres évoluent, mais aussi ils peuvent être interprétés par un contrôleur gestuel.
Avec la synthèse granulaire de type « munger » nous avons aussi le problème du non-maintenance du son – si l’instrument « source » arrête de jouer, au bout du temps de délai, le son granulaire s’arrête aussi. On peut prolonger le son avec un ou plusieurs délais pour le maintenir. Dans nos essaies en cours, nous avons passé le son par un délai « fibonacci » (delfib dans tapemovie) qui peut prolonger facilement plusieurs secondes ou mêmes plus d’une minute.
————————————————————
impros / essaies
————————————————————
Nous avons fait quelques essaies d’improvisation avec vibraphone, flûte et saxophone.
—