Archives de catégorie : comptes-rendus

point pour les cours du 5 avril

Un petit point pour ce vendredi.
On va faire une bonne séance de trois heures le matin pour la lutherie pour continuer à mettre au point vos instruments, puis dans l’après-midi on va faire la séance de l’ensemble électronique. On pourra faire 14h à 17h cette fois-ci.
à partir de 17h, je peux faire des rdv pour les projets.
10h-13h : Lutherie Electronique
14h-17h : Temps réel / Ensemble Electronique
17h-19h : suivi projets divers
Je pourrais aussi voir Andres pour le patch bien tempéré II et Enrico pour le numéro I. On peux vérifier que ça marche bien, et répéter un peu.
La dernière fois en séance de l’ensemble, nous avons fait de l’impro, et il y eu des belles choses qui ont commencé à se faire. Il faut qu’on travaille des formes plus précises maintenant. Je viendrai avec quelques exercices de jeu à faire, et pour la prochaine fois, on doit commencer à avoir des propositions de vous en formes de début de partitions graphiques.
Nous avons aussi commencé à voir que ça sera intéressant d’avoir des plages de l’ensemble en tutti, intercoupées de duos électronique / instrument où l’instrument acoustique est traité par l’instrument électronique. Pour réaliser ca, il va falloir que vous formiez des binômes pour avancer le travail de développement,  test et écriture. Ecriture dans ce contexte pouvant être une partition graphiques ou autre qui détermine la structure et les règles du jeu, par exemple. On en parlera en cours.
On parlera vendredi aussi des différents contenus pour le 31 mai, le 10 juin et le 23 juin.
Essayer d’être plus présent que la dernière fois où il y avait surtout de la difficulté le matin, et progressivement dans l’après-midi…
Les contenus pour la fin d’année vont se clarifier très rapidement.
à vendredi!

compte rendu 8 mars : Lutherie et Temps réel

compte rendu 8 mars : Lutherie Electronique et l’Interactivité

Lutherie Electronique et l’Interactivité

8 mars 2013

Demarrage un peu difficile ce matin à cause du problème de la salle, et merci à Philippe pour nous avoir prêté la sienne!

Tout le monde c’est mis autour d’une grand table pour que chacun travaille son instrument et se branche à la sono. Il y avait encore beaucoup de questions sur tapemovie, le contrôle, le mapping, les events, le cuesheet, etc.

La prochaine fois il faut réserver une salle plus grande, et demander un consôle pour que tout le monde puisse se brancher dessus afin d’attaquer les enceintes.

L’état des instruments et naissant, mais présent. Ça commence à prendre forme!

Prochaine cours le 22 mars. On va faire une vraie séance de jeu électronique et mixte, en explorant l’étendu du son de chaque instrument, ses modes de jeu, son langage.

 

compte rendu 14 févr : partitions graphiques

Premier atelier de partitions graphiques
14 février 2013

Ayant débordé d’une demi heure le cours de temps réel du matin, nous avons eu juste une demi heure pour commencer à aborder la notion de la partition graphique.

Les techniques de partitions graphiques vont nous être très utiles pour écrire des partitions pour l’ensemble électronique

En résumé, même la notation « traditionnelle » est une forme de notation graphique, et surtout « symbolique ». On ne décrit pas la musique en détail, mais on donne les codes d’interprétation. Il y a aussi globalement 2 types de partitions : les partitions servant à l’iterprétation et celles permettant une analyse de l’oeuvre et une compréhension de sa totalité. Pour les piècs mixtes et temps réel, il manque souvent cette 2e type de partition…

Les paramètres qui sont indiqués dans une partition graphique sont essentiellement les même qui sont dans des partitions traditionnelles:

durées (le plus souvent proportionnelles)
rythmes (le plus souvent proportionnelles)
hauteurs (parfois axe verticale, parfois couleur…)
dynamiques (souvent taille de l’objet graphique)
articulations (indications, morphologie de l’image)
timbres (forme, couleur, trait)
modes de jeu – techniques (indications…)

Exemples à étudier:

Gyorgyt Ligeti – Artikulation

Composé en 1958
partition graphique par Rainer Wehinger en 1970

Ligeti-Artikulation_1s

la partition en pdf:
http://ahsmusictechnology.pbworks.com/w/file/51626699/Ligeti%20-%20Artikulation%20%5BScore%5D.pdf

ou télécharger ici.

Analyse de l’oeuvre:
http://www.musique-millet.com/analyses_musicales_diverses/ligeti_artikulation.htm

vidéo où on regarde la partition défiler:


Karlheinz Stockhausen – Studie II
1954

stockhausen_elektronische_studieII

vidéo:

images de la partition:
http://www.britannica.com/EBchecked/media/2580/Page-from-the-score-of-Stockhausens-Electronic-Study-No


Henri Pousseur – Electre
http://www.britannica.com/EBchecked/media/2579/Page-from-the-score-of-Electre-by-Henri-Pousseur

pousseur-electre


page avec une galérie d’images de partitions graphiques:
http://blog.wfmu.org/freeform/2007/01/gallery_of_musi.html


Karlheinz Stockhausen – Kontakte I
http://blogfiles.wfmu.org/KF/2007/01/note/stockhausen_-_Kontakte_1.jpg

stockhausen_-_Kontakte_1


Iannis Xenakis – Orestia
http://blogfiles.wfmu.org/KF/2007/01/note/Oresteia_Iannis_Xenakis.jpg

Oresteia_Iannis_Xenakis


Cornelius Cardew – Treatise
http://blogfiles.wfmu.org/KF/2007/01/note/cardew_-_treatiseP183.jpg

cardew_-_treatiseP183


George Crumb – Makrocosmos
http://blogfiles.wfmu.org/KF/2007/01/note/Crumb_-_Makrocosmos.jpg

Crumb_-_Makrocosmos


Earl Brown – 4 Systems
http://www.earle-brown.org/score.php?work=12
1952

Four Systems


Sylvano Bussotti – Pièces de chair II. Pour piano, baryton, une voix de femme, instruments, Milano, Ricordi, 1970
http://www.urfm.braidense.it/risorse/grafica.htm

berlussotti-grafica

Piano Pieces for David Tudor (1959)
http://www.flickr.com/photos/margaperez/2976037593/

berlussotti2-2976037593_bd51718a23_z


Karl Garret
http://istianjinelearning.org/karlgarrett/2011/10/13/grade-8-graphic-scores/

karl-garrett-e04_dicastri_01-23x89pf


Oxford dictionary of music – graphic scores:
http://www.answers.com/topic/graphic-scores-1

 

 

compte rendu 14 févr : Lutherie

Lutherie Electronique et l’Interactivité
14 février 2013

On a fait un point sur les projets d’instruments de chacun (uniquement présents: Isabella, Sarah et Enrico). Isabella cherche faire un instrument de traitement contrôlé gestuellement par le Karlax, Sarah voudrait travailler à partir d’échantillons avec contrôle gestuel par iPhone, et Enrico chercherait à créer un instrument acoustique étendu avec l’accélérometre d’un wiimote (éventuellement) attaché dessus…

Nous avons fait une séance surtout pratique abordant les thèmes des cartes son reconnues par max/tapemovie, les mappings du module « midi », les mappings du module « oscreceive » par les module « mappers », et les mappings du karlax. Nous avons vu le module « cuesheet » qui permet de séquencer les « events » par bar d’espace ou par mapping.

Pour mapper vers un enchainement d’events dans cuesheet il faut utiliser le type de mapping « trig », in1 et in2 doivent être égale à la valeur à détecter (i.e. 127 127 ou 1. 1.), et la destination doit être « /cuesheet.1/go » et message « b » pour bang.

N’hésitez pas à poster vos questions sur le blog.

Prochaine séance le 8 mars. Il faudrait commencer à pouvoir jouer sur vos instruments, même de façon rudimentaire.

Je pense qu’il faudrait mettre le cours de Luthérie le matin afin de pouvoir terminer/valider une première version basique de vos instruments avant de faire une séance de jeu de l’ensemble dans l’après-midi.

compte rendu 14 févr : Temps réel

Le Traitement temps réel et le langage musical
14 février 2013

Nous avons travaillé sur deux de mes pièces, Le Patch Bien Tempéré numéro II pour saxophone et modulateurs en anneau, et  Le Patch Bien Tempéré numéro I  pour vibraphone et délais.

Le numéro 2 pour saxophone est uniquement por 4 modulateurs en anneau, les fréquences desquelles sont exprimées en notes transposées. Avant de jouer, on choisit l’instrument (soprano, alto, tenor, baritone) ce qui determine la valeur de transposition qui sera appliquée à toutes les modulations et détections de hauteurs. Divers saxophonistes en cours ont essayé la première section avec alto, tenor, baritone et soprano (Yanir – alto, Isabella – tenor, Andrès – baritone et soprano. Le constat générale semblait être que ca marche le mieux avec alto, mais je pense qu’il faudrait travailler d’avantage sur les autres instruments pour trouver la manière de les faire sonner mieux pour cette pièce et de profiter plus des avantages de chacun. A mon avis, ça doit pouvoir bien marcher avec les 4 saxophones principaux que nous avons essayé en cours.

Je vais envoyer la partition en pdf à tout le monde, puis je vais retravailler un petit peu le projet tapemovie de la pièce pour que ça puisse être ouvert avec le tapemovie.app et pas uniquement dans max5 comme est le cas actuellement.

Nous avons aussi travaillé sur le PBT I pour vibra e délais, avec Enrico jouant le vibra. Nous avons remarqué qu’il faudrait revoir un peu la notation rythmique pour la rendre plus claire, et aussi créer un paramètre d’ajustement global du tempo pour pouvoir répéter et entrainer à un tempo plus lent avant de pouvoir se mettre au bon tempo. Ce paramètre modifiera le clic et bien sûr le rapport de temps de tous les délais. Je vais aussi changer le son du clic car le son actuel n’est pas assez précis.

Je vais tout faire pour avoir les projets prêts pour la journée du 8 mars.

à partir du 8 mars, je voudrais inverser les cours de Temps réel et de Lutherie si possible. Lutherie serait le matin, dans ce cas, et Temps réel serait dans l’après-midi et deviendra en fait la séance de travail de l’ensemble électronique. Comme ça, on aura le matin pour avancer dans les préparations des instruments, et l’après-midi pour les jouer ensemble. Les instrumentistes qui ne font pas Lutherie pourront continuer le travail d’interprétation temps réel en jouant dans l’ensemble.

à discuter et affiner. Dites-moi si cette inversion de cours posera problèmes.

à bientôt.

compte rendu 1 févr : Temps réel

Le Traitement temps réel et le langage musical
01 février 2013

Nous avons étudié les filtres basiques, en utilisant le module filt dans tapemovie, lui-même basé sur l’objet max biquad~ et filtergraph.
la grande difficulté à travailler avec les filtres en temps réel est que l’instrument/son qui joue est présent en acoustique, ainsi masquant la sortie du son filtré qui est « appauvri » par le filtrage…
Il faut de quelque manière séparer le sont filtré du son acoustique – soit sur le plan fréquentiel, soit sur le plan temporelle. Une séparation fréquentielle peut être fait par frequency shift et une séparation temporelle peut être fait avec un délai.
en deuxième partie, nous avons regardé un instrument pour le karlax avec 2 fshifts, 2 délais, et deux filtres.
voir l’image.
Yanir (sax alto) et Laure (karlax) ont fait une bon travail de découverte des possibilités de l’instrument – du point de vu des traitements et du point de vu de l’instrumentiste.
 

compte rendu 24 janv. : FM

Formation Musicale avec la classe de Hector Sabo
24 janvier 2013

Nous avons eu une séance de 16h à 17h

Il y avait une douzaine jeunes adolescants

Nous avons fait une découverte du Karlax et de quelques instruments que j’ai proposés :

  • jouer des samples avec les pistons, filter par la rotation et spatialiser le son par le mouvement
  • jouer différentes sources et appliquer du filtrage par le mouvement et du LFO d’amplitude par la rotation
  • appliquer une transposition par les différentes touches et un délai par le mouvement
  • effectuer un traitement de type « granulaire » sur les sources par les touches et par le mouvement

Le plupart des enfants ont essayer le Karlax et découvert un peu son potentiel.

Un élève avait exprimé l’idée de jouer du son par la détection du mouvement par une caméra.

Nous allos faire un point avec le prof, Hector Sabo, et décider si, quand et comment nous allons refaire une séance.

compte rendu 24 janv. : Lutherie

compte rendu 24 janv. : Lutherie Electronique et l’Interactivité

Pour le cours de Lutherie jeudi dernier, nous avons vu l’utilisation des wiimotes avec nunchuk comme contrôleurs. Nous avons utilisé OSCulator comme application qui récupère les donnée du wii et les envoie en OSC vers Max.

Nous avons fait un patch dans Max à partir de l’objet « udpreceive » qui reçois les données wii en format OSC par le réseau. L’objet « route » avec comme argument le nom de l’adresse OSC isole les valeurs qu’on cherche utiliser.

Téléchargement de l’appli OSCulator.

 Le patch du cours :
wiimote-patch1

compte rendu 24 janv. : Temps réel

Résumé de la 4e séance de : Traitement temps réel et le langage musical

▪ jeudi 24 janvier de 10h00 à 12h00

Nous avons exploré la synthèse granulaire en employant le module munger (mng) dans tapemovie.

————————————————————
synthèse granulaire
————————————————————

wikipedia « Synthèse granulaire« :

La synthèse granulaire est issue des recherches sur les micro-sons, particulièrement des travaux de Dennis Gabor en 1947. Iannis Xenakis fut parmi les premiers à en faire une utilisation musicale en 1958 avec la pièce pour bande ConcretePH. Le premier logiciel de synthèse granulaire est créé par Curtis Roads en 1978. Barry Truax écrira le premier moteur de synthèse granulaire temps réel en 1986 et s’en servira pour traiter des sources acoustiques (inventant donc la granulation).

Le livre de référence sur la synthèse granulaire est Microsound de Curtis Roads, qui a lui-même composé plusieurs oeuvres électroacoustiques employant la synthèse granulaire. Beaucoup d’autres compositeurs ont utilisé cette technique, notamment Bary Truax qui a créé une oeuvre acousmatique d’envergure qui s’appalle Riverrun composé exclusivement avec la synthèse granulaire en temps réel en 1987. C’est une technique également très répandue en improvisation, car elle donne énormeément de possibilités de transformation et re-interprétation du son.

 

comment ça marche

L’idée de base est qu’un son « source » est est lu par petits grains, habituellement avec une durée de quelques millisecondes, et ces grains se combinent et se superposent de diverses manières pour créer des texures parfois riches, denses et complexes, et parfois très espacé et même rythmés. C’est un peu comme si on mettait un son dans une moulinette pour ensuite le « reconstituer » à sa guise.

Chaque lecure de « grain » a ses propriétés individuelles – position dans le son « source », intensité, durée, enveloppe, transposition, direction de lecture, panoramique… Chaque grain est déclenché par un « moteur » qui est un peu comme un métronome qui peut être très rapide (quelques millisecondes) ou très lent (quelques secondes), très régulier ou bien complètment aléatoire et arythmique. La densité du résultat est une fonction du temps entre chaque grain (vitesse de ce métronome) et la longeur (durée) des grains. Si des grains d’une durée de 100 ms sont lus toutes les 10 millisecondes, on va avoir une densité de 10 grains superposé, et on va avoir une texture plutôt dense, lisse et continue. Si on fait le contraire, des grains d’une durée de 10 ms lus toutes les 100 ms, on va avoir une texture éparse, transparent et plutôt pointilliste.

Le plupart des outils de synthèse granulaire fonctionne de la manière suivante (ou très similaire). On règle les paramètres globaux à la fois du moteur (temps entre chaque grain), et des grains eux-mêmes (position, intensité, durée, enveloppe, transposition, direction de lecture, pan…). Ensuite, on peut introduire une certaine variation aléatoire (ou stochastique) de chaque paramètre. C’est tout!

Des outils de synthèse granulaire diffèrent parfois par rapport à la manière de lire le son « source ». Typiquement, ils permettent de charger un son quelconque depuis un disque dur, ou bien parfois d’enregistrer un son venant d’une entrée micro. Dans ces 2 cas, le son est figé dans la mémoire vive et c’est la lecture décomposé/recomposé des grains qui le fait vivre.

Il existe aussi des outils granulaire qui utilise un espace de mémoire qui marche comme une ligne de retard – le son passe dans la ligne de retard en temps réel, avance petit à petit, puis disparait au bout du temps de retard. Les grains sont lus aléatoirement dans cette mémoire de son qui est constamment renouvelé, et qui reste « proche » du son direct.

Un objet Max/MSP basé sur cette deuxième famille de moteurs de synthèse granulaire qui utilisent une « ligne de retard » est

munger~, écrit par Dan Trueman. C’est cette objet que le module « mng » dans tapemovie utilise également. Vous pouvez trouver un peu d’info sur cet objet ainsi que des liens pour le télécharger ici -> http://www.roaldbaudoux.org/index.php?option=com_content&view=article&id=62:munger&catid=51:objets-complementaires

 

le travail musical

Beaucoup de possibilités existent de recomposition de la matière sonore, avec ou sans éléments aléatoires des paramètres de hauteur, intensité, temps, durée, enveloppe, pan et éventuellement gamme de transposition.

Un facteur important est que si les paramètres de la synthèse granulaire n’évoluent pas dans le temps, l’auditeur peut s’ennuyer assez vite. Il est donc important que les paramètres évoluent, mais aussi ils peuvent être interprétés par un contrôleur gestuel.

Avec la synthèse granulaire de type « munger » nous avons aussi le problème du non-maintenance du son – si l’instrument « source » arrête de jouer, au bout du temps de délai, le son granulaire s’arrête aussi. On peut prolonger le son avec un ou plusieurs délais pour le maintenir. Dans nos essaies en cours, nous avons passé le son par un délai « fibonacci » (delfib dans tapemovie) qui peut prolonger facilement plusieurs secondes ou mêmes plus d’une minute.

————————————————————
impros / essaies
————————————————————

Nous avons fait quelques essaies d’improvisation avec vibraphone, flûte et saxophone.