Archives mensuelles : décembre 2012

Préparations pour janvier 2013

Ayant mis les comptes rendus sur le site, il est temps de s’organiser pour les interventions de janvier et au-delà.

Comme vous le savez, à partir de janvier je viendrai toujours 2 jours par mois, mais PAS des jours consécutifs. Sur le planning existant, les dates de vendredi 11 janvier et jeudi 24 janvier ont été retenues en pensant qu’il y aurait toujours les 2 groupes qu’il y a eu en novembre et décembre.

Or, nous avons pensé que ça serait peut-être mieux que je viennent toujours le même jour de la semaine, et que nous formions un seul cours (groupe) de Temps réel et de Lutherie – chacun ayant ainsi un cours toutes les 2 semaines et non pas une fois par mois.

Il faudrait donc décider si ce jour sera le jeudi ou le vendredi, mais je ne pense pas qu’on va pouvoir changer les dates de janvier. Le jeudi 10 janvier je serai occupé avec une visite à Karlsruhe – ce qui fait qu’on doit maintenir le vendredi 11 janvier, et le 24 janvier il y a une intervention prévu avec la classe de FM d’Hector Sabo…

Ce qu’il faut que je sache pour tout le monde c’est:  est-ce que vous pouvez venir le jeudi ou le vendredi indifféremment, ou préférez-vous soit le jeudi soit le vendredi? Il y a déjà une contrainte d’une classe de français le jeudi qui rendrait difficile certaines horaires…

Je propose qu’on aient les horaires:

  • 10h-12h : Temps réel
  • 12h-13h : Suivi
  • 14h-16h : Lutherie
  • 16h-17h : culture / ou FM
  • 17h-18h : Suivi

Pour des contraintes des classes de FM, on pourrait aussi faire:

  • 10h-12h : Temps réel
  • 12h-13h : Suivi
  • 14h-15h : culture / ou FM
  • 15h-17h : Lutherie
  • 17h-18h : Suivi

Sachant que les cours qui devraient être à chaque intervention sont Temps réel, Lutherie et suivi. Culture et FM peuvent être moins souvent.

Dites nous (sur ce site en commentaires ou en mail privé) quels sont vos préférences.

Je vous souhaites de très bonnes fêtes!

-Tom

compte rendu 16 nov et 7 déc : Formation Musicale

Formation Musicale avec la classe d’Antoine Spindler
16 novembre et 7 décembre 2012

Nous avons eu 2 séances, le 16 novembre et le 7 décembre de 13h50 à 14h50

16 novembre:
Nous avons fait une sensibilisation au jeu sur voix et leurs instruments en modifiant le son par des procédés très simples de délai (échos) et transposition (harmoniseurs). Ils ont tous joués leurs instruments en écoutant le résultat de la transformation. Quant à la transposition, ils ont essayé d’identifier l’intervalle de transposition à l’oreille.

Ils ont beaucoup aimé la transposition de la voix dans l’aigüe et dans le grave…

7 décembre:
Cette fois-ci j’avais préparé un instrument très simple avec le Karlax – un harmoniseur qui changeait de transposition en glisse en rapport avec l’axe « accélérateur Z » du Karlax. Ainsi, ils jouaient à 2, un jouant karlax et l’autre son instrument. Nous avons essayer de faire jouer tout le monde ET sur le Karlax ET sur leur instrument.

Ils ont essayé d’être à l’écoute de la transposition en fonction de la position du Karlax, et par moments ont essayer de « trouver » des intervalles et notes spécifiques.

Il y a de bonnes exercices possible à imaginer.

Antoine va lister différentes idées à poursuivre pour que je puisse commencer des développements d’outils pédagogiques – avec et sans Karlax.

compte rendu 6 déc : Culture

Voici les pièces que nous avons regardé durant la séance de Culture Electroacoustique du 6 décembre…

Le sujet était « quatuor à cordes »

 

Philippe Manoury

Tensio (2010) – avec électronique en temps réel (Ircam)

Nous avons regardé la partition en voyant particulièrement comment les traitements (descriptions et résultats) ont été noté. Nous avons écouté un extrait.

Aller voir absolument la page sur le site de Philippe Manoury qui parle Tensio ->

LES PROCÉDÉS DE COMPOSITION UTILISÉS DANS “TENSIO”

 

Il y a également une vidéo produite par l’Ircam où Philippe Manoury parle de la pièce :

Images d’une oeuvre n°10 : « Tensio » de Philippe Manoury


 

Jonathan Harvey

4th String Quartet (2003) – avec électronique en temps réel (Ircam)

Nous avons écouté un extrait. Je n’ai pas la partition.

page de la médiathèque de la cité de la musique:

http://mediatheque.cite-musique.fr/masc/?INSTANCE=CITEMUSIQUE&URL=/ClientBookLineCIMU/recherche/NoticeDetailleByID.asp

 

 

Gabriel Prokofiev

En contraste à ces 2 pièces de musique contemporaine, nous avons écouté un artiste « crossover » qui est à la fois dans la musique contemporaine ET dans la musique électronique populaire – il est lui-même à la fois compositeur et DJ.

Dans son Album Elysian Quartet (2006) il y a 4 mouvements d’un quatuor à cordes acoustique, puis divers « remixes » des ces mouvements.

Nous avons écouté:

  • Elysian Quartet (2006)
    • 1st movement
    • 2nd movement
    • 3rd movement
  • 1st Movement (G. Prokofiev Hip-Hop Remix)
  • 2nd & 3rd Movements (Max De Wardener Remix)
  • 2nd Movement (BoxSaga Remix)

Vous pouvez visiter le site de Gabriel Prokofiev:

Nonclassical

La prochaine fois, nous allons écouter une nouvelle création pour Karlax et ensemble:

Kaala, de Daniel Figols

compte rendu 6-7 déc : Lutherie

Lutherie Electronique et l’Interactivité
15-16 novembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 15h à 17h
▪ groupe 2 : vendredi 7 décembre de 15h à 17h

J’avais eu l’intention de commencer à voir MaxMSP, mais nous avons continué à voir tapemovie car il festait beaucoup de questions et on avait besoin de le voir en plus de détail.

Globalement, nous avons recommencé au début:

  • lancement
  • configuration de la partie tapemovie ET la partie tape

tm_config
t_config

  • init et build (construction)
  • le menu windows et les éditeurs des modules
  • la base des éditeurs

switch
snapshot
paramètres
spat

  • le principe de la matrice (mtrx)
  • création d’un « instrument » simple

entrée micro (adc)
harmoniseur/délai
contrôle Karlax

  • création d’un event (évènemement)
  • dynamisation et temporalisatin des events

J’ai crée une page dans ce site qui regroupe des liens vers des infos sur tapemovie :

  • – de très bonnes notes de cours d’Emilie Buttazzoni
  • – site de tapemovie
  • – esquisse de documentation
  • – mon mémoire contenant un chapitre tapemovie
  • – article sur tapemovie de la conférence « Journées d’informatique musicale » de 2010.

la page « liens tapemovie« 

compte rendu 6-7 déc : Temps réel et musique

Le Traitement temps réel et le langage musical
6-7 décembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 10h30 à 12h30
▪ groupe 2 : vendredi 7 décembre de 9h30 à 11h30

 

Pour cette 2e séance nous avons exploré l’harmoniseur (transposition de hauteur), d’abord tout seul, et ensuite avec temps de délai et pourcentage de réinjection (feedback).

Après un rappel des 5 grandes familles de traitements :

temps
amplitude
hauteur
timbre
espace
matière

Nous avons vu/écouter les principes musicaux du traitement de hauteur.

————————————————————
l’Harmoniseur
————————————————————

comment ça marche

Le traitement de hauteur par harmoniseur est assez simple : générer une transposition d’une entrée son (micro) en direct. Globalement il y a deux méthodes – la « traditionnelle » – dans le domaine temporel, et la plus récente – dans le domaine fréquentiel.

La première méthode consiste à varier la position de lecture dans un délai variable, générant une légère transposition pendant le temps de changement de position. Puisque l’harmoniseur devrait avoir l’aspect d’un délai négligeable et surtout fixe, le petit changement de position se fait en petite échelle (quelques millisecondes) avec un système de fenêtrage. Ce système fonctionne assez bien pour des petites transpositions (environ une tierce), mais pour les intervalles plus importantes on constate une déformation de timbre vers la petite voix des munchkins ou des chipmunks dans l’aigu, et vers les voix robots dans le grave. L’effet et justement le plus marqué et audible pour la voix. D’autres instruments peuvent subir des changements d’intervalle plus importante sans sembler perdre leur nature.

La raison de cette déformation est le non-respect des formants. Dans la voix surtout, mais aussi dans d’autres instruments, la cavité de résonance favorise certaines fréquences qui ne change pas avec la hauteur. Ce sont les formants, par exemple, qui créent les voyelles. Quand on transpose par harmoniseur « temporel », ainsi que par lecture d’échantillon, les formants sont transposés avec la vibration principale parce qu’ils font partie du son global. Les formants qui transpose de cette manière créent un effet artificiel, nous pointant le coté électronique et non pas purement musical. En générale, la transposition vers le grave est plus tolérante que vers l’aigüe.

Puisque cette méthode d’harmoniseur contient par sa nature un délai, il est l’usage de se servir de ce délai musicalement (voir les discussions sur le délai dans les comptes rendu du mois de novembre) – créant un retard transposé. Quand on met de la réinjection (feedback) de la sortie de l’harmoniseur/délai dans l’entrée, le son est de nouveau harmonisé puis retardé, créant un effet d’arpège dans une gamme à intervalle fixe.

La deuxième méthode est dans le domaine fréquentiel, et essaie de respecter l’emplacement des formants. Elle consiste à faire une analyse FFT (Transformation de Fourier Rapide, domaine fréquentiel), essaie d’identifier les formants, soustraire l’effet des formants, effectuer une transposition, puis ré-appliquer les formants. Ça peut faire des transpositions plus naturelles, mais dans certains cas ou intervalles peut générer des artefacts. Il faut plutôt essayer les 2 techniques et choisir en fonction de l’instrument et le dégrée de transposition.

Dans Max, la première méthode se fait avec un bout de patch fait au départ à l’Ircam qui s’appelle « harmv2 ». Dans tapemovie cette technique est implémenté par le module harm. La deuxième méthode se fait dans Max avec gizmo~, et dans tapemovie avec le module qui s’appelle également gizmo.

le travail musical

L’harmonisation de base sans délai crée justement de l’harmonie à une intervalle fixe. Cela étant dit, dans la musique (tonale ou modale) l’harmonie n’est jamais vraiment à une intervalle fixe. L’harmonie d’une tierce, par exemple, est parfois majeur parfois mineur selon la position dans la gamme. L’harmonisation peut donc rentrer en dissonance avec la tonalité. On peut éviter cette perception en faisant un travail musical plutôt atonal basé sur des intervalles et non pas des gammes, mais ce n’est pas toujours possible. Il faut donc changer l’intervalle de transposition de l’harmoniseur en fonction des notes jouées – soit en écrivant des changements de paramètres qui vont avec des notes spécifiques, soit avec un système (plus complexe) de reconnaissance de hauteur et modification de l’intervalle en conséquence.

L’importance et sur l’idée que l’intervalle va probablement devoir changer pour garder sa musicalité, mais les changements ne sont pas obligés d’être synchronisés dans des gammes précises. On peux, par exemple, facilement travailler les micro-intervalles.

L’ajout d’un temps de délai transforme l’harmoniseur en un outil de contrepoint puissant. Pensez à combiner toutes les techniques du travail avec le délai avec cette capacité à transposer pour avoir un outil souple et intéressant.

La réinjection de la sortie vers l’entrée de l’harmoniseur avec délai crée un effet de répétition en arpège d’une intervalle. Avec beaucoup de « feedback » et des intervalles très petites on peux créer des « petits nuages » autour de la note jouée.

Il y a globalement trois stratégies pour changer les valeurs:

1) changement par évènement à certains moments
2) changement par détection du son luis même (suiveur d’enveloppe lié au temps de délai, par exemple)
3) valeurs interprété sur un instrument électronique – comme, par exemple, le Karlax.

————————————————————
instrument Karlax avec tapemovie
————————————————————

…nous avons vu la maquettage d’un instrument de traitement de hauteur en utilisant un Karlax et l’environnement/application (fait avec Max/MSP) qui s’appelle tapemovie. (Voir le compte rendu de la Lutherie Electronique du même jour)

Au départ, nous avons fait un mapping Karlax vers un harmoniseur/délai de la manière suivante:

1er key main gauche (/key/1) connecté à la transposition d’un harmoniseur entre 25 centièmes de demi-ton et 5 demi-tons (quarte), avec une courbe exponentielle.
1er key main droite (/key/6) connecté au temps de délai du même harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.

Cette configuration nous semblait limitée et trop figée dans son mouvement, donc nous avons décidé de placer la transposition sur l’axe Z des accélérations : l’unisson au milieu, -20 demi-tons en penchant vers l’avant, +20 demi-tons en penchant vers l’arrière. Nous avons aussi placé la réinjection (feedback) de l’harmoniseur/délai sur la 2e touche de la main droite, entre 20% et 70%. Ça fait:

1er key main droite (/key/6) connecté au temps de délai de l’harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.
2e key main droite (/key/7) connecté au feedback de l’harmoniseur entre 20% et 70%, avec une courbe linéaire.
accélérateur z (/acc/z) connecté à la transposition de l’harmoniseur entre -20 demi-tons et +20 demi-tons, avec une courbe symétrique/exponentielle.

Plus tard (en cours de Lutherie de l’après-midi) nous avons placé le temps de délai sur l’accélérateur de l’axe x (penché gauche/droite).

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation pour découvrir musicalement les possibilités de cet harmoniseur/délai interprété par Karlax.

Nous avons joué voix, saxophone, piano, batterie, contrebasse…

Plusieurs personnes ont joué le Karlax, et plusieurs un instrument acoustique.

technologie « un pas devant l’autre »

Bonjour à tous,

un petit lien de la part des collègue Allemand avec lesquels je travail sur le projet niaxe il s’agit du « collectif nil » aus Karlsruhe !!

Ils développent le projet de lap top ensemble « benoît & the mandelbrots ». Certains diront qu’ils ne font que s’envoyer des lignes de code, d’autre fermeront les yeux et écouteront paisiblement…

Voici le lien d’un outil technologique mödern :

http://ultrasonic-audio.com/

ygh

Préparations et planning du 6-7 décembre

En préparation aux journées suivantes de la résidence, le 6-7 décembre, voici le planning – qui sera identique au planning de novembre:

jeudi 6 décembre :

10h30-12h30 Le traitement temps réel et le langage musical 1 (groupe 1) – avec instruments

pause midi

14h-15h La culture contemporaine et électroacoustique 1 (tous)
15h-17h La lutherie électronique et l’interactivité 1 (groupe 1)
17h-18h Le suivi de projets d’élèves (groupe 1)

vendredi 7 décembre

9h30-11h30 Le traitement temps réel et le langage musical 1 (groupe 2) – avec instruments
11h30-12h30 Le suivi de projets d’élèves (groupe 2)

pause midi

13h50-14h50 La classe FM d’Antoine Spindler
15h-17h La lutherie électronique et l’interactivité 1 (groupe 2)
17h-18h Le suivi de projets d’élèves (groupe 3)

Lisez les comptes rendu que j’ai mis dans les derniers articles pour compléter vos connaissances, ou bien pour s’informer de ce qu’on a fait si vous n’étiez pas présentes.

à très bientôt.
Tom