Archives de l’auteur : tmays

compte rendu 6 déc : Culture

Voici les pièces que nous avons regardé durant la séance de Culture Electroacoustique du 6 décembre…

Le sujet était « quatuor à cordes »

 

Philippe Manoury

Tensio (2010) – avec électronique en temps réel (Ircam)

Nous avons regardé la partition en voyant particulièrement comment les traitements (descriptions et résultats) ont été noté. Nous avons écouté un extrait.

Aller voir absolument la page sur le site de Philippe Manoury qui parle Tensio ->

LES PROCÉDÉS DE COMPOSITION UTILISÉS DANS “TENSIO”

 

Il y a également une vidéo produite par l’Ircam où Philippe Manoury parle de la pièce :

Images d’une oeuvre n°10 : « Tensio » de Philippe Manoury


 

Jonathan Harvey

4th String Quartet (2003) – avec électronique en temps réel (Ircam)

Nous avons écouté un extrait. Je n’ai pas la partition.

page de la médiathèque de la cité de la musique:

http://mediatheque.cite-musique.fr/masc/?INSTANCE=CITEMUSIQUE&URL=/ClientBookLineCIMU/recherche/NoticeDetailleByID.asp

 

 

Gabriel Prokofiev

En contraste à ces 2 pièces de musique contemporaine, nous avons écouté un artiste « crossover » qui est à la fois dans la musique contemporaine ET dans la musique électronique populaire – il est lui-même à la fois compositeur et DJ.

Dans son Album Elysian Quartet (2006) il y a 4 mouvements d’un quatuor à cordes acoustique, puis divers « remixes » des ces mouvements.

Nous avons écouté:

  • Elysian Quartet (2006)
    • 1st movement
    • 2nd movement
    • 3rd movement
  • 1st Movement (G. Prokofiev Hip-Hop Remix)
  • 2nd & 3rd Movements (Max De Wardener Remix)
  • 2nd Movement (BoxSaga Remix)

Vous pouvez visiter le site de Gabriel Prokofiev:

Nonclassical

La prochaine fois, nous allons écouter une nouvelle création pour Karlax et ensemble:

Kaala, de Daniel Figols

compte rendu 6-7 déc : Lutherie

Lutherie Electronique et l’Interactivité
15-16 novembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 15h à 17h
▪ groupe 2 : vendredi 7 décembre de 15h à 17h

J’avais eu l’intention de commencer à voir MaxMSP, mais nous avons continué à voir tapemovie car il festait beaucoup de questions et on avait besoin de le voir en plus de détail.

Globalement, nous avons recommencé au début:

  • lancement
  • configuration de la partie tapemovie ET la partie tape

tm_config
t_config

  • init et build (construction)
  • le menu windows et les éditeurs des modules
  • la base des éditeurs

switch
snapshot
paramètres
spat

  • le principe de la matrice (mtrx)
  • création d’un « instrument » simple

entrée micro (adc)
harmoniseur/délai
contrôle Karlax

  • création d’un event (évènemement)
  • dynamisation et temporalisatin des events

J’ai crée une page dans ce site qui regroupe des liens vers des infos sur tapemovie :

  • – de très bonnes notes de cours d’Emilie Buttazzoni
  • – site de tapemovie
  • – esquisse de documentation
  • – mon mémoire contenant un chapitre tapemovie
  • – article sur tapemovie de la conférence « Journées d’informatique musicale » de 2010.

la page « liens tapemovie« 

compte rendu 6-7 déc : Temps réel et musique

Le Traitement temps réel et le langage musical
6-7 décembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 10h30 à 12h30
▪ groupe 2 : vendredi 7 décembre de 9h30 à 11h30

 

Pour cette 2e séance nous avons exploré l’harmoniseur (transposition de hauteur), d’abord tout seul, et ensuite avec temps de délai et pourcentage de réinjection (feedback).

Après un rappel des 5 grandes familles de traitements :

temps
amplitude
hauteur
timbre
espace
matière

Nous avons vu/écouter les principes musicaux du traitement de hauteur.

————————————————————
l’Harmoniseur
————————————————————

comment ça marche

Le traitement de hauteur par harmoniseur est assez simple : générer une transposition d’une entrée son (micro) en direct. Globalement il y a deux méthodes – la « traditionnelle » – dans le domaine temporel, et la plus récente – dans le domaine fréquentiel.

La première méthode consiste à varier la position de lecture dans un délai variable, générant une légère transposition pendant le temps de changement de position. Puisque l’harmoniseur devrait avoir l’aspect d’un délai négligeable et surtout fixe, le petit changement de position se fait en petite échelle (quelques millisecondes) avec un système de fenêtrage. Ce système fonctionne assez bien pour des petites transpositions (environ une tierce), mais pour les intervalles plus importantes on constate une déformation de timbre vers la petite voix des munchkins ou des chipmunks dans l’aigu, et vers les voix robots dans le grave. L’effet et justement le plus marqué et audible pour la voix. D’autres instruments peuvent subir des changements d’intervalle plus importante sans sembler perdre leur nature.

La raison de cette déformation est le non-respect des formants. Dans la voix surtout, mais aussi dans d’autres instruments, la cavité de résonance favorise certaines fréquences qui ne change pas avec la hauteur. Ce sont les formants, par exemple, qui créent les voyelles. Quand on transpose par harmoniseur « temporel », ainsi que par lecture d’échantillon, les formants sont transposés avec la vibration principale parce qu’ils font partie du son global. Les formants qui transpose de cette manière créent un effet artificiel, nous pointant le coté électronique et non pas purement musical. En générale, la transposition vers le grave est plus tolérante que vers l’aigüe.

Puisque cette méthode d’harmoniseur contient par sa nature un délai, il est l’usage de se servir de ce délai musicalement (voir les discussions sur le délai dans les comptes rendu du mois de novembre) – créant un retard transposé. Quand on met de la réinjection (feedback) de la sortie de l’harmoniseur/délai dans l’entrée, le son est de nouveau harmonisé puis retardé, créant un effet d’arpège dans une gamme à intervalle fixe.

La deuxième méthode est dans le domaine fréquentiel, et essaie de respecter l’emplacement des formants. Elle consiste à faire une analyse FFT (Transformation de Fourier Rapide, domaine fréquentiel), essaie d’identifier les formants, soustraire l’effet des formants, effectuer une transposition, puis ré-appliquer les formants. Ça peut faire des transpositions plus naturelles, mais dans certains cas ou intervalles peut générer des artefacts. Il faut plutôt essayer les 2 techniques et choisir en fonction de l’instrument et le dégrée de transposition.

Dans Max, la première méthode se fait avec un bout de patch fait au départ à l’Ircam qui s’appelle « harmv2 ». Dans tapemovie cette technique est implémenté par le module harm. La deuxième méthode se fait dans Max avec gizmo~, et dans tapemovie avec le module qui s’appelle également gizmo.

le travail musical

L’harmonisation de base sans délai crée justement de l’harmonie à une intervalle fixe. Cela étant dit, dans la musique (tonale ou modale) l’harmonie n’est jamais vraiment à une intervalle fixe. L’harmonie d’une tierce, par exemple, est parfois majeur parfois mineur selon la position dans la gamme. L’harmonisation peut donc rentrer en dissonance avec la tonalité. On peut éviter cette perception en faisant un travail musical plutôt atonal basé sur des intervalles et non pas des gammes, mais ce n’est pas toujours possible. Il faut donc changer l’intervalle de transposition de l’harmoniseur en fonction des notes jouées – soit en écrivant des changements de paramètres qui vont avec des notes spécifiques, soit avec un système (plus complexe) de reconnaissance de hauteur et modification de l’intervalle en conséquence.

L’importance et sur l’idée que l’intervalle va probablement devoir changer pour garder sa musicalité, mais les changements ne sont pas obligés d’être synchronisés dans des gammes précises. On peux, par exemple, facilement travailler les micro-intervalles.

L’ajout d’un temps de délai transforme l’harmoniseur en un outil de contrepoint puissant. Pensez à combiner toutes les techniques du travail avec le délai avec cette capacité à transposer pour avoir un outil souple et intéressant.

La réinjection de la sortie vers l’entrée de l’harmoniseur avec délai crée un effet de répétition en arpège d’une intervalle. Avec beaucoup de « feedback » et des intervalles très petites on peux créer des « petits nuages » autour de la note jouée.

Il y a globalement trois stratégies pour changer les valeurs:

1) changement par évènement à certains moments
2) changement par détection du son luis même (suiveur d’enveloppe lié au temps de délai, par exemple)
3) valeurs interprété sur un instrument électronique – comme, par exemple, le Karlax.

————————————————————
instrument Karlax avec tapemovie
————————————————————

…nous avons vu la maquettage d’un instrument de traitement de hauteur en utilisant un Karlax et l’environnement/application (fait avec Max/MSP) qui s’appelle tapemovie. (Voir le compte rendu de la Lutherie Electronique du même jour)

Au départ, nous avons fait un mapping Karlax vers un harmoniseur/délai de la manière suivante:

1er key main gauche (/key/1) connecté à la transposition d’un harmoniseur entre 25 centièmes de demi-ton et 5 demi-tons (quarte), avec une courbe exponentielle.
1er key main droite (/key/6) connecté au temps de délai du même harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.

Cette configuration nous semblait limitée et trop figée dans son mouvement, donc nous avons décidé de placer la transposition sur l’axe Z des accélérations : l’unisson au milieu, -20 demi-tons en penchant vers l’avant, +20 demi-tons en penchant vers l’arrière. Nous avons aussi placé la réinjection (feedback) de l’harmoniseur/délai sur la 2e touche de la main droite, entre 20% et 70%. Ça fait:

1er key main droite (/key/6) connecté au temps de délai de l’harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.
2e key main droite (/key/7) connecté au feedback de l’harmoniseur entre 20% et 70%, avec une courbe linéaire.
accélérateur z (/acc/z) connecté à la transposition de l’harmoniseur entre -20 demi-tons et +20 demi-tons, avec une courbe symétrique/exponentielle.

Plus tard (en cours de Lutherie de l’après-midi) nous avons placé le temps de délai sur l’accélérateur de l’axe x (penché gauche/droite).

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation pour découvrir musicalement les possibilités de cet harmoniseur/délai interprété par Karlax.

Nous avons joué voix, saxophone, piano, batterie, contrebasse…

Plusieurs personnes ont joué le Karlax, et plusieurs un instrument acoustique.

Préparations et planning du 6-7 décembre

En préparation aux journées suivantes de la résidence, le 6-7 décembre, voici le planning – qui sera identique au planning de novembre:

jeudi 6 décembre :

10h30-12h30 Le traitement temps réel et le langage musical 1 (groupe 1) – avec instruments

pause midi

14h-15h La culture contemporaine et électroacoustique 1 (tous)
15h-17h La lutherie électronique et l’interactivité 1 (groupe 1)
17h-18h Le suivi de projets d’élèves (groupe 1)

vendredi 7 décembre

9h30-11h30 Le traitement temps réel et le langage musical 1 (groupe 2) – avec instruments
11h30-12h30 Le suivi de projets d’élèves (groupe 2)

pause midi

13h50-14h50 La classe FM d’Antoine Spindler
15h-17h La lutherie électronique et l’interactivité 1 (groupe 2)
17h-18h Le suivi de projets d’élèves (groupe 3)

Lisez les comptes rendu que j’ai mis dans les derniers articles pour compléter vos connaissances, ou bien pour s’informer de ce qu’on a fait si vous n’étiez pas présentes.

à très bientôt.
Tom

compte rendu 15-16 nov : Temps réel et musique

Résumé de la première séance de : Traitement temps réel et le langage musical

  • groupe 1 : jeudi 15 novembre de 10h30 à 12h30
  • groupe 2 : vendredi 16 novembre de 9h30 à 11h30

Au sujet du traitement temps réel et le langage musical, vous pouvez télécharger mon mémoire de Master II et lire le 1er chapitre (pages 2 à 31 : I – Les traitements et la musique) qui fait une bonne introduction. A télécharger ici.

Les « dimensions » du traitement

Pour parler « musique » et non pas « technique informatique » il faut considérer les traitements en fonction de catégories ou « dimensions » musicales. Acoustiquement, Il suffit que de 2 dimensions pour représenter tout événement sonore :

  • temps
  • Amplitude (musicalement parlant: intensité)

4 dimensions supplémentaires complètent la base qui permet de parler de la quasi-totalité des traitements temps réel sonores

  • hauteur
  • timbre
  • espace acoustique
  • matière

Les traitements

Pour placer les traitements dans ces dimensions musicales :

  • le temps concerne évidement les lignes de retard (délai), mais aussi l’enregitrement et la relecture ultérieur
  • L’intensité peut être traité par les VCA et les LFO, mais aussi des enveloppes
  • la hauteur concerne les harmoniseurs, essentiellement
  • le timbre se travaille avec des filtres, de la modulation en anneau, la distorsion non-linéaire, et toute sortes de traitements dans le domain fréquenciel (fft)
  • l’espace acoustique concerne tout ce qui est spatialisation et réverbe, ainsi que les filtrages associés (binaural/transaural/abisonics, etc)
  • La matière peut se travailler avec divers combinaisons des traitements déjà listé, ou bien un traitement total comme la synthèse granulaire

Le temps

On peut parler du temps comme une catégorie musicale (perception) ou comme une technique de traitement.

  • Le temps comme catégorie musicale couvre les idés de l’echo, la répétition ,le rythme, le contrepoint, la mémoire et la forme
  • Le temps comme technique de traitement peut aussi générer des résultats qui vont plutôt faire partie d’autres catégories musicales : flangeur, chorus, filtrage, réverbération, harmoniseur

Différentes « zones » de temps activent différentes types de perception:

  • Le temps court (1-15 ms)
    • Phase et couleur
  • Le temps moyen (15-80 ms)
    • Réflexion, epace
    • épaississement
  • Le temps long (> 80 ms)
    • Écho, répétition
    • Rythme, polyphonie
  • Le temps très long (> 10 seconds?)
    • Mémoire et forme

L’écriture pour le délai

Globalement, si la phrase ou « l’objet musical » joué est plus court que le temps du délai, nous allons entendre le délai comme une écho ou une répétition. Si la phrase ou objet musical est plus long, la sortie du délai se mélange et combine avec la phrase, et nous risquons plus d’entendre un rapport de superposition et peut-être de contrepoint. Si ce rapport est bien travaillé, le temps du délai peut ne pas être évident.

Un autre facteur de perception très important c’est la stabilité ou homogénéité de la source. Une attaque ou un changement brusque de note va être parfaitement perceptible  comme une écho, mais un son qui arrive en crescendo et qui part en decrescendo, dans lequel il n’y a pas de changements de note, ou bien les changements sont répétitifs comme un trille ou un trémolo – on n’entendra strictement pas le temps de l’écho mais plutôt une superposition ou épaississement du son instrumental.

On peut trouver cette stabilité ou homogénéité également dans des notes répétées. Une pulsation d’une seconde dans un délai d’une seconde se synchronise parfaitement avec la source, et nous entendons encore une doublure. Si, en plus, la répétition arrive progressivement en crescendo et repart en decrescendo, nous n’entendons ni le début ni la fin. Si on garde la pulsation mais on change de notes, on entend plutôt un effet de canon ou contrepoint avec une superposition verticale de notes.

Une fois la pulsation établie, une légère accélération ou décélération perturbe le rapport de contrepoint et peut rendre très intéressant le mélange. Si le temps est assez long, quelques secondes, on pourrait même anticiper le retour du délai en rejouant le son qui VA sortir juste avant qu’il sorte…

C’est également intéressant de combiner et superposer des différentes techniques. Par exemple, on peu jouer une « pédale » continue qui sonne dans le délai comme un épaississement et de temps en temps on peu rajouter une attaque ou change une note, puis cet événement sonore sera entendu parfaitement comme une écho – sans changer pour autant le moindre réglage!

Je vous propose d’aller lire pages 23 à 31 (2.4 Guide de l’écriture) de mon mémoire pour voir de plus près ces principes avec des petits exemples d’écriture.

compte rendu 15-16 nov : Lutherie

Résumé de la première séance de lutherie électronique et interactivité:

  • groupe 1 : jeudi 15 novembre de 15h à 17h
  • groupe 2 : vendredi 16 novembre de 15h à 17h

 

Qu’est-ce qu’un instrument?

La base de ce que c’est qu’un instrument, qu’il soit acoustique ou électronique est exactement la même. Il faut une source, un traitement, une diffusion, et une façon d’intervenir avec du geste. En plus de détails cela fait :

1) source de vibration, source sonore
  • acoustique
    • anche, lèvres, corde/archet, corde/marteau, etc…
  • électroacoustique/électronique
    • microphone -> source acoustique extérieur à l’ordinateur
    • synthèse sonore
    • fichiers son ou échantillons
2) traitement (intervention, morphologie, modification)
  •  acoustique
    • tuyau, caisse de résonance, boite, etc…
  • électroacoustique/électronique
    • traitements temps réel
    • effets
    • programmes
3) diffusion sonore
  •  acoustique
    • pavillon, caisse de résonance, air, etc…
  • électroacoustique/électronique
    • haut-parleur(s)

4) le geste

  •  acoustique
    • souffler, faire des doigtés, frapper, pincer, frotter, taper, etc…
  • électroacoustique/électronique
    • contrôleurs comme karlax, wii, caméras, iphone, capteurs, claviers, etc…
5) modes de jeu
  • Différentes manières d’intervenir gestuellement sur un instrument donnant certains résultats sonores – souvent représentant des techniques étendues.
6) musicalité, expression
  • Un instrument avant tout permet une expression sonore musicale, applicable à l’improvisation ou bien à l’écriture et la composition.
7) notation, partition
  • Si un instrument va devenir « pérenne », il y aura certainement une ou plusieurs techniques de notation pour l’instrument…
8) répertoire
  •  La possibilité de noter le jeu d’un instrument sur une partition rend également possible la mise en place d’un répertoire pour l’instrument. C’est le test ultime de la réussite d’un instrument à long terme.
9) Une pratique de l’instrument et une méthode
  • Quand un instrument est bien ancré, il existe des méthodes d’apprentissage et de la pratique instrumentale
10) D’autres caractéristiques importantes (pas forcement dans l’ordre)
  • stabilité (un geste ou une combinaison de gestes fait/font un son)
  • fiabilité (quand on va le jouer, ça marche, ne casse pas, ne plante pas)
  • simplicité (principe de base facile à comprendre, même si difficile à « apprendre »)
  • intuitivité (rapport entre geste et son fait « sens »)
  • maniabilité (manipulable par
  • virtuosité (on peux devenir virtuose avec du travail)
  • protocole de vérification (des choses à faire ou à vérifier pour s’assurer du bon fonctionnement avant de jouer en concert…)

 

Environnements informatiques

Quels sons les programmes et les environnements informatiques bien adaptés à un travail de lutherie électronique?

Certains des plus important et les plus utilisés sont :

  • Max/MSP de Cycling74 (payant : $250 prix étudiant, $59 location étudiant année scolaire )
    • incontournable. L’environnement de programmation par excellence pour la création et le jeu interactif multi-média. Style de programmation graphique par « objets ». Max créé par Miller Puckett à l’ircam fin des années 80. MSP par David Zicarelli chez Cycling74 en 1997.
    • http://cycling74.com/
  • PureData (gratuit)
    • Aussi s’appelle Pd. Créé également par Miller Puckett en 1996 en étant parti de l’Ircam. Très performant, comme maxmsp mais gratuit, cependant beaucoup moins bien documenté et ça demande un esprit plus « bricoleur » – globalement moins facile que Max/MSP
    • http://puredata.info/
    • doc en français : http://fr.flossmanuals.net/PureData/
  • Ableton Live (payant : assez cher, divers prix pour divers « packages »)
    • Actuellement très populaire dans le domaine musique électronique, mais très utile également dans la musique contemporaine. L’ajout de Max for Live  le rend effectivement TRES puissant.
    • https://www.ableton.com/
  • Supercollider (gratuit)
  • Usine (payant : 59€ prix étudiant – uniquement Windows)
  • Plogue Bidule (payant : environ 90€)
  • Integra Live (gratuit)
    • Un projet de recherche universitaire européen, un séquenceur en forme de timeline qui utilise PureData comme moteur de traitement son en arrière plan.
    • http://www.integralive.org/software/
  • Chuck (gratuit)
    • Populaire aus Etats Unis dans des orchestres de laptops. Programmation par lignes de code et non pas graphique. Difficile mais très performant.
    • http://chuck.cs.princeton.edu/
  • CSound (gratuit)
    • Surtout un outil de synthèse sonore et exécution en forme de « partition » informatique. Programmation par lignes de code. ça marche en autonome ou bien en tant qu’objets Max/MSP
    • http://www.csounds.com/
  • d’Autres…

Je vous propose de commencer par un environnement/application construit avec MaxMSP :

  • tapemovie(gratuit)
    • Un projet que j’ai réalisé en petite équipe d’artistes/régisseurs/développeurs pour résoudre des problèmes de la création temps réel multi-média.
    • http://tapemovie.org/

 

Introduction à tapemovie

tapemovie est un environnement logiciel modulaire dédié a l’écriture et au contrôle intermedia (son, video, 3D, lumière) en temps réel. Testé, éprouvé et validé sur de nombreuses productions depuis 2007 pour le théâtre, la danse mais aussi le concert, la performance et l’installation, il permet une écriture précise des différents media et de leurs interactions, tout en permettant des connections vers de multiples périphériques. Il est fabriqué à partir de max/msp/jitter et existe comme application autonome (téléchargement gratuit), et également en version patch pour les utilisateurs avancés.

Nous avons fait une brève introduction à tapemovie, en regardant

  • concept du noyau tapemovie avec plugs tape (audio) et movie (vidéo)
  • création d’un « project »
  • configuration de tapemovie et de tape – choix des modules
  • construction (build) de l’environnement
  • l’entrée micro par le module adc
  • traitements
    • délai (del)
    • filtre (filt)
    • harmoniseur (harm)
  • événements (events)
  • contrôle avec modules karlax et manettes wii
Pour plus d’informations sur tapemovie, vous pouvez lire l’article qui est apparu dans la conférence Journées d’informatique musicale (JIM) de 2010.
Pour d’autres informations plus pratiques un peu plus comme un tutorial, vous pouvez lire le chapitre concerné par tapemovie dans mon mémoire de Master II de 2010 – chapitre II, pages 32 à 80 – à télécharger ici.
Avant les prochaines séances du 6-7 décembre, téléchargez tapemovie et essayer de réaliser un petit événement simple. Par exemple, une entrée micro (adc) dans un délai avec filtre et une spatialisation.

compte rendu 15 nov : Culture

Pour que tout le monde puise en bénéficier, même ceux qui n’y était pas présents, je donne ici la liste des pièces dont on a écouté des extraits durant la séance de Culture Electroacoustique du 15 novembre…

 

Edgard Varèse

1) Poème Electronique (1958)

Composé pour le pavillon Philips de Le Corbusier et Xenakis pour l’éxposition universelle de Bruxelles à 1958. Varèse a dit:

“Son et bruit. Il n’y a pas de différence entre le son et le bruit, le bruit étant un son en cours de création. Le bruit est dû à une vibration non périodique, ou à une vibration qui est trop complexe dans sa structure, ou d’une durée trop courte pour être analysée ou comprise par l’oreille.”

Lien vidéo:
http://www.dailymotion.com/video/k3EY1hvlLanb0Powf9

Il y a un article intéressant sur ce projet et sur Varèse, Le Corbusier et Xenakis par Gilles Arnaud Sphère:
http://www.gilles-arnaud-sphere.com/?p=2176

 

Luc Ferrari

Compositeur très important et original pionnier de la musique acousmatique, radiophonique, et même environnementale…

2) Presque Rien No. 1A : Le Lever Du Jour Au Bord De La Mer (1967-1970)

Lien vidéo:
http://www.youtube.com/watch?v=z2aWEM1nnNg

Extrait de la page wikipedia: http://fr.wikipedia.org/wiki/Luc_Ferrari

En effet, le Presque Rien N° 1 ou Le lever du jour au bord de la mer, composé entre 1967 et 1970, est une composition qui matérialise la rupture avec les pratiques électroacoustiques classiques. Elle revendique clairement (plus directement encore que ce qui a été appelé après Hétérozygote, les musiques anecdotiques), le plan-séquence et l’image sonore fixe, sorte de diapositive qui donnerait à entendre une tranche de réel, comme méthode de travail, et comme moyen de se libérer des habitudes.  » « Au départ, le concept des Presque Rien n’a rien à voir avec la musique. Il faut se transporter dans l’époque ; dans les années 60 on disait, le bruit d’un côté, la musique de l’autre. »  » Ferrari ne s’est pas laissé prendre à ce jeu. Pour lui, il s’agit de faire quelque chose issu d’un grand désir sans se soucier si cette chose entrait dans une catégorie. Le concept à son avis, ne peut se définir comme genre, comme esthétique ou comme technique mais comme idée. C’est-à-dire que le concept au départ ne peut se comprendre physiquement, mais plutôt comme une impression générale que l’on donne à un corps. Ce concept comprend : – un seul lieu – un seul temps – une certaine acoustique -, ingrédients qu’il développe d’un Presque Rien à l’autre.

3) Strathoven (1985)

« remix » avant l’heure de Beethoven et Stravinsky…

Lien vidéo:
http://www.youtube.com/watch?v=0TtdbUdURIY

 

James Tenney

Compositeur au début de l’informatique musicale aux états unis dans es années 60.

Disque – James Tenny : Selected Works 1961-1969
http://www.electrocd.com/en/cat/art_1007/pistes/

4) Fabric for Ché (1967)

Mixage de séquences sur bande calculées et synthétisé avec l’informatique.

…un événement sonore continu, sans début ni fin. (…) un seul son, plus ou moins modulé de façon complexe…

C’est en forme de palindrome – la 2ème moitié étant l’inverse de la 1ère.

5) Collage #1 (« Blue Suede ») (1961)

Transformation et montage de Blue Suede Shoes de elvis Presley; considéré un classique de musique concrète américiane

 

Jean-Claude Risset

Compositeur pionnier de la synthèse informatique aux Etats-Unis et en France

6) Computer Suite from Little Boy – Fall (1968)

Son paradoxal, « déscente à l’infinie ». Info supplémentaire:
http://fr.wikipedia.org/wiki/Illusion_auditive
et sur le compositeur:
http://en.wikipedia.org/wiki/Jean-Claude_Risset

 

Terry Riley

Un des originateur de la musique minimaliste américaine.

7) A rainbow in Curved Air (1967-1968)

pour orgue électrique, clavecin électrique, dumbec et tamborin – enregistré en « overdubbing » par le compositeur jouant tous les instruments.

info en anglais:
http://en.wikipedia.org/wiki/A_Rainbow_in_Curved_Air
pour écouter:
http://www.youtube.com/watch?v=apxuRKWmEJs

 

Philippe Manoury

compositeur pionnier de musique mixte, temps réel, suivi de partitions…

8) En Echo – mouvement 4, Mea Lux (1993-1994)

Composé à l’ircam en collaboration avec Miller Puckett, créateur de Max et PureData.
C’est la section centrale de tout le cycle ainsi que la plus complexe et developpée. De nombreuses citations des mélodies précédentes, ainsi que des anticipations des suivantes sont intégrées ici car le personnage regarde une série de six photographies qui correspondent aux six autres situations exprimées dans le cycle. Le son de référence est ici un bruit d’appareil de photo qui subit de nombreux traitements allant du concrêt jusqu’à sa transfomation la plus abstraite et méconnaissable. Le centre de la pièce est construit sur une petite phrase vocale, énoncée par la chanteuse, que la musique de synthèse reproduit en boucles dans des configurations de timbres, d’harmonies et de temps extrêmement variées. Une fois passées toutes ces étapes, la phrase initale est complêtement reconstruite par des moyens purements synthétiques. La fin de cette mélodie, comme celle de la seconde de ce cycle, est laissée ouverte : l’ordinateur engendre des présentations du son de référence suivant un principe aléatoire qui le produit, tantôt avec des transformations, tantôt sans modification. Dans ce dernier cas de figure, il détermine lui-même la fin de la pièce.

vidéo:
http://youtu.be/XA4PbPKZuwk

 

Georges Aperghis

Musique avec forts éléments théâtraux, « théâtre musical », musique de tout…

9) Machinations (2000)

temps réel, scénographie vidéo directe
spectacle musical pour quatre femmes et ordinateur

vidéo:
http://www.youtube.com/watch?v=qF1Ez1Dz7O8
Le site de Goerges Aperghis
http://www.aperghis.com/

 

Contenu et Planning du 15-16 novembre

(pour d’autres info sur la résidence et les séminaires: voir article précédent.)

Contenu des Interventions du 15-16 novembre :

  • 2 fois le séminaire/atelier pratique : Le traitement temps réel et le langage musical 1 (avec vos instruments si possible)
  • 2 fois le séminaire : La lutherie électronique et l’interactivité 1
  • une seule fois : La culture contemporaine et électroacoustique 1
  • une intervention dans la classe FM d’Antoine Spindler
  • 3 séances de suivi de travail d’élèves

planning des Interventions du 15-16 novembre :

jeudi 15 novembre :
10h30-12h30 Le traitement temps réel et le langage musical 1 (groupe 1) – avec vos instruments si possible

14h-15h La culture contemporaine et électroacoustique 1 (tous)
15h-17h La lutherie électronique et l’interactivité 1 (groupe 1)
17h-18h Le suivi de projets d’élèves (groupe 1)

vendredi 16 novembre
9h30-11h30 Le traitement temps réel et le langage musical 1 (groupe 2) – avec vos instruments si possible
11h30-12h30 Le suivi de projets d’élèves (groupe 2)

13h50-14h50 La classe FM d’Antoine Spindler
15h-17h La lutherie électronique et l’interactivité 1 (groupe 2)
17h-18h Le suivi de projets d’élèves (groupe 3)

Explications :
Tous les séminaires/ateliers sont ouverts aux profs et élèves.

Chaque personne souhaitant participer à l’ensemble électronique doit suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi
  • « La lutherie électronique et l’interactivité » – soit group 1 jeudi, soit groupe 2 vendredi

Chaque personne souhaitant réaliser son projet devrait suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi
  • « La lutherie électronique et l’interactivité » – soit group 1 jeudi, soit groupe 2 vendredi
  • PLUS un des trois groupes de suivi de projets

Chaque instrumentiste ou compositeur souhaitant faire ou participer à un projet incluant l’électronique doit suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi

 

Projet de résidence – info/précisions

Bonjour à tous!

Après les 2 premiers jours d’intervention de la résidence le 25 et 26 octobre dernier, j’ai réfléchi à un contenu et un déroulement plus précis.

En résumé, les activités principales de la résidence sont :

  • Création/Composition 

Ecriture d’œuvres électroniques et mixtes pour élèves et profs. Pièces temps réel pour un ou plusieurs instruments, pièces avec instruments électroniques sur Karlax et d’autres contrôleurs, pièces pour l’EES.

  • Développement

Développement d’outils, programmes et instruments qui faciliteront la découverte et l’exploration de la lutherie, l’interprétation électroacoustique et la Formation Musicale sur Karlax, Baby Karlax et d’autres contrôleurs tels manettes wii, téléphones, tablettes et caméras.

  • Ateliers, séminaires et masterclasses

Ateliers, séminaires et masterclasses autour de : la lutherie et l’interprétation électroacoustique, l’interprétation instrumentale dans la musique mixte, les traitements temps réels, l’interactivité, la spatialisation, les partitions graphiques, culture des musiques électroacoustiques et mixtes, l’aide à la Formation Musicale.

  • Formation/direction d’un ensemble électronique

Créer l’Ensemble Electronique de Strasbourg, ou EES – ensemble d’instruments électroniques et acoustiques jouant des improvisations dirigées et compositions à la manière d’un « Laptop Orchestra ».

  • Suivi

Le suivi de projets de création d’élèves des différentes institutions.

  • Présentation

Présentation de divers concerts et évènements de fin d’année pour montrer l’ensemble des travaux – créations/compositions de Tom Mays, compositions d’élèves, installations/projets de l’école d’art et du conservatoire, l’Ensemble Electronique de Strasbourg…

Il y aura environ 2 jours d’intervention par mois, et chaque jour sera découpé en différents séminaires, ateliers, masterclasses, suivi, travail et répètes. Les interventions du premier semestre (jusqu’aux vacances de février) seront principalement dédiées aux formations de bases techniques et artistiques nécessaires pour réaliser les projets et pour former l’Ensemble Electronique. Le 2e semestre sera plus consacré au travail de jeu collectif de l’ensemble, la finalisation des projets des élèves, et aux préparations et répétitions pour les compositions de la résidence.

Différents thèmes seront abordés dans les interventions, avec une progression au cours de l’année. Il y aura:

  • La lutherie électronique et l’interactivité

Une formation technique dans MaxMSP, PureData et tapemovie abordant les sujets de l’interprétation électroacoustique, le MIDI, la synthèse, les traitements temps réel, les contrôleurs gestuels, les analyses audios, et les connexions avec l’image. Nécessaire pour tous ceux qui souhaiteraient participer à l’Ensemble Electronique, et conseillé pour tous ceux qui voudraient réaliser un projet incluant l’électronique pendant l’année.

  • Le traitement temps réel et le langage musical

La sensibilisation aux traitements temps réels et à leurs caractéristiques musicales – l’interprétation, l’improvisation et l’écriture. Pour instrumentistes et compositeurs souhaitant réaliser ou participer à des projets, ou participer à l’Ensemble Electronique.

  • L’atelier de réalisation d’instruments électroniques

Suite aux séminaires de lutherie électronique et du traitement temps reél, un atelier de fabrique et de programmation des instruments électroniques que chacun jouera dans l’Ensemble Electronique. Nécessaire pour pouvoir participer à l’Ensemble Electronique.

  • La partition graphique

Quelques séminaires autour de l’écriture et de l’interprétation de partitions graphiques qui serviront

  • La création de l’Ensemble Electronique de Strasbourg et la pratique collective

Travail de pratique collective dans ce nouvel ensemble – improvisation, création et répertoire.

  • Le suivi de projets de création d’élèves

Suivi des projets de création d’élèves des différentes institutions.

  • Les activités jeune public

Activités destinées au jeune public des classes de FM et d’Improvisation. Développement d’outils spécifiques.

  • La culture contemporaine et électroacoustique

Une petite sensibilisation à la culture des musiques mixtes et électroniques par l’écoute des oeuvres et la présentation des courants. Environ 4 séminaires d’une heure. Ouvert à tout le monde.

  • Le travail autour des créations

Les tests et répètes pour les créations de compositions mixtes et électroniques.

(pour le planning du 15 et 16 novembre, voir prochain article)