Archives mensuelles : novembre 2012

compte rendu 15-16 nov : Temps réel et musique

Résumé de la première séance de : Traitement temps réel et le langage musical

  • groupe 1 : jeudi 15 novembre de 10h30 à 12h30
  • groupe 2 : vendredi 16 novembre de 9h30 à 11h30

Au sujet du traitement temps réel et le langage musical, vous pouvez télécharger mon mémoire de Master II et lire le 1er chapitre (pages 2 à 31 : I – Les traitements et la musique) qui fait une bonne introduction. A télécharger ici.

Les « dimensions » du traitement

Pour parler « musique » et non pas « technique informatique » il faut considérer les traitements en fonction de catégories ou « dimensions » musicales. Acoustiquement, Il suffit que de 2 dimensions pour représenter tout événement sonore :

  • temps
  • Amplitude (musicalement parlant: intensité)

4 dimensions supplémentaires complètent la base qui permet de parler de la quasi-totalité des traitements temps réel sonores

  • hauteur
  • timbre
  • espace acoustique
  • matière

Les traitements

Pour placer les traitements dans ces dimensions musicales :

  • le temps concerne évidement les lignes de retard (délai), mais aussi l’enregitrement et la relecture ultérieur
  • L’intensité peut être traité par les VCA et les LFO, mais aussi des enveloppes
  • la hauteur concerne les harmoniseurs, essentiellement
  • le timbre se travaille avec des filtres, de la modulation en anneau, la distorsion non-linéaire, et toute sortes de traitements dans le domain fréquenciel (fft)
  • l’espace acoustique concerne tout ce qui est spatialisation et réverbe, ainsi que les filtrages associés (binaural/transaural/abisonics, etc)
  • La matière peut se travailler avec divers combinaisons des traitements déjà listé, ou bien un traitement total comme la synthèse granulaire

Le temps

On peut parler du temps comme une catégorie musicale (perception) ou comme une technique de traitement.

  • Le temps comme catégorie musicale couvre les idés de l’echo, la répétition ,le rythme, le contrepoint, la mémoire et la forme
  • Le temps comme technique de traitement peut aussi générer des résultats qui vont plutôt faire partie d’autres catégories musicales : flangeur, chorus, filtrage, réverbération, harmoniseur

Différentes « zones » de temps activent différentes types de perception:

  • Le temps court (1-15 ms)
    • Phase et couleur
  • Le temps moyen (15-80 ms)
    • Réflexion, epace
    • épaississement
  • Le temps long (> 80 ms)
    • Écho, répétition
    • Rythme, polyphonie
  • Le temps très long (> 10 seconds?)
    • Mémoire et forme

L’écriture pour le délai

Globalement, si la phrase ou « l’objet musical » joué est plus court que le temps du délai, nous allons entendre le délai comme une écho ou une répétition. Si la phrase ou objet musical est plus long, la sortie du délai se mélange et combine avec la phrase, et nous risquons plus d’entendre un rapport de superposition et peut-être de contrepoint. Si ce rapport est bien travaillé, le temps du délai peut ne pas être évident.

Un autre facteur de perception très important c’est la stabilité ou homogénéité de la source. Une attaque ou un changement brusque de note va être parfaitement perceptible  comme une écho, mais un son qui arrive en crescendo et qui part en decrescendo, dans lequel il n’y a pas de changements de note, ou bien les changements sont répétitifs comme un trille ou un trémolo – on n’entendra strictement pas le temps de l’écho mais plutôt une superposition ou épaississement du son instrumental.

On peut trouver cette stabilité ou homogénéité également dans des notes répétées. Une pulsation d’une seconde dans un délai d’une seconde se synchronise parfaitement avec la source, et nous entendons encore une doublure. Si, en plus, la répétition arrive progressivement en crescendo et repart en decrescendo, nous n’entendons ni le début ni la fin. Si on garde la pulsation mais on change de notes, on entend plutôt un effet de canon ou contrepoint avec une superposition verticale de notes.

Une fois la pulsation établie, une légère accélération ou décélération perturbe le rapport de contrepoint et peut rendre très intéressant le mélange. Si le temps est assez long, quelques secondes, on pourrait même anticiper le retour du délai en rejouant le son qui VA sortir juste avant qu’il sorte…

C’est également intéressant de combiner et superposer des différentes techniques. Par exemple, on peu jouer une « pédale » continue qui sonne dans le délai comme un épaississement et de temps en temps on peu rajouter une attaque ou change une note, puis cet événement sonore sera entendu parfaitement comme une écho – sans changer pour autant le moindre réglage!

Je vous propose d’aller lire pages 23 à 31 (2.4 Guide de l’écriture) de mon mémoire pour voir de plus près ces principes avec des petits exemples d’écriture.

compte rendu 15-16 nov : Lutherie

Résumé de la première séance de lutherie électronique et interactivité:

  • groupe 1 : jeudi 15 novembre de 15h à 17h
  • groupe 2 : vendredi 16 novembre de 15h à 17h

 

Qu’est-ce qu’un instrument?

La base de ce que c’est qu’un instrument, qu’il soit acoustique ou électronique est exactement la même. Il faut une source, un traitement, une diffusion, et une façon d’intervenir avec du geste. En plus de détails cela fait :

1) source de vibration, source sonore
  • acoustique
    • anche, lèvres, corde/archet, corde/marteau, etc…
  • électroacoustique/électronique
    • microphone -> source acoustique extérieur à l’ordinateur
    • synthèse sonore
    • fichiers son ou échantillons
2) traitement (intervention, morphologie, modification)
  •  acoustique
    • tuyau, caisse de résonance, boite, etc…
  • électroacoustique/électronique
    • traitements temps réel
    • effets
    • programmes
3) diffusion sonore
  •  acoustique
    • pavillon, caisse de résonance, air, etc…
  • électroacoustique/électronique
    • haut-parleur(s)

4) le geste

  •  acoustique
    • souffler, faire des doigtés, frapper, pincer, frotter, taper, etc…
  • électroacoustique/électronique
    • contrôleurs comme karlax, wii, caméras, iphone, capteurs, claviers, etc…
5) modes de jeu
  • Différentes manières d’intervenir gestuellement sur un instrument donnant certains résultats sonores – souvent représentant des techniques étendues.
6) musicalité, expression
  • Un instrument avant tout permet une expression sonore musicale, applicable à l’improvisation ou bien à l’écriture et la composition.
7) notation, partition
  • Si un instrument va devenir « pérenne », il y aura certainement une ou plusieurs techniques de notation pour l’instrument…
8) répertoire
  •  La possibilité de noter le jeu d’un instrument sur une partition rend également possible la mise en place d’un répertoire pour l’instrument. C’est le test ultime de la réussite d’un instrument à long terme.
9) Une pratique de l’instrument et une méthode
  • Quand un instrument est bien ancré, il existe des méthodes d’apprentissage et de la pratique instrumentale
10) D’autres caractéristiques importantes (pas forcement dans l’ordre)
  • stabilité (un geste ou une combinaison de gestes fait/font un son)
  • fiabilité (quand on va le jouer, ça marche, ne casse pas, ne plante pas)
  • simplicité (principe de base facile à comprendre, même si difficile à « apprendre »)
  • intuitivité (rapport entre geste et son fait « sens »)
  • maniabilité (manipulable par
  • virtuosité (on peux devenir virtuose avec du travail)
  • protocole de vérification (des choses à faire ou à vérifier pour s’assurer du bon fonctionnement avant de jouer en concert…)

 

Environnements informatiques

Quels sons les programmes et les environnements informatiques bien adaptés à un travail de lutherie électronique?

Certains des plus important et les plus utilisés sont :

  • Max/MSP de Cycling74 (payant : $250 prix étudiant, $59 location étudiant année scolaire )
    • incontournable. L’environnement de programmation par excellence pour la création et le jeu interactif multi-média. Style de programmation graphique par « objets ». Max créé par Miller Puckett à l’ircam fin des années 80. MSP par David Zicarelli chez Cycling74 en 1997.
    • http://cycling74.com/
  • PureData (gratuit)
    • Aussi s’appelle Pd. Créé également par Miller Puckett en 1996 en étant parti de l’Ircam. Très performant, comme maxmsp mais gratuit, cependant beaucoup moins bien documenté et ça demande un esprit plus « bricoleur » – globalement moins facile que Max/MSP
    • http://puredata.info/
    • doc en français : http://fr.flossmanuals.net/PureData/
  • Ableton Live (payant : assez cher, divers prix pour divers « packages »)
    • Actuellement très populaire dans le domaine musique électronique, mais très utile également dans la musique contemporaine. L’ajout de Max for Live  le rend effectivement TRES puissant.
    • https://www.ableton.com/
  • Supercollider (gratuit)
  • Usine (payant : 59€ prix étudiant – uniquement Windows)
  • Plogue Bidule (payant : environ 90€)
  • Integra Live (gratuit)
    • Un projet de recherche universitaire européen, un séquenceur en forme de timeline qui utilise PureData comme moteur de traitement son en arrière plan.
    • http://www.integralive.org/software/
  • Chuck (gratuit)
    • Populaire aus Etats Unis dans des orchestres de laptops. Programmation par lignes de code et non pas graphique. Difficile mais très performant.
    • http://chuck.cs.princeton.edu/
  • CSound (gratuit)
    • Surtout un outil de synthèse sonore et exécution en forme de « partition » informatique. Programmation par lignes de code. ça marche en autonome ou bien en tant qu’objets Max/MSP
    • http://www.csounds.com/
  • d’Autres…

Je vous propose de commencer par un environnement/application construit avec MaxMSP :

  • tapemovie(gratuit)
    • Un projet que j’ai réalisé en petite équipe d’artistes/régisseurs/développeurs pour résoudre des problèmes de la création temps réel multi-média.
    • http://tapemovie.org/

 

Introduction à tapemovie

tapemovie est un environnement logiciel modulaire dédié a l’écriture et au contrôle intermedia (son, video, 3D, lumière) en temps réel. Testé, éprouvé et validé sur de nombreuses productions depuis 2007 pour le théâtre, la danse mais aussi le concert, la performance et l’installation, il permet une écriture précise des différents media et de leurs interactions, tout en permettant des connections vers de multiples périphériques. Il est fabriqué à partir de max/msp/jitter et existe comme application autonome (téléchargement gratuit), et également en version patch pour les utilisateurs avancés.

Nous avons fait une brève introduction à tapemovie, en regardant

  • concept du noyau tapemovie avec plugs tape (audio) et movie (vidéo)
  • création d’un « project »
  • configuration de tapemovie et de tape – choix des modules
  • construction (build) de l’environnement
  • l’entrée micro par le module adc
  • traitements
    • délai (del)
    • filtre (filt)
    • harmoniseur (harm)
  • événements (events)
  • contrôle avec modules karlax et manettes wii
Pour plus d’informations sur tapemovie, vous pouvez lire l’article qui est apparu dans la conférence Journées d’informatique musicale (JIM) de 2010.
Pour d’autres informations plus pratiques un peu plus comme un tutorial, vous pouvez lire le chapitre concerné par tapemovie dans mon mémoire de Master II de 2010 – chapitre II, pages 32 à 80 – à télécharger ici.
Avant les prochaines séances du 6-7 décembre, téléchargez tapemovie et essayer de réaliser un petit événement simple. Par exemple, une entrée micro (adc) dans un délai avec filtre et une spatialisation.

compte rendu 15 nov : Culture

Pour que tout le monde puise en bénéficier, même ceux qui n’y était pas présents, je donne ici la liste des pièces dont on a écouté des extraits durant la séance de Culture Electroacoustique du 15 novembre…

 

Edgard Varèse

1) Poème Electronique (1958)

Composé pour le pavillon Philips de Le Corbusier et Xenakis pour l’éxposition universelle de Bruxelles à 1958. Varèse a dit:

“Son et bruit. Il n’y a pas de différence entre le son et le bruit, le bruit étant un son en cours de création. Le bruit est dû à une vibration non périodique, ou à une vibration qui est trop complexe dans sa structure, ou d’une durée trop courte pour être analysée ou comprise par l’oreille.”

Lien vidéo:
http://www.dailymotion.com/video/k3EY1hvlLanb0Powf9

Il y a un article intéressant sur ce projet et sur Varèse, Le Corbusier et Xenakis par Gilles Arnaud Sphère:
http://www.gilles-arnaud-sphere.com/?p=2176

 

Luc Ferrari

Compositeur très important et original pionnier de la musique acousmatique, radiophonique, et même environnementale…

2) Presque Rien No. 1A : Le Lever Du Jour Au Bord De La Mer (1967-1970)

Lien vidéo:
http://www.youtube.com/watch?v=z2aWEM1nnNg

Extrait de la page wikipedia: http://fr.wikipedia.org/wiki/Luc_Ferrari

En effet, le Presque Rien N° 1 ou Le lever du jour au bord de la mer, composé entre 1967 et 1970, est une composition qui matérialise la rupture avec les pratiques électroacoustiques classiques. Elle revendique clairement (plus directement encore que ce qui a été appelé après Hétérozygote, les musiques anecdotiques), le plan-séquence et l’image sonore fixe, sorte de diapositive qui donnerait à entendre une tranche de réel, comme méthode de travail, et comme moyen de se libérer des habitudes.  » « Au départ, le concept des Presque Rien n’a rien à voir avec la musique. Il faut se transporter dans l’époque ; dans les années 60 on disait, le bruit d’un côté, la musique de l’autre. »  » Ferrari ne s’est pas laissé prendre à ce jeu. Pour lui, il s’agit de faire quelque chose issu d’un grand désir sans se soucier si cette chose entrait dans une catégorie. Le concept à son avis, ne peut se définir comme genre, comme esthétique ou comme technique mais comme idée. C’est-à-dire que le concept au départ ne peut se comprendre physiquement, mais plutôt comme une impression générale que l’on donne à un corps. Ce concept comprend : – un seul lieu – un seul temps – une certaine acoustique -, ingrédients qu’il développe d’un Presque Rien à l’autre.

3) Strathoven (1985)

« remix » avant l’heure de Beethoven et Stravinsky…

Lien vidéo:
http://www.youtube.com/watch?v=0TtdbUdURIY

 

James Tenney

Compositeur au début de l’informatique musicale aux états unis dans es années 60.

Disque – James Tenny : Selected Works 1961-1969
http://www.electrocd.com/en/cat/art_1007/pistes/

4) Fabric for Ché (1967)

Mixage de séquences sur bande calculées et synthétisé avec l’informatique.

…un événement sonore continu, sans début ni fin. (…) un seul son, plus ou moins modulé de façon complexe…

C’est en forme de palindrome – la 2ème moitié étant l’inverse de la 1ère.

5) Collage #1 (« Blue Suede ») (1961)

Transformation et montage de Blue Suede Shoes de elvis Presley; considéré un classique de musique concrète américiane

 

Jean-Claude Risset

Compositeur pionnier de la synthèse informatique aux Etats-Unis et en France

6) Computer Suite from Little Boy – Fall (1968)

Son paradoxal, « déscente à l’infinie ». Info supplémentaire:
http://fr.wikipedia.org/wiki/Illusion_auditive
et sur le compositeur:
http://en.wikipedia.org/wiki/Jean-Claude_Risset

 

Terry Riley

Un des originateur de la musique minimaliste américaine.

7) A rainbow in Curved Air (1967-1968)

pour orgue électrique, clavecin électrique, dumbec et tamborin – enregistré en « overdubbing » par le compositeur jouant tous les instruments.

info en anglais:
http://en.wikipedia.org/wiki/A_Rainbow_in_Curved_Air
pour écouter:
http://www.youtube.com/watch?v=apxuRKWmEJs

 

Philippe Manoury

compositeur pionnier de musique mixte, temps réel, suivi de partitions…

8) En Echo – mouvement 4, Mea Lux (1993-1994)

Composé à l’ircam en collaboration avec Miller Puckett, créateur de Max et PureData.
C’est la section centrale de tout le cycle ainsi que la plus complexe et developpée. De nombreuses citations des mélodies précédentes, ainsi que des anticipations des suivantes sont intégrées ici car le personnage regarde une série de six photographies qui correspondent aux six autres situations exprimées dans le cycle. Le son de référence est ici un bruit d’appareil de photo qui subit de nombreux traitements allant du concrêt jusqu’à sa transfomation la plus abstraite et méconnaissable. Le centre de la pièce est construit sur une petite phrase vocale, énoncée par la chanteuse, que la musique de synthèse reproduit en boucles dans des configurations de timbres, d’harmonies et de temps extrêmement variées. Une fois passées toutes ces étapes, la phrase initale est complêtement reconstruite par des moyens purements synthétiques. La fin de cette mélodie, comme celle de la seconde de ce cycle, est laissée ouverte : l’ordinateur engendre des présentations du son de référence suivant un principe aléatoire qui le produit, tantôt avec des transformations, tantôt sans modification. Dans ce dernier cas de figure, il détermine lui-même la fin de la pièce.

vidéo:
http://youtu.be/XA4PbPKZuwk

 

Georges Aperghis

Musique avec forts éléments théâtraux, « théâtre musical », musique de tout…

9) Machinations (2000)

temps réel, scénographie vidéo directe
spectacle musical pour quatre femmes et ordinateur

vidéo:
http://www.youtube.com/watch?v=qF1Ez1Dz7O8
Le site de Goerges Aperghis
http://www.aperghis.com/

 

Contenu et Planning du 15-16 novembre

(pour d’autres info sur la résidence et les séminaires: voir article précédent.)

Contenu des Interventions du 15-16 novembre :

  • 2 fois le séminaire/atelier pratique : Le traitement temps réel et le langage musical 1 (avec vos instruments si possible)
  • 2 fois le séminaire : La lutherie électronique et l’interactivité 1
  • une seule fois : La culture contemporaine et électroacoustique 1
  • une intervention dans la classe FM d’Antoine Spindler
  • 3 séances de suivi de travail d’élèves

planning des Interventions du 15-16 novembre :

jeudi 15 novembre :
10h30-12h30 Le traitement temps réel et le langage musical 1 (groupe 1) – avec vos instruments si possible

14h-15h La culture contemporaine et électroacoustique 1 (tous)
15h-17h La lutherie électronique et l’interactivité 1 (groupe 1)
17h-18h Le suivi de projets d’élèves (groupe 1)

vendredi 16 novembre
9h30-11h30 Le traitement temps réel et le langage musical 1 (groupe 2) – avec vos instruments si possible
11h30-12h30 Le suivi de projets d’élèves (groupe 2)

13h50-14h50 La classe FM d’Antoine Spindler
15h-17h La lutherie électronique et l’interactivité 1 (groupe 2)
17h-18h Le suivi de projets d’élèves (groupe 3)

Explications :
Tous les séminaires/ateliers sont ouverts aux profs et élèves.

Chaque personne souhaitant participer à l’ensemble électronique doit suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi
  • « La lutherie électronique et l’interactivité » – soit group 1 jeudi, soit groupe 2 vendredi

Chaque personne souhaitant réaliser son projet devrait suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi
  • « La lutherie électronique et l’interactivité » – soit group 1 jeudi, soit groupe 2 vendredi
  • PLUS un des trois groupes de suivi de projets

Chaque instrumentiste ou compositeur souhaitant faire ou participer à un projet incluant l’électronique doit suivre :

  • « Le traitement temps réel et le langage musical » – soit group 1 jeudi, soit groupe 2 vendredi
  • « La culture contemporaine et électroacoustique » – jeudi

 

Projet de résidence – info/précisions

Bonjour à tous!

Après les 2 premiers jours d’intervention de la résidence le 25 et 26 octobre dernier, j’ai réfléchi à un contenu et un déroulement plus précis.

En résumé, les activités principales de la résidence sont :

  • Création/Composition 

Ecriture d’œuvres électroniques et mixtes pour élèves et profs. Pièces temps réel pour un ou plusieurs instruments, pièces avec instruments électroniques sur Karlax et d’autres contrôleurs, pièces pour l’EES.

  • Développement

Développement d’outils, programmes et instruments qui faciliteront la découverte et l’exploration de la lutherie, l’interprétation électroacoustique et la Formation Musicale sur Karlax, Baby Karlax et d’autres contrôleurs tels manettes wii, téléphones, tablettes et caméras.

  • Ateliers, séminaires et masterclasses

Ateliers, séminaires et masterclasses autour de : la lutherie et l’interprétation électroacoustique, l’interprétation instrumentale dans la musique mixte, les traitements temps réels, l’interactivité, la spatialisation, les partitions graphiques, culture des musiques électroacoustiques et mixtes, l’aide à la Formation Musicale.

  • Formation/direction d’un ensemble électronique

Créer l’Ensemble Electronique de Strasbourg, ou EES – ensemble d’instruments électroniques et acoustiques jouant des improvisations dirigées et compositions à la manière d’un « Laptop Orchestra ».

  • Suivi

Le suivi de projets de création d’élèves des différentes institutions.

  • Présentation

Présentation de divers concerts et évènements de fin d’année pour montrer l’ensemble des travaux – créations/compositions de Tom Mays, compositions d’élèves, installations/projets de l’école d’art et du conservatoire, l’Ensemble Electronique de Strasbourg…

Il y aura environ 2 jours d’intervention par mois, et chaque jour sera découpé en différents séminaires, ateliers, masterclasses, suivi, travail et répètes. Les interventions du premier semestre (jusqu’aux vacances de février) seront principalement dédiées aux formations de bases techniques et artistiques nécessaires pour réaliser les projets et pour former l’Ensemble Electronique. Le 2e semestre sera plus consacré au travail de jeu collectif de l’ensemble, la finalisation des projets des élèves, et aux préparations et répétitions pour les compositions de la résidence.

Différents thèmes seront abordés dans les interventions, avec une progression au cours de l’année. Il y aura:

  • La lutherie électronique et l’interactivité

Une formation technique dans MaxMSP, PureData et tapemovie abordant les sujets de l’interprétation électroacoustique, le MIDI, la synthèse, les traitements temps réel, les contrôleurs gestuels, les analyses audios, et les connexions avec l’image. Nécessaire pour tous ceux qui souhaiteraient participer à l’Ensemble Electronique, et conseillé pour tous ceux qui voudraient réaliser un projet incluant l’électronique pendant l’année.

  • Le traitement temps réel et le langage musical

La sensibilisation aux traitements temps réels et à leurs caractéristiques musicales – l’interprétation, l’improvisation et l’écriture. Pour instrumentistes et compositeurs souhaitant réaliser ou participer à des projets, ou participer à l’Ensemble Electronique.

  • L’atelier de réalisation d’instruments électroniques

Suite aux séminaires de lutherie électronique et du traitement temps reél, un atelier de fabrique et de programmation des instruments électroniques que chacun jouera dans l’Ensemble Electronique. Nécessaire pour pouvoir participer à l’Ensemble Electronique.

  • La partition graphique

Quelques séminaires autour de l’écriture et de l’interprétation de partitions graphiques qui serviront

  • La création de l’Ensemble Electronique de Strasbourg et la pratique collective

Travail de pratique collective dans ce nouvel ensemble – improvisation, création et répertoire.

  • Le suivi de projets de création d’élèves

Suivi des projets de création d’élèves des différentes institutions.

  • Les activités jeune public

Activités destinées au jeune public des classes de FM et d’Improvisation. Développement d’outils spécifiques.

  • La culture contemporaine et électroacoustique

Une petite sensibilisation à la culture des musiques mixtes et électroniques par l’écoute des oeuvres et la présentation des courants. Environ 4 séminaires d’une heure. Ouvert à tout le monde.

  • Le travail autour des créations

Les tests et répètes pour les créations de compositions mixtes et électroniques.

(pour le planning du 15 et 16 novembre, voir prochain article)