Archives de catégorie : info

Préparations pour janvier 2013

Ayant mis les comptes rendus sur le site, il est temps de s’organiser pour les interventions de janvier et au-delà.

Comme vous le savez, à partir de janvier je viendrai toujours 2 jours par mois, mais PAS des jours consécutifs. Sur le planning existant, les dates de vendredi 11 janvier et jeudi 24 janvier ont été retenues en pensant qu’il y aurait toujours les 2 groupes qu’il y a eu en novembre et décembre.

Or, nous avons pensé que ça serait peut-être mieux que je viennent toujours le même jour de la semaine, et que nous formions un seul cours (groupe) de Temps réel et de Lutherie – chacun ayant ainsi un cours toutes les 2 semaines et non pas une fois par mois.

Il faudrait donc décider si ce jour sera le jeudi ou le vendredi, mais je ne pense pas qu’on va pouvoir changer les dates de janvier. Le jeudi 10 janvier je serai occupé avec une visite à Karlsruhe – ce qui fait qu’on doit maintenir le vendredi 11 janvier, et le 24 janvier il y a une intervention prévu avec la classe de FM d’Hector Sabo…

Ce qu’il faut que je sache pour tout le monde c’est:  est-ce que vous pouvez venir le jeudi ou le vendredi indifféremment, ou préférez-vous soit le jeudi soit le vendredi? Il y a déjà une contrainte d’une classe de français le jeudi qui rendrait difficile certaines horaires…

Je propose qu’on aient les horaires:

  • 10h-12h : Temps réel
  • 12h-13h : Suivi
  • 14h-16h : Lutherie
  • 16h-17h : culture / ou FM
  • 17h-18h : Suivi

Pour des contraintes des classes de FM, on pourrait aussi faire:

  • 10h-12h : Temps réel
  • 12h-13h : Suivi
  • 14h-15h : culture / ou FM
  • 15h-17h : Lutherie
  • 17h-18h : Suivi

Sachant que les cours qui devraient être à chaque intervention sont Temps réel, Lutherie et suivi. Culture et FM peuvent être moins souvent.

Dites nous (sur ce site en commentaires ou en mail privé) quels sont vos préférences.

Je vous souhaites de très bonnes fêtes!

-Tom

compte rendu 16 nov et 7 déc : Formation Musicale

Formation Musicale avec la classe d’Antoine Spindler
16 novembre et 7 décembre 2012

Nous avons eu 2 séances, le 16 novembre et le 7 décembre de 13h50 à 14h50

16 novembre:
Nous avons fait une sensibilisation au jeu sur voix et leurs instruments en modifiant le son par des procédés très simples de délai (échos) et transposition (harmoniseurs). Ils ont tous joués leurs instruments en écoutant le résultat de la transformation. Quant à la transposition, ils ont essayé d’identifier l’intervalle de transposition à l’oreille.

Ils ont beaucoup aimé la transposition de la voix dans l’aigüe et dans le grave…

7 décembre:
Cette fois-ci j’avais préparé un instrument très simple avec le Karlax – un harmoniseur qui changeait de transposition en glisse en rapport avec l’axe « accélérateur Z » du Karlax. Ainsi, ils jouaient à 2, un jouant karlax et l’autre son instrument. Nous avons essayer de faire jouer tout le monde ET sur le Karlax ET sur leur instrument.

Ils ont essayé d’être à l’écoute de la transposition en fonction de la position du Karlax, et par moments ont essayer de « trouver » des intervalles et notes spécifiques.

Il y a de bonnes exercices possible à imaginer.

Antoine va lister différentes idées à poursuivre pour que je puisse commencer des développements d’outils pédagogiques – avec et sans Karlax.

compte rendu 6 déc : Culture

Voici les pièces que nous avons regardé durant la séance de Culture Electroacoustique du 6 décembre…

Le sujet était « quatuor à cordes »

 

Philippe Manoury

Tensio (2010) – avec électronique en temps réel (Ircam)

Nous avons regardé la partition en voyant particulièrement comment les traitements (descriptions et résultats) ont été noté. Nous avons écouté un extrait.

Aller voir absolument la page sur le site de Philippe Manoury qui parle Tensio ->

LES PROCÉDÉS DE COMPOSITION UTILISÉS DANS “TENSIO”

 

Il y a également une vidéo produite par l’Ircam où Philippe Manoury parle de la pièce :

Images d’une oeuvre n°10 : « Tensio » de Philippe Manoury


 

Jonathan Harvey

4th String Quartet (2003) – avec électronique en temps réel (Ircam)

Nous avons écouté un extrait. Je n’ai pas la partition.

page de la médiathèque de la cité de la musique:

http://mediatheque.cite-musique.fr/masc/?INSTANCE=CITEMUSIQUE&URL=/ClientBookLineCIMU/recherche/NoticeDetailleByID.asp

 

 

Gabriel Prokofiev

En contraste à ces 2 pièces de musique contemporaine, nous avons écouté un artiste « crossover » qui est à la fois dans la musique contemporaine ET dans la musique électronique populaire – il est lui-même à la fois compositeur et DJ.

Dans son Album Elysian Quartet (2006) il y a 4 mouvements d’un quatuor à cordes acoustique, puis divers « remixes » des ces mouvements.

Nous avons écouté:

  • Elysian Quartet (2006)
    • 1st movement
    • 2nd movement
    • 3rd movement
  • 1st Movement (G. Prokofiev Hip-Hop Remix)
  • 2nd & 3rd Movements (Max De Wardener Remix)
  • 2nd Movement (BoxSaga Remix)

Vous pouvez visiter le site de Gabriel Prokofiev:

Nonclassical

La prochaine fois, nous allons écouter une nouvelle création pour Karlax et ensemble:

Kaala, de Daniel Figols

compte rendu 6-7 déc : Lutherie

Lutherie Electronique et l’Interactivité
15-16 novembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 15h à 17h
▪ groupe 2 : vendredi 7 décembre de 15h à 17h

J’avais eu l’intention de commencer à voir MaxMSP, mais nous avons continué à voir tapemovie car il festait beaucoup de questions et on avait besoin de le voir en plus de détail.

Globalement, nous avons recommencé au début:

  • lancement
  • configuration de la partie tapemovie ET la partie tape

tm_config
t_config

  • init et build (construction)
  • le menu windows et les éditeurs des modules
  • la base des éditeurs

switch
snapshot
paramètres
spat

  • le principe de la matrice (mtrx)
  • création d’un « instrument » simple

entrée micro (adc)
harmoniseur/délai
contrôle Karlax

  • création d’un event (évènemement)
  • dynamisation et temporalisatin des events

J’ai crée une page dans ce site qui regroupe des liens vers des infos sur tapemovie :

  • – de très bonnes notes de cours d’Emilie Buttazzoni
  • – site de tapemovie
  • – esquisse de documentation
  • – mon mémoire contenant un chapitre tapemovie
  • – article sur tapemovie de la conférence « Journées d’informatique musicale » de 2010.

la page « liens tapemovie« 

compte rendu 6-7 déc : Temps réel et musique

Le Traitement temps réel et le langage musical
6-7 décembre 2012

Résumé de la 2e séance de : Traitement temps réel et le langage musical

▪ groupe 1 : jeudi 6 décembre de 10h30 à 12h30
▪ groupe 2 : vendredi 7 décembre de 9h30 à 11h30

 

Pour cette 2e séance nous avons exploré l’harmoniseur (transposition de hauteur), d’abord tout seul, et ensuite avec temps de délai et pourcentage de réinjection (feedback).

Après un rappel des 5 grandes familles de traitements :

temps
amplitude
hauteur
timbre
espace
matière

Nous avons vu/écouter les principes musicaux du traitement de hauteur.

————————————————————
l’Harmoniseur
————————————————————

comment ça marche

Le traitement de hauteur par harmoniseur est assez simple : générer une transposition d’une entrée son (micro) en direct. Globalement il y a deux méthodes – la « traditionnelle » – dans le domaine temporel, et la plus récente – dans le domaine fréquentiel.

La première méthode consiste à varier la position de lecture dans un délai variable, générant une légère transposition pendant le temps de changement de position. Puisque l’harmoniseur devrait avoir l’aspect d’un délai négligeable et surtout fixe, le petit changement de position se fait en petite échelle (quelques millisecondes) avec un système de fenêtrage. Ce système fonctionne assez bien pour des petites transpositions (environ une tierce), mais pour les intervalles plus importantes on constate une déformation de timbre vers la petite voix des munchkins ou des chipmunks dans l’aigu, et vers les voix robots dans le grave. L’effet et justement le plus marqué et audible pour la voix. D’autres instruments peuvent subir des changements d’intervalle plus importante sans sembler perdre leur nature.

La raison de cette déformation est le non-respect des formants. Dans la voix surtout, mais aussi dans d’autres instruments, la cavité de résonance favorise certaines fréquences qui ne change pas avec la hauteur. Ce sont les formants, par exemple, qui créent les voyelles. Quand on transpose par harmoniseur « temporel », ainsi que par lecture d’échantillon, les formants sont transposés avec la vibration principale parce qu’ils font partie du son global. Les formants qui transpose de cette manière créent un effet artificiel, nous pointant le coté électronique et non pas purement musical. En générale, la transposition vers le grave est plus tolérante que vers l’aigüe.

Puisque cette méthode d’harmoniseur contient par sa nature un délai, il est l’usage de se servir de ce délai musicalement (voir les discussions sur le délai dans les comptes rendu du mois de novembre) – créant un retard transposé. Quand on met de la réinjection (feedback) de la sortie de l’harmoniseur/délai dans l’entrée, le son est de nouveau harmonisé puis retardé, créant un effet d’arpège dans une gamme à intervalle fixe.

La deuxième méthode est dans le domaine fréquentiel, et essaie de respecter l’emplacement des formants. Elle consiste à faire une analyse FFT (Transformation de Fourier Rapide, domaine fréquentiel), essaie d’identifier les formants, soustraire l’effet des formants, effectuer une transposition, puis ré-appliquer les formants. Ça peut faire des transpositions plus naturelles, mais dans certains cas ou intervalles peut générer des artefacts. Il faut plutôt essayer les 2 techniques et choisir en fonction de l’instrument et le dégrée de transposition.

Dans Max, la première méthode se fait avec un bout de patch fait au départ à l’Ircam qui s’appelle « harmv2 ». Dans tapemovie cette technique est implémenté par le module harm. La deuxième méthode se fait dans Max avec gizmo~, et dans tapemovie avec le module qui s’appelle également gizmo.

le travail musical

L’harmonisation de base sans délai crée justement de l’harmonie à une intervalle fixe. Cela étant dit, dans la musique (tonale ou modale) l’harmonie n’est jamais vraiment à une intervalle fixe. L’harmonie d’une tierce, par exemple, est parfois majeur parfois mineur selon la position dans la gamme. L’harmonisation peut donc rentrer en dissonance avec la tonalité. On peut éviter cette perception en faisant un travail musical plutôt atonal basé sur des intervalles et non pas des gammes, mais ce n’est pas toujours possible. Il faut donc changer l’intervalle de transposition de l’harmoniseur en fonction des notes jouées – soit en écrivant des changements de paramètres qui vont avec des notes spécifiques, soit avec un système (plus complexe) de reconnaissance de hauteur et modification de l’intervalle en conséquence.

L’importance et sur l’idée que l’intervalle va probablement devoir changer pour garder sa musicalité, mais les changements ne sont pas obligés d’être synchronisés dans des gammes précises. On peux, par exemple, facilement travailler les micro-intervalles.

L’ajout d’un temps de délai transforme l’harmoniseur en un outil de contrepoint puissant. Pensez à combiner toutes les techniques du travail avec le délai avec cette capacité à transposer pour avoir un outil souple et intéressant.

La réinjection de la sortie vers l’entrée de l’harmoniseur avec délai crée un effet de répétition en arpège d’une intervalle. Avec beaucoup de « feedback » et des intervalles très petites on peux créer des « petits nuages » autour de la note jouée.

Il y a globalement trois stratégies pour changer les valeurs:

1) changement par évènement à certains moments
2) changement par détection du son luis même (suiveur d’enveloppe lié au temps de délai, par exemple)
3) valeurs interprété sur un instrument électronique – comme, par exemple, le Karlax.

————————————————————
instrument Karlax avec tapemovie
————————————————————

…nous avons vu la maquettage d’un instrument de traitement de hauteur en utilisant un Karlax et l’environnement/application (fait avec Max/MSP) qui s’appelle tapemovie. (Voir le compte rendu de la Lutherie Electronique du même jour)

Au départ, nous avons fait un mapping Karlax vers un harmoniseur/délai de la manière suivante:

1er key main gauche (/key/1) connecté à la transposition d’un harmoniseur entre 25 centièmes de demi-ton et 5 demi-tons (quarte), avec une courbe exponentielle.
1er key main droite (/key/6) connecté au temps de délai du même harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.

Cette configuration nous semblait limitée et trop figée dans son mouvement, donc nous avons décidé de placer la transposition sur l’axe Z des accélérations : l’unisson au milieu, -20 demi-tons en penchant vers l’avant, +20 demi-tons en penchant vers l’arrière. Nous avons aussi placé la réinjection (feedback) de l’harmoniseur/délai sur la 2e touche de la main droite, entre 20% et 70%. Ça fait:

1er key main droite (/key/6) connecté au temps de délai de l’harmoniseur entre 50ms et une seconde, avec une courbe exponentielle.
2e key main droite (/key/7) connecté au feedback de l’harmoniseur entre 20% et 70%, avec une courbe linéaire.
accélérateur z (/acc/z) connecté à la transposition de l’harmoniseur entre -20 demi-tons et +20 demi-tons, avec une courbe symétrique/exponentielle.

Plus tard (en cours de Lutherie de l’après-midi) nous avons placé le temps de délai sur l’accélérateur de l’axe x (penché gauche/droite).

————————————————————
impros / essaies
————————————————————

Nous avons donc faire plusieurs essaies d’improvisation pour découvrir musicalement les possibilités de cet harmoniseur/délai interprété par Karlax.

Nous avons joué voix, saxophone, piano, batterie, contrebasse…

Plusieurs personnes ont joué le Karlax, et plusieurs un instrument acoustique.

technologie « un pas devant l’autre »

Bonjour à tous,

un petit lien de la part des collègue Allemand avec lesquels je travail sur le projet niaxe il s’agit du « collectif nil » aus Karlsruhe !!

Ils développent le projet de lap top ensemble « benoît & the mandelbrots ». Certains diront qu’ils ne font que s’envoyer des lignes de code, d’autre fermeront les yeux et écouteront paisiblement…

Voici le lien d’un outil technologique mödern :

http://ultrasonic-audio.com/

ygh

Préparations et planning du 6-7 décembre

En préparation aux journées suivantes de la résidence, le 6-7 décembre, voici le planning – qui sera identique au planning de novembre:

jeudi 6 décembre :

10h30-12h30 Le traitement temps réel et le langage musical 1 (groupe 1) – avec instruments

pause midi

14h-15h La culture contemporaine et électroacoustique 1 (tous)
15h-17h La lutherie électronique et l’interactivité 1 (groupe 1)
17h-18h Le suivi de projets d’élèves (groupe 1)

vendredi 7 décembre

9h30-11h30 Le traitement temps réel et le langage musical 1 (groupe 2) – avec instruments
11h30-12h30 Le suivi de projets d’élèves (groupe 2)

pause midi

13h50-14h50 La classe FM d’Antoine Spindler
15h-17h La lutherie électronique et l’interactivité 1 (groupe 2)
17h-18h Le suivi de projets d’élèves (groupe 3)

Lisez les comptes rendu que j’ai mis dans les derniers articles pour compléter vos connaissances, ou bien pour s’informer de ce qu’on a fait si vous n’étiez pas présentes.

à très bientôt.
Tom

compte rendu 15-16 nov : Temps réel et musique

Résumé de la première séance de : Traitement temps réel et le langage musical

  • groupe 1 : jeudi 15 novembre de 10h30 à 12h30
  • groupe 2 : vendredi 16 novembre de 9h30 à 11h30

Au sujet du traitement temps réel et le langage musical, vous pouvez télécharger mon mémoire de Master II et lire le 1er chapitre (pages 2 à 31 : I – Les traitements et la musique) qui fait une bonne introduction. A télécharger ici.

Les « dimensions » du traitement

Pour parler « musique » et non pas « technique informatique » il faut considérer les traitements en fonction de catégories ou « dimensions » musicales. Acoustiquement, Il suffit que de 2 dimensions pour représenter tout événement sonore :

  • temps
  • Amplitude (musicalement parlant: intensité)

4 dimensions supplémentaires complètent la base qui permet de parler de la quasi-totalité des traitements temps réel sonores

  • hauteur
  • timbre
  • espace acoustique
  • matière

Les traitements

Pour placer les traitements dans ces dimensions musicales :

  • le temps concerne évidement les lignes de retard (délai), mais aussi l’enregitrement et la relecture ultérieur
  • L’intensité peut être traité par les VCA et les LFO, mais aussi des enveloppes
  • la hauteur concerne les harmoniseurs, essentiellement
  • le timbre se travaille avec des filtres, de la modulation en anneau, la distorsion non-linéaire, et toute sortes de traitements dans le domain fréquenciel (fft)
  • l’espace acoustique concerne tout ce qui est spatialisation et réverbe, ainsi que les filtrages associés (binaural/transaural/abisonics, etc)
  • La matière peut se travailler avec divers combinaisons des traitements déjà listé, ou bien un traitement total comme la synthèse granulaire

Le temps

On peut parler du temps comme une catégorie musicale (perception) ou comme une technique de traitement.

  • Le temps comme catégorie musicale couvre les idés de l’echo, la répétition ,le rythme, le contrepoint, la mémoire et la forme
  • Le temps comme technique de traitement peut aussi générer des résultats qui vont plutôt faire partie d’autres catégories musicales : flangeur, chorus, filtrage, réverbération, harmoniseur

Différentes « zones » de temps activent différentes types de perception:

  • Le temps court (1-15 ms)
    • Phase et couleur
  • Le temps moyen (15-80 ms)
    • Réflexion, epace
    • épaississement
  • Le temps long (> 80 ms)
    • Écho, répétition
    • Rythme, polyphonie
  • Le temps très long (> 10 seconds?)
    • Mémoire et forme

L’écriture pour le délai

Globalement, si la phrase ou « l’objet musical » joué est plus court que le temps du délai, nous allons entendre le délai comme une écho ou une répétition. Si la phrase ou objet musical est plus long, la sortie du délai se mélange et combine avec la phrase, et nous risquons plus d’entendre un rapport de superposition et peut-être de contrepoint. Si ce rapport est bien travaillé, le temps du délai peut ne pas être évident.

Un autre facteur de perception très important c’est la stabilité ou homogénéité de la source. Une attaque ou un changement brusque de note va être parfaitement perceptible  comme une écho, mais un son qui arrive en crescendo et qui part en decrescendo, dans lequel il n’y a pas de changements de note, ou bien les changements sont répétitifs comme un trille ou un trémolo – on n’entendra strictement pas le temps de l’écho mais plutôt une superposition ou épaississement du son instrumental.

On peut trouver cette stabilité ou homogénéité également dans des notes répétées. Une pulsation d’une seconde dans un délai d’une seconde se synchronise parfaitement avec la source, et nous entendons encore une doublure. Si, en plus, la répétition arrive progressivement en crescendo et repart en decrescendo, nous n’entendons ni le début ni la fin. Si on garde la pulsation mais on change de notes, on entend plutôt un effet de canon ou contrepoint avec une superposition verticale de notes.

Une fois la pulsation établie, une légère accélération ou décélération perturbe le rapport de contrepoint et peut rendre très intéressant le mélange. Si le temps est assez long, quelques secondes, on pourrait même anticiper le retour du délai en rejouant le son qui VA sortir juste avant qu’il sorte…

C’est également intéressant de combiner et superposer des différentes techniques. Par exemple, on peu jouer une « pédale » continue qui sonne dans le délai comme un épaississement et de temps en temps on peu rajouter une attaque ou change une note, puis cet événement sonore sera entendu parfaitement comme une écho – sans changer pour autant le moindre réglage!

Je vous propose d’aller lire pages 23 à 31 (2.4 Guide de l’écriture) de mon mémoire pour voir de plus près ces principes avec des petits exemples d’écriture.

compte rendu 15-16 nov : Lutherie

Résumé de la première séance de lutherie électronique et interactivité:

  • groupe 1 : jeudi 15 novembre de 15h à 17h
  • groupe 2 : vendredi 16 novembre de 15h à 17h

 

Qu’est-ce qu’un instrument?

La base de ce que c’est qu’un instrument, qu’il soit acoustique ou électronique est exactement la même. Il faut une source, un traitement, une diffusion, et une façon d’intervenir avec du geste. En plus de détails cela fait :

1) source de vibration, source sonore
  • acoustique
    • anche, lèvres, corde/archet, corde/marteau, etc…
  • électroacoustique/électronique
    • microphone -> source acoustique extérieur à l’ordinateur
    • synthèse sonore
    • fichiers son ou échantillons
2) traitement (intervention, morphologie, modification)
  •  acoustique
    • tuyau, caisse de résonance, boite, etc…
  • électroacoustique/électronique
    • traitements temps réel
    • effets
    • programmes
3) diffusion sonore
  •  acoustique
    • pavillon, caisse de résonance, air, etc…
  • électroacoustique/électronique
    • haut-parleur(s)

4) le geste

  •  acoustique
    • souffler, faire des doigtés, frapper, pincer, frotter, taper, etc…
  • électroacoustique/électronique
    • contrôleurs comme karlax, wii, caméras, iphone, capteurs, claviers, etc…
5) modes de jeu
  • Différentes manières d’intervenir gestuellement sur un instrument donnant certains résultats sonores – souvent représentant des techniques étendues.
6) musicalité, expression
  • Un instrument avant tout permet une expression sonore musicale, applicable à l’improvisation ou bien à l’écriture et la composition.
7) notation, partition
  • Si un instrument va devenir « pérenne », il y aura certainement une ou plusieurs techniques de notation pour l’instrument…
8) répertoire
  •  La possibilité de noter le jeu d’un instrument sur une partition rend également possible la mise en place d’un répertoire pour l’instrument. C’est le test ultime de la réussite d’un instrument à long terme.
9) Une pratique de l’instrument et une méthode
  • Quand un instrument est bien ancré, il existe des méthodes d’apprentissage et de la pratique instrumentale
10) D’autres caractéristiques importantes (pas forcement dans l’ordre)
  • stabilité (un geste ou une combinaison de gestes fait/font un son)
  • fiabilité (quand on va le jouer, ça marche, ne casse pas, ne plante pas)
  • simplicité (principe de base facile à comprendre, même si difficile à « apprendre »)
  • intuitivité (rapport entre geste et son fait « sens »)
  • maniabilité (manipulable par
  • virtuosité (on peux devenir virtuose avec du travail)
  • protocole de vérification (des choses à faire ou à vérifier pour s’assurer du bon fonctionnement avant de jouer en concert…)

 

Environnements informatiques

Quels sons les programmes et les environnements informatiques bien adaptés à un travail de lutherie électronique?

Certains des plus important et les plus utilisés sont :

  • Max/MSP de Cycling74 (payant : $250 prix étudiant, $59 location étudiant année scolaire )
    • incontournable. L’environnement de programmation par excellence pour la création et le jeu interactif multi-média. Style de programmation graphique par « objets ». Max créé par Miller Puckett à l’ircam fin des années 80. MSP par David Zicarelli chez Cycling74 en 1997.
    • http://cycling74.com/
  • PureData (gratuit)
    • Aussi s’appelle Pd. Créé également par Miller Puckett en 1996 en étant parti de l’Ircam. Très performant, comme maxmsp mais gratuit, cependant beaucoup moins bien documenté et ça demande un esprit plus « bricoleur » – globalement moins facile que Max/MSP
    • http://puredata.info/
    • doc en français : http://fr.flossmanuals.net/PureData/
  • Ableton Live (payant : assez cher, divers prix pour divers « packages »)
    • Actuellement très populaire dans le domaine musique électronique, mais très utile également dans la musique contemporaine. L’ajout de Max for Live  le rend effectivement TRES puissant.
    • https://www.ableton.com/
  • Supercollider (gratuit)
  • Usine (payant : 59€ prix étudiant – uniquement Windows)
  • Plogue Bidule (payant : environ 90€)
  • Integra Live (gratuit)
    • Un projet de recherche universitaire européen, un séquenceur en forme de timeline qui utilise PureData comme moteur de traitement son en arrière plan.
    • http://www.integralive.org/software/
  • Chuck (gratuit)
    • Populaire aus Etats Unis dans des orchestres de laptops. Programmation par lignes de code et non pas graphique. Difficile mais très performant.
    • http://chuck.cs.princeton.edu/
  • CSound (gratuit)
    • Surtout un outil de synthèse sonore et exécution en forme de « partition » informatique. Programmation par lignes de code. ça marche en autonome ou bien en tant qu’objets Max/MSP
    • http://www.csounds.com/
  • d’Autres…

Je vous propose de commencer par un environnement/application construit avec MaxMSP :

  • tapemovie(gratuit)
    • Un projet que j’ai réalisé en petite équipe d’artistes/régisseurs/développeurs pour résoudre des problèmes de la création temps réel multi-média.
    • http://tapemovie.org/

 

Introduction à tapemovie

tapemovie est un environnement logiciel modulaire dédié a l’écriture et au contrôle intermedia (son, video, 3D, lumière) en temps réel. Testé, éprouvé et validé sur de nombreuses productions depuis 2007 pour le théâtre, la danse mais aussi le concert, la performance et l’installation, il permet une écriture précise des différents media et de leurs interactions, tout en permettant des connections vers de multiples périphériques. Il est fabriqué à partir de max/msp/jitter et existe comme application autonome (téléchargement gratuit), et également en version patch pour les utilisateurs avancés.

Nous avons fait une brève introduction à tapemovie, en regardant

  • concept du noyau tapemovie avec plugs tape (audio) et movie (vidéo)
  • création d’un « project »
  • configuration de tapemovie et de tape – choix des modules
  • construction (build) de l’environnement
  • l’entrée micro par le module adc
  • traitements
    • délai (del)
    • filtre (filt)
    • harmoniseur (harm)
  • événements (events)
  • contrôle avec modules karlax et manettes wii
Pour plus d’informations sur tapemovie, vous pouvez lire l’article qui est apparu dans la conférence Journées d’informatique musicale (JIM) de 2010.
Pour d’autres informations plus pratiques un peu plus comme un tutorial, vous pouvez lire le chapitre concerné par tapemovie dans mon mémoire de Master II de 2010 – chapitre II, pages 32 à 80 – à télécharger ici.
Avant les prochaines séances du 6-7 décembre, téléchargez tapemovie et essayer de réaliser un petit événement simple. Par exemple, une entrée micro (adc) dans un délai avec filtre et une spatialisation.