Synapse + Kinect

Hola a todos,

Continuando con la investigación, he dado con esta página de tumblr: http://synapsekinect.tumblr.com/

Resulta que es una aplicación que permite conectar Kinect con Ableton Live (via MAX/MSP) y mapear el esqueleto (la posición global o las articulaciones) a parámetros (volumen, samplerate, lo que se nos ocurra) MIDI en Ableton Live. Lo tenéis perfectamente resumido y visualizado en este vídeo:

Qué, bastante parecido a lo que buscamos de inicio no?
Yo resulta que me voy de viaje hasta el viernes, pero a la vuelta voy a ver si alguien me puede prestar una Kinect y mi objetivo es conseguir lo mismo que en el vídeo, a ser posible con PureData, que es gratis. Si no, me bajaré una versión de prueba del MAX.

Algunas notas más técnicas:

  • Synapse usa mensajes OSC entre Kinect y Pd → pueden servir para controlar un oscilador en Pd (como ejercicio simple). En general, cualquier software o lenguaje que soporte este tipo de protocolo (más robusto pero menos definido que MIDI) es susceptible de ser usado.

  • P { margin-bottom: 0.21cm; } Hay "patches" (unidad básica o proyecto de Max/MSP) para Ableton Live, construidos sobre Synapse, que incrustados en Live permiten mapear el movimiento corporal a controles MIDI. Eso es lo que se ve bien en el vídeo que os he enlazado. Las posibilidades a partir de ahí son enormes.

  • La pregunta entonces es si podemos hacer lo mismo, en vez de con MAX, con PureData, que es gratis y opensource. Es decir, hacer que Synapse funcione y crear patches para Ableton Live.

Como ya he dicho, todo esto es un poco técnico, pero os lo puedo explicar más en detalle, incluidos los conceptos básicos, en la próxima reunión.

Un saludo,

 

David

 

Tipo de post
Blog
Autor
DavidCD