Hace cinco años, empecé a incorporar electrónica en mis composiciones, y a partir de ahí, he estado buscando diferentes formas de mezclar el uso de la electrónica con mi experiencia previa trabajando con instrumentos acústicos. Durante este tiempo mi trabajo ha estado enfocado en los sistemas musicales interactivos por ordenador, investigando formas de incorporar esa interacción en mis composiciones y conciertos en directo. Los instrumentos extendidos han sido el resultado de esa investigación.

Juan Luis Montoro
1 enero 2020
Share Button

Instrumentos extendidos 1

Los instrumentos extendidos pertenecen a la amplia clasificación de los sistemas musicales interactivos a través del ordenador (interactive computer music system), un término amplio que involucra un número de diferentes aproximaciones a la interacción entre intérprete y ordenador. El carácter novel de este campo de trabajo presenta dificultades cuando se trata de clasificar o especificar la definición de instrumentos extendidos. Esto es por lo que, para posicionarme claramente en esta discusión, ofreceré mi propia clasificación de términos y categorías. Después de >delimitar este contexto, me adentraré en la explicación de los instrumentos extendidos, tanto histórica y técnicamente como desde un punto compositivo, analizando las ideas estéticas que conlleva su elección entre los demás sistemas musicales interactivos existentes.

CONTEXTO

Sistemas musicales interactivos por ordenador (Interactive Computer Music System)

El principal aspecto que hay que tener en cuenta cuando  se describe un sistema interactivo entre intérprete y ordenador es la necesidad de un input (información de entrada) del intérprete, y un output (respuesta) generada por el ordenador para dicho input.

Joel Chadabe fue uno de los primeros compositores que manejó estos términos e intentó teorizar sobre dicha interacción en 1967. Él consideró «composición interactiva» el proceso que trata la comunicación en tiempo real en actuaciones en vivo, subrayando la importancia de que esta comunicación o interactividad suceda entre un humano y la máquina[1].

Unas décadas después, en 1993, Robert Rowe propuso una definición específica para los «sistemas interactivos musicales por ordenador»: Estos sistemas serían, según este autor, «Aquellos cuyo comportamiento cambia en respuesta a una input musical. Esta capacidad de respuesta permite a estos sistemas participar en conciertos en vivo, tanto de música improvisada o precompuesta» (Robert Rowe, Cambridge, 1993)

Sin embargo, es importante señalar que para que esa interacción suceda, el intérprete necesita un dispositivo para mandar un input, al igual que el ordenador necesita un algoritmo para generar la respuesta a éste. Por tanto, dependiendo de las características,  tipos de dispositivos y algoritmos utilizados en un sistema interactivo, se han utilizado diferentes terminologías para diferenciarlos y categorizarlos.

Categorías y terminología

En primer lugar, es importante clarificar que la música interactiva por ordenador puede encontrarse en campos y contextos muy diversos por lo que han surgido muchos términos, pero no hay muchas categorizaciones que intenten aunar todos ellos. M.M. Wanderley y N. Orio (IRCAM)[2] elaboraron una lista de posibles categorías de Interacciones Ordenador-Humano  (Human Computer Interactions (HCI)):

  • Manipulación del instrumento musical: centrado en el instrumento como el comunicador (interfaz o dispositivo de comunicación) entre el ordenador y la actuación musical.
  • Control al nivel de partitura: desarrollo de un sistema para generar un acompañamiento automático o sincronizado.
  • Navegación digital: la interacción se hace a través de una plataforma digital o software.
  • Instalaciones multimedia: involucra diferentes media para crear una interacción con el público en un espacio concreto.
  • Control del procesamiento del sonido: la interacción se basa en manipular los procesos hechos sobre una fuente de sonido acústica o analógica.
  • Interacciones entre danza y música: se establece una interacción entre movimientos de danza y sonidos procesados o generados.
  • Videojuegos: generar música para el motor de los videojuegos propiciando la interactividad.

En esta lista de las interacciones entre ordenador y humano, los instrumentos extendidos se deberían posicionar en la categoría de «manipulación del instrumento musical».  Sin embargo, los instrumentos extendidos también están relacionados con la clasificación de «control del procesamiento del sonido» desde el punto de vista de la obtención del sonido resultante a través de las transformaciones que sufre la fuente de sonido original del instrumento tradicional a través de procesos electrónicos del ordenador para generar el output.

Si centramos nuestra atención en la categoría de «manipulación del instrumento musical», es posible hacer una categorización dentro de esta aún más detallada, basándonos en las características de la relación entre intérprete y ordenador, y las características de los controladores generadores del input para el algoritmo usado.

Robert Rowe ofreció una sub-clasificación de la relación entre instrumentos y ordenadores en su artículo «Clasificación de los Sistemas Interactivos» («Classification of Interactive Systems»). En él, la distinción se hace utilizando los siguientes parámentros:

  • Interacciones impulsadas por la partitura, o por la interpretación en vivo:
    • Las interacciones impulsadas por la partitura están relacionadas con la sincronización de la electrónica y el intérprete a nivel de partitura, utilizando eventos predeterminados, o fragmentos musicales almacenados para sincronizar la electrónica con la interpretación en directo (dependiendo del tempo, pulso, dinámicas, cronometración, etc)
    • En las interacciones impulsadas por la interpretación en directo, la relación entre el instrumento y el ordenador no determina la realización de una partitura en concreto. El ordenador no tiene eventos almacenados para saber qué esperar como input, por lo que los procesos de la electrónica están controlados por las elecciones de los intérpretes.
  • Métodos de respuesta:
    • Transformativo: utilizando material musical existente y aplicándole  transformaciones para producir variantes.
    • Generativo: respuestas basadas en una serie de reglas (algoritmos) para producir un nuevo output musical from stored fundamental material.
    • Secuenciado: fragmentos musicales pregrabados en respuesta a determinados input.
  • Paradigma del intérprete o del instrumento:
    • Paradigma del intérprete: considera al ordenador como un segundo intérprete que toma decisiones autónomas. Esto está cerca de relacionar al ordenador como una inteligencia artificial.
    • El paradigma del instrumento: pretende crear una modificación o extensión del instrumento para controlar o disparar procesos electrónicos generados por el ordenador. El foco está en el instrumento como elemento de control.

Una vez expuesta esta clasificación de la relación entre instrumento y ordenador, nos centraremos en las características de los instrumentos-controladores (instrumentos o dispositivos que utilizaremos para la comunicación con el ordenador). Tanto Robert Rowe como el IRCAM han propuesto una lista para definir las características de los dispositivos musicales en la interacción musical, con términos similares. Sin embargo, cuando se consideran por separado, se pueden encontrar lagunas en las especificaciones de cada una de ellas. Aquí, por tanto, propongo mi propia categorización, la cual combina y extiende los intentos previos de clasificar la relación y naturaleza del controlador en la categoría de «la manipulación de instrumentos musicales»:

  • Capacidad de aprendizaje: capacidad de las interfaces de permitir al usuario familiarizarse con ellas y hacer así un buen uso de todas sus capacidades y características.
  • Explorabilidad: característica que admite la exploración de nuevas posibilidades. Cuanto más conoces y practicas con la interfaz, mayor número de posibilidades que se pueden obtener del instrumento.
  • Controlabilidad de las funciones: el grado hasta el cual el intérprete es capaz de forzar el sistema hasta un particular estado, aplicando a control input. Si un estado es incontrolable, ningún input será capaz de controlar dicho estado.
  • Controlabilidad de la sincronización: la cantidad de tiempo de retardo que la electrónica /el ordenador) necesita para responder a la información de entrada proporcionada por el intérprete.
  • Cimientos históricos: utilizar una técnica existente del instrumento (lenguaje idiomático), modificandola o creando una nueva técnica. Es importante resaltar que las interfaces son en su mayoría nuevas creaciones, ya que no suelen estar basadas en instrumentos tradicionales.
  • La naturaleza psicológica del control: la naturalidad percibida en la relación entre acción y respuesta sonora.

Basándonos en estas características, es posible encontrar diferentes enfoques en el campo de la interacción intérprete-ordenador a través de la manipulación de un instrumento. Aquí propongo una lista con aquellos más relevantes hasta el momento[3]:

  • Programación en vivo (Live-coding)
  • Nuevos dispositivos (New interfaces) (NIME)
  • Lutería híbrida o digital (incluye a los sintetizadores digitales o analógicos)
  • Instrumentos inteligentes – improvisación compuesta (Intelligent instruments – composed Improvisation) (Joel Chadabe es uno de los principales representantes)
  • Hiperinstrumentos (Hyperinstruments) término acuñado por Tod Machover
  • Instrumentos expandidos (Expanded instruments) término acuñado por Pauline Oliveros)
  • Instrumentos aumentados (Augmented instruments) (término utilizado en trabajos de investigación de IRCAM, Stanford University, and STEIM)
    • Instrumentos aumentados a través de sensores
    • instrumentos activados (Actuated instruments)
  • Instrumentos extendidos (término acuñado por Jeff Pressing)
  • «Smart Instruments» (uno de los principales centros en esta línea de investigación es el KTH Royal Institute of Technology, MIND Music Labs / Queen Mary, London)
  • Alternativas al control físico: usar información proveniente del cuerpo humano pero no producida por un movimiento físico voluntario (example: Solo performer by Alvin Lucier)

Elegir entre estos enfoques disponibles siempre conlleva elecciones estéticas que afectarán al proceso compositivo. El enfoque en el que he centrado mi investigación ha sido el de los instrumentos extendidos, a los cuales dedicaré la siguiente sección.

Instrumentos extendidos

Un instrumento extendido es aquel que añade nuevos controles físicos a un instrumento tradicional existente. Hay que tener en cuenta que si el mecanismo de control y efectos resultantes cambian radicalmente, estamos ante un nuevo instrumento, más que ante uno extendido.[4]

Estas definiciones pueden aplicarse a muchas innovaciones en la historia de los instrumentos acústicos (lutherie nouvelle), pero el término instrumento extendido está más relacionado con la extension a través de la electrónica.

Los instrumentos extendidos pueden ser confundidos con los instrumentos aumentados a través de sensores; sin embargo, es importante hacer la diferenciación entre ambos. Para ello, recurriré a las ideas de Jeff Pressing sobre mecanismos de control y la complejidad de salida (output complexity). Según este autor, para hablar de un instrumento extendido, es esencial que este permanezca cerca de las características del instrumento tradicional al cual se le aplica la extensión. A fin de conseguir esto, hay que crear limitaciones en el mecanismo de control y de la complejidad del sonido resultante del instrumento. Cuando el ordenador y la extensión añaden una gran variedad de nuevos gestos, procesos, o algoritmos, el intérprete empieza a perder el control del sonido resultante en favor de la complejidad que el ordenador puede generar. En estos casos, Pressing argumenta: «el instrumento no puede ser entendido como extendido, sino como un instrumento aumentado a través de sensores«, los cuales tienen otras finalidades.

Si relacionamos los instrumentos extendidos con los términos utilizados por Robert Rowe para la clasificación de la relación instrumentos-ordenadores expuesta antes, estos son instrumentos basados en interacciones impulsadas por la interpretación en directo, en los que el método de respuesta es principalmente transformativo, totalmente centrado en el paradigma del instrumento, siendo el ordenador una mera extensión de las posibilidades del instrumento original.

Como instrumento-controlador, los instrumentos extendidos tienen un alto grado de aprendizaje, explorabilidad, y control de funciones y sincronización. Estos aspectos permiten al intérprete tener un control directo del sonido de su instrumento, y explorar así los nuevos matices que el instrumento pueda ofrecer a medida que se va familiarizando más con él (cuanto mayor tiempo dedique a practicarlo, más cantidad de detalles y matices podrá obtener de él).

Aparte del uso que hace el instrumento de la electrónica, la característica que hace a los instrumentos extendidos diferenciarse de la mayoría de los tradicionales es su falta de cimientos históricos. Al diseñar cómo los sensores serán añadidos a los instrumentos es esencial buscar una combinación adecuada entre los movimientos del intérprete y los gestos idiomáticos del instrumento tradicional que va a ser extendido. El objetivo final de los instrumentos extendidos es alcanzar la completa integración de la extensión en el lenguaje idiomático del instrumento. Sin embargo, es difícil conseguir una integración inmediata y completa en las etapas iniciales, cuando el intérprete está aún intentando acomodarse a los nuevos elementos de control.  Es necesario dedicar tiempo a explorar las nuevas características que requieren ser aprendidas y asimiladas por el intérprete. Este proceso es similar a cualquier nueva técnica que el intérprete quiera incorporar a su repertorio, pero en este caso el proceso de aprendizaje no está basado en explorar nuevas posibilidades del instrumento, sino en explorar nuevos elementos añadidos a éste, hecho que cambia la relación a la que el intérprete estaba acostumbrado, añadiendo nuevos gestos y respuestas del instrumento.

TÉRMINO CARACTERÍSTICAS EJEMPLOS REFERENCIAS
Código en vivo Los programadores en vivo exponen y reescriben código mientras este genera música o visuales improvisados.
Toda la manipulación del código es proyectada en vivo por placer.
El código en vivo se realiza con ordenadores o portátiles, proyectando la pantalla en vivo. https://toplap.org
Nuevas interfaces musicales Nuevos hardwares para controlar parámetros en softwares musicales. The Hands / Michel Waisvisz STEIM, NIME (“International Conference of New Interfaces for Musical Expression”)
Lutería híbrida o digital Self-contined instruments: no necesitan de amplificación externa u otras conexiones.
Tienen su propio lenguaje idiomático.
Electric guitar, Sintetizadores analógicos, theremin, Overton Fiddle.
Contact / Marianthi Papalexandri-Alexandri
Léon Theremin, Marianthi Papalexandri-Alexandri (Cornell University), Stanford University.
Instrumentos inteligentes Sistemas programados para crear “inteligencia Artificial”  que responda en vivo a los inputs. InMuSIC / Giacomo Lepri

Giacomo Lepri / InMuSIC

ICMA “International Computer Music Association”.
STEIM.
Hiperinstrumentos Utilizar la tecnología para dar más potencia y sutilezas a las actuaciones virtuosas.
Tiene un gran nivel de aprendizaje.
El output es mucho más complejo al input.
Hypercello / Tod Machover Tod Machover, 1986 – MIT Media Laboratory, Massachusetts-EEUU (https://www.media.mit.edu)
Instrumentos expandidos El timbre se ve afectado por diferentes efectos relacionados con el espacio. Utilización de diferentes formas de reverberación y delays.
Lo que es expandido es el tiempo.
Deep Listening Pauline Oliveros
Instrumentos aumentados a través de sensores Adición de sensores a instrumentos para controlar procesos electrónicos.
Los sensores se utilizan como contro-ladores extras separados de las princi-pales técnicas del instrumento o del lenguaje idiomático.
El output suele tener un alto grado de complejidad.
The augmented violin project IRCAM
Instrumentos extendidos Adición de sensores para controlar procesos sonoros que afectan al soni-do original del instrumento que es extendido.
El output es más cercano al sonido original del instrumento que en los instrumentos aumentados.
Extended table percussion (parte de mi investigación)
Instrumento extendido utilizando como base la percusión sobre una mesa.
Jeff Pressing
Instrumentos activados La síntesis del sonido vuelve a la es-tructura acústica del instrumento.
Esto se consigue añadiendo nuevos mecanismos aplicados directamente a los elementos del instrumento que producen la vibración que genera el sonido.
LU for electromechanical driven marimba and distortion / Hugo Morales Hugo Morales Murguia
Smart Instruments Smart guitar, smart ensemble Queen Mary University, London
Alternativas al control físico Utilizar información del cuerpo humano que no es realizada conscientemente, o difícilmente controlable. Music for solo performer / Alvin Lucier Alvin Lucier

Notas

  1. ^ Joel Chadabe, Interactive Composing: An Overview, The Music Machine. Selected Readings from Computer Music Journal, Curtis Roads (ed.), Cambridge, Mass., MIT, 1989.
  2. ^ MM. Wanderley, N. Orio, Evaluation of input devices for musical expression: Borrowing tools from HCI, Computer Music Journal 26, 2002, Vol. 3, pp. 62-76
  3. ^ Se puede encontrar información extra sobre sobre cada uno de los enfoques en un cuadro a modo de resumen al final del artículo.
  4. ^ Jeff Pressing, Cybernetic Issues in Interactive Performance, Computer Music Journal, 1990, Vol.14, pp. 12-25.

Foscusrite Scarlett 4i4

A excepción del contenido de terceros y de que se indique lo contrario, éste artículo se encuentra bajo una Licencia Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Licencia.

Share Button