En el anterior artículo, presenté el concepto de instrumento extendido y el contexto y cuadro teórico en el que se incluye. Una vez expuesto el campo de investigación en el que me encuentro, en este artículo me centraré en las decisiones estéticas que conlleva el trabajo con este tipo de instrumentos, desde mi experiencia personal y conversaciones con otros compositores como Alexander Schubert, Hugo Morales, o Riccardo Marogna.
El trabajo con procedimientos electrónicos en vivo se ha convertido en un campo de investigación muy relevante. Mi interés en esta nueva área en la música reside en las nuevas posibilidades que los instrumentos tradicionales extendidos con electrónica ofrecen al campo de la composición. Además, los instrumentos extendidos realzan y complican la relación triangular entre intérprete-compositor-instrumento, la cual es el foco central de mi trabajo.
En el anterior artículo, presenté el concepto de instrumento extendido y el contexto y cuadro teórico en el que se incluye. Una vez expuesto el campo de investigación en el que me encuentro, en este artículo me centraré en las decisiones estéticas que conlleva el trabajo con este tipo de instrumentos, desde mi experiencia personal y conversaciones con otros compositores como Alexander Schubert, Hugo Morales, o Riccardo Marogna.
Demasiada magia
Algunos compositores, como Alexander Schubert, han manifestado su frustración hacia un tipo de música donde el código (programación) es el aspecto más importante a la hora de crear el sonido. De acuerdo con esta rama de pensamiento, este modo de creación musical se caracteriza por un procedimiento digital, alejado de sonidos orgánicos. Para dar solución a dicho problema los compositores han ido poco a poco devolviendo la responsabilidad de crear el sonido al intérprete.
El foco en la fisicalidad del intérprete está relacionado con un interés en producir un sonido orgánico, no solo con un fin visual. Utilizar de nuevo los gestos del intérprete como un input relevante para generar y controlar el sonido, es una reacción en contra de los sonidos que se originan por ordenador a través de algoritmos. Además, empezar la producción del sonido partiendo de una fuente sonora acústica o analógica provee al sonido de muchas sutilezas que pueden ser potenciadas con los procesos electrónicos sin perder su naturaleza orgánica.
Podríamos comparar este diseño sonoro con el diseño de paisajes artificiales para el medio audiovisual. Una opción sería empezar a diseñar y construir digitalmente el paisaje desde cero. Esta técnica es común en videojuegos, donde se suele crear un universo artificial para que los jugadores lo exploren. Esta opción, en cambio, no es común en las películas que buscan paisajes imaginarios realistas, ya que el proceso es complejo y largo y el resultado sigue siendo demasiado artificial. En las películas que buscan mundos imaginarios, el método preferido consiste en empezar con imágenes de paisajes reales, y trabajar con superposición de capas. De esta forma, transforman el paisaje real en imaginario pero manteniendo inherentes las características orgánicas del paisaje original. Esta es la razón por la que los paisajes son percibidos como más realistas en comparación con los que son creados únicamente por medios digitales. Incluso películas basadas totalmente en mundos imaginarios usan esta técnica; por ejemplo, en AVATAR. James Cameron declaró que la grabación de AVATAR está compuesta por un 40 por ciento de elementos y localizaciones reales[1].
En mi trabajo empleo un acercamiento similar, tratando de conservar el “realismo” del sonido, el componente orgánico y físico del material sonoro. Para conseguir esto, opto por utilizar una fuente de sonido acústica a la que más tarde añado procesos electrónicos controlados por un intérprete, los cuales se mantienen simples y con una relación de control uno a uno por parte del intérprete.
Hugo Morales Murguía[2], en una conversación reciente[3], me subrayó el riesgo de confiar en los últimos avances de procesamiento de sonido para mejorar las piezas musicales. Como él explica, la tecnología avanza a pasos agigantados, lo que ahora encontramos interesante o complejo sobre procesamientos electrónicos por ordenador, puede ser bastante simple y plano en cinco años. Manteniendo la electrónica limitada a procesos simples, la calidad de la música no recaerá en la complejidad de los algoritmos utilizados con el ordenador, sino en la creatividad del compositor para sacar lo mejor y aprovechar al máximo la esencia de los procesamientos de sonido utilizados. En este caso, la habilidad de componer y ordenar los sonidos en el tiempo tiene una mayor importancia que los procesamientos en sí, realzando las habilidades del compositor por encima de las del técnico, profundizando en las nuevas posibilidades que cada proceso electrónico nos ofrece, más que estar continuamente intentando expandir y complicar ese número de posibilidades.
Causa y efecto
Hoy en día, algunas piezas musicales requieren habilidades por parte de los intérpretes que no están relacionadas con el lenguaje idiomático de sus instrumentos. Estas piezas alejan al intérprete de sus fortalezas, y los empujan a situaciones que podrían estar realizadas por cualquier otra persona sin tener tan alto grado de especialización en un instrumento.
En los instrumentos clásicos tradicionales, cuando el intérprete quiere cambiar el sonido que está produciendo mientras toca, puede generar una respuesta física inmediata que empuje el sonido producido hacia el sonido que están buscando. El sonido de los instrumentos tradicionales está directamente relacionado con el input físico de los intérpretes, aunque es necesario un largo periodo de estudio para aprender a controlarlo y sacar el mejor provecho de ello.
En el artículo de Jeff Pressing Cybernetic Issues in Interactive Performance Systems, se presenta este gráfico para explicar la relación tradicional entre intérprete e instrumento.
Cuando se expande este mecanismo tradicional en los nuevos instrumentos extendidos, la electrónica se convierte en otro parámetro más del instrumento del cual el intérprete también está en control total.
De esta forma es posible conseguir un compromiso total del intérprete cuando interpreta la pieza, ya que es necesario alcanzar un nivel alto de control de las sutilezas de los procesos electrónicos que está manejando,
Frank Baldé me hablaba[4], de cómo Michel Waiswisz y él empezaron a pensar sobre “The Hands” , un nuevo dispositivo musical que desarrollaron en 1984 y que utiliza datos de sensores que convierte en información MIDI. En esta conversación, me explicó que su objetivo no era la parte visual de la interpretación de este instrumento, aunque piensa que fue importante para potenciar el aspecto performativo y atraer a un nuevo público, su objetivo real era transmitir la frescura de la toma de decisiones en directo sobre el escenario, la energía y el aspecto orgánico del intérprete reflejado en los sonidos producidos.
Michel Waiswisz (1949-2008) y Frank Baldé (1956- ) centraron su carrera en la electrónica en vivo. Desarrollaron muchos instrumentos con los cuales podían producir sonidos electrónicos a través de la manipulación física. Waiswisz se sentía preocupado por la sensación de decepción que le provocaba el escuchar los nuevos dispositivos musicales que perdían el alto grado de controlabilidad por parte del intérprete.
“La reciente introducción de la tecnología de los sintetizadores digitales comerciales, con sus dispositivos de entrada de una sola posible edición, ha disminuido de alguna manera la controlabilidad en vivo general que existía con los antiguos dispositivos analógicos que mantenían la relación un knob - una función.” (Michel Waiswisz, 1985)
De hecho, tanto Frank como Michel, junto a otros compositores e intérpretes holandeses, empezaron el instituto STEIM, centrado en impulsar la fisicalidad en el intérprete de música electrónica. STEIM no fue el único centro durante aquel tiempo en fomentar esa iniciativa. IRCAM también apareció para contribuir con nuevos avances en el campo de sistemas musicales interactivos por ordenador, aunque IRCAM se centró más en el análisis del sonido en vivo para controlar los procesos electrónicos, que en el control de éstos con los movimientos físicos del intérprete.
Al igual que estas instituciones, algunos compositores también han resaltado la necesidad de mantener la energía del intérprete en el escenario y en la música:
“[...] y esta energía, esta voluntad de interpretar y llevar a cabo esta intención era para mí, el punto de partida para trabajar con esos gestos e intentar concebir tecnología, patches o un concepto para una pieza que me permitiera esa misma energía. El principio no era tanto sobre teatro o arte performativo, como sobre la energía y expresión pura de los músicos” (Alexander Schubert, en una entrevista con Zubin Kanga)[5]
Estas declaraciones de Alexander Schubert enlazan muy bien con el aspecto visual de los instrumentos extendidos. Podríamos decir que aunque la parte visual de los movimientos para controlar la electrónica puede usarse para ensalzar la interpretación en vivo, la meta de la relación uno a uno entre intérprete y electrónica es el mundo sonoro resultante, no tanto la parte visual, que es consecuencia de ello.
Aspectos performativos (visuales)
Aunque el foco en el control físico de la electrónica está relacionada con la producción de un sonido orgánico, de ese control físico se derivan aspectos visuales a tener en cuenta. Los procesos electrónicos están controlados en vivo por un esfuerzo físico y requieren de un compromiso total del intérprete con el mundo sonoro que está creando. Devolviendo la responsabilidad de la interpretación en vivo al intérprete es posible conseguir su compromiso total durante toda la pieza. Tal compromiso, que es necesario para la correcta interpretación de la pieza, también ensalza la interpretación en vivo, ya que el público ve un esfuerzo real y comprometido en el escenario. La provocación de estas situaciones intentan diferenciar estas interpretaciones de aquellas en las cuales los movimientos y el compromiso del intérprete no influye directamente en el sonido o el resultado musical, ya que solo suceden con un propósito visual.
Por ejemplo, consideremos una interpretación en la cual todo lo que el intérprete hace es pulsar dramáticamente un botón el cual hace que un sonido empiece o acabe. Aquí tendríamos dos opciones: hacer que los movimientos del intérprete no influyan en el sonido o que sí lo haga directamente. En el primer caso, los movimientos expresivos o concentración no estarían en relación con la producción del sonido; si lo único que hace el intérprete para activar el sonido es pulsar un botón On/Off, no importaría cómo lo hiciera. En el segundo caso, si el botón requiere de una específica forma de pulsarlo, entre un número de diferentes formas que crearían sonidos diferentes, el compromiso del intérprete y la precisión de éste es algo real y necesario.
Además, usando sensores, el compositor pide al intérprete establecer nuevos movimientos. Esto significa que el compositor necesita pensar sobre qué tipo de impacto visual tendrán estos movimientos en la interpretación, y la organización de estos en el tiempo, de una forma similar a lo que haría un coreógrafo. La importancia del papel que tiene que adoptar el compositor como autor (auteur), tomando decisiones de la puesta en escena de la interpretación de la pieza está siendo reconocida poco a poco hoy en día, como demuestra el New Discipline Manifesto de Jennifer Walsh.[6]
Alexander Schubert, me relató[7] que cuando empezó a trabajar con sensores venía del campo de la improvisación, por lo que buscaba traer la fisicalidad de la improvisación libre en el trabajo con la electrónica a través de los sensores. Él mapeaba los datos de los sensores de una forma muy específica que requería unos gestos precisos para activar los procesos, por lo que el intérprete tenía que seguir una coreografía llena de movimientos expresivos para hacer que los sensores funcionaran. Alexander cuenta cómo los límites entre componer movimientos físicos o sonidos cada vez era más difusa cuando decidía cómo iban a actuar los sensores en la pieza musical.
Proceso compositivo
Como ya he mencionado, la elección de los instrumentos extendidos como forma de utilizar los sistemas electrónicos interactivos conlleva unas decisiones estéticas que afectarán al proceso de composición. A continuación presentaré los que han sido más relevantes para mi trabajo como compositor, y hablaré de ellos desde mi experiencia. Al final de esta sección presentaré mi proceso de trabajo cuando compongo para instrumentos electrónicos.
Cómo el proceso de construcción y composición se influyen mutuamente
Cuando pensamos en los instrumentos extendidos, la construcción del instrumento es parte del proceso compositivo, al igual que la composición de la pieza musical en sí. Sin embargo, aún siendo los dos lo mismo de importantes para el proceso de creación, tienen una influencia muy distinta sobre la pieza final.
Una parte importante de los procesos es asegurar que el instrumento funciona correctamente. Esto incluye un amplio rango de acciones que consisten en la construcción física (adición de sensores al instrumento), programación (cómo interpretar los datos emitidos por los sensores), y la decisión sobre qué procesos sonoros serán los controlados por el intérpretes con dichos sensores.
Es esencial tener al intérprete presente durante el proceso, ya que es necesario que compruebe frecuentemente el instrumento durante los ensayos para así integrar la extensión del instrumento en un lenguaje lo más idiomático posible para el intérprete, al igual que para explorar nuevas posibilidades del instrumento que puedan surgir durante los ensayos.
Para referirme a estos aspectos de la composición suelo emplear el término “distorsión física”. El término deriva del alto contenido de manipulación física y comprobación física necesaria para trabajar y desarrollar el instrumento. Durante la construcción de las extensiones del instrumento, estoy siempre abierto al nuevo material que pueda surgir, tanto sonoro, gestual, o visual. Al producirse tanta comprobación necesaria entre el intérprete, compositor e instrumento, hay un alto grado de “ensayo y error”, lo cual puede generar nuevas ideas con las que experimentar, las cuales no estuvieron planeadas al principio del proceso.
Complementariamente a esto, hay un proceso mucho más abstracto, el cuál se centra en la organización del material sonoro y los movimientos en la linea temporal de la pieza. Esta toma de decisiones está más relacionada con la composición de una estructura musical, la cual genera el discurso musical basado en ideas musicales puras o extra musicales. Para referirme a esta parte del proceso compositivo utilizo el término “purificación”, ya que se trata de elegir y organizar el nuevo material. Este material generado durante los ensayos y comprobaciones tiene que ser organizado en relación con la idea compositiva original, para evitar así crear una obra incoherente.
Durante todo el proceso compositivo, creo que el trabajo del compositor es encontrar un balance entre la “distorsión física” y la “purificación”. En mis propios proyectos esto significa estar abierto a nuevas ideas o material musical que pueda surgir en los ensayos con el instrumento, pero centrándome en utilizarlo para reforzar la idea y forma o estructura musical, no solo como presentación de un catálogo de posibilidades del instrumento.
La estructura musical influenciada por la elección de presentar el instrumento
Uno de los elementos de mis obras que tratan con instrumentos extendidos, así como instrumentos activados o aumentados, es revelar gradualmente las posibilidades del instrumento mientras se va desarrollando la pieza. Esto tiene como objetivo despertar en el público la conciencia del material producido por el nuevo instrumento. Como ya he experimentado en mis piezas, esto genera una curiosidad en el público respecto a lo que está pasando en el escenario, funcionando como un incentivo para atraer su atención sobre el material sonoro o musical presentado.
Sin embargo, no podemos asumir que este método de acercamiento sobre la estructura de la pieza esté únicamente basado en el público. Presentar el material musical y las posibilidades de éste antes de desarrollarlo ha sido una manera común de organizar las composiciones musicales en la tradición musical. Este método también se aplica aquí, tanto en el material sonoro, o en el mismo instrumento, como una forma de presentar el instrumento extendido antes de desarrollar material complejo con él, beneficiando así un buen discurso musical.
Como Hugo Morales me refirió durante nuestra conversación, esta forma de presentar las posibilidades del instrumento se hace también por razones prácticas, ya que puede ser útil cuando se empieza a ensayar la pieza con intérpretes que no están familiarizados con el instrumento extendido. De esta forma, los intérpretes empiezan leyendo y comprendiendo la notación y funciones del instrumento mientras van avanzando en la lectura de la pieza. Cuando todo el material es presentado y asimilado por el intérprete le es más fácil seguir leyendo e interpretando partes en las que las técnicas son combinadas y desarrolladas.
La importancia del intérprete en el proceso colaborativo
Como ya he mencionado previamente, el intérprete tiene una influencia vital en el proceso de construcción del instrumento, y por tanto, en el de la construcción de la obra musical.
Una de las principales contribuciones del intérprete a la pieza es cómo trae la fisicalidad al proceso sonoro. Controlando los parámetros del proceso con sus movimientos, el mundo sonoro de la pieza se aleja de un sonido artificial hacia un sonido de un comportamiento orgánico. Por supuesto, el control de los procesos electrónicos por parte del intérprete no será nunca tan preciso como podría ser una automatización digital de éstos. Sin embargo, desde mi punto de vista, es precisamente en estas imperfecciones creadas por el control humano donde descansa ese comportamiento orgánico buscado en el sonido. El enriquecimiento es producido por esa manipulación humana del proceso electrónico que lo aleja del mundo sonoro de los sonidos automatizados por ordenador.
Por otra parte, se pueden crear más matices en el sonido si el instrumento se construye de acuerdo a la comodidad del intérprete, lo que le permitiría a éste tener más libertad de movimiento. La posibilidad de moverse con cierta libertad, permitirá al intérprete ajustar el sonido dependiendo de las diferentes situaciones que pueda encontrar en la interpretación en vivo, y le provee de espacio para su propia expresión personal en cada ejecución, haciendo cada interpretación única y personal.
El proceso compositivo tiene algún grado de colaboración implícita, ya que la presencia del intérprete en muchos de los pasos de la composición así como en la premiere crea un vínculo especial entre la pieza final y el intérprete que la estrenó y estuvo en el proceso de composición de la misma. El desarrollo del instrumento está altamente influenciado por el feedback dado por dicho intérprete. La pieza puede ser ejecutada por otros intérpretes pero la relación entre el instrumento e intérprete no llegará al mismo nivel de afinidad.
Riccardo Marogna[8], (compositor e improvisador italiano establecido en La Haya, activo en muchos proyectos tocando un amplio rango de instrumentos de lengüeta), me habló de cómo el papel del compositor se está fusionando poco a poco con el del intérprete o técnico. La investigación de Riccardo Marogna se centra en el desarrollo de un lenguaje improvisativo en un escenario electroacústico, donde la manipulación de la electrónica y los sonidos acústicos se combinan integrándose en un gesto sonoro continuo. Riccardo tiene el convencimiento de que los instrumentos extendidos están empujando a que los diferentes papeles de compositor-intérprete-técnico se combinen en un sólo músico que interpreta su propia música y que construye sus propios instrumentos o extensiones de éstos.
Mi opinión, no obstante, es que la separación de papeles y la posibilidad de establecer colaboraciones entre compositores e intérpretes puede beneficiar a la pieza musical, ya que aúna la experiencia del compositor como generador y organizador de ideas y sonidos en el tiempo, con la especialización del intérprete en interpretar y entender el instrumento que será extendido. Además, el compositor puede tener una perspectiva de la pieza diferente, más objetiva, ya que se encuentra escuchando y viendo la interpretación desde la perspectiva de la audiencia, sin estar involucrado en su interpretación, lo que beneficia una visión global de la misma, siendo éste el responsable de la idea y del proceso de toma de decisiones en el proceso compositivo.
Notas
- ^ The Official AVATAR Community “Where Did the Filming of AVATAR Take Place?” Accessed April 11, 2018
- ^ Compositor, sonologista, y artista sonoro mexicano - http://www.hugomorales.org/
- ^ Conversación mantenida en el Real Conservatorio de La Haya, en el año 2018.
- ^ Conversación mantenida en el instituto STEIM en 2017, como parte de un taller sobre nuevos dispositivos MIDI.
- ^ Zubin Kanga, and Alexander Schubert, Flaws in the Body and How We Work with Them: An Interview with Composer Alexander Schubert, Contemporary Music Review, 2016, Vol.35, pp. 535-553.
- ^ Jennifer Walshe, The New Discipline: a compositional manifesto, Roscommon, January 2016, commissioned by Borealis.
- ^ Conversación mantenida durante una masterclass que formaba parte del festival Mixtur 2018 (Barcelona).
- ^ Entrevista que se mantuvo en el Stockhausen Studio del Real Conservatorio de La Haya en 2018.
A excepción del contenido de terceros y de que se indique lo contrario, éste artículo se encuentra bajo una Licencia Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Licencia.