Segunda entrega de esta breve serie de artículos sobre sonología, realizados por Julián Ávila y Amparo Civera-Sáez.

Julián Ávila y Amparo Civera
8 marzo 2024
Share Button

En el artículo anterior se propuso la idea de considerar el nacimiento de la música electroacústica, no solo como el nacimiento de un nuevo género musical, sino como la primera gran disrupción de la tecnología en el hecho sonoro. Esto es, la primera vez que la tecnología aplicada al arte de los sonidos toma protagonismo para, aliándose con la música, avanzar hacia nuevos territorios estéticos. En 1950 comienza un periodo al que, como ya citamos en el anterior artículo, Edgar Varèse se referiría en 1963 como “[…] En el umbral de la Música, Ciencia y Arte trabajan mano a mano” [1]. Es decir, en el umbral de los avances estéticos musicales, las nuevas tecnologías son las que empujan al arte hacia otros procesos, otros resultados y otras estéticas o al menos tienen el potencial de hacerlo.

Llegados a este punto hay que llevar cuidado para no atribuir cualidades mágicas a la tecnología. Los avances tecnológicos recientes no son más que las circunstancias tecnológicas de la vida y con ellas conviven en planos diferentes otras circunstancias. No obstante, si aceptamos que las circunstancias se caracterizan por un uso y avance masivo de la tecnología y que las obras artísticas de un determinado momento no pueden ser, Kandisnky dixit, más que hijas de su tiempo –porque así son los tiempos en los que viven sus creadores–, podemos afirmar que las obras de hoy utilizarán los avances de hoy para su realización. No hay que tomar esta afirmación de forma excluyente, puesto que la tecnología no es el único vínculo con las circunstancias actuales y podemos pensar en obras que no utilizan estas tecnologías pero que sí establecen otros vínculos con el mundo en el que se han desarrollado. Así mismo, podemos también pensar en obras cuyo uso tecnológico tiene como fin reproducir o repetir el pasado y, por lo tanto, no tienen inquietud innovadora.

En este contexto, y a partir de la segunda mitad del siglo XX, se han ido desarrollando diferentes estudios de grado y postgrado relacionados con las tecnologías aplicadas a la música. En la actualidad coexisten varias denominaciones en uso, entre ellas las más comunes son: Tecnología de la Música, Música Electroacústica, Sonología o Computer Music. También existen combinaciones de varios términos como por ejemplo Sound and Music Computing. No obstante, por su definición y características se podrían agrupar en dos grandes grupos. El primero de ellos tiene como objetivo la creación artística con medios tecnológicos. Sus resultados toman forma en el arte sonoro, las instalaciones sonoras y la música electroacústica. Históricamente se ha denominado Sonología por ser el primer centro inscrito en un conservatorio dedicado a esta labor. Por otra parte, los grados académicos que centran su actividad en desarrollar la tecnología o software para realizar patentes que puedan ser aplicadas en el campo sonoro y musical, recogidos dentro del término Computer Music por ser el CCRMA[2] de Stanford una de las primeras instituciones en adoptar este enfoque.

De la denominación de Sonología

A pesar de que la historia de su nacimiento es anterior la denominación de los estudios de Sonología surge en el año 1967 en el Royal Conservatory in The Hague. Fueron los laboratorios ELA de la empresa Philips, establecidos en Eindhoven en 1948 los responsables de dar los primeros pasos en la relación entre la música y las nuevas tecnologías. Los laboratorios ELA conformaban la división electroacústica de la empresa, es decir, el lugar en el que experimentar con las tecnologías aplicadas al sonido. Cabe recordad que muchos de los desarrollos técnicos son anteriores, por ejemplo, en el año 1925 con patentes de altavoces para radios, etc.

Es en 1954 cuando Philips patenta el primer altavoz coaxial que permite un rango de fecuencias amplio (50 Hz. a 18KHz.), lo que podemos considerar uno de los primeros altavoces full-range de la historia. La idea de mostrar las capacidades de este nuevo altavoz y otras tecnologías es lo que empujó a la empresa Philips a encargar a Edgar Varèse, Xenakis y a Le Corbusier el Pabellón Philips[3] de la exposición universal de Bruselas del año 1958, considerada una de las primeras obras intermedia de la historia. La división electroacústica de los laboratorios ELA se encargó de la producción de la música y las aplicaciones técnicas del proyecto con cientos de altavoces implicados para realizar los movimientos del sonido en el espacio.

Los estudios ELA pasaron a la Universidad de Utrech con el nombre de STEM en 1959, desde allí, el programa de formación de los laboratorios STEM pasó al Real Conservatorio de la Haya con el nombre de “Institute of Sonology[4]. Es esta última denominación la que se ha mantenido hasta nuestros días y en ella tuvo mucha importancia la figura de Gottfried Michael Koening, quien mostró gran interés en trasladar los estudios STEM al conservatorio. Por ello, tal y como se avanzó uno párrafos atrás, es en el año 1967 cuando nace el término Sonología aplicado a la relación entre desarrollo tecnológico y música o arte sonoro.

Sobre los estudios de Sonología de La Haya

Los estudios superiores de Sonología en España derivan de los estudios de Sonología de la Haya. Países Bajos fue el primer país en impartir la especialidad y, por lo tanto, dar respuesta a la unión entre arte musical o sonoro y tecnología en el año 1967. Los estudios de Sonología siguen impartiéndose hoy allí, y tanto su contenido como su definición se encuentran recogidos en los planes de estudios del Royal Conservatory in The Hague.

En la última actualización del Curriculum Hadbook, Bachelord of Music, Sonology para el curso 2023/24, publicado por el Real Conservatorio de La Haya –equivalente a nuestros planes de estudios de las diferentes comunidades autónomas–, el objeto del grado en Sonología es:

The Institute of Sonology adopts a clear stance in terms of the use of technology in music: technology is not merely an adjunct to the existing music practice, but should be used primarily to explore new forms of composition and public presentation of music and art. At the same time, Sonology is not bound by any stylistic dogmas. Sonology is neither an artform nor a genre. It is the name that in 1967 was given to an institute dealing with the production, education and research in the field of electronic music. It is an institute that from the very start has been an umbrella for electronic music produced in studios, music based on field recordings, computer-assisted (instrumental) composition and experimental forms of digital sound synthesis. […]

The subjects include studio composition, writing and using computer applications, research into sound, the relationship between sound and space, digital signal processing, algorithmic composition, the theory of electronic music, live electronic music, improvisation and sound art. […]Si analizamos el texto se pude observar que las palabras que más se repiten, aparte de music y Sonology, son: electronic, composition y sound. Destaca la importancia de la frase resaltada en negrita que define los fundamentos de los estudios de Sonología: “desde el principio [los estudios de Sonología] han sido un paraguas para la música electroacústica[5] producida en estudios, música creada a partir de grabaciones de campo, composición (instrumental) asistida por ordenador y formas experimentales de síntesis digital.”[6]

Por lo tanto, podemos definir la especialidad de Sonología como: los estudios que nacen de la conjunción entre tecnología y música derivada de la música electroacústica producida en estudios, que englobaría también la música creada a partir de grabaciones de campo, composición (instrumental) asistida por ordenador y formas experimentales de síntesis digital. Asimismo incluye materias o áreas como composición en estudio, creación y uso de apps de sonido, las relaciones entre sonido y espacio, procesamiento digital de la señal de audio, composición algorítmica, teoría de la música electroacústica, música electroacústica en tiempo real, improvisación y arte sonoro.

Como especialidad artística la sonología capacita a músicos expertos en utilizar los medios tecnológicos de su tiempo para la creación, interpretación o investigación en música. En este contexto el concepto de música debe ser entendido como música de concierto y cualquier otra manifestación ligada al arte sonoro, como instalaciones sonoras, etc.

Los estudios de Sonología todavía no se han extendido de forma generalizada a otros países, pero sí hay algunos ejemplos en los que se ha conservado la idea de la unión entre creación sonora y musical con el uso de nuevas tecnologías. Algunos ejemplos son el master de dos cursos en Audio Comunication and Sonology de la Technische Universität Berlin en colaboración con el Instituto de Sonología de la Haya o los estudios de grado de Sonología en España.

Sobre los estudios en Computer Music

En el cruce entre arte sonoro y tecnología además de los estudios de Sonología existe otra denominación similar que se desarrolla de forma mayoritaria en los Estados Unidos a la que nos referimos desde su nacimiento como Computer Music. Esta nueva forma de concebir el cruce entre tecnología y música está ligado a la sección de investigación Bell Telephone Laboratories de New Jersey. A finales de los años 50 Max Mathews y John Pierce estudian la forma de producir sonidos desde un ordenador para testear la calidad de los diferentes sistemas telefónicos. En 1957 Max Mathews concluye la programación de Music-I el primer programa informático programado en los Bell Labs para producir sonidos de forma digital. El primer Music-I fue un programa muy rudimentario que fue mejorando en las sucesivas versiones: Music-N. Max Mathews es consciente de forma inmediata del potencial del medio y en 1963 publica en Science el artículo The Digital Computer as a Musical Instrument[7].

Tanto el artículo de Max Mathews como la versión de Music-IV llegaron a manos de John Chowing. En aquel momento los softwares informáticos se guardaban en tarjetas perforadas y un software relativamente simple ocupaba una o varias cajas de tarjetas perforadas. John Chowing consiguió con ayuda de David Poole instalar Music-IV en el Stanford Artificial Intelligence Laboratory. Alrededor de 1964 el software estaba en funcionamiento y se empieza a investigar alrededor de las capacidades para crear sonidos con medios digitales. Sería en estos AI Labs de Stanford donde algunos años después (1971) John Chowing desarrollaría el algoritmo de la síntesis FM que patentó y vendió a la empresa Yamaha, dando como resultado nuevos instrumentos de síntesis digital como el DX-7. Con el dinero de la patente la universidad de Stanford y John Chowing fundaron el CCRMA (Center for Computer Research and Music Acoustics).

El propósito principal del CCRMA queda muy bien definida en las siguientes líneas:

CCRMA originated in the 1960s, when composer John Chowning and other pioneers latched on to both the equipment and the people at Stanford’s budding Artificial Intelligence Laboratory. There, working mostly at night and on weekends (“so as not to abuse our hosts,” as Chowning would explain), the team of musicians, engineers, psychologists, and computer scientists labored to apply the computer in an entirely novel way: to produce and manipulate sound and, more importantly to them, the sonic basis of new musical compositions. In the process, they helped to develop a new academic field, to invent the technologies that would underlie this field, and to transpose these inventions into broad commercial application, reaching consumers in every corner of the planet.[8]

Se puede afirmar sin lugar a dudas que la idea principal fue inventar las tecnologías aplicadas al sonido con fin comercializable y que, además, tuviesen el potencial de crear las bases de una nueva forma de composición musical. Aquí se puede apreciar muy bien la diferencia básica entre la definición de Computer Music y Sonology.

El CCRMA no será el único foco de estudio acerca de las capacidades del audio digital derivados de los Bell Labs. Otros centros de estas características surgirán en los EEUU siempre ligados a diferentes universidades. Es el caso de CARL (Computer Audio Research Laboratory) que funda Richard Moore en 1979 en la Universidad de California en San diego o el Massachusetts Intitute of Technology (MIT) que tendría un laboratorio dedicado a investigaciones similares hacia 1973. También Charles Dodge establecerá por un tiempo investigaciones alrededor del audio digital en la Universidad de Columbia en los Watson Laboratories.

Todos estos ejemplos explican cómo la tradición histórica de los estudios denominados “Computer Music” nacen de la investigación –primero en los Bell Labs y después en un conjunto de universidades– en el terreno de las posibilidades y desarrollos de los sistemas de producción sonora mediante ordenadores. Por lo tanto su fin primero es la investigación en el campo del audio digital para producir nuevos softwares e innovaciones patentables y utilizar posteriormente para la creación musical. Esto no quiere decir que no hubiera compositores y composiciones creadas en estos centros. Es destacable el caso de los compositores James Tenney y Jean Claude Risset que serían invitados a trabajar y componer piezas en los estudios Bell[9]. Con la creación del IRCAM en 1973 Jean Claude Risset se trasladará a París. Tras unos pocos años abandona el centro por no estar de acuerdo con su forma de entender la investigación y su relación con la creación:

[…] So research at IRCAM was often subordinated to the demands of a composer for a specific piece. And those demands were not always reasonable and easy to fulfill. There was a critical mass for musical research ­–there were enough people and equipment, and it was the official purpose of IRCAM­– but the idea of long-term research was not appreciated. […] [10]

Similar al IRCAM será el centro Zentrum für Kunst und Medien (ZKM) de Karlsruhe fundado en 1988. Podemos ver cómo a pesar de tener una vinculación directa con centros de investigación de EEUU, los dos centros europeos creados posteriormente –IRCAM y ZKM–, tienen como prioridad la creación y, de hecho, son centros que no están inscritos en ninguna universidad, esto es, son independientes. Podemos decir que, aunque buscaron el modelo de Computer Music desarrollado en EEUU, el pensamiento es una mezcla entre la idea de Sonología y la de Computer Music. No obstante, hay que reconocer el gran esfuerzo y resultados en investigación de ambos centros. Es posible que estos centros, más modernos y no vinculados a otras instituciones superiores, tengan un poco de centro de producción musical, un poco de investigación y un poco de enseñanza, pues todas estas áreas ligadas a la tecnología musical existen en ambos casos.

Conclusiones

Coexisten dos claras perspectivas entorno al desarrollo de las nuevas tecnologías aplicadas a la música. Una de ellas es históricamente Europea y se desarrolla de forma destacable en la Haya (Sonología). La otra corriente es de tradición Norte Americana (Computer Music). Ambas nacieron en el seno de grandes empresas tecnológicas que tenían divisiones y laboratorios experimentales de las cuales se desligaron las tecnologías aplicadas al sonido para seguir un camino en Europa en los estudios de Sonología y en EEUU en varias universidades siendo la más importante el CCRMA de Stanford.

La idea principal de los estudios en Computer Music es la investigación en torno a los medios de producción de audio, esto es, investigaciones orientadas a la producción de softwares, algoritmos y otros desarrollos de tecnología aplicada a la música o al sonido. Los diferentes centros de investigación siempre han estado ligados a las universidades y sus investigadores principales han tenido un perfil de científicos, ingenieros o músicos –con grandes conocimientos de programación–. Los estudios en Computer Music tratan de desarrollar las herramientas que después se aplicarán en procesos creativos musicales e innovar en el desarrollo de dichas herramientas informáticas para crear nuevas formas de expresión musical.

Por otra parte, y pese a tener un nacimiento muy similar a Computer Music, la Sonología pronto se define como una especialidad en la que se utilizan las herramientas tecnológicas para crear música o arte sonoro. Es decir, centra sus esfuerzos en la aplicación de las tecnologías de forma práctica y artística. No desarrolla tecnología, sino que utiliza las existentes y más actuales para empujar los límites de la composición o creación sonora de su momento.

Esta diferenciación puede estar debida al propio contexto: por una parte una disciplina (Computer Music) ligada a la universidad –institución dedicada a la investigación­– y la otra (Sonología) inscrita finalmente en el Real Conservatorio de la Haya dedicada a la creación musical. También existen centros independientes, como pueda ser ZKM o IRCAM que por no estar inscritos en un entorno educativo universitario o de conservatorio, tienen la flexibilidad de aunar la investigación y la innovación con la creación y la producción de conciertos y eventos tecnológicos.

En este contexto, y con los términos bien definidos desde hace más de 50 años, España introdujo la especialidad de Sonología en sus planes de estudio de Enseñanzas Artísticas Superiores de Música[11] en 2010, introducidos posteriormente en los conservatorios de Madrid, Barcelona y Valencia. El análisis de esta introducción de la especialidad de Sonología en España 50 años después de su nacimiento será el objeto del siguiente artículo de esta serie.

Notas

  1. ^ Edgar Varèse et al., “The Electronic Music Studio in Brussels,” Memo from Belgium ; No.39 (Brussels: Information Services, Ministry of Foreign Affairs and External Trade, 1963).
  2. ^ Center for Computer Research in Music and Acoustics.
  3. ^ Susana Moreno Soriano, Arquitectura y música en el siglo XX (Madrid: Fundación Caja de Arquitectos, 2008).
  4. ^ Kees Tazelaar, On the Threshold of Beauty: Philips and the Origins of Electronic Music in the Netherlands 1925 - 1965 (Rotterdam: V2_Publ, 2013).
  5. ^ La locución inglesa “electronic music” la traducimos en este contexto como “música electroacústica” y no como “música electrónica”. En el contexto de los estudios de Sonología en la Haya, se entiende como música creada con medios electrónicos y digitales sin entrar en ninguna apreciación de estilos. En cambio en España la música electrónica sigue estando vinculada a la utilización de estos medios en estilos de música electrónica de baile (IDM, EDM, etc.) mientras que el término electroacústica está vinculada a la música creada con medios electrónicos y digitales en el contexto de la música clásica y contemporánea, esto es, la música de tradición occidental que se estudia en Europa en los conservatorios. Sería conveniente contar con un término que definiera la música creada con medios electrónicos y digitales sin añadidos de estilo.
  6. ^ Traducción de los autores.
  7. ^ Max Vernon Mathews, “The Digital Computer as a Musical Instrument,” Science 142, no. 3592 (1963): 553–57, https://doi.org/10.1126/science.142.3592.553.
  8. ^ Andrew J. Nelson, The Sound of Innovation (Stanford: The MIT Press, 2015), https://doi.org/10.7551/mitpress/10086.001.0001.
  9. ^ Jean Claude Risset, “An Introductory Catalogue of Computer Synthesized Sounds,” Perspectives of New Music, 1969, https://doi.org/10.2307/832154.
  10. ^ Joel Chadabe, Electric Sound: The Past and Promise of Electronic Music (Upper Saddle River, NJ: Prentice Hall, 1997), p. 119.
  11. ^ Real Decreto 631/2010, de 14 de mayo, por el que se regula el contenido básico de las enseñanzas artísticas superiores de Grado en Música establecidas en la Ley Orgánica 2/2006, de 3 de mayo, de Educación.

A excepción del contenido de terceros y de que se indique lo contrario, éste artículo se encuentra bajo una Licencia Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Licencia.

Share Button