¿Cómo nos comunicamos con la IA para generar música?
Escribir de música es como bailar de arquitectura . (Frank Zappa)
EL MURO. SOBRE LA IMAGEN Y EL SONIDO
Imaginemos que necesitamos crear un prompt, para que Midjourney “imagine” la casa de esta fotografía.
Ahora imaginemos que tenemos que explicar, el tema Highway to Hell de AC/DC. ¿Podríamos explicar con palabras una tema musical? NO. Podemos explicar un suceso, un sentimiento, un paisaje o la contabilidad de una empresa, pero no podemos explicar una música.
¿Qué prompt escribimos para que una IA dedicada a la música nos entienda?
De esto hablo cuando hablo del muro, nos faltan palabras, y lo grave que esta falta nos dificulta la comprensión, la imaginación y la transmisión de ideas sonoras . Pero eso ya pasaba antes de la irrupción de la IA. Experimentamos mejor la vida si tenemos palabras para describirla, el lenguaje articula la forma de mirar y sin lenguaje vemos menos. En el caso de la música , sin palabras "escuchamos menos".
INICIOS DE LA GENERACIÓN DE MÚSICA CON IA
La música al ser un lenguaje codificado y estándar, fue uno de los primeros campos donde se trabajó con la IA.
En los años 50, Lejaren Hiller y Leonard Isaacson, de la Universidad de Illinois, crearon un programa informático para crear música de forma automática, con él crearon la Illiac Suite. Aquí puedes escuchar uno de los movimientos
Supongo que has pinchado en el link y lo estás escuchando, mientras sigues leyendo. Esta es la primera composición que se realizó con un ordenador. El tipo de composición es muy de la época, parece que lo hubiera creado un Stravinsky evolucionado.
¿Suena bien, verdad?, sencillo, son personas interpretando. En aquella época la IA primitiva generaba la partitura y los humanos la interpretaban. Más tarde aparecieron los sintetizadores y los samplers. Y con esto muchos investigadores trabajaron en la línea de generar composiciones con ordenador.
Y ahora van saliendo aplicaciones y más aplicaciones con mucha IA y otras con no tanta IA... pero todas venden IA.
MI EXPERIENCIA CON LA GENERACIÓN DE MÚSICA CON IA
La primera plataforma con la que trabajamos fue AIVA, “Creé” mi primera música con AIVA en 2019. Fue un poco frustante, no había muchas opciones y el resultado era pobre. Ahora empezamos a ver soluciones más ágiles y creativas.
Podéis escuchar la evolución a AIVA, desde la primera Composición que generé el 12 sept 2019 Piano solo, hasta una hecha hace cuatro días.
AIVA ha ido mejorando sus capacidad de generar, pero sobre todo ha mejorado la interface con el usuario. Para mí este es el gran escollo en la generación musical con IA, ¿cómo nos comunicamos con la IA para generar música?
Pero antes quiero abordar un tema principal sobre la creación audiovisual aplicada al audiovisual.
¿REALMENTE SABEMOS LO QUE QUEREMOS ?
Normalmente NO sabemos lo que queremos cuando buscamos un música para unirla con una imagen, buscamos una sensación, sabemos dónde queremos llegar, la impresión que queremos transmitir, pero no conocemos el camino a este lugar. Para esto están los compositores de bandas sonoras.
La mejor forma es tener referencias; ejemplos de temas musicales ( música cómo...) o experiencias audiovisuales ( una sensación cómo las Walkirias en Apocalypse Now). Al fondo lo que queremos copiar son sensaciones, no temas musicales.
Aquí aparece una pregunta ¿podrá algún día la IA crear un estilo nuevo y aceptado como bueno por los humanos? Copiar podrá, pero crear algo completamente nuevo, ¿un estilo musical?
¿CÓMO SALTA LA IA EL MURO DEL LENGUAJE?
Pues los programadores hacen lo que pueden, de momento copian el sistema de la música de archivo, que es una aproximación burda pero más o menos funciona.
Mood ( alegre, elegante, épico...), género ( pop, clásico, rock, latino...), tema (documental, drama, comedia, horror...), Instrumentos ( piano, guitarra, voz, sintetizador...)
De momento los sistemas más completos parametrizan la música siguiendo estos items... aunque no todos llegan tanto la detalle. Aun así es un sistema muy pobre por que la base de la música es el tiempo, la evolución los cambios, la intensidad y la dirección.
MÚSICA DE REFERENCIA PARA INSPIRARSE
En sonido siempre nos hemos apañado trabajando con referencias. Quiero algo parecido a este tema, o a este fx…
Relacionarnos con referencias musicales es un parche, sería ideal tener la capacidad de “explicar” un tema musical con palabras y que lo pudiéramos imaginar.
Actualmente AIVA a mejorado la interface añadiendo un módulo que permite subir un fichero de audio para "inspirarse" para crear nueva música, pero de momento los resultados no son satisfactorios, de todas formas es un muy buen camino, para trabajar con la música generativa.
Puse el tema Highway to Hell a AIVA y el resultado que más se pareció fue esto:
Puede parecer una broma, pero esto es lo que lo devuelve actualmente... todo cambiará, pero no he encontrado una aplicación que sea el "Midjourney" de la música. No dudo que saldrá antes del verano algo muchísimo mejor, pero todavía no lo he encontrado.
He visto varias entradas en redes sociales, que esplican lo rápido que se hace todo, incluída la música, cuando te pones te das cuenta que no... que falta.
MI EXPERIENCIA HASTA LA FECHA.
De momento ( mayo del 2023) no he encontrado la máquina de hits que todos soñamos. La música con IA no tiene la capacidad de imitar a un humano componiendo... pero todo llegará. Mientras ya podemos utilizarla como "colchón" en muchos videos de formación o similar.
Mi sensación es que los programadores se han fijado demasiado en el lenguaje musical y no tanto en la forma de onda, aunque incomprensible para el humano intuyo que el deep learning puede sacar resultados interesantes. El problema es que las imperfecciones visuales, son texturas que nos dan vida... y las imperfecciones sonoras crearían un batiburrillo de arritmias desentonadas que convertirían la experiencia musical en algo muy desagrabable, pero todo llegará.
Y ¿LOS DERECHOS?
Ya tendremos tiempo de hablar de los derechos sobre las músicas creadas con IA más adelante.