El futuro de la colaboración del álbum – VendeTodito

[ad_1]

Hace un año, comencé a trabajar en un álbum. Escribo melodías vocales y letras, mientras que mi compañero hace la composición. Los dos trabajamos en instrumentación y nos complementamos bien. La única parte extraña de la relación es … mi pareja no es humana.

Es IA.

La relación nació de la curiosidad. Los titulares impulsados ​​por el miedo habían estado dominando mi fuente de noticias durante algún tiempo … titulares como: AI tomará nuestros trabajos, nuestros datos y, finalmente, nuestras almas.

Los argumentos me dejaron maravillado. ¿Qué está pasando realmente con la IA? Me encontré con un artículo que relata cómo la IA ahora se usaba para componer música. Después de una rápida búsqueda en Google, descubrí que la creación de canciones era solo la punta del iceberg: AI también escribía poemas, editaba películas y sintetizaba arte … y pasaba la prueba de Turing.

Ansioso por aprender más, comencé a experimentar con todas las herramientas de creación de música de IA que podía tener en mis manos. Amper y Aiva para comenzar, y más tarde, IBM Watson y Google Magenta (hay muchos otros en la escena: AI Music, Jukedeck y Landr por nombrar algunos).

Mi proyecto secundario se convirtió rápidamente en un álbum completo ("I AM AI") junto con una serie de videos musicales de realidad virtual que exploran la tenue relación entre humanos y tecnología. En septiembre pasado, lancé el primer single completo que produje con Amper, Break Free que atrapó la atención, y la curiosidad, de la comunidad creativa más grande.

Muchos preguntaron: ¿te preocupa que AI sea más creativa que tú? No. En muchos sentidos, la IA me ayudó a ser más creativo, y mi rol se convirtió en algo más parecido a un editor o director. Di orientación a AI (en forma de datos para aprender o parámetros para la salida), y devuelve material en bruto, que luego edito y organizo para crear una canción cohesiva. También me permitió dedicar más tiempo a otros aspectos del proceso de creación, como las melodías vocales, las letras y los videos musicales. Sigue siendo creativo, solo diferente. Pero los tecnófobos se regocijan: AI aún no es un compañero perfecto.

No se sabe cómo será el futuro de nuestro mundo coevolutivo con la IA … pero soy optimista.

Dado que todavía hay mucho misterio en torno al proceso de colaboración con la IA, un desglose es útil. camino a la línea base de la conversación. Aquí están las principales plataformas que he usado y mis conclusiones de la colaboración con cada uno:

  1. Amper : cofundado por varios músicos, Amper se lanzó como una plataforma para componer partituras originales para producciones. Actualmente gratuito para el público, Amper tiene una interfaz de usuario simple que puede usar para modificar parámetros como BPM, instrumentación y estado de ánimo. ¡No hay necesidad de saber el código aquí!

Para llevar: Antes de trabajar con Amper, no podía reconocer los sonidos de diferentes instrumentos, ni tampoco creía que tuviera preferencias musicales particulares. Ahora, reconozco docenas de instrumentos y he perfeccionado un estilo creativo particular. Por ejemplo, tengo un gran gusto para mezclar sintetizadores electrónicos con piano y graves profundos, como se puede escuchar en Life Support a continuación, para el cual produje un video musical de 360 ​​VR.

  1. AIVA : Aiva es un algoritmo de aprendizaje profundo galardonado, y el primero en estar registrado en una sociedad de derechos de autor. Conocí a uno de los fundadores, Pierre Barreau, en Londres, y nos entusiasmó la oportunidad de combinar estilos de aprendizaje clásicos con instrumentación pop / synth. AIVA utiliza el aprendizaje profundo y el aprendizaje de refuerzo para analizar miles de piezas de música clásica en estilos específicos y componer nuevas partituras.

Para llevar: Mi primer tema con AIVA, Lovesick, se creó a partir del análisis de miles de piezas del período romántico tardío (principios y mediados de 1800.) El resultado es una pieza de piano al estilo Westworld que arreglé en una pista pop-funk con elementos de sintetizador electrónico. Colaborar con material fuente tan poco familiar fue increíblemente divertido porque obliga a pensar de manera novedosa. Al organizar la canción, realmente tuve que ignorar muchos de mis instintos de acondicionamiento estilo "pop".

  1. Watson Beat (IBM): Mientras Watson Beat no tiene un front-end, los excelentes ingenieros de IBM me dieron algunos tutoriales para ayudarme a comenzar. Sin embargo, para aquellos que tienen más confianza en el código, es un programa gratuito de código abierto que puede descargar en GitHub. A los pocos días, estaba navegando por el sistema, alimentándolo con los favoritos de antaño para producir docenas de vástagos de música con un toque estilístico (creo Mary Had a little Lamb hecho al estilo de un vals peruano? )

Para llevar: Estoy encantado de ver los resultados de mezclar varias entradas de datos con géneros inesperados, lo que también me hizo más consciente de las influencias subyacentes que rigen mis propias ideas creativas. Debido a que la salida es MIDI (mientras que Amper es un archivo WAV o MP3 terminado), el artista tiene total libertad sobre cómo se transponen las notas a la instrumentación. Encontré mi amor por los sintetizadores colocándolos en improbables estilos de música, y mi primera canción con Watson Beat probablemente sea lanzada este verano.

  1. Google Magenta : como Watson, Magenta es gratis y de código abierto en Github. Algunas herramientas tienen interfaces frontales fáciles (es decir, duetos de AI) y otras requieren un poco más de conocimiento de codificación de fondo. Lo bueno es el alcance y la cantidad de herramientas que Google ofrece en su arsenal. Probablemente el programa más robusto para programadores.

Para llevar: Con las herramientas de Magenta, no tienes que concentrarte únicamente en la composición, también puedes analizar el sonido. NSynth, por ejemplo, le permite combinar los sonidos de dos instrumentos diferentes (¡intente mezclar un gato con un arpa!) Google tiene algoritmos para estudiar el tono de sonido y la calidad vibratoria, que tiene muchas aplicaciones interesantes.

No es de sorprender que AI genere muchas preguntas sobre nuestra "especialidad" como humanos … pero tal vez nos estamos centrando en el argumento equivocado. Los humanos siempre evolucionan con la tecnología, y es lo que elegimos hacer con la IA lo que importa. Creo que esto es solo la punta del iceberg, y desbloqueará una creatividad que aún no podemos imaginar.

Para el entusiasta en ciernes que carece de formación musical formal, AI puede ser una herramienta atractiva, no solo para el aprendizaje, sino como un punto de entrada para la autoexpresión. Ahora cualquiera, en cualquier lugar, tiene la capacidad de crear música, y que el deseo y la capacidad de expresar es lo que nos hace humanos.

[ad_2]

VendeTodito