Home Industria Musical Regalías en la era de la IA: pagar a los artistas por...

Regalías en la era de la IA: pagar a los artistas por canciones generadas con IA

0

Por Dorien Herremans , profesora asociada de la Universidad de Tecnología y Diseño de Singapur y directora del Laboratorio de Audio, Música e IA (AMAAI).

La industria musical basada en IA está en auge, lo que plantea interrogantes sobre cómo proteger y remunerar a los artistas cuyo trabajo se utiliza para entrenar modelos de IA generativa. ¿Están las respuestas en los propios modelos?

La «Suite Illiac» se considera la primera pieza musical compuesta por una computadora electrónica. Lejaren Hiller, profesor y compositor de la Universidad de Illinois en Urbana-Champaign, programó minuciosamente la computadora pionera de la institución, la Illiac I, para generar cuatro movimientos basados ​​en probabilidades algorítmicas. Esto ocurrió en 1956.

Hoy en día, con el auge de la potencia informática y la tecnología de IA generativa (genAI), es posible generar música en el navegador web simplemente mediante indicaciones de texto, en cuestión de segundos. Los nuevos modelos genAI, como Suno y Udio, pueden crear piezas impresionantes, con melodías, armonías y ritmos pulidos, así como timbres profesionalmente perfeccionados. Sin embargo, a diferencia del Illiac I, estos modelos se entrenan con música preexistente compuesta por manos humanas. Por lo tanto, esta nueva capacidad para generar música comercialmente viable nos obliga a replantear cómo la industria protege y remunera a los artistas.

Con el auge de estos sistemas genAI surge una pregunta fundamental: ¿cómo tratamos a los artistas de manera justa?

En el Laboratorio de Audio, Música e IA (AMAAI) de la Universidad de Tecnología y Diseño de Singapur, exploramos si los nuevos modelos de IA diseñados para detectar similitudes entre piezas musicales podrían revelar nuevas formas de distribuir las regalías. En un panorama musical cada vez más dominado por la IA, esta investigación podría ayudar a transformar la remuneración de los creadores.

¿Cómo aprendemos música? – La red neuronal original

Nuestro cerebro, compuesto por aproximadamente 86 mil millones de neuronas conectadas por vías llamadas sinapsis, es la inspiración para los modelos de IA. A lo largo de nuestra vida, estamos expuestos a decenas de miles de canciones. Nuestro cerebro aprende implícitamente patrones y expectativas mediante la formación de nuevas conexiones sinápticas y el fortalecimiento de las existentes.

En la ciencia cognitiva, este proceso se conoce como aprendizaje estadístico. Cuanto más nos exponemos a ciertos patrones, como el intervalo de quinta justa (do-sol) común en la música occidental, más fuertes se vuelven esas conexiones. Esto nos permite formar expectativas sobre la música. Por ejemplo, cuando escuchamos una nota disonante que no pertenece a una tonalidad, contradice nuestras expectativas aprendidas, lo que nos lleva a percibirla como incorrecta o fuera de lugar.

Nuestra comprensión de estas redes complejas sigue siendo limitada

Nuestro cerebro no almacena piezas musicales completas como una grabación. En cambio, construye vías neuronales que codifican patrones y estructuras musicales. Estas vías nos permiten reconocer y anticipar melodías y armonías. Cuando tarareamos o componemos una canción, no recordamos una grabación específica, sino que construimos música dinámicamente a partir de patrones aprendidos.

Cómo se crea la música con IA

Las redes de aprendizaje profundo se basan en una idea similar. Las redes neuronales artificiales se inspiran en la biología humana, en particular en la teoría del conexionismo, que postula que el conocimiento surge del fortalecimiento de las conexiones (sinapsis) entre las unidades de procesamiento del cerebro (neuronas).

Durante su entrenamiento, las redes neuronales artificiales se alimentan con miles de piezas musicales. No las almacenan, sino que aprenden la relación estadística entre sus elementos musicales, de forma similar a como nuestro cerebro aprende patrones mediante la exposición.

Tras el entrenamiento, lo que queda no es una base de datos de canciones, sino un conjunto de parámetros de peso que codifican las vías estadísticas necesarias para dar forma a la estructura musical. Estos pesos pueden interpretarse como la fuerza de las sinapsis cerebrales. Al generar música, la red realiza inferencias. Dada una entrada —a menudo una instrucción de texto—, toma muestras de la distribución estadística aprendida para producir nuevas secuencias.

Sin embargo, estos conjuntos de ponderaciones pueden contener miles de millones de parámetros, lo que los convierte en una caja negra (un sistema de IA cuyo funcionamiento interno es opaco) difícil de interpretar. Para comprender mejor estas redes, los investigadores han desarrollado nuevas técnicas como SHAP (Explicaciones Aditivas de SHapley) y LRP (Propagación de Relevancia por Capas), pero nuestra comprensión de estas complejas redes sigue siendo limitada.

Generador de música ética con IA a partir de texto

Esta falta de comprensión alimenta otro problema: la falta de transparencia en los sistemas comerciales. En el Laboratorio AMAAI, creamos Mustango, un modelo controlable de texto a música de código abierto similar a MusicGen de Meta. Pero a diferencia del modelo de Meta, Mustango se entrenó exclusivamente con datos de Creative Commons.

Si una modelo fue entrenada con música de Taylor Swift y artistas menos conocidos, ¿deberían todos los artistas recibir la misma compensación?

Esta transparencia no es la norma en este campo. Modelos comerciales como Suno y Udio no han revelado sus conjuntos de datos de entrenamiento ni los detalles de sus modelos. Esto plantea importantes preguntas sobre cómo debemos abordar los derechos de autor para facilitar el desarrollo ético de la IA en la industria musical. Esta cuestión se ilustra en casos legales recientes como el de la Asociación de la Industria Discográfica de Estados Unidos (RIAA) contra Udio y Suno (junio de 2024) .

Detector de entrenamiento musical con IA

Debido a que las redes neuronales, a diferencia de las bases de datos, no almacenan canciones de entrenamiento sino que internalizan patrones estadísticos, es difícil detectar si se usaron piezas musicales específicas para entrenar un modelo y, como las empresas de IA pueden eliminar fácilmente sus datos de entrenamiento, las auditorías son casi imposibles.

En el Laboratorio AMAAI, investigamos cómo podemos ayudar a verificar si los modelos se han entrenado con canciones específicas. Para ello, exploramos nuevas técnicas como los ataques de inferencia de membresía y el análisis de perturbaciones. En este último, por ejemplo, realizamos pequeños cambios en una canción y observamos cómo responde el modelo. Si el modelo reacciona con fuerza a pequeños cambios, indica que la IA estuvo expuesta a esa canción durante su entrenamiento.

[Seguir Leyendo]
https://www.wipo.int/

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

WhatsApp us
Salir de la versión móvil