back to top

Regalías en la era de la IA: pagar a los artistas por canciones generadas con IA

Por Dorien Herremans , profesora asociada de la Universidad de Tecnología y Diseño de Singapur y directora del Laboratorio de Audio, Música e IA (AMAAI).

La industria musical basada en IA está en auge, lo que plantea interrogantes sobre cómo proteger y remunerar a los artistas cuyo trabajo se utiliza para entrenar modelos de IA generativa. ¿Están las respuestas en los propios modelos?

La «Suite Illiac» se considera la primera pieza musical compuesta por una computadora electrónica. Lejaren Hiller, profesor y compositor de la Universidad de Illinois en Urbana-Champaign, programó minuciosamente la computadora pionera de la institución, la Illiac I, para generar cuatro movimientos basados ​​en probabilidades algorítmicas. Esto ocurrió en 1956.

Hoy en día, con el auge de la potencia informática y la tecnología de IA generativa (genAI), es posible generar música en el navegador web simplemente mediante indicaciones de texto, en cuestión de segundos. Los nuevos modelos genAI, como Suno y Udio, pueden crear piezas impresionantes, con melodías, armonías y ritmos pulidos, así como timbres profesionalmente perfeccionados. Sin embargo, a diferencia del Illiac I, estos modelos se entrenan con música preexistente compuesta por manos humanas. Por lo tanto, esta nueva capacidad para generar música comercialmente viable nos obliga a replantear cómo la industria protege y remunera a los artistas.

Con el auge de estos sistemas genAI surge una pregunta fundamental: ¿cómo tratamos a los artistas de manera justa?

En el Laboratorio de Audio, Música e IA (AMAAI) de la Universidad de Tecnología y Diseño de Singapur, exploramos si los nuevos modelos de IA diseñados para detectar similitudes entre piezas musicales podrían revelar nuevas formas de distribuir las regalías. En un panorama musical cada vez más dominado por la IA, esta investigación podría ayudar a transformar la remuneración de los creadores.

¿Cómo aprendemos música? – La red neuronal original

Nuestro cerebro, compuesto por aproximadamente 86 mil millones de neuronas conectadas por vías llamadas sinapsis, es la inspiración para los modelos de IA. A lo largo de nuestra vida, estamos expuestos a decenas de miles de canciones. Nuestro cerebro aprende implícitamente patrones y expectativas mediante la formación de nuevas conexiones sinápticas y el fortalecimiento de las existentes.

En la ciencia cognitiva, este proceso se conoce como aprendizaje estadístico. Cuanto más nos exponemos a ciertos patrones, como el intervalo de quinta justa (do-sol) común en la música occidental, más fuertes se vuelven esas conexiones. Esto nos permite formar expectativas sobre la música. Por ejemplo, cuando escuchamos una nota disonante que no pertenece a una tonalidad, contradice nuestras expectativas aprendidas, lo que nos lleva a percibirla como incorrecta o fuera de lugar.

Nuestra comprensión de estas redes complejas sigue siendo limitada

Nuestro cerebro no almacena piezas musicales completas como una grabación. En cambio, construye vías neuronales que codifican patrones y estructuras musicales. Estas vías nos permiten reconocer y anticipar melodías y armonías. Cuando tarareamos o componemos una canción, no recordamos una grabación específica, sino que construimos música dinámicamente a partir de patrones aprendidos.

Cómo se crea la música con IA

Las redes de aprendizaje profundo se basan en una idea similar. Las redes neuronales artificiales se inspiran en la biología humana, en particular en la teoría del conexionismo, que postula que el conocimiento surge del fortalecimiento de las conexiones (sinapsis) entre las unidades de procesamiento del cerebro (neuronas).

Durante su entrenamiento, las redes neuronales artificiales se alimentan con miles de piezas musicales. No las almacenan, sino que aprenden la relación estadística entre sus elementos musicales, de forma similar a como nuestro cerebro aprende patrones mediante la exposición.

Tras el entrenamiento, lo que queda no es una base de datos de canciones, sino un conjunto de parámetros de peso que codifican las vías estadísticas necesarias para dar forma a la estructura musical. Estos pesos pueden interpretarse como la fuerza de las sinapsis cerebrales. Al generar música, la red realiza inferencias. Dada una entrada —a menudo una instrucción de texto—, toma muestras de la distribución estadística aprendida para producir nuevas secuencias.

Sin embargo, estos conjuntos de ponderaciones pueden contener miles de millones de parámetros, lo que los convierte en una caja negra (un sistema de IA cuyo funcionamiento interno es opaco) difícil de interpretar. Para comprender mejor estas redes, los investigadores han desarrollado nuevas técnicas como SHAP (Explicaciones Aditivas de SHapley) y LRP (Propagación de Relevancia por Capas), pero nuestra comprensión de estas complejas redes sigue siendo limitada.

Generador de música ética con IA a partir de texto

Esta falta de comprensión alimenta otro problema: la falta de transparencia en los sistemas comerciales. En el Laboratorio AMAAI, creamos Mustango, un modelo controlable de texto a música de código abierto similar a MusicGen de Meta. Pero a diferencia del modelo de Meta, Mustango se entrenó exclusivamente con datos de Creative Commons.

Si una modelo fue entrenada con música de Taylor Swift y artistas menos conocidos, ¿deberían todos los artistas recibir la misma compensación?

Esta transparencia no es la norma en este campo. Modelos comerciales como Suno y Udio no han revelado sus conjuntos de datos de entrenamiento ni los detalles de sus modelos. Esto plantea importantes preguntas sobre cómo debemos abordar los derechos de autor para facilitar el desarrollo ético de la IA en la industria musical. Esta cuestión se ilustra en casos legales recientes como el de la Asociación de la Industria Discográfica de Estados Unidos (RIAA) contra Udio y Suno (junio de 2024) .

Detector de entrenamiento musical con IA

Debido a que las redes neuronales, a diferencia de las bases de datos, no almacenan canciones de entrenamiento sino que internalizan patrones estadísticos, es difícil detectar si se usaron piezas musicales específicas para entrenar un modelo y, como las empresas de IA pueden eliminar fácilmente sus datos de entrenamiento, las auditorías son casi imposibles.

En el Laboratorio AMAAI, investigamos cómo podemos ayudar a verificar si los modelos se han entrenado con canciones específicas. Para ello, exploramos nuevas técnicas como los ataques de inferencia de membresía y el análisis de perturbaciones. En este último, por ejemplo, realizamos pequeños cambios en una canción y observamos cómo responde el modelo. Si el modelo reacciona con fuerza a pequeños cambios, indica que la IA estuvo expuesta a esa canción durante su entrenamiento.

[Seguir Leyendo]
https://www.wipo.int/

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Descubre

62,2k Seguidores
Seguir

anuncios

spot_imgspot_img

lo más reciente

Rey King presenta su segundo volumen «BLKTINO VOL. 2»

El artista urbano Rey King vuelve a la carga, esta vez con el álbum “BLKTINO VOL.2”, compuesto por 11 canciones y una mezcla de ritmos latinos...

La puerta de oro de Colombia recibe el lanzamiento oficial de los MonitorLATINO Music Awards 2025

La reconocida plataforma de monitoreo musical monitorLATINO realizó su rueda de prensa oficial y cóctel VIP de lanzamiento en Barranquilla para anunciar todos los...

¿Se puede ganar dinero con covers en YouTube?

La mayoría de los artistas y bandas comienzan tocando canciones de otros artistas. Es una excelente manera de introducirse en el negocio, desarrollar sus...

Omar Chaparro: Premios Platino son un escaparate del talento hispano

A Omar Chaparro la pandemia le arrebató la posibilidad de conducir los Premios Platino en 2020; sin nada que lo detenga este año, el...

UTA despide a Bob Vylan tras discurso en Glastonbury; EE. UU. le revoca la visa

Las consecuencias de la actuación del dúo británico de rap-punk y grime Bob Vylan en el Festival de Glastonbury 2025 han crecido rápidamente. La...