Benn Jordan Crea Algoritmo para Detectar Música de IA

Benn Jordan ha conseguido crear un algoritmo que puede detectar cuándo se ha creado música con tecnología de IA . Hasta ahora, tiene una precisión del 100 por ciento.

En un nuevo video de YouTube, Jordan explica cómo el uso del poder de los datos de canciones faltantes de la compresión de archivos puede atrapar e identificar a los artistas que descargan música generada por IA de sitios como Suno y Udio, y luego la suben a plataformas de transmisión como Spotify para obtener regalías.

Hasta ahora, el modelo de IA de Jordan ha podido detectar con un 100 por ciento de precisión si una canción ha sido generada por IA en Suno. Para el experimento, extrajo 560 de las principales canciones generadas por Suno y las selecciones del personal, y afirma que de esas 560, solo 11 no estaban siendo monetizadas haciéndose pasar por un artista humano en una plataforma de transmisión digital.

Para explicarlo mejor, Jordan explica cómo la mayoría de los humanos no pueden distinguir entre audio comprimido y sin pérdida: “En última instancia, nuestros cerebros solo recogen ondas de presión y luego las pasan a través de una inhibición latente y luego solo registran datos que nos son útiles, y la compresión de archivos audiovisuales ha logrado convertir en un arte quirúrgico la explotación de ese flujo de trabajo de procesamiento de información distintivamente humano”, afirma en el video.

“A principios de este año, me di cuenta de que muy poco de lo que las empresas de IA generativa extraían de Internet sin consentimiento no estaba comprimido ni tenía pérdidas; extraían cosas como YouTube, Spotify y SoundCloud para que sus conjuntos de datos generaran música de IA.

“Una red neuronal de este tipo, incluso si es una red neuronal convolucional, es una caja negra; no se le puede decir que note estas limitaciones de manera funcional. Incluso si se pudiera, no se pueden describir técnicamente las diferencias que se pueden escuchar en los archivos comprimidos; simplemente se dice «suena con fallas» o «suena un poco extraño», y esa es información inútil en el aprendizaje automático”.

Jordan continúa: “Mi punto aquí es que entre el 75 y el 90 por ciento de la información que los humanos no se dan cuenta que falta cuando escuchan audio comprimido podría usarse potencialmente como huella digital para identificar si algo fue creado con IA generativa, e incluso potencialmente identificar el contenido que fue extraído del conjunto de datos”.

[Seguir leyendo]
https://musictech.com/

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Descubre

62,2k Seguidores
Seguir

anuncios

spot_imgspot_img

lo más reciente

La Industria de la Música en 2024 – Transformación y Crecimiento Sostenido

12 de diciembre de 2024 – La industria musical global continúa mostrando resiliencia e innovación, consolidándose como un pilar de la economía creativa y cultural....

Victoria de Universal, Sony y Wagner Music por US $1Billón contra Cox Communications

La victoria de las grandes discográficas por 1.000 millones de dólares por infracción de derechos de autor contra Cox Communications ha sido anulada. Un tribunal...

Spotify responde a acusaciones legales de infracción de letras: «falsa y engañosa»

La  Asociación Nacional de Editores de Música (NMPA) envió una carta legal enérgica a Spotify en nombre de los miembros de la NMPA. La carta a Spotify incluía varias...

España, epicentro musical entre Latinoamérica y Europa

El sector musical en España está viviendo un momento de esplendor sin precedentes. La conexión del país con América Latina ha fortalecido su posición...

Yoskar Sarante y El Chaval de la Bachata se unen en una colaboración sin precedentes con el tema «Tres Veces»

Miami FL, 11 de abril de 2024.- (@MinayaPR) Yoskar Sarante y El Chaval de la Bachata se unen en una colaboración sin precedentes para el lanzamiento hoy del...