back to top

Benn Jordan Crea Algoritmo para Detectar Música de IA

Benn Jordan ha conseguido crear un algoritmo que puede detectar cuándo se ha creado música con tecnología de IA . Hasta ahora, tiene una precisión del 100 por ciento.

En un nuevo video de YouTube, Jordan explica cómo el uso del poder de los datos de canciones faltantes de la compresión de archivos puede atrapar e identificar a los artistas que descargan música generada por IA de sitios como Suno y Udio, y luego la suben a plataformas de transmisión como Spotify para obtener regalías.

Hasta ahora, el modelo de IA de Jordan ha podido detectar con un 100 por ciento de precisión si una canción ha sido generada por IA en Suno. Para el experimento, extrajo 560 de las principales canciones generadas por Suno y las selecciones del personal, y afirma que de esas 560, solo 11 no estaban siendo monetizadas haciéndose pasar por un artista humano en una plataforma de transmisión digital.

Para explicarlo mejor, Jordan explica cómo la mayoría de los humanos no pueden distinguir entre audio comprimido y sin pérdida: “En última instancia, nuestros cerebros solo recogen ondas de presión y luego las pasan a través de una inhibición latente y luego solo registran datos que nos son útiles, y la compresión de archivos audiovisuales ha logrado convertir en un arte quirúrgico la explotación de ese flujo de trabajo de procesamiento de información distintivamente humano”, afirma en el video.

“A principios de este año, me di cuenta de que muy poco de lo que las empresas de IA generativa extraían de Internet sin consentimiento no estaba comprimido ni tenía pérdidas; extraían cosas como YouTube, Spotify y SoundCloud para que sus conjuntos de datos generaran música de IA.

“Una red neuronal de este tipo, incluso si es una red neuronal convolucional, es una caja negra; no se le puede decir que note estas limitaciones de manera funcional. Incluso si se pudiera, no se pueden describir técnicamente las diferencias que se pueden escuchar en los archivos comprimidos; simplemente se dice “suena con fallas” o “suena un poco extraño”, y esa es información inútil en el aprendizaje automático”.

Jordan continúa: “Mi punto aquí es que entre el 75 y el 90 por ciento de la información que los humanos no se dan cuenta que falta cuando escuchan audio comprimido podría usarse potencialmente como huella digital para identificar si algo fue creado con IA generativa, e incluso potencialmente identificar el contenido que fue extraído del conjunto de datos”.

[Seguir leyendo]
https://musictech.com/

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Descubre

62,2k Seguidores
Seguir

anuncios

spot_imgspot_img

lo más reciente

UNIFI Music da un giro, ahora apuesta por la IA para gestionar artistas

Encontrar y retener a un representante eficaz es un obstáculo importante para muchos artistas emergentes. Ahora, UNIFI Music está construyendo una plataforma inteligente impulsada por IA...

Scarlet Sky deleita con su nuevo sencillo “Cuando me tocas”

Miami FL, 2 de mayo 2024.- (@MinayaPR) Scarlet Hernández, la talentosa cantante dominicana conocida como Scarlet Sky, presenta su segundo sencillo musical del 2024 bajo la...

Whitney Houston revive en una gira sinfónica gracias a la inteligencia artificial 

Miami, 18 de septiembre de 2025 - El legado de Whitney Houston volverá a escucharse en los escenarios gracias a una innovadora colaboración entre...

2024, Un año de esperanza para la sincronización musical: Soundstripe

Soundstripe , la plataforma de licencias musicales con sede en Nashville , ha publicado su  informe Trends in Sync 2024 , que reveló un aumento en los pagos...

Live Nation Urban: una red para mover cultura, no solo métricas

Miami, 31 de julio de 2025 - Live Nation Urban (LNU), la división especializada en experiencias culturales dentro del gigante del entretenimiento en vivo,...