Benn Jordan Crea Algoritmo para Detectar Música de IA

Benn Jordan ha conseguido crear un algoritmo que puede detectar cuándo se ha creado música con tecnología de IA . Hasta ahora, tiene una precisión del 100 por ciento.

En un nuevo video de YouTube, Jordan explica cómo el uso del poder de los datos de canciones faltantes de la compresión de archivos puede atrapar e identificar a los artistas que descargan música generada por IA de sitios como Suno y Udio, y luego la suben a plataformas de transmisión como Spotify para obtener regalías.

Hasta ahora, el modelo de IA de Jordan ha podido detectar con un 100 por ciento de precisión si una canción ha sido generada por IA en Suno. Para el experimento, extrajo 560 de las principales canciones generadas por Suno y las selecciones del personal, y afirma que de esas 560, solo 11 no estaban siendo monetizadas haciéndose pasar por un artista humano en una plataforma de transmisión digital.

Para explicarlo mejor, Jordan explica cómo la mayoría de los humanos no pueden distinguir entre audio comprimido y sin pérdida: “En última instancia, nuestros cerebros solo recogen ondas de presión y luego las pasan a través de una inhibición latente y luego solo registran datos que nos son útiles, y la compresión de archivos audiovisuales ha logrado convertir en un arte quirúrgico la explotación de ese flujo de trabajo de procesamiento de información distintivamente humano”, afirma en el video.

“A principios de este año, me di cuenta de que muy poco de lo que las empresas de IA generativa extraían de Internet sin consentimiento no estaba comprimido ni tenía pérdidas; extraían cosas como YouTube, Spotify y SoundCloud para que sus conjuntos de datos generaran música de IA.

“Una red neuronal de este tipo, incluso si es una red neuronal convolucional, es una caja negra; no se le puede decir que note estas limitaciones de manera funcional. Incluso si se pudiera, no se pueden describir técnicamente las diferencias que se pueden escuchar en los archivos comprimidos; simplemente se dice «suena con fallas» o «suena un poco extraño», y esa es información inútil en el aprendizaje automático”.

Jordan continúa: “Mi punto aquí es que entre el 75 y el 90 por ciento de la información que los humanos no se dan cuenta que falta cuando escuchan audio comprimido podría usarse potencialmente como huella digital para identificar si algo fue creado con IA generativa, e incluso potencialmente identificar el contenido que fue extraído del conjunto de datos”.

[Seguir leyendo]
https://musictech.com/

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Descubre

anuncios

spot_imgspot_img

lo más reciente

Hackers exigen $8 millones de rescate a Ticketmaster por datos filtrados

Ticketmaster y su empresa matriz Live Nation se enfrentan actualmente a una importante crisis de ciberseguridad. El grupo de hackers ShinyHunters ha llevado a cabo lo...

Pedrito Lama invita a Bailar con el Lanzamiento de su Video Oficial, «Bailando»

El talentoso salsero dominicano, Pedrito Lama, nos sorprende una vez más con el emocionante lanzamiento del video oficial de su sencillo "Bailando". Esta pegajosa...

Instagram ahora permite agregar canciones de Spotify a listas, siguiendo el modelo de TikTok

Instagram ha lanzado una integración con Spotify , que permite a los usuarios guardar las canciones que descubren en la plataforma de redes sociales directamente en sus cuentas de...

A 4 años de su partida, Tito Rojas vive en un emotivo homenaje audiovisual creado con IA

Miami, 19 de diciembre de 2024 – El legado del icónico salsero puertorriqueño Tito Rojas, "El Gallo Salsero", vuelve a cobrar vida gracias a un...

¿Otro golpe al mundo NFT? Our Happy Company de John Legend apaga su proyecto estrella

Menos de tres años después de conseguir una ronda de financiación inicial de 7,5 millones de dólares, Our Happy Company de John Legend ha dejado de...