back to top

Meta rompe con el consenso europeo sobre la IA y se niega a firmar el Código de Prácticas de la UE

Miami, 24 de julio de 2025 – Meta, la compañía matriz de Facebook e Instagram, ha decidido no adherirse al Código de Prácticas de la Unión Europea para modelos de inteligencia artificial de propósito general (IAPG), marcando una clara ruptura con el resto de gigantes tecnológicos como Microsoft, OpenAI, Anthropic y Mistral AI, que sí han mostrado su compromiso con el marco.

La negativa fue anunciada públicamente por Joel Kaplan, vicepresidente de Asuntos Globales de Meta, a través de una publicación en LinkedIn en la que expresó su preocupación por la dirección que está tomando Europa en materia de regulación de IA. Kaplan argumentó que el Código introduce incertidumbres legales y exigencias que exceden el alcance de la propia Ley de IA, lo que podría poner freno al desarrollo tecnológico y empresarial del continente.

“Compartimos la preocupación de estas empresas de que esta extralimitación frenará el desarrollo y la implementación de modelos de IA de vanguardia en Europa y frenará a las empresas europeas que buscan desarrollar negocios basados en ellos.” afirma Kaplan en su cuenta de LinkedIn.

A principios de mes, más de 40 grandes empresas europeas también solicitaron formalmente a la Comisión Europea una pausa en la implementación del marco legal, alegando que la regulación actual podría convertirse en un obstáculo para la innovación. Por contraste, compañías como Microsoft, OpenAI, Anthropic y Mistral han respaldado el Código, destacando su voluntad de colaborar con las autoridades europeas en la creación de un entorno seguro, transparente y responsable para la inteligencia artificial.

El Código de Prácticas GPAI, aunque de carácter voluntario, establece principios clave como la documentación técnica de los sistemas, el respeto a los derechos de autor y la evaluación proactiva de riesgos en el desarrollo de modelos de inteligencia artificial de propósito general.

Si bien no tiene valor legal por sí mismo, sirve como guía para facilitar el cumplimiento del AI Act, cuyas primeras obligaciones para los proveedores de este tipo de modelos comenzarán a aplicarse a partir de agosto de 2025. A partir de entonces, el incumplimiento de la normativa vinculante del AI Act podrá conllevar sanciones de hasta 35 millones de euros o el 7 % de la facturación global, dependiendo de la gravedad de la infracción.

Con esta decisión, Meta se distancia de la hoja de ruta adoptada por la mayoría de sus competidores y añade tensión al diálogo entre las grandes tecnológicas y los reguladores europeos, justo cuando la Ley de IA entra en una fase crítica de implementación.

[Fuentes]
https://www.digitalmusicnews.com
https://techcrunch.com/
https://www.linkedin.com

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Descubre

anuncios

spot_imgspot_img

lo más reciente

Los Grammy 2026 apuestan por los nuevos artistas

La Academia de la Grabación confirma que los ocho candidatos a la categoría actuarán en la gala, que se celebrará el 1 de febrero...

Latin Grammy 2025: cinco cambios urgentes que la Academia debería considerar 

Miami, 26 de septiembre de 2025 -  Los Latin Grammy se preparan para su edición número 26 el próximo 13 de noviembre en Las Vegas, con Bad Bunny como gran protagonista de...

Chucho Valdés hace gala de su maestría en ‘Tiny Desk’ de NPR

El pianista, compositor y arreglista cubano ganador del Grammy lanzará un nuevo álbum, Cuba & Beyond, el 30 de agosto. Chucho Valdés ofreció una cautivadora actuación en...

¿Cuál es la canción número uno en India? La IFPI busca responder a esa pregunta con nuevas listas oficiales 

Miami, 24 de agosto de 2025 - En un país de más de 1.300 millones de personas, la respuesta a una pregunta tan simple...

Suno: todas las compañías de IA utilizan obras protegidas sin autorización

La industria musical está en el epicentro de una revolución tecnológica impulsada por la inteligencia artificial (IA). Mikey Shulman, CEO de Suno, una plataforma de...