La inteligencia artificial avanza a toda velocidad, y con ella también lo hacen las leyes que buscan proteger a las personas y evitar abusos. La Unión Europea ha sido una de las regiones más activas en este sentido, impulsando nuevas reglas que buscan garantizar un desarrollo seguro, transparente y responsable de esta tecnología.
Pero no todas las grandes empresas tecnológicas están de acuerdo con el enfoque europeo. Una de ellas es Meta, la compañía dueña de Facebook, Instagram y WhatsApp, que acaba de anunciar que no firmará el nuevo Código de Buenas Prácticas para el uso de la inteligencia artificial propuesto por la Unión Europea.
¿Qué significa esto? ¿Es algo obligatorio? ¿Qué consecuencias puede tener? ¿Y por qué Meta ha decidido no sumarse a este acuerdo? En este artículo te lo explicamos todo, de forma clara y sin tecnicismos.
¿Qué es el Código de Buenas Prácticas?
El Código de Buenas Prácticas de la Unión Europea es una iniciativa voluntaria que acompaña a la nueva ley europea sobre inteligencia artificial, conocida como AI Act. Su objetivo es ofrecer una serie de recomendaciones y compromisos para que las empresas que desarrollan o usan IA lo hagan de forma responsable.
Este código incluye medidas sobre:
Transparencia: que se explique cómo funciona la IA.
Respeto a los derechos de autor: que no se usen contenidos sin permiso.
Seguridad y protección de datos: que los sistemas no pongan en riesgo la privacidad de las personas.
Control humano: que las decisiones importantes no dependan solo de máquinas.
Firmar este código no es obligatorio, pero se considera una forma de demostrar compromiso con el uso ético y legal de la inteligencia artificial. Además, puede facilitar el cumplimiento del AI Act y evitar inspecciones más duras por parte de las autoridades europeas.
¿Qué es el AI Act?
El AI Act es la primera ley europea que regula el uso de la inteligencia artificial. Entrará en vigor el 2 de agosto de 2025, y afectará especialmente a las empresas que desarrollan sistemas de IA de uso general, es decir, que sirven para muchos fines distintos.
Esta ley clasifica los sistemas de IA según su nivel de riesgo. Cuanto más impacto puedan tener en la vida de las personas, más estrictas serán las reglas. Algunas de las exigencias que incluye son:
Evaluar los posibles efectos negativos antes de lanzar un sistema de IA.
Asegurar que las decisiones puedan ser entendidas por los usuarios.
Proteger los derechos fundamentales de las personas.
¿Por qué Meta ha dicho que no?
Meta ha sido clara: no firmará el Código de Buenas Prácticas. La empresa, a través de su director de Asuntos Globales, Joel Kaplan, ha explicado que este código genera inseguridad jurídica y va más allá de lo que exige el propio reglamento europeo.
En otras palabras, Meta cree que este acuerdo voluntario podría limitar su capacidad de innovación y obligarla a cumplir reglas que no están en la ley oficial. Además, señala que otras 45 grandes empresas europeas, como Bosch, SAP o Airbus, comparten esa preocupación.
La decisión también muestra una diferencia de visión entre la Comisión Europea y algunas grandes tecnológicas. Mientras que la UE apuesta por un desarrollo de la IA con más control y responsabilidad, Meta considera que la regulación extra podría frenar el progreso.
¿Qué otras empresas sí lo firmarán?
Al contrario que Meta, hay otras compañías que sí han mostrado su intención de firmar el código. Entre ellas están nombres muy conocidos como:
Microsoft
OpenAI
Google DeepMind
Mistral
Estas empresas ven el código como una forma de adaptarse mejor a las normas europeas, evitar conflictos y mostrar que están comprometidas con un uso responsable de la IA.
De hecho, para algunas de ellas, el código podría convertirse en una ventaja competitiva, ya que podría darles más confianza por parte de los reguladores y del público.
¿Qué pasa si una empresa no firma el código?
Aunque el código sea voluntario, no firmarlo no exime a ninguna empresa de cumplir la ley. A partir del 2 de agosto de 2025, el AI Act será obligatorio, y todas las compañías que operen en la Unión Europea deberán seguirlo.
Si una empresa no respeta las normas, podría enfrentarse a sanciones muy serias. En el caso de las grandes tecnológicas, las multas pueden alcanzar el 7 % de su facturación global. En el caso de Meta, esto supondría cientos de millones de euros.
Además, no firmar el código puede hacer que las autoridades estén más pendientes de esas empresas, con posibles inspecciones más estrictas o menos margen de confianza.
¿Cómo te afecta esto a ti?
Aunque pueda parecer un tema técnico o lejano, esta decisión tiene un impacto directo en ti como usuario.
Las herramientas que usas todos los días, como redes sociales, apps, plataformas de video o servicios de mensajería, están basadas en inteligencia artificial. Estas IAs toman decisiones sobre qué ves, cómo te llega la información, qué anuncios recibes, qué contenidos se priorizan o qué límites se te imponen.
Si estas herramientas no siguen principios de transparencia, seguridad y respeto, pueden:
Manipular lo que piensas sin que te des cuenta.
Usar tus datos personales sin informarte.
Negarte servicios sin explicarte el motivo.
Discriminarte de forma automática por tu perfil.
Por eso, una regulación fuerte y clara es esencial, y también lo es que las empresas muestren su compromiso con esos principios, incluso si es a través de acuerdos voluntarios como este código.
¿Y qué puede pasar a partir de ahora?
La decisión de Meta ha generado mucho debate. Algunos ven en su postura un rechazo a las reglas europeas. Otros piensan que es una forma legítima de defender su modelo de innovación.
En cualquier caso, esto pone a prueba el modelo europeo. La Unión Europea ha apostado por ser líder en la regulación de la IA, y ahora deberá demostrar que puede hacerlo sin perder competitividad.
Por otro lado, muchas miradas están puestas en qué harán otras grandes empresas, y si este código voluntario acabará siendo una práctica estándar o algo que solo unos pocos decidan seguir.
Lo que está claro es que la inteligencia artificial seguirá avanzando, y con ella, la necesidad de asegurar que se use bien. Este tipo de decisiones marcarán el camino de cómo convivimos con estas tecnologías en los próximos años.
Conclusión
Meta ha decidido no firmar el Código de Buenas Prácticas sobre inteligencia artificial impulsado por la Unión Europea. Aunque este código es voluntario, su rechazo ha generado polémica porque muestra una visión diferente sobre cómo debe ser la relación entre innovación tecnológica y responsabilidad social.
Mientras tanto, otras empresas como Microsoft y OpenAI sí apoyan este acuerdo, buscando adaptarse mejor a la nueva ley europea que entra en vigor en agosto de 2025.
Para ti, como usuario, esta situación debe servir para recordar la importancia de que las tecnologías que usas cada día estén desarrolladas de forma ética, segura y transparente. Y para eso, contar con reglas claras y con empresas que las respeten, es más importante que nunca.