El artículo 50 de la AI Act

Continuando con nuestra serie de artículos sobre la legislación sobre Inteligencia Artificial hoy le dedicamos un apartado especial al artículo 50 de la AI Act.

El artículo 50 del AI Act es el artículo que responde a una pregunta muy simple: ¿cuándo tengo que decir claramente que hay IA de por medio? Y la respuesta es: mucho más a menudo de lo que podríamos pensar.

El punto de partida es la idea de transparencia: las personas tienen derecho a saber si están interactuando con un sistema de IA en lugar de con un humano, o si el contenido que están viendo ha sido generado o manipulado por IA.

El artículo 50 transforma esa idea en obligaciones jurídicas concretas para proveedores y empresas que despliegan IA.

Este artículo regula los deepfakes (cuando la IA por vídeo, audio o imagen presenta un contenido que pretende ser una persona/objeto/evento/etc que parezca ser extraído del mundo real con fin de hacer pensar a la persona que lo está consumiendo que eso es en efecto verdadero) de tal manera que tienen que ser claramente etiquetados de manera que no sean engañosos para el consumidor.

Hay casos especialmente sensibles, como cuando los eventos presentados puedan formar una impresión de realidad o sean formadores de opinión sobre información en materias públicas al mismo tiempo que mientras que haya una responsabilidad editorial y alguien que asuma la autoría y el hecho de ser un deepfake con fines artísticos, satíricos o ficcionales pueden considerarse excepciones a la norma.

En el caso de empresas, es importante introducir en la relación contractual el uso de la IA generativa y su extensión, explicar como se gestionará la autoría y derechos sobre los resultados y que garantías hay de no vulnerar derechos de terceros en la medida de lo razonable.

Bajando a lo práctico, la regulación de IA en el día a día de una agencia de medios:

¿Y en el día a día, en mi agencia, en mi negocio, cómo me afecta?

Para empezar, piensa en los contenidos que ya generas con IA: copys, claims, titulares, guiones de vídeo, imágenes, locuciones sintéticas, vídeos, chatbots… Cada vez que una pieza salga, tendrás que preguntarte: ¿el público necesita saber que aquí hay IA? ¿Este contenido podría confundir a alguien sobre si lo que ve es real o es una recreación? El famoso artículo 50, exige transparencia y, en ciertos casos, etiquetado claro de contenidos generados o manipulados por IA, especialmente si parecen reales (deepfakes) o tratan temas de interés público. ¿Tienes ya un criterio interno para decidir qué se etiqueta, cómo y dónde?

El segundo tema es la segmentación de audiencias y el perfilado. Las agencias trabajan con datos propios, datos de clientes y datos que ofrecen las grandes plataformas. Aquí mandan el RGPD y el DSA: qué datos puedes usar, con qué base legal, hasta qué punto puedes combinar fuentes, y dónde está la línea roja del targeting sensible (salud, política, religión…) o de menores. Si estás construyendo audiencias lookalike, atribuyendo conversiones con modelos avanzados o usando IA para puntuar leads, en realidad estás haciendo tratamientos de datos personales con impacto directo en personas reales. ¿Tienes claro qué explicarías a un usuario si te preguntara “por qué estoy viendo este anuncio”? Lo más posible es que sí. La mayoría de plataformas que usamos en nuestro día a día ya tienen en cuenta esta normativa a la hora de trabajar para que sea cómodo y legal.

La regulación también aplica a procesos internos de la agencia. Si usas IA para selección de personal, filtrar CVs, priorizar candidatos o evaluar rendimiento, te acercas al terreno de los sistemas de alto riesgo del AI Act, donde se exige supervisión humana, análisis de sesgos, documentación y evaluaciones de impacto.

Por último, no hay que olvidar el papel de los contratos: introducir cláusulas sobre uso de IA y derechos de autor en los acuerdos con clientes. Es mejor explicitar desde el principio si se va a usar IA generativa en procesos que tengan outputs creativos, quién es titular de los derechos sobre los outputs, qué garantías ofrece la agencia en materia de originalidad y respeto de derechos de terceros, y cómo se gestionará el etiquetado de contenido cuando sea necesario.

En el día a día lo importante es saber: ¿Qué estoy haciendo con IA? ¿Qué herramientas estoy usando? ¿Qué garantías aporto a mis stakeholders? ¿Y qué valor? Una IA con garantías legales permite usarla con tranquilidad y legitimidad para portar auténtico valor de forma eficiente.

¿Qué sucederá en los próximos años?

Ahora que ya conocemos la situación actual, debemos ser consciente de lo que viene en los próximos años. Entre 2026 y 2027 la regulación de IA en la UE dejará de ser “lo que viene” y se convierte en operativa diaria.

Por un lado, llega la aplicación completa de las obligaciones para sistemas de alto riesgo. A partir del 2 de agosto de 2026, los proveedores y usuarios de estas soluciones (por ejemplo, IA para seleccionar personal, asignar créditos o decidir acceso a servicios esenciales) deberán cumplir de lleno con requisitos de gestión de riesgos, calidad de datos, supervisión humana, documentación y registro sistemático de logs.

En paralelo, el etiquetado de contenidos generados por IA se convierte en un estándar casi universal. Desde el 2 de agosto de 2026, las obligaciones de transparencia del artículo 50 empiezan a aplicarse de forma plena y, sobre ellas, la Comisión está montando un Código de Prácticas específico sobre contenido generado por IA.  

No todo, sin embargo, está cerrado. En 2025 la Comisión retiró la propuesta de AI Liability Directive, que buscaba armonizar la responsabilidad civil por daños causados por sistemas de IA. Eso deja un hueco: el AI Act dice cómo debe ser una IA “legal”, pero la respuesta a “¿quién paga cuando algo sale mal?” sigue dependiendo del derecho nacional (responsabilidad por productos, culpa, seguros…).

Parte del reto 2026–2027 será ver si los estándares, códigos de práctica, herramientas automatizadas de cumplimiento y el apoyo de administraciones consiguen que la regulación sea asumible…  Tendremos que hacer un esfuerzo colectivo para adaptarnos a la nueva regulación y no sólo no morir si no que apoyarnos en ella para brillar todavía más en el intento.

Artículos relacionados