Privacy, Data & Cybersecurity

Sanción pionera en Europa: la AEPD multa a un menor por la creación de un “deepfake” sexual con inteligencia artificial

La Agencia Española de Protección de Datos (AEPD) ha impuesto la primera sanción en Europa por la difusión de una imagen falsa de desnudo generada mediante inteligencia artificial. La multa —2.000 €, reducida a 1.200 por pronto pago— se impuso al creador de un deepfake que insertó el rostro de una persona en el cuerpo desnudo de otra sin consentimiento.

La AEPD tuvo conocimiento de los hechos a raíz de una reclamación presentada por una de las víctimas, tras la amplia difusión mediática de los llamados “deepfakes de Almendralejo”. La investigación confirmó que las imágenes se generaron y compartieron sin consentimiento, vulnerando el artículo 6.1 RGPD sobre la licitud del tratamiento de datos personales.

La Agencia recuerda que la imagen de una persona constituye un dato personal (art. 4.1 RGPD), y que su manipulación y difusión, incluso cuando se emplean medios algorítmicos o automatizados, es un tratamiento de datos(art. 4.2 RGPD).

En consecuencia, el uso de inteligencia artificial para generar un desnudo falso no exime de responsabilidad: sigue siendo un tratamiento sometido a las bases de licitud del RGPD. En este caso, no existía consentimiento ni ninguna otra causa legitimadora.

Además, la resolución destaca tres aspectos relevantes:

  1. La intromisión en la intimidad y dignidad personal de las víctimas, especialmente por el contenido sexual del material manipulado.
  2. La condición de menores tanto del infractor como de parte de las víctimas, lo que activa el art. 84 LOPDGDD y las medidas reforzadas de protección.
  3. La aplicación de sanciones proporcionadas y educativas, dirigidas a los progenitores como representantes legales del menor.

La multa se fijó inicialmente en 2.000 €, reducida a 1.200 € por pronto pago y reconocimiento de responsabilidad .

Un precedente simbólico y didáctico

Más allá de su cuantía, la resolución tiene un valor ejemplar y pedagógico. Es la primera vez que una autoridad europea sanciona formalmente la creación y difusión de deepfakes sexuales desde la óptica de la protección de datos personales, y no únicamente desde el Código Penal o el derecho al honor y la propia imagen.

La AEPD afirma expresamente que la manipulación digital del rostro de una persona para generar una imagen sexual falsa constituye tratamiento ilícito de datos personales, incluso si el creador es menor de edad.

Este pronunciamiento refuerza la necesidad de una cultura digital responsable, especialmente en el entorno educativo, donde proliferan herramientas accesibles para generar imágenes falsas sin comprender sus implicaciones legales.

La resolución española puede anticipar la línea de actuación de las autoridades de control europeas en la aplicación del RGPD frente a la IA generativa. El principio es claro:

“No hay vacío legal en la IA. Si un algoritmo trata datos personales, rige el RGPD.”

Ello enlaza con debates abiertos en la UE: la aplicación combinada del AI Act, el RGPD y la futura Directiva sobre delitos informáticos y deepfakes, así como la interacción con el artículo 8 del Convenio Europeo de Derechos Humanos (respeto a la vida privada).

La resolución de la AEPD marca un hito en la defensa del derecho a la identidad digital. Por primera vez se reconoce expresamente que los deepfakes con contenido sexual constituyen tratamiento ilícito de datos personales, lo que abre el camino a un marco más robusto de protección frente a la IA generativa.

En la era del contenido sintético, el mensaje es inequívoco: la dignidad humana y la privacidad no son editables.

La resolución aqui