La reciente propuesta de acuerdo entre Anthropic —una de las grandes compañías de inteligencia artificial generativa— y diversas entidades titulares de derechos de autor, podría convertirse en un punto de inflexión para la política jurídica del tratamiento y eliminación de datos en la IA. No se trata únicamente de un caso de infracción de copyright, sino de un laboratorio donde se ensaya el futuro equilibrio entre derecho de autor, protección de datos y gobernanza algorítmica.
El acuerdo pretende resolver las alegaciones de que los modelos de Anthropic fueron entrenados con grandes volúmenes de obras protegidas por derechos de autor, sin autorización. Más allá de la compensación económica o del reconocimiento de derechos, lo verdaderamente relevante es la posible obligación de “borrar” los datos o pesos de entrenamiento que contengan información ilícitamente adquirida.
Aquí es donde la dimensión jurídica se torna compleja: ¿qué significa borrar datos en un sistema de aprendizaje profundo? A diferencia de un simple fichero, los modelos de IA no almacenan “copias” de las obras, sino que las transforman en vectores, patrones y parámetros estadísticos. “Eliminar” un dato en este contexto podría implicar desentrenar o reentrenar el modelo completo, un proceso casi imposible desde la técnica actual.
El debate que se abre, por tanto, trasciende al caso Anthropic y plantea una cuestión de alcance sistémico: ¿es jurídicamente exigible la supresión de conocimiento a una inteligencia artificial?
El Derecho de autor, tradicionalmente centrado en la exclusividad y en la reparación patrimonial, se enfrenta a un nuevo horizonte: la memoria algorítmica. Obligar a una IA a “olvidar” lo aprendido es jurídicamente análogo a exigir a un ser humano que desaprenda un conocimiento ya asimilado. Desde esta perspectiva, los remedios clásicos del derecho de la propiedad intelectual deben repensarse, incorporando principios del Derecho de protección de datos, como el derecho al olvido, y las exigencias técnicas de la ciberseguridad y el compliance algorítmico.
Si el acuerdo Anthropic prospera, podría sentar un precedente para la creación de políticas de eliminación de datos en la IA (“AI Data Deletion Policies”), un nuevo campo normativo que exigirá definir criterios sobre:
- Qué constituye un “dato ilícito” en el entrenamiento de modelos.
- Cómo debe implementarse su eliminación sin comprometer la integridad del modelo.
- Qué autoridad supervisa y certifica ese proceso.
Estamos ante el germen de un nuevo principio jurídico: la responsabilidad retrospectiva del conocimiento automatizado. En él, el Derecho deberá aprender a dialogar con la técnica para proteger los derechos de los creadores sin paralizar el avance científico.
La cuestión, en definitiva, no es si la IA debe olvidar, sino cómo el Derecho puede recordar que los datos también tienen memoria.


