Deepfakes sexuales, Grok y la respuesta jurídica: hacia una nueva tutela del honor y la propia imagen en la era de la inteligencia artificial La inteligencia artificial generativa ha dejado de ser un fenómeno experimental para convertirse en infraestructura cotidiana de creación de contenidos. Texto, imagen, audio y vídeo pueden hoy generarse o manipularse con una facilidad inédita. El problema surge cuando esta potencia tecnológica se cruza con derechos fundamentales de la personalidad: honor, intimidad personal y familiar y propia imagen. En las últimas semanas, el debate ha saltado al primer plano mediático a raíz de los casos de generación de “desnudos” y contenido sexualizado no consentido mediante IA, asociados al uso de xAI y su modelo Grok, integrado en la red social X. Estos episodios han actuado como catalizador político y jurídico, acelerando una respuesta normativa que en España llevaba tiempo gestándose: la reforma integral de la Ley Orgánica 1/1982, pilar histórico de la protección civil del honor y la propia imagen. El caso Grok y los “deepfakes de desnudos”: más allá del escándalo tecnológico Diversas investigaciones periodísticas y denuncias de usuarias han puesto de relieve que determinados flujos de uso de Grok permitían generar imágenes sexualizadas o de desnudez a partir de fotografías reales, “desvestir” digitalmente a mujeres sin su consentimiento y difundir estos contenidos en entornos sociales con alto potencial viral. No se trata únicamente de un problema de moderación de contenidos, sino de algo cualitativamente distinto la fabricación de una realidad visual falsa atribuida a una persona real, con un impacto directo en su dignidad y reputación. Hasta ahora, muchos ordenamientos —incluido el español— se enfrentaban a una dificultad la imagen difundida no existía en la realidad, no era una “fotografía íntima robada”, sino una recreación artificial y el daño, sin embargo, era idéntico o superior. La Ley Orgánica 1/1982 fue concebida en un mundo analógico y, aunque su interpretación jurisprudencial ha sido flexible, no estaba diseñada para deepfakes hiperrealistas generados por IA. El Consejo de Ministros aprobó en enero de 2026 el Anteproyecto de Ley Orgánica que sustituirá íntegramente la norma de 1982 con el objetivo de actualizar la tutela civil de los derechos de la personalidad al entorno digital y algorítmico. Entre los cambios, destacar que el anteproyecto introduce expresamente como intromisión ilegítima el uso de la imagen o la voz de una persona, generadas, recreadas o manipuladas mediante sistemas de inteligencia artificial o tecnologías análogas, sin su autorización. Este punto es crucial ya que no se exige que la imagen sea real, no depende de la finalidad comercial y no se neutraliza por el mero etiquetado como “contenido generado por IA”. En otras palabras, aunque el deepfake esté “marcado” o advertido, puede ser ilícito civilmente. La reforma aclara otro aspecto esencial: el hecho de que una persona publique una imagen en una red social no implica autorización para su reutilización, transformación o redistribución en otros contextos. Este inciso es especialmente relevante para el entrenamiento de modelos, la generación de deepfakes a partir de imágenes públicas y la defensa frente a la excusa del “contenido accesible públicamente”. La reforma española no actúa en el vacío, sino que se superpone al Reglamento de Inteligencia Artificial, ya aprobado a nivel europeo. En primer lugar, el artículo 50 impone obligaciones de información al usuario cuando interactúa con IA, marcado del contenido sintético (imagen, audio, vídeo) y divulgación expresa cuando se trate de deepfakes. Pero conviene subrayarlo con claridad jurídica: el AI Act no legitima la creación de deepfakes lesivos; simplemente impone deberes de transparencia. La licitud material sigue dependiendo del Derecho nacional (civil, penal, administrativo). Los artículos 51 y 52 regulan los modelos de IA de uso general (GPAI) y su eventual calificación como de riesgo sistémico. Esto es relevante porque los grandes modelos capaces de generar deepfakes hiperrealistas pueden quedar sometidos a obligaciones reforzadas. Y en litigios civiles, estas obligaciones pueden operar como estándar de diligencia exigible al proveedor. No crean derechos subjetivos directos, pero influyen decisivamente en la valoración de la culpa o negligencia. La reforma española del derecho al honor, la intimidad y la propia imagen es oportuna, técnicamente sólida y conceptualmente correcta. Sin embargo, sería un error pensar que con ella queda resuelto el desafío jurídico que plantea la inteligencia artificial generativa. Los retos que introduce la IA son de tal magnitud, transversalidad y profundidad, y afectan a tantos ámbitos del ordenamiento (civil, penal, administrativo, mercantil, procesal, constitucional y europeo), que las respuestas normativas aisladas o sectoriales resultan necesariamente insuficientes. No estamos ante un problema puntual, sino ante un cambio estructural del ecosistema informacional, probatorio y reputacional. Antes incluso de entrar en los retos técnicos, conviene subrayar uno estrictamente institucional la propia viabilidad parlamentaria de la reforma. La debilidad parlamentaria del Gobierno convierte la aprobación de una Ley Orgánica —que exige mayoría absoluta— en un proceso incierto. Este factor introduce una paradoja preocupante pues el diagnóstico jurídico parece correcto, la urgencia social es evidente, pero el marco político puede impedir que la respuesta normativa llegue a tiempo. Este riesgo refuerza la necesidad de pensar en soluciones estructurales y coordinadas, más allá de una única reforma legislativa. En cualquier caso, incluso si la reforma prospera, subsisten problemas de enorme complejidad jurídica y probatoria. Uno de los principales desafíos será acreditar que un contenido ha sido generado o manipulado mediante IA. Sin una evolución del Derecho procesal y probatorio, el reconocimiento material del derecho puede quedar vacío de efectividad práctica. La IA introduce cadenas de valor y de decisión difusas (i) quien entrena el modelo, (ii) quien lo ajusta, (iii) quien lo despliega, (iv) quien introduce el «prompt», (v) quien difunde el resultado y/o (vi) quien lo monetiza o amplifica. El esquema clásico de autor–editor–difusor resulta insuficiente. El reto no es menor: sin un responsable claro, no hay tutela efectiva. Esto obliga a replantear los criterios de imputación, la responsabilidad solidaria o por riesgo y el concepto mismo de “control efectivo” sobre el contenido. Los casos como Grok ponen de manifiesto un problema recurrente tales como proveedores radicados fuera de la UE, las plataformas globales y los contenidos accesibles instantáneamente en España. La tutela civil nacional, por sí sola, no puede operar de forma aislada. Se requieren mecanismos eficaces de cooperación judicial internacional, la ejecución transfronteriza de resoluciones y sobre todo, corresponsabilidad real de las plataformas que alojan, amplifican o monetizan el contenido. El elefante en la habitación: la responsabilidad definitiva de los gatekeepers Aquí se sitúa el debate que el legislador europeo y nacional llevan años evitando afrontar de manera frontal: La responsabilidad de los grandes gatekeepers por los contenidos que alojan no puede seguir siendo ambigua, limitada o meramente reactiva. El modelo de “neutralidad tecnológica” y de responsabilidad atenuada fue razonable en los albores de Internet y resulta cada vez menos defendible en un ecosistema dominado por plataformas que optimizan, recomiendan, amplifican y rentabilizan activamente los contenidos. Cuando un sistema prioriza, recomienda, viraliza y obtiene beneficio económico, deja de ser un mero intermediario pasivo. La cuestión ya no es si deben responder, sino cuándo, cómo y en qué medida, especialmente en supuestos de deepfakes sexuales, daños reputacionales irreversibles y lesiones graves a la dignidad humana. Sin una asunción clara de esta responsabilidad, cualquier tutela civil seguirá siendo reactiva, tardía y parcialmente ilusoria. Conviene insistir en una idea central los casos de Grok y los deepfakes sexuales no son una anécdota ni un fallo puntual de diseño. Son el primer gran conflicto estructural entre la IA generativa como infraestructura de producción de realidad y los derechos de la personalidad como núcleo de la dignidad humana. Lo que hoy afecta al honor y a la imagen mañana afectará a la prueba judicial, pasado mañana a la democracia deliberativa. Y, en último término, a la confianza social en la verdad. España, con el intento de reformar la Ley Orgánica de 1982, se sitúa indudablemente en la vanguardia europea de la tutela civil frente a la IA, complementando de forma inteligente el Reglamento europeo de inteligencia artificial. Pero este paso, siendo imprescindible, no es suficiente. La magnitud del desafío exige respuestas holísticas, no peregrinas, la coordinación real entre Derecho europeo y nacional, la implementación de reformas procesales, probatorias y de responsabilidad, y, sobre todo, una redefinición clara del papel y la responsabilidad de los grandes actores tecnológicos. Porque si algo ha demostrado la IA generativa es que el daño ya no es futuro, sino presente, y que el Derecho no puede permitirse llegar siempre un paso por detrás.