Robots & Artificial Intelligence

Europa sin brújula en la responsabilidad algorítmica

Reflexiones tras la retirada de la Propuesta de Directiva sobre daños por inteligencia artificial

La retirada de la Propuesta de Directiva de responsabilidad por daños causados por sistemas de inteligencia artificial constituye, más allá de un episodio técnico, un síntoma político y jurídico preocupante. Europa parece haber perdido —al menos temporalmente— la brújula que orientaba su proyecto de gobernanza responsable de la inteligencia artificial, y con ella, la oportunidad de cerrar uno de los vacíos más delicados del nuevo ecosistema normativo digital.

El análisis publicado por Economist & Jurist bajo el título “Crónica de la muerte de la Propuesta de Directiva de daños por inteligencia artificial” ofrece una panorámica lúcida de los hechos. Pero lo relevante no es tanto la muerte de la propuesta como el significado de su ausencia. Lo que desaparece no es solo un texto, sino la posibilidad de dotar de coherencia ex post a un marco jurídico que, con el AI Act y el Data Act, había avanzado notablemente en la regulación preventiva y procedimental de la IA.

1. El eslabón perdido de la regulación europea

El AI Act ordena la prevención de riesgos: clasificación, transparencia, evaluación de conformidad, gobernanza técnica.

El Data Act establece derechos de acceso, uso y transferencia de datos.

Pero ninguno de los dos responde a una pregunta esencial: ¿quién responde cuando un sistema de IA causa un daño?

La Propuesta de Directiva de daños por IA pretendía justamente eso: ofrecer un régimen armonizado de responsabilidad civil adaptado a las particularidades de los sistemas algorítmicos —su opacidad, autonomía operativa y carácter probabilístico—.

Sin ella, el edificio normativo europeo queda incompleto: sofisticado en prevención, pero frágil en reparación.

En términos de política jurídica, hemos legislado el “antes” y el “durante”, pero seguimos sin regular el “después”.

2. Un retroceso institucional disfrazado de prudencia

Los argumentos oficiales para su retirada —falta de madurez del mercado, escasa evidencia empírica, riesgo de freno a la innovación— son comprensibles, pero insuficientes.

A mi juicio, esconden un temor político a consolidar la idea de imputación jurídica del daño algorítmico.

En otras palabras: el miedo a reconocer que la inteligencia artificial no solo exige regulación técnica, sino también responsabilidad jurídica.

Se ha querido ver en esta retirada un gesto de prudencia legislativa. Pero la prudencia, en Derecho, no puede confundirse con parálisis normativa. Esperar a que existan daños demostrables para legislar sobre ellos equivale a negar la esencia preventiva y correctiva del Derecho europeo.

Europa había sido pionera en integrar principios éticos y garantías jurídicas en la regulación tecnológica. Este repliegue rompe esa narrativa.

3. Fragmentación y riesgo de impunidad algorítmica

Sin un marco común, los Estados miembros deberán improvisar soluciones nacionales: unos acudirán a la responsabilidad objetiva, otros a la culpa presunta o a regímenes mixtos.

El resultado será una fragmentación del espacio judicial europeo, con riesgos evidentes de forum shopping, desigualdad procesal y asimetrías de tutela.

Pero lo más grave no es la dispersión, sino la impunidad técnica.

Los sistemas más complejos —aquellos en los que la causalidad es difusa o el control humano limitado— quedarán de facto fuera del alcance de la justicia civil ordinaria.

Y esa impunidad no será fruto de la negligencia, sino de la ausencia de reglas adaptadas.

4. La oportunidad perdida: hacia una responsabilidad algorítmica razonable

Europa tenía la ocasión de construir un modelo propio de responsabilidad algorítmica, equilibrado y compatible con la innovación.

Un modelo que no criminalizara la tecnología, pero tampoco la blindara.

Una directiva razonable podría haber incluido:

  • Responsabilidad graduada según nivel de autonomía y riesgo del sistema.
  • Reglas procesales de acceso a la prueba técnica, bajo control judicial.
  • Presunciones de causalidad limitadas, no automáticas, pero útiles ante la opacidad algorítmica.
  • Mecanismos de aseguramiento y fondos de compensación en casos de daño difuso o de autor indeterminado.

Nada de ello era incompatible con la competitividad ni con la innovación.

Lo que sí era incompatible con la lógica del mercado era dotar a la IA de poder sin contrapesos jurídicos.

5. Europa ante su espejo: innovación sin responsabilidad

El Derecho europeo corre el riesgo de quedarse a medio camino: un marco ex ante muy denso (AI Act, Data Act, Digital Services Act) y un vacío ex post en materia de reparación.

Sin responsabilidad, el discurso ético sobre la “IA confiable” se desmorona.

El verdadero equilibrio no está entre innovación y regulación, sino entre eficiencia tecnológica y justicia efectiva.

Y sin justicia —sin reparación— no hay Estado de Derecho tecnológico, sino mera gobernanza técnica.

6. Mirando hacia adelante

La “muerte” de esta directiva no debería ser el final del debate, sino un punto de inflexión.

Europa necesita recuperar el liderazgo normativo que la hizo referencia mundial en privacidad y protección de datos.

El próximo paso no es volver al punto de partida, sino repensar un marco de responsabilidad algorítmica realista, funcional y transnacional, coherente con el principio de proporcionalidad y con la Carta de Derechos Fundamentales de la UE.

Solo así la inteligencia artificial podrá ser tratada, jurídicamente, no como un fenómeno ajeno, sino como una tecnología socialmente integrada, sometida —como todo poder— al Derecho.