Robots & Artificial Intelligence

Los lobbys tecnologicos entierran la propuesta de Directiva sobre IA

La reciente publicación de Economist & Jurist sobre la retirada de la propuesta de Directiva de responsabilidad civil por daños causados por inteligencia artificial constituye mucho más que una simple noticia legislativa: es, en realidad, la constatación de un cambio de paradigma en la política regulatoria europea en materia tecnológica.

La denominada AI Liability Directive aspiraba a resolver uno de los problemas estructurales más complejos del Derecho contemporáneo: la imputación de responsabilidad en entornos donde la causalidad se diluye entre algoritmos autónomos, procesos de aprendizaje automático y sistemas de decisión opacos. Su finalidad era clara: armonizar los regímenes nacionales de responsabilidad extracontractual y facilitar la posición del perjudicado mediante mecanismos como el acceso a pruebas o la presunción de causalidad.  

Sin embargo, su retirada del programa legislativo de la Comisión Europea para 2025 no puede interpretarse como un fracaso aislado, sino como el síntoma de una tensión mucho más profunda entre dos fuerzas estructurales: la necesidad de proteger a los ciudadanos frente a riesgos tecnológicos y la voluntad de no estrangular la innovación en un momento de competencia global acelerada. De hecho, la propia crítica institucional llegó a calificar la propuesta como prematura e incluso potencialmente perjudicial para el desarrollo tecnológico europeo.  

Este giro cobra especial relevancia si se pone en relación con la entrada en vigor del Reglamento de Inteligencia Artificial (AI Act), que ha optado por un enfoque radicalmente distinto: un sistema de gobernanza ex ante basado en la clasificación del riesgo. Este modelo no se centra tanto en la reparación del daño como en su prevención, imponiendo obligaciones de transparencia, trazabilidad, supervisión humana y gestión de riesgos, especialmente para los sistemas de alto riesgo.  

La consecuencia es evidente: el legislador europeo ha decidido priorizar el control previo sobre la responsabilidad posterior. En otras palabras, se desplaza el eje desde el Derecho de daños hacia el Derecho regulatorio. Esta elección no es neutra. Supone, en la práctica, aceptar que la complejidad técnica de la inteligencia artificial hace extremadamente difícil —cuando no imposible— construir un sistema de responsabilidad eficaz basado en categorías tradicionales como culpa, nexo causal o previsibilidad.

Desde una perspectiva jurídica más profunda, la retirada de la Directiva plantea interrogantes relevantes. ¿Puede el sistema actual de responsabilidad civil, incluso adaptado, responder adecuadamente a daños causados por sistemas autónomos? ¿Es suficiente el AI Act para garantizar una tutela efectiva de los perjudicados? ¿O estamos ante un vacío normativo que acabará siendo llenado por la jurisprudencia, caso a caso, con el consiguiente riesgo de fragmentación?

La experiencia reciente sugiere que los conflictos no tardarán en llegar. Casos como los litigios emergentes en torno a sistemas de IA generativa, decisiones automatizadas o incluso daños derivados de interacciones prolongadas con algoritmos ponen de manifiesto que la cuestión de la responsabilidad no es teórica, sino inminente y práctica. La dificultad probatoria, la opacidad algorítmica y la multiplicidad de agentes implicados configuran un escenario en el que las reglas tradicionales resultan, como mínimo, insuficientes.

En este contexto, la “muerte” de la Directiva no es definitiva, sino probablemente provisional. Más que una renuncia, parece una retirada táctica. El legislador europeo ha optado por ganar tiempo, observar la aplicación del AI Act y, previsiblemente, volver a abordar la cuestión de la responsabilidad cuando exista una mayor madurez tecnológica y regulatoria.

Porque, en última instancia, la pregunta sigue intacta: ¿quién responde cuando la inteligencia artificial causa daño?

La respuesta, hoy por hoy, sigue siendo una de las grandes incógnitas del Derecho del siglo XXI.