La Unión Europea continúa diseñando el marco normativo más ambicioso del mundo sobre inteligencia artificial. En paralelo al Reglamento de IA (AI Act) y a la revisión de la Directiva de responsabilidad por productos defectuosos (PLD), se propone una Directiva específica para adaptar las reglas de responsabilidad civil extracontractual al nuevo ecosistema digital: la AI Liability Directive (AILD).
Un reciente estudio del European Parliamentary Research Service propone ajustes sustanciales a esta propuesta, con especial énfasis en su alcance, coherencia y utilidad práctica para víctimas y operadores económicos.
Principales recomendaciones del estudio
- Ampliar el ámbito de aplicación: se sugiere que la AILD no se limite a sistemas de IA de alto riesgo, sino que incluya también IA de propósito general (como ChatGPT) y otras tecnologías de impacto elevado (high-impact AI systems), incluyendo software complejo no estrictamente clasificado como IA .
- Reforzar la presunción de causalidad: para facilitar la carga probatoria en pleitos por daños, el estudio propone una presunción de causalidad entre la infracción de ciertas obligaciones del AI Act (arts. 14 y 26) y los daños generados, salvo prueba en contrario.
- Cubrir lagunas del PLD: la AILD debe abordar daños no cubiertos por la PLD, como:
- Pérdidas económicas puras.
- Discriminación algorítmica.
- Daños a derechos de la personalidad y otros fundamentales.
- Propiedad profesional (como derechos de PI).
- Impactos medioambientales del uso masivo de IA .
- Transición hacia una regulación integral de software: en lugar de centrarse sólo en la IA, el estudio recomienda evolucionar la AILD hacia un instrumento más ambicioso de responsabilidad por software en general, alineado con el enfoque de la PLD .
- Posible transformación en reglamento europeo: se sugiere que el instrumento deje de ser directiva (con transposición nacional dispar) y adopte forma de reglamento, lo que garantizaría mayor uniformidad y seguridad jurídica en el mercado digital único .
¿Y la responsabilidad objetiva?
El estudio discute también la conveniencia de integrar elementos de responsabilidad objetiva para ciertos sistemas de alto riesgo. Aunque puede facilitar la compensación y fomentar la prevención, el info
¿Y la responsabilidad objetiva?
El estudio discute también la conveniencia de integrar elementos de responsabilidad objetiva para ciertos sistemas de alto riesgo. Aunque puede facilitar la compensación y fomentar la prevención, el informe alerta sobre posibles efectos desincentivadores en innovación, especialmente en PYMEs, y sobre el riesgo de litigación abusiva.
En resumen, el documento refleja un enfoque equilibrado: apuesta por proteger eficazmente a las víctimas de daños derivados del uso de IA, sin frenar el desarrollo tecnológico. Pero también pone sobre la mesa una idea poderosa: quizás no basta con adaptar las reglas actuales. Tal vez ha llegado el momento de concebir un régimen autónomo de responsabilidad digital, capaz de cubrir todas las formas de software que hoy modelan nuestras decisiones, derechos y riesgos.