Reflexiones tras la retirada de la Propuesta de Directiva sobre daños por inteligencia artificial La retirada de la Propuesta de Directiva de responsabilidad por daños causados por sistemas de inteligencia artificial constituye, más allá de un episodio técnico, un síntoma político y jurídico preocupante. Europa parece haber perdido —al menos temporalmente— la brújula que orientaba su proyecto de gobernanza responsable de la inteligencia artificial, y con ella, la oportunidad de cerrar uno de los vacíos más delicados del nuevo ecosistema normativo digital. El análisis publicado por Economist & Jurist bajo el título “Crónica de la muerte de la Propuesta de Directiva de daños por inteligencia artificial” ofrece una panorámica lúcida de los hechos. Pero lo relevante no…
-
-
Cuando la inteligencia artificial se usa mal: el deber de diligencia profesional en la era digital
La reciente sanción impuesta a un abogado por el uso indebido de herramientas de inteligencia artificial en su práctica profesional reabre un debate esencial: ¿puede delegarse la diligencia del abogado en un algoritmo? La respuesta, desde una perspectiva deontológica y jurídica, es clara: no. El artículo 42 del Código Deontológico de la Abogacía Española impone al profesional el deber de actuar con la máxima diligencia, confidencialidad y competencia técnica. El uso de sistemas de IA —ya sea para redactar escritos, analizar jurisprudencia o preparar alegaciones— no exime de esta obligación, sino que exige un control humano efectivosobre los resultados generados. La IA puede ser una herramienta extraordinaria, pero no sustituye el juicio jurídico, la interpretación…
-
Italia aprueba la primera ley nacional de inteligencia artificial en la UE
El Parlamento italiano ha aprobado una ley integral sobre inteligencia artificial, convirtiéndose en el primer Estado miembro de la Unión Europea en contar con un marco normativo propio alineado con el AI Act europeo. Principios rectores: innovación con derechos El texto, impulsado por el gobierno de Giorgia Meloni, parte de una premisa clara: la IA debe ser segura, transparente y centrada en el ser humano. La norma enfatiza la protección de la privacidad, la ciberseguridad y la supervisión humana de los sistemas automatizados, al tiempo que pretende estimular la innovación con un fondo de inversión público-privado de hasta 1.000 millones de euros para proyectos de IA, ciberseguridad y tecnologías cuánticas. Ámbitos regulados y límites La…
-
Unos padres de EE.UU. demandan a OpenAI (Chat GPT) por homicidio culposo
Los padres de Adam Raine —un adolescente de 16 años que se suicidó el 11 de abril de 2025 en California— han presentado una querella por homicidio culposo contra OpenAI y su CEO, Sam Altman, ante el Tribunal Superior de San Francisco. Alegan que el chatbot GPT‑4o facilitó activamente el suicidio de su hijo, sin activar protocolos de emergencia pese a señales claras de riesgo . Se trata, según diversos medios, del primer caso que responsabiliza directamente a una empresa de IA por la muerte de un usuario . La familia sostiene que OpenAI omitió implementar medidas esenciales de protección. A pesar de tener mecanismos de seguridad para abordar crisis emocionales, estos “fallaron en situaciones…
-
«AI Governance & Risk Management Playbook» del IAB — guía para una IA responsable en publicidad
El IAB presentó este recurso el 26 de agosto de 2025, con el fin de ayudar a los actores del ecosistema publicitario a adoptar la IA de manera responsable dentro del entorno legal y regulatorio actual . ¿Qué cubre el Playbook? Propósito del playbook Diseñado para ser aplicable al día a día profesional, orienta a: Este es el tercero de los tres recursos que el Interactive Advertising Bureau (IAB) ha lanzado para marcas, agencias, publishers y proveedores de AdTech y que son: State of Data 2025 – Companion Guide – parte del reporte State of Data 2025 (marzo de 2025), es un playbook estratégico con recomendaciones tácticas para la adopción efectiva de IA en planificación, activación y…
-
Consulta pública en la UE sobre la revisión del DMA y el papel de la IA
La Comisión Europea ha lanzado una consulta pública el 3 de julio de 2025, centrada en cómo el Reglamento de Mercados Digitales (DMA) puede fomentar mercados digitales justos y competitivos, especialmente en el contexto del sector de la Inteligencia Artificial (IA) . Esta consulta forma parte de la revisión del DMA, cuyo objetivo es evaluar su eficacia en la promoción de la equidad, la contestabilidad de los mercados digitales, y su impacto en empresas —particularmente pymes— y consumidores . ▶ Plazo para participar: Tienes hasta el 24 de septiembre de 2025 para responder al cuestionario sobre IA . ▶ Próximo paso legislativo: El análisis de los comentarios alimentará un informe que la Comisión presentará en mayo de 2026 al Parlamento Europeo, al…
-
La Asamblea General de la ONU toma medidas clave sobre el Consejo de Seguridad, la representación equitativa y la inteligencia artificial
El pasado 26 de agosto de 2025, la Asamblea General de las Naciones Unidas adoptó una serie de decisiones trascendentales —reclamadas en la comunicación oficial GA/12699 (A/79/L.118)— orientadas a transformar la arquitectura del Consejo de Seguridad, fortalecer la participación universal en el sistema multilateral y establecer un marco científico para el desarrollo y regulación de la inteligencia artificial (IA) . 1. Reformas al Consejo de Seguridad: representación e inclusión La Asamblea General avanzó en la cuestión de la representación equitativa y el aumento del número de miembros del Consejo de Seguridad, una demanda histórica de la comunidad internacional para reflejar mejor la diversidad geográfica y política en los órganos decisorios de la ONU . Este paso representa…
-
Evaluación del Código de Buenas Prácticas para IA de Propósito General
La Comisión Europea ha publicado recientemente su opinión formal sobre el “Código de Buenas Prácticas para Modelos de Inteligencia Artificial de Propósito General” (GPAI), una herramienta voluntaria concebida para facilitar el cumplimiento del Reglamento de Inteligencia Artificial (AI Act). Esta evaluación, llevada a cabo conjuntamente con el Consejo Asesor Europeo sobre IA (AI Board), concluye que el Código constituye un mecanismo adecuado para demostrar conformidad, especialmente en lo relativo a las obligaciones de transparencia, derechos de autor y fiabilidad técnica. La entrada en vigor efectiva de estas obligaciones específicas para modelos GPAI se produjo el 2 de agosto de 2025. El Código fue elaborado a partir de un extenso proceso…
-
La Comisión Europea recibe la versión final del “General‑Purpose AI Code of Practice”
El 10 de julio de 2025, la Comisión Europea formalizó la recepción de la versión definitiva del Código de Buenas Prácticas para la Inteligencia Artificial de propósito general (GPAI), diseñado para ayudar a las empresas a prepararse para las obligaciones del AI Act, cuyo régimen para IA general entra en vigor el 2 de agosto de 2025 . Se trata de una herramienta voluntaria, pero estratégica: quienes la suscriban disfrutarán de una reducción del coste administrativo, mayor seguridad jurídica y una vía colaborativa hacia el cumplimiento normativo . El GPAI Code ha sido elaborado por 13 expertos independientes, tras un proceso multilateral que incorporó la participación de más de mil actores, incluidos proveedores de modelos, pymes, académicos, expertos en seguridad,…
-
Singapur refuerza el ecosistema de IA de confianza: nuevos instrumentos legales e institucionales
El 7 de julio de 2025, Singapur presentó una serie de instrumentos estratégicos destinados a consolidar un entorno de inteligencia artificial (IA) fiable y alineado con los estándares globales de protección de datos. Durante la cumbre “PDP Summit 2025”, la Ministra Josephine Teo anunció tres iniciativas clave: la ampliación del Global AI Assurance Sandbox, la publicación de una guía para la adopción de Privacy Enhancing Technologies (PETs) y la certificación nacional Data Protection Trust‑mark convertida en estándar nacional SS 714:2025 . La ampliación del Global AI Assurance Sandbox responde a la creciente complejidad de las aplicaciones de IA. Originalmente lanzado en París, el programa piloto, gestionado por AI Verify Foundation y la IMDA, ya ha incorporado nuevos modelos de IA,…

























