Archivos de la etiqueta: ciberresiliencia

22Ene/24

COM(2022) 496 final. de 28 de septiembre de 2022

COM(2022) 496 final. de 28 de septiembre de 2022. Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extra contractual a la Inteligencia Artificial (Directiva sobre responsabilidad en materia de IA)

Bruselas, 28.9.2022

COM(2022) 496 final 2022/0303(COD)

EXPOSICIÓN DE MOTIVOS

1. CONTEXTO DE LA PROPUESTA

* Razones y objetivos de la propuesta

La presente exposición de motivos acompaña a la propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (IA). En una encuesta representativa realizada en 2020 (1) , la cuestión de la responsabilidad civil figuraba entre los tres principales obstáculos a la utilización de la IA por parte de las empresas europeas. Se citó como el obstáculo externo más importante (43 %) en el caso de las empresas que tienen previsto recurrir a la IA, pero que aún no lo han hecho.

En sus orientaciones políticas, la presidenta de la Comisión, Ursula von der Leyen, estableció un enfoque europeo coordinado en materia de IA (2). En su Libro Blanco sobre la IA, de 19 de febrero de 2020 (3), la Comisión se comprometió a promover la adopción de la IA y a abordar los riesgos asociados a algunos de sus usos fomentando la excelencia y la confianza. En el Informe sobre responsabilidad en materia de IA (4) que acompaña al Libro Blanco, la Comisión señaló los retos específicos que plantea la IA con respecto a las normas vigentes en materia de responsabilidad. En sus Conclusiones sobre la configuración del futuro digital de Europa, de 9 de junio de 2020, el Consejo acogió con satisfacción la consulta sobre las propuestas políticas del Libro Blanco sobre la IA y pidió a la Comisión que presentase propuestas concretas. El 20 de octubre de 2020, el Parlamento Europeo adoptó una resolución legislativa de propia iniciativa en virtud del artículo 225 del TFUE en la que pedía a la Comisión que adoptase una propuesta relativa a un régimen de responsabilidad civil para la IA basado en el artículo 114 del Tratado de Funcionamiento de la Unión Europea (TFUE) (5) .

Las normas nacionales en vigor en materia de responsabilidad civil, particularmente las que se basan en la culpa, no son adecuadas para tramitar las denuncias de responsabilidad civil por daños causados por productos y servicios en los que se recurre a la IA. Con arreglo a dichas normas, las víctimas deben demostrar que ha habido una acción u omisión ilícita por parte de una persona que ha causado el daño. Las características específicas de la IA, incluidas su complejidad, su autonomía y su opacidad (el denominado efecto de «caja negra»), pueden dificultar o hacer excesivamente costoso para las víctimas determinar cuál es la persona responsable y probar que se cumplen los requisitos para una demanda de responsabilidad civil admisible. En particular, al reclamar una indemnización, las víctimas podrían tener que soportar unos costes iniciales muy elevados y enfrentarse a procedimientos judiciales mucho más largos, en comparación con los casos sin relación alguna con la inteligencia artificial. Por lo tanto, las víctimas pueden verse disuadidas de intentar siquiera obtener una indemnización. Estas preocupaciones también han sido señaladas por el Parlamento Europeo en su resolución de 3 de mayo de 2022 sobre la inteligencia artificial en la era digital.  (6)

Si una víctima presenta una demanda, los órganos jurisdiccionales nacionales, al verse confrontados con las características específicas de la IA, pueden adaptar el modo en que aplican las normas en vigor de forma ad hoc con el fin de llegar a un resultado justo para la víctima. Esto generará inseguridad jurídica. Las empresas tendrán dificultades para predecir cómo se aplicarán las normas de responsabilidad civil vigentes y, por tanto, para evaluar y asegurar su exposición a dicha responsabilidad. Este problema se verá agravado en el caso de las empresas que practiquen el comercio transfronterizo, ya que la incertidumbre abarcará diferentes jurisdicciones. Afectará especialmente a las pymes, que no pueden recurrir a los conocimientos de servicios jurídicos propios ni cuentan con reservas de capital.

Las estrategias nacionales de IA ponen de manifiesto que varios Estados miembros están estudiando, o incluso planificando de manera concreta, medidas legislativas sobre la responsabilidad civil en los casos en que medie IA. Por lo tanto, se espera que, si la UE no actúa, los Estados miembros adapten sus normas nacionales de responsabilidad civil a los retos que plantea la IA. Esto dará lugar a una mayor fragmentación y a un aumento de los costes para las empresas que operan en la UE.

La consulta pública abierta que sirvió de base para la evaluación de impacto de la presente propuesta confirmó la existencia los problemas explicados. En opinión del público, el efecto de «caja negra» puede dificultar a la víctima la prueba de la culpa y de la causalidad, y puede generarse incertidumbre sobre la manera en que los tribunales interpretarán y aplicarán las normas nacionales de responsabilidad civil en vigor en aquellos casos en que medie IA. Además, se puso de manifiesto una preocupación por parte del público en cuanto a la manera en que la acción legislativa para la adaptación de las normas de responsabilidad civil iniciada por los distintos Estados miembros y la consiguiente fragmentación afectarían a los costes de las empresas, especialmente a los de las pymes, impidiendo así la adopción de la IA en toda la Unión.

Así pues, el objetivo de la presente propuesta es promover la introducción generalizada de una IA fiable a fin de aprovechar plenamente sus beneficios para el mercado interior. Lo hace garantizando que las víctimas de daños causados por la IA obtengan una protección equivalente a la de las víctimas de daños causados por los demás productos. También reduce la inseguridad jurídica de las empresas que desarrollan o utilizan la IA en relación con su posible exposición a responsabilidad civil y evita la aparición de adaptaciones a la IA específicas fragmentadas de las normas nacionales en materia de responsabilidad civil.

* Coherencia con las disposiciones existentes en la misma política sectorial

La presente propuesta forma parte de un paquete de medidas para apoyar la adopción de la IA en Europa mediante el fomento de la excelencia y la confianza. Este paquete consta de tres líneas de trabajo complementarias:

–una propuesta legislativa por la que se establecen normas horizontales sobre los sistemas de inteligencia artificial (Ley de IA) (7) ;

–una revisión de las normas sectoriales y horizontales en materia de seguridad de los productos;

–normas de la UE para abordar las cuestiones de responsabilidad civil relacionadas con los sistemas de IA.

En la propuesta de Ley de IA, la Comisión ha propuesto normas destinadas a reducir los riesgos para la seguridad y proteger los derechos fundamentales. La seguridad y la responsabilidad son las dos caras de la misma moneda: intervienen en momentos diferentes y se refuerzan mutuamente. Si bien las normas para garantizar la seguridad y proteger los derechos fundamentales reducirán los riesgos, no los eliminan por completo (8) . En caso de que se materialice tal riesgo, sigue existiendo la posibilidad de que se produzcan daños. En tales casos, se aplicarán las normas sobre responsabilidad civil de la presente propuesta.

Unas normas eficaces en materia de responsabilidad también ofrecen un incentivo económico para cumplir las normas de seguridad y, por lo tanto, contribuyen a evitar que se produzcan daños (9) . Además, la presente propuesta contribuye al cumplimiento de los requisitos para sistemas de IA de alto riesgo impuestos por la Ley de IA, ya que el incumplimiento de dichos requisitos constituye un elemento importante de los que dan lugar al aligeramiento de la carga de la prueba. La presente propuesta también es coherente con las normas generales (10) y sectoriales propuestas en materia de seguridad de los productos aplicables a las máquinas y a sus partes y accesorios (11) y a los equipos radioeléctricos (12) que emplean IA.

La Comisión adopta un enfoque holístico en su política de responsabilidad en materia de IA, proponiendo adaptaciones de la responsabilidad del productor por productos defectuosos en virtud de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, y la armonización específica en el marco de la presente propuesta. Estas dos iniciativas políticas están estrechamente vinculadas y forman un paquete, ya que las demandas que entran en sus ámbitos de aplicación se refieren a diferentes tipos de responsabilidad. La Directiva sobre responsabilidad por los daños causados por productos defectuosos cubre la responsabilidad objetiva del productor por productos defectuosos, lo que da lugar a una indemnización por determinados tipos de daños, principalmente sufridos por particulares. La presente propuesta cubre las demandas nacionales de responsabilidad fundamentadas principalmente en la culpa de cualquier persona con el fin de indemnizar por cualquier tipo de daño y a cualquier tipo de víctima. Se complementan entre sí para formar un sistema general de responsabilidad civil eficaz.

Juntas, estas normas promoverán la confianza en la IA (y otras tecnologías digitales) garantizando que las víctimas reciban una indemnización efectiva si, a pesar de los requisitos preventivos de la Ley de IA y otras normas de seguridad, se producen daños.

*Coherencia con otras políticas de la Unión

La propuesta es coherente con la estrategia digital general de la Unión, ya que contribuye a promover una tecnología al servicio de las personas, uno de los tres pilares principales de las orientaciones políticas y los objetivos anunciados en la Comunicación titulada «Configurar el futuro digital de Europa» (13).

En este contexto, la presente propuesta pretende generar confianza en la IA y promover su adopción. Esto generará sinergias y es complementario con la [Ley de ciberresiliencia] (14), que también tiene por objeto fortalecer la confianza en los productos con elementos digitales reduciendo las vulnerabilidades cibernéticas y proteger mejor a las empresas y a los usuarios consumidores.

La presente propuesta no afecta a las normas establecidas por la [Ley de Servicios Digitales], que establecen un marco integral y plenamente armonizado para las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de las plataformas en línea, incluida su exención de responsabilidad para los prestadores de servicios intermediarios.

Además, al promover la adopción de la IA, la presente propuesta está vinculada a las iniciativas de la Estrategia de Datos de la UE (15) . También refuerza el papel de la Unión para ayudar a configurar las normas y estándares mundiales y promover una IA fiable que sea coherente con los valores e intereses de la Unión.

La propuesta también tiene vínculos indirectos con el «Pacto Verde Europeo» (16). En particular, las tecnologías digitales, incluida la IA, son un factor fundamental para alcanzar los objetivos de sostenibilidad del Pacto Verde en muchos sectores diferentes (como la asistencia sanitaria, el transporte, el medio ambiente y la agricultura).

* Principales consecuencias económicas, sociales y ambientales

La Directiva contribuirá a la introducción generalizada de la IA. Las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior pueden mejorarse significativamente evitando la fragmentación y aumentando la seguridad jurídica a través de medidas armonizadas a escala de la UE, en contraposición con las posibles adaptaciones de las normas de responsabilidad a nivel nacional. El estudio económico (17) en que se basa la evaluación de impacto de la presente propuesta concluyó —como estimación conservadora— que las medidas de armonización específicas de la responsabilidad civil por IA tendrían un impacto positivo del 5 al 7 % en el valor de producción del comercio transfronterizo pertinente en comparación con la hipótesis de referencia. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Esto reduciría los costes de información y representación jurídicas de las partes interesadas, así como los costes de gestión interna de riesgos y los costes de cumplimiento, facilitaría la planificación financiera y las estimaciones de riesgos a efectos de aseguramiento, y permitiría a las empresas —en particular a las pymes— explorar nuevos mercados más allá de sus fronteras. Sobre la base del valor global del mercado de la IA en la UE afectado por los problemas relacionados con la responsabilidad civil que aborda la presente Directiva, se estima que esta última generará un valor de mercado adicional de entre 500 y 1 100 millones EUR.

En términos de impacto social, la Directiva aumentará la confianza de la sociedad en las tecnologías de IA y promoverá el acceso a un sistema judicial eficaz. Contribuirá a un régimen de responsabilidad civil eficiente, adaptado a las especificidades de la IA, en el que las demandas fundamentadas de indemnización por daños y perjuicios sean estimadas. El aumento de la confianza social también beneficiaría a todas las empresas de la cadena de valor de la IA, ya que el aumento de la confianza de los ciudadanos contribuirá a una adopción más rápida de la IA. Debido al efecto incentivador de las normas sobre responsabilidad, evitar las lagunas en materia de responsabilidad también beneficiaría indirectamente a todos los ciudadanos mediante un mayor nivel de protección de la salud y la seguridad (artículo 114, apartado 3, del TFUE) y la evitación de fuentes de riesgo para la salud (artículo 168, apartado 1, del TFUE).

Por lo que se refiere a los impactos medioambientales, también se espera que la Directiva contribuya a la consecución de los Objetivos de Desarrollo Sostenible (ODS) y de las metas correspondientes. La adopción de aplicaciones de IA es beneficiosa para el medio ambiente. Por ejemplo, los sistemas de IA utilizados en la optimización de procesos reducen el despilfarro de estos (por ejemplo, reduciendo la cantidad de fertilizantes y plaguicidas necesaria, reduciendo el consumo de agua a igualdad de rendimiento, etc.). La Directiva también repercutiría positivamente en los ODS, ya que una legislación eficaz en materia de transparencia, rendición de cuentas y derechos fundamentales orientará el potencial de la IA en beneficio de las personas y de la sociedad hacia la consecución de los ODS.

2. BASE JURÍDICA, SUBSIDIARIEDAD Y PROPORCIONALIDAD

*  Base jurídica

La base jurídica de la propuesta es el artículo 114 del TFUE, que prevé la adopción de medidas para garantizar el establecimiento y el funcionamiento del mercado interior.

Los problemas que la presente propuesta pretende abordar, en particular, la inseguridad jurídica y la fragmentación jurídica, dificultan el desarrollo del mercado interior y, por lo tanto, suponen obstáculos significativos al comercio transfronterizo de productos y servicios basados en la IA.

La propuesta aborda los obstáculos derivados del hecho de que las empresas que desean producir, difundir y explotar productos y servicios basados en la IA más allá de sus fronteras no pueden saber si los regímenes de responsabilidad civil en vigor se aplican a los daños causados por la IA, ni tampoco de qué manera se aplican. Esta incertidumbre se refiere, en particular, a los Estados miembros a los que las empresas van a exportar productos y servicios, o a aquellos en los que los van a explotar. En un contexto transfronterizo, la ley aplicable a un caso de responsabilidad extracontractual derivada de un hecho dañoso es, por defecto, la del país en el que se produce el daño. Para estas empresas resulta esencial conocer los riesgos de responsabilidad civil pertinentes y poder asegurarse contra ellos.

Además, hay indicios concretos de que varios Estados miembros están estudiando la posibilidad de adoptar medidas legislativas unilaterales para abordar los retos específicos que plantea la IA en materia de responsabilidad. Por ejemplo, las estrategias de IA adoptadas en Chequia (18), Italia (19) , Malta (20) , Polonia (21) y Portugal (22) mencionan iniciativas para aclarar la cuestión de la responsabilidad. Dada la gran divergencia entre las normas vigentes en materia de responsabilidad civil de los Estados miembros, es probable que cualquier medida nacional relacionada específicamente con la IA en materia de responsabilidad siga los diferentes enfoques nacionales existentes y, por tanto, aumente el grado de fragmentación.

Por lo tanto, las adaptaciones de las normas de responsabilidad adoptadas de forma estrictamente nacional incrementarían los obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior y contribuirían aún más a la fragmentación.

* Subsidiariedad

Los objetivos de la presente propuesta no pueden alcanzarse adecuadamente a nivel nacional, ya que la aparición de normas nacionales divergentes incrementaría la inseguridad jurídica y la fragmentación, creando obstáculos a la introducción generalizada de productos y servicios basados en la IA en todo el mercado interior. La inseguridad jurídica afectaría especialmente a las empresas con actividades transfronterizas, al imponer la necesidad de información o representación jurídica adicional, costes de gestión de riesgos y causar pérdidas de ingresos. Al mismo tiempo, las diferentes normas nacionales sobre las demandas de indemnización por daños causados por la IA aumentarían los costes de transacción para las empresas, especialmente en el comercio transfronterizo, lo que conllevaría importantes barreras al mercado interior. Además, la inseguridad jurídica y la fragmentación afectan de manera desproporcionada a las empresas emergentes y a las pymes, que representan una mayoría de las empresas y la mayor parte de las inversiones en los mercados pertinentes.

En ausencia de normas armonizadas a escala de la UE para indemnizar los daños causados por los sistemas de IA, los proveedores, operadores y usuarios de sistemas de IA, por una parte, y, por otra, las personas perjudicadas, se verían confrontadas a 27 regímenes de responsabilidad diferentes, lo que daría lugar a distintos niveles de protección y falsearía la competencia entre las empresas de los distintos Estados miembros.

Unas medidas armonizadas a escala de la UE mejorarían significativamente las condiciones para la introducción generalizada y el desarrollo de tecnologías de IA en el mercado interior, al evitar la fragmentación y aumentar la seguridad jurídica. Este valor añadido se generaría, en particular, gracias a la reducción de la fragmentación y a una mayor seguridad jurídica con respecto a la exposición de las partes interesadas a la responsabilidad civil. Además, solo la acción de la UE puede lograr de manera coherente el efecto deseado de promover la confianza de los consumidores en los productos y servicios basados en la IA evitando las lagunas en materia de responsabilidad civil vinculadas a las características específicas de la IA en todo el mercado interior. Esto garantizaría un nivel (mínimo) de protección uniforme para todas las víctimas (particulares y empresas) y unos incentivos uniformes para prevenir daños y garantizar la rendición de cuentas.

* Proporcionalidad

La propuesta se basa en un enfoque por fases. En la primera fase, los objetivos se alcanzan con un enfoque mínimamente invasivo; la segunda fase consiste en reevaluar la necesidad de medidas más estrictas o amplias.

La primera fase se limita a las medidas relativas a la carga de la prueba para hacer frente a los problemas propios de la IA detectados. Se basa en las condiciones sustantivas de responsabilidad civil que existen actualmente en las normas nacionales, como la causalidad o la culpa, pero se centra en medidas específicas relacionadas con la prueba, garantizando que las víctimas tengan el mismo nivel de protección que en los casos en los que no medien sistemas de IA. Además, de entre los diversos instrumentos disponibles en la legislación nacional para aliviar la carga de la prueba (23), la presente propuesta ha optado por recurrir a las presunciones refutables (iuris tantum) por ser esta la herramienta menos intervencionista. Este tipo de presunciones se encuentra con frecuencia en los sistemas nacionales de responsabilidad y ponderan los intereses de demandantes y demandados. Al mismo tiempo, están diseñadas para incentivar el cumplimiento de las obligaciones de diligencia en vigor establecidas a escala nacional o de la Unión. La propuesta no conduce a una inversión de la carga de la prueba para evitar exponer a los proveedores, operadores y usuarios de sistemas de IA a mayores riesgos de responsabilidad civil, lo cual podría obstaculizar la innovación y reducir la adopción de productos y servicios basados en la IA.

La segunda fase incluida en la propuesta garantiza que, a la hora de evaluar el efecto de la primera fase en términos de protección de las víctimas y adopción de la IA, se tengan en cuenta los futuros cambios tecnológicos, normativos y jurisprudenciales a la hora de reevaluar la necesidad de armonizar otros elementos de las demandas de indemnización u otros instrumentos relacionados con las demandas de responsabilidad civil, incluido en aquellas situaciones en que la responsabilidad objetiva sería más adecuada, según lo solicitado por el Parlamento Europeo. Esta evaluación también consideraría, probablemente, la posibilidad de que tal armonización vaya acompañada de un seguro obligatorio para garantizar la eficacia.

* Elección del instrumento

Una directiva es el instrumento más adecuado para esta propuesta, ya que proporciona el efecto de armonización y la seguridad jurídica deseados al tiempo que ofrece la flexibilidad necesaria para que los Estados miembros puedan integrar las medidas armonizadas sin fricciones en sus regímenes nacionales de responsabilidad.

Un instrumento obligatorio evitaría las lagunas de protección derivadas de una aplicación parcial o nula. Aunque un instrumento no vinculante sería menos intrusivo, es poco probable que pueda dar respuesta a los problemas detectados de manera eficaz. El porcentaje de aplicación de los instrumentos no vinculantes es difícil de predecir y no hay indicios suficientes de que el efecto persuasivo de una recomendación sea lo suficientemente fuerte como para dar lugar a una adaptación coherente de las legislaciones nacionales.

Este efecto es aún más improbable en el caso de las medidas de Derecho privado, del que forman parte las normas de responsabilidad extracontractual. Este ámbito se caracteriza por tradiciones jurídicas arraigadas, lo cual hace que los Estados miembros sean reacios a llevar a cabo reformas coordinadas a menos que estén movidos por una perspectiva clara de beneficios en el mercado interior gracias a un instrumento vinculante de la UE, o por la necesidad de adaptarse a las nuevas tecnologías de la economía digital.

Las importantes divergencias existentes entre los marcos de responsabilidad de los Estados miembros son otra razón por la que es poco probable que una recomendación se aplique de manera coherente.

1. RESULTADOS DE LAS EVALUACIONES EX POST, DE LAS CONSULTAS CON LAS PARTES INTERESADAS Y DE LAS EVALUACIONES DE IMPACTO

* Consultas con las partes interesadas

Se ha aplicado una estrategia de grandes consultas para garantizar una amplia participación de las partes interesadas a lo largo de todo el ciclo político de la presente propuesta. La estrategia de consulta estuvo fundamentada tanto en consultas públicas como en varias consultas específicas (seminarios web, debates bilaterales con empresas y diversas organizaciones).

Tras las preguntas iniciales sobre la responsabilidad que formaban parte de la consulta pública relativa al Libro Blanco sobre la IA y el informe de la Comisión sobre seguridad y responsabilidad, del 18 de octubre de 2021 al 10 de enero de 2022 se abrió una consulta pública específica en línea para recabar las opiniones de una amplia variedad de partes interesadas, incluidos los consumidores, las organizaciones de la sociedad civil, las asociaciones industriales, las empresas —incluidas las pymes— y las autoridades públicas. Tras analizar todas las respuestas recibidas, la Comisión publicó un resumen de resultados y las respuestas individuales en su sitio web (24).

En total, se recibieron 233 respuestas de encuestados de veintiún Estados miembros, así como de terceros países. En general, la mayoría de las partes interesadas confirmaron los problemas relacionados con la carga de la prueba, la inseguridad jurídica y la fragmentación, y apoyaron la acción a escala de la UE.

Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas confirmaron mayoritariamente la necesidad de que la UE actuase para mitigar los problemas de las víctimas en relación con la carga de la prueba. Las empresas, aun reconociendo los efectos negativos de la incertidumbre en torno a la aplicación de las normas de responsabilidad, fueron más cautas y pidieron medidas específicas para evitar que se obstaculice la innovación.

Sucedió algo similar en cuanto a las opciones políticas. Los ciudadanos de la UE, las organizaciones de consumidores y las instituciones académicas apoyaron decididamente las medidas relativas a la carga de la prueba y a la armonización de la responsabilidad sin culpa (denominada «responsabilidad objetiva») junto con un seguro obligatorio. Las empresas estaban más divididas en cuanto a las opciones políticas, y las diferencias dependían, en parte, de su tamaño. La mayoría de las empresas encuestadas consideraron que la responsabilidad objetiva era desproporcionada. La armonización del aligeramiento de la carga de la prueba obtuvo más apoyos, en particular entre las pymes. Sin embargo, las empresas advirtieron contra un traslado total de la carga de la prueba.

Por lo tanto, la opción política preferida se desarrolló y perfeccionó a la luz de las observaciones recibidas de las partes interesadas a lo largo de todo el proceso de evaluación de impacto, a fin de lograr un equilibrio entre las necesidades manifestadas y las preocupaciones planteadas por todos los grupos de partes interesadas pertinentes.

* Obtención y uso de asesoramiento especializado

La propuesta se basa en cuatro años de análisis y en la estrecha participación de las partes interesadas, incluidos el mundo académico, las empresas, las asociaciones de consumidores, los Estados miembros y los ciudadanos. Los trabajos preparatorios comenzaron en 2018 con la creación del Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías (formación sobre nuevas tecnologías). El grupo de expertos elaboró un informe en noviembre de 2019 (25) en el que se evaluaban los retos que plantean algunas características de la IA en relación con las normas nacionales en materia de responsabilidad civil.

Las aportaciones del informe del grupo de expertos se complementaron con tres estudios externos adicionales:

–un estudio de Derecho comparado basado en un análisis jurídico comparativo de las leyes europeas en materia de responsabilidad civil centrado en cuestiones clave relacionadas con la IA (26);

–un estudio de economía del comportamiento sobre los efectos de las adaptaciones específicas del régimen de responsabilidad civil en la toma de decisiones por parte de los consumidores, especialmente sobre su confianza y su voluntad de adoptar productos y servicios basados en la IA (27);

–un estudio económico (28) que abarca una serie de cuestiones: los retos a los que se enfrentan las víctimas de aplicaciones de la IA en comparación con las víctimas de dispositivos que no emplean IA cuando intentan obtener una indemnización por los perjuicios sufridos; si —y en qué medida— las empresas tienen dudas sobre la aplicación de las normas en vigor en materia de responsabilidad a sus operaciones relacionadas con la IA, y si la incidencia de la inseguridad jurídica puede obstaculizar la inversión en IA; si una mayor fragmentación de las legislaciones nacionales en materia de responsabilidad reduciría la eficacia del mercado interior de aplicaciones y servicios de IA, y si —y en qué medida— la armonización de determinados aspectos de la responsabilidad civil nacional a través de la legislación de la UE mitigaría estos problemas y facilitaría la adopción general de la tecnología de IA por parte de las empresas de la UE.

* Evaluación de impacto

En consonancia con su política de «legislar mejor», la Comisión sometió la presente propuesta a una evaluación de impacto que fue examinada por su Comité de Control Reglamentario. La reunión del Comité de Control Reglamentario del 6 de abril de 2022 dio lugar a un dictamen favorable con observaciones.

Se evaluaron tres opciones de actuación:

Opción política 1. tres medidas para aliviar la carga de la prueba que recae sobre las víctimas que intentan presentar pruebas que apoyen su demanda de responsabilidad civil.

Opción política 2. las medidas de la opción 1 + armonizar las normas de responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular, junto con un seguro obligatorio.

Opción política 3. un enfoque por fases consistente en:

–primera fase: las medidas de la opción 1;

–segunda fase: un mecanismo de revisión para reevaluar, en particular, la necesidad de armonizar la responsabilidad objetiva en los casos de uso de IA con un perfil de riesgo particular (posiblemente acompañado de un seguro obligatorio).

Las opciones políticas se compararon mediante un análisis multicriterio que tenía en cuenta su eficacia, eficiencia, coherencia y proporcionalidad. Los resultados del análisis multicriterio y de sensibilidad muestran que la opción política 3, que prevé el alivio de la carga de la prueba en las demandas relacionadas con la IA y la revisión específica en relación con la responsabilidad objetiva, posiblemente acompañada de un seguro obligatorio, ocupa el lugar más alto y es, por tanto, la opción política preferida para la presente propuesta.

La opción política preferida garantizaría que las víctimas de productos y servicios basados en la IA (personas físicas, empresas y cualquier otra entidad pública o privada) no estén menos protegidas que las víctimas de las tecnologías tradicionales. Aumentaría el nivel de confianza en la IA y fomentaría su adopción.

Además, reduciría la inseguridad jurídica y evitaría la fragmentación normativa, ayudando así a las empresas —y sobre todo a las pymes— que deseen aprovechar todo el potencial del mercado único de la UE mediante el introducción generalizada y transfronteriza de productos y servicios basados en la IA. La opción política preferida también crea mejores condiciones para que las aseguradoras ofrezcan cobertura para actividades relacionadas con la IA, lo cual resulta crucial para que las empresas, y especialmente las pymes, gestionen sus riesgos. En concreto, se estima que la opción preferida generaría un aumento del valor de mercado de la IA en la EU-27 de entre 500 millones EUR y 1 100 millones EUR en 2025.

* Derechos fundamentales

Una de las funciones más importantes de las normas de responsabilidad civil es garantizar que las víctimas de daños puedan reclamar una indemnización. Al garantizar una indemnización efectiva, estas normas contribuyen a la protección del derecho a la tutela judicial efectiva y a un juez imparcial (artículo 47 de la Carta de los Derechos Fundamentales de la Unión Europea, denominada en lo sucesivo «la Carta»), al tiempo que incentivan a las personas que, potencialmente, puedan incurrir en responsabilidad civil a prevenir los daños y perjuicios con el fin de evitar que se genere la responsabilidad.

Con esta propuesta, la Comisión pretende garantizar que las víctimas de daños causados por la IA gocen de un nivel de protección equivalente en virtud de las normas de responsabilidad civil al de las víctimas de daños causados sin que medie IA. La propuesta permitirá una aplicación privada efectiva de los derechos fundamentales y protegerá el derecho a la tutela judicial efectiva cuando se materialicen los riesgos específicos de la IA. En particular, la propuesta contribuirá a proteger los derechos fundamentales, como el derecho a la vida (artículo 2 de la Carta), el derecho a la integridad física y mental (artículo 3) y el derecho a la propiedad (artículo 17). Además, en función del sistema y las tradiciones de Derecho civil de cada Estado miembro, las víctimas podrán reclamar una indemnización por los daños causados a otros intereses jurídicos, como las violaciones de la dignidad personal (artículos 1 y 4 de la Carta), el respeto de la vida privada y familiar (artículo 7), el derecho a la igualdad (artículo 20) y la no discriminación (artículo 21).

Además, la presente propuesta complementa otras vertientes de la política de IA de la Comisión basadas en requisitos preventivos normativos y de supervisión destinados directamente a evitar violaciones de los derechos fundamentales (como la discriminación), a saber: la Ley de IA, el Reglamento General de Protección de Datos, la Ley de Servicios Digitales y la legislación de la UE sobre no discriminación e igualdad de trato. Al mismo tiempo, la presente propuesta no crea ni armoniza los deberes de diligencia ni la responsabilidad civil de las distintas entidades cuya actividad está regulada por dichos actos jurídicos y, por lo tanto, no crea nuevos tipos de demandas de responsabilidad ni afecta a las exenciones de responsabilidad previstas en esos otros actos jurídicos. La presente propuesta solo introduce aligeramientos de la carga de la prueba para las víctimas de daños causados por sistemas de IA en las demandas que pueden fundamentarse en la legislación nacional o en estas otras leyes de la UE. Al complementar estas otras vertientes, la presente propuesta protege el derecho de la víctima a una indemnización en virtud del Derecho privado, incluidas las indemnizaciones por violaciones de los derechos fundamentales.

4. REPERCUSIONES PRESUPUESTARIAS

La presente propuesta no tendrá incidencia en el presupuesto de la Unión Europea.

5. OTROS ELEMENTOS

* Planes de ejecución y seguimiento, evaluación, programa de seguimiento y revisión específica

La presente propuesta propone un enfoque por fases. A fin de garantizar que se dispone de elementos suficientes para la revisión específica en la segunda fase, la Comisión elaborará un plan de seguimiento en el que se detallará cómo y con qué frecuencia se reunirán los datos y demás elementos de prueba necesarios.

El mecanismo de seguimiento podría abarcar los siguientes tipos de datos y elementos de prueba:

–la presentación de informes y el intercambio de información entre Estados miembros en relación con la aplicación de medidas para aligerar la carga de la prueba en los procedimientos judiciales o extrajudiciales nacionales;

–la información reunida por la Comisión o las autoridades de vigilancia del mercado en virtud de la Ley de IA (en particular su artículo 62) u otros instrumentos pertinentes;

–información y análisis en apoyo de la evaluación de la Ley de IA y de los informes que deba elaborar la Comisión sobre la aplicación de dicha Ley;

–información y análisis que respalden la evaluación de las futuras medidas políticas pertinentes con arreglo al «antiguo enfoque» de la legislación en materia de seguridad para garantizar que los productos introducidos en el mercado de la Unión cumplan unos requisitos elevados en materia de salud, seguridad y medio ambiente;

–información y análisis en apoyo del informe de la Comisión sobre la aplicación de la Directiva sobre el seguro de vehículos automóviles a los avances tecnológicos (en particular, a los vehículos autónomos y semiautónomos) de conformidad con su artículo 28 quater, apartado 2, letra a).

* Explicación detallada de las disposiciones específicas de la propuesta

1. Objeto y ámbito de aplicación (artículo 1)

El objetivo de la presente Directiva es mejorar el funcionamiento del mercado interior mediante el establecimiento de requisitos uniformes para determinados aspectos de la responsabilidad civil extracontractual por los daños causados con mediación de sistemas de IA. Da continuidad a la Resolución del Parlamento Europeo 2020/2014 (INL) y adapta el Derecho privado a las necesidades de la transición a la economía digital.

La elección de instrumentos jurídicos adecuados es limitada, dada la naturaleza de la cuestión de la carga de la prueba y las características específicas de la IA, que plantean un problema con respecto a las normas de responsabilidad existentes. A este respecto, la presente Directiva aligera la carga de la prueba de manera muy específica y proporcionada mediante el uso de la exhibición y las presunciones refutables (iuris tantum). Establece, para aquellos que soliciten una indemnización por daños y perjuicios, la posibilidad de obtener información sobre los sistemas de IA de alto riesgo que debe registrarse o documentarse de conformidad con la Ley de IA. Además, las presunciones refutables ofrecerán a quienes soliciten una indemnización por los daños causados por sistemas de IA una carga de la prueba más razonable y una oportunidad de que sus demandas de responsabilidad fundadas prosperen.

Estas herramientas no son nuevas; pueden encontrarse en los sistemas legislativos nacionales. Por lo tanto, estas herramientas nacionales constituyen puntos de referencia útiles sobre cómo abordar las cuestiones planteadas por la IA en relación con las normas de responsabilidad en vigor de manera que se interfiera lo menos posible en los diferentes regímenes jurídicos nacionales.

Además, cuando se les preguntó sobre cambios de mayor alcance, como una inversión de la carga de la prueba o una presunción irrefutable (iuris et de iure), las empresas respondieron de forma negativa en las consultas. Se eligieron medidas específicas para aligerar la carga de la prueba en forma de presunciones refutables por tratarse de medios pragmáticos y adecuados para ayudar a las víctimas a soportar la carga de la prueba de la manera más específica y proporcionada posible.

El artículo 1 indica el objeto y el ámbito de aplicación de la presente Directiva: se aplica a las demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por un sistema de IA, cuando dichas demandas se interpongan en el marco de regímenes de responsabilidad subjetiva (por culpa). Esto se refiere, en particular, a los regímenes que establecen la responsabilidad legal de indemnizar los daños causados de forma deliberada o por un acto u omisión negligente. Las medidas previstas en la presente Directiva pueden encajar sin problemas en los sistemas de responsabilidad civil en vigor, ya que reflejan un enfoque que no depende de la definición de conceptos fundamentales como «culpa» o «daño», dado que el significado de estos conceptos varía considerablemente entre los Estados miembros de la UE. Así pues, más allá de las presunciones que establece, la presente Directiva no afecta a las normas nacionales o de la Unión que determinan, por ejemplo, qué parte ha de soportar la carga de la prueba, qué grado de certeza es necesario para que haya fuerza probatoria o cómo se define la culpa.

Además, la presente Directiva no afecta a las normas vigentes que regulan las condiciones de responsabilidad en el sector del transporte ni a las establecidas por la Ley de Servicios Digitales.

Aunque la presente Directiva no se aplica a la responsabilidad penal, puede resultar aplicable a la responsabilidad del Estado. Las autoridades estatales también están cubiertas por las disposiciones de la Ley de IA como sujetos de las obligaciones que en ella se establecen.

La presente Directiva no se aplica retroactivamente, sino únicamente a las demandas de indemnización por daños y perjuicios que se produzcan a partir de la fecha de su transposición.

La propuesta de la presente Directiva se ha adoptado junto con la propuesta de revisión de la Directiva 85/374/CEE sobre responsabilidad por los daños causados por productos defectuosos, en un paquete destinado a adaptar las normas de responsabilidad a la era digital y a la IA, garantizando la necesaria armonización entre estos dos instrumentos jurídicos complementarios.

2. Definiciones (artículo 2)

Las definiciones del artículo 2 siguen las de la Ley de IA a fin de garantizar la coherencia.

El artículo 2, apartado 6, letra b), establece que las demandas por daños y perjuicios pueden ser interpuestas no solo por el perjudicado, sino también por las personas que lo hayan sucedido o se hayan subrogado en sus derechos. La subrogación es la asunción por un tercero (como una compañía de seguros) del derecho legal de otra parte a cobrar una deuda o una indemnización por daños y perjuicios. De este modo, una persona tiene derecho a hacer valer los derechos de otra en beneficio propio. La subrogación también abarcaría a los herederos de una víctima fallecida.

Además, el artículo 2, apartado 6, letra c), establece que también puede interponer una demanda por daños y perjuicios una persona que actúe en nombre de una o varias partes perjudicadas, de conformidad con el Derecho de la Unión o nacional. Esta disposición tiene por objeto brindar más posibilidades a las personas perjudicadas por un sistema de IA de que un tribunal conozca de su demanda, incluido en aquellos casos en interponer una demanda individual pueda parecer demasiado costoso o engorroso, o cuando una demanda conjunta pueda conllevar beneficios de escala. Para que las víctimas de daños causados por sistemas de IA puedan hacer valer sus derechos en relación con la presente Directiva mediante acciones de representación, el artículo 6 modifica el anexo I de la Directiva (UE) 2020/1828.

3. Exhibición de pruebas (artículo 3)

La presente Directiva pretende proporcionar a las personas que soliciten una indemnización por los daños causados por sistemas de IA de alto riesgo medios eficaces para determinar las personas potencialmente responsables y las pruebas pertinentes de cara a una demanda. Al mismo tiempo, estos medios sirven para excluir a posibles demandados determinados erróneamente, ahorrando tiempo y costes a las partes implicadas y reduciendo la carga de trabajo de los tribunales.

A este respecto, el artículo 3, apartado 1, de la Directiva establece que un órgano jurisdiccional puede ordenar la exhibición de pruebas pertinentes relativas a sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños. Las solicitudes de pruebas se dirigen al proveedor de un sistema de IA, a una persona sujeta a las obligaciones del proveedor establecidas en el artículo 24 o el artículo 28, apartado 1, de la Ley de IA, o a un usuario con arreglo a la Ley de IA. Las solicitudes deben estar respaldadas por hechos y pruebas suficientes para acreditar la viabilidad de la demanda por daños y perjuicios prevista y las pruebas solicitadas deben estar a disposición de los destinatarios. Las solicitudes no pueden dirigirse a partes que no estén sujetas a obligaciones en virtud de la Ley de IA y que, por tanto, no tengan acceso a las pruebas.

De conformidad con el artículo 3, apartado 2, el demandante solo puede solicitar la exhibición de pruebas a proveedores o usuarios que no sean demandados en caso de que se hayan realizado sin éxito todos los intentos proporcionados de obtener las pruebas del demandado.

Para que los medios judiciales sean eficaces, el artículo 3, apartado 3, de la Directiva establece que un órgano jurisdiccional también puede ordenar la conservación de tales pruebas.

De conformidad con el artículo 3, apartado 4, párrafo primero, el órgano jurisdiccional únicamente puede ordenar dicha exhibición en la medida necesaria para sustentar la demanda, dado que la información podría constituir una prueba fundamental para la demanda de la persona perjudicada en caso de daños en los que hayan mediado sistemas de IA.

Al limitar la obligación de exhibición o conservación a las pruebas necesarias y proporcionadas, el artículo 3, apartado 4, párrafo primero, pretende garantizar la proporcionalidad en la exhibición de las pruebas, es decir, limitar la exhibición al mínimo necesario e impedir solicitudes genéricas.

El artículo 3, apartado 4, párrafos segundo y tercero, tiene también por objeto lograr un equilibrio entre los derechos del demandante y la necesidad de garantizar que dicha exhibición esté sujeta a garantías que protejan los intereses legítimos de todas las partes interesadas, como los secretos comerciales o la información confidencial.

En el mismo contexto, el artículo 3, apartado 4, párrafo cuarto, tiene por objeto garantizar que la persona sujeta a la orden de exhibición o conservación tenga remedios procesales a su disposición.

El artículo 3, apartado 5, introduce una presunción de incumplimiento de un deber de diligencia. Se trata de una herramienta procesal, pertinente únicamente en aquellos casos en que sea el propio demandado en una demanda por daños y perjuicios quien soporte las consecuencias del incumplimiento de una solicitud de exhibición o conservación de pruebas. Al demandado le asistirá el derecho de refutar esa presunción. La medida establecida en este apartado tiene por objeto promover la exhibición, pero también acelerar los procedimientos judiciales.

4. Presunción de relación de causalidad en caso de culpa (artículo 4)

En lo que respecta a los daños causados por sistemas de IA, la presente Directiva pretende proporcionar un fundamento eficaz para reclamar una indemnización en relación con la culpa consistente en el incumplimiento de un deber de diligencia en virtud del Derecho de la Unión o nacional.

Puede resultar difícil para los demandantes probar que existe un nexo causal entre dicho incumplimiento y la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA que haya dado lugar a los daños en cuestión. Por lo tanto, en el artículo 4, apartado 1, se ha establecido una presunción refutable de causalidad específica en relación con este nexo causal. Esta presunción es la medida menos gravosa para dar respuesta a la necesidad de una indemnización justa para la víctima.

El demandante debe demostrar la culpa del demandado con arreglo a las normas nacionales o de la Unión aplicables. Esta culpa puede determinarse, por ejemplo, por incumplimiento de un deber de diligencia en virtud de la Ley de IA o de otras normas establecidas a escala de la Unión, como las que regulan el uso de la supervisión y la toma de decisiones automatizadas para el trabajo en plataformas o las que regulan el funcionamiento de aeronaves no tripuladas. El órgano jurisdiccional también puede presumir la culpa sobre la base del incumplimiento de una orden judicial de exhibición o conservación de pruebas con arreglo al artículo 3, apartado 5. No obstante, solo procede introducir una presunción de causalidad cuando pueda considerarse probable que la culpa en cuestión haya influido en la información de salida del sistema de IA pertinente —o en la ausencia de la información de salida—, lo cual puede evaluarse en función de las circunstancias generales del caso. Al mismo tiempo, el demandante aún tiene que demostrar que el sistema de IA (es decir, su información de salida o la no producción de una información de salida) ha causado los daños.

Los apartados 2 y 3 distinguen entre, por una parte, las demandas interpuestas contra el proveedor de un sistema de IA de alto riesgo o contra una persona sujeta a las obligaciones del proveedor en virtud de la Ley de IA y, por otra parte, las demandas interpuestas contra el usuario de dichos sistemas. A este respecto, sigue las disposiciones respectivas y las condiciones pertinentes de la Ley de IA. En el caso de las demandas fundadas en el artículo 4, apartado 2, el cumplimiento por parte de los demandados de las obligaciones enumeradas en dicho apartado debe evaluarse también a la luz del sistema de gestión de riesgos y sus resultados, es decir, las medidas de gestión de riesgos, con arreglo a la Ley de IA.

En el caso de los sistemas de IA de alto riesgo, tal como se definen en la Ley de IA, el artículo 4, apartado 4, establece una excepción a la presunción de causalidad cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal. Esta posibilidad puede incentivar a los demandados a cumplir sus obligaciones de exhibición, las medidas establecidas por la Ley de IA para garantizar un alto nivel de transparencia de la IA o los requisitos de documentación y registro.

En el caso de los sistemas de IA de riesgo no elevado, el artículo 4, apartado 5, establece una condición para la aplicabilidad de la presunción de causalidad en virtud de la cual esta última está sujeta a que el órgano jurisdiccional determine que es excesivamente difícil para el demandante demostrar el nexo causal. Tales dificultades deben evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA.

En los casos en que el demandado utilice el sistema de IA en el transcurso de una actividad personal y no profesional, el artículo 4, apartado 6, establece que la presunción de causalidad solo debe aplicarse si el demandado ha interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o si el demandado tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo. Esta condición se justifica por la necesidad de ponderar los intereses de los perjudicados y de los usuarios no profesionales, eximiendo de la aplicación de la presunción de causalidad aquellos casos en que los usuarios no profesionales no incrementen el riesgo a través de su comportamiento.

Por último, el artículo 4, apartado 7, establece que el demandado tiene derecho a refutar la presunción de causalidad basada en el artículo 4, apartado 1.

Estas normas eficaces en materia de responsabilidad civil tienen la ventaja añadida de ofrecer a todos los que participan en actividades relacionadas con sistemas de IA un incentivo adicional para cumplir sus obligaciones en relación con la conducta que se espera de ellos.

5. Evaluación y revisión específica (artículo 5)

Varios ordenamientos jurídicos nacionales prevén diferentes regímenes de responsabilidad objetiva. En su Resolución de propia iniciativa de 20 de octubre de 2020, el Parlamento Europeo también propuso elementos para un régimen de este tipo a escala de la UE, consistentes en un régimen de responsabilidad objetiva limitada para determinadas tecnologías basadas en la IA y en una carga de la prueba facilitada en virtud de normas de responsabilidad subjetiva. Las consultas públicas también pusieron de relieve la preferencia por un régimen de este tipo entre los encuestados (excepto en el caso de las empresas que no son pymes), acompañado o no de un seguro obligatorio.

Sin embargo, la propuesta tiene en cuenta las diferencias entre las tradiciones jurídicas nacionales y el hecho de que el tipo de productos y servicios equipados con sistemas de IA que podrían afectar al público en general y poner en peligro importantes derechos —como el derecho a la vida, a la salud y a la propiedad— y que, por tanto, podrían estar sujetos a un régimen de responsabilidad estricta, todavía no están ampliamente disponibles en el mercado.

Se ha puesto en marcha un programa de seguimiento para proporcionar a la Comisión información sobre incidentes relacionados con sistemas de IA. La revisión específica evaluará si serían necesarias medidas adicionales, como la introducción de un régimen de responsabilidad objetiva o un seguro obligatorio.

6. Incorporación al Derecho nacional (artículo 7)

Al notificar a la Comisión las medidas nacionales de transposición para dar cumplimiento a la presente Directiva, los Estados miembros también deben facilitar documentos explicativos que proporcionen información suficientemente clara y precisa e indiquen, para cada disposición de la presente Directiva, la disposición o disposiciones nacionales que garanticen su transposición. Esto es necesario para que la Comisión pueda determinar, con respecto de cada disposición de la Directiva que requiere transposición, la parte pertinente de las medidas nacionales de transposición que crea la obligación legal correspondiente en el ordenamiento jurídico nacional, independientemente de la forma elegida por los Estados miembros.

2022/0303 (COD) Propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA)

EL PARLAMENTO EUROPEO Y EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea, y en particular su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo ( ,)

Visto el dictamen del Comité de las Regiones (30),

De conformidad con el procedimiento legislativo ordinario,

Considerando lo siguiente:

(1) La inteligencia artificial («IA») es un conjunto de tecnologías facilitadoras que puede aportar una amplia gama de beneficios en todo el espectro de la economía y la sociedad. Alberga un gran potencial para el progreso tecnológico y permite nuevos modelos de negocio en muchos sectores de la economía digital.

(2) Al mismo tiempo, dependiendo de las circunstancias de su aplicación y uso específicos, la IA puede generar riesgos y perjudicar intereses y derechos protegidos por el Derecho de la Unión o nacional. Por ejemplo, el uso de la IA puede incidir negativamente en una serie de derechos fundamentales, como la vida, la integridad física, la no discriminación y la igualdad de trato. El Reglamento (UE)…/… del Parlamento Europeo y del Consejo [Ley de IA] (31) establece requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales, mientras que otros instrumentos del Derecho de la Unión regulan las normas generales (32) y sectoriales de seguridad de los productos aplicables también a las máquinas y sus partes y accesorios (33) y a los equipos radioeléctricos (34) basados en IA. Si bien estos requisitos destinados a reducir los riesgos para la seguridad y los derechos fundamentales tienen por objeto prevenir, hacer un seguimiento y abordar los riesgos para, así, hacer frente a las preocupaciones sociales, no ofrecen ayuda individual a quienes han sufrido daños causados por la IA. Los requisitos existentes prevén, en particular, autorizaciones, controles, seguimiento y sanciones administrativas en relación con los sistemas de IA con el fin de evitar daños. No prevén la indemnización de la persona perjudicada por los daños causados por una información de salida producida por un sistema de IA, o por la no producción de una información de salida.

(3) Cuando un perjudicado solicita la indemnización del perjuicio sufrido, las normas generales de los Estados miembros en materia de responsabilidad subjetiva exigen normalmente al perjudicado que demuestre que ha habido un acto u omisión negligente o intencionadamente perjudicial («culpa») por parte de la persona potencialmente responsable de dicho daño, así como el nexo causal entre dicha culpa y el daño en cuestión. Sin embargo, cuando la IA se interpone entre el acto u omisión de una persona y el daño, las características específicas de determinados sistemas de IA, como la opacidad, el comportamiento autónomo y la complejidad, pueden hacer excesivamente difícil, si no imposible, que el perjudicado satisfaga la carga de la prueba. En particular, puede resultar excesivamente difícil demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable ha dado lugar a una información de salida específica de un sistema de IA que, a su vez, ha provocado el daño en cuestión.

(4) En tales casos, el grado de resarcimiento que ofrecen las normas nacionales en materia de responsabilidad civil puede ser menor que en los casos en que las tecnologías que mediaron en la causación del daño son distintas de la IA. Estas diferencias en la indemnización pueden contribuir a reducir el nivel de aceptación social de la IA y la confianza en los productos y servicios basados en la IA.

(5) A fin de aprovechar los beneficios económicos y sociales de la IA y de promover la transición a la economía digital, es necesario adaptar de manera específica determinadas normas nacionales de responsabilidad civil a las características específicas de determinados sistemas de IA. Estas adaptaciones deben contribuir a la confianza de la sociedad y de los consumidores y, de este modo, promover la introducción generalizada de la IA. Estas adaptaciones también deben mantener la confianza en el sistema judicial, garantizando que las víctimas de daños causados en cuya causación haya mediado la IA reciban la misma indemnización efectiva que las víctimas de daños causados por otras tecnologías.

(6) Las partes interesadas — los perjudicados que sufren daños, las personas potencialmente responsables, las aseguradoras — se enfrentan a una inseguridad jurídica en cuanto a la manera en que los órganos jurisdiccionales nacionales podrían, al verse confrontados a los retos característicos de la IA, aplicar las normas vigentes en materia de responsabilidad a casos concretos con el fin de lograr resultados justos. A falta de actuación por parte de la Unión, es probable que al menos algunos Estados miembros adapten sus normas de responsabilidad civil para acometer los problemas de las discrepancias en materia de indemnización y de la inseguridad jurídica relacionados con las características específicas de determinados sistemas de IA. Esto crearía fragmentación jurídica y obstáculos al mercado interior para las empresas que desarrollen o suministren productos o servicios innovadores basados en la IA. Las pymes se verían especialmente afectadas.

(7) La finalidad de la presente Directiva es contribuir al correcto funcionamiento del mercado interior mediante la armonización de determinadas normas nacionales de responsabilidad extracontractual basada en la culpa (subjetiva), a fin de garantizar que las personas que reclamen una indemnización por los daños y perjuicios que les cause un sistema de IA disfruten de un nivel de protección equivalente al de las personas que reclaman una indemnización por los daños causados sin la mediación de un sistema de IA. Este objetivo no puede ser alcanzado de manera suficiente por los Estados miembros porque los obstáculos pertinentes del mercado interior están vinculados al riesgo de medidas normativas unilaterales y fragmentadas a nivel nacional. Dada la naturaleza digital de los productos y servicios comprendidos en el ámbito de aplicación de la presente Directiva, esta última es especialmente pertinente en los contextos transfronterizos.

(8) Por tanto, el objetivo de garantizar la seguridad jurídica y evitar las discrepancias en la indemnización en aquellos casos en que medien sistemas de IA puede lograrse mejor a escala de la Unión. Por consiguiente, la Unión puede adoptar medidas con arreglo al principio de subsidiariedad contemplado en el artículo 5 del TUE. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, la presente Directiva no excede de lo necesario para alcanzar dichos objetivos.

(9) Por lo tanto, es necesario armonizar de manera específica aspectos específicos de las normas sobre responsabilidad subjetiva a escala de la Unión. Dicha armonización debe aumentar la seguridad jurídica y crear unas condiciones de competencia equitativas para los sistemas de IA, mejorando así el funcionamiento del mercado interior en lo que respecta a la producción y difusión de productos y servicios basados en la IA.

(10) Para garantizar la proporcionalidad, conviene armonizar de manera específica únicamente las normas de responsabilidad subjetiva que rigen la carga de la prueba para las personas que reclamen una indemnización por daños y perjuicios causados por sistemas de IA. La presente Directiva no debe armonizar los aspectos generales de la responsabilidad civil que estén regulados de diferentes maneras por las normas nacionales de responsabilidad civil, como la definición de la culpa o la causalidad, los diferentes tipos de daños que dan lugar a demandas por daños y perjuicios, la distribución de la responsabilidad entre varios causantes de los daños, la concurrencia de culpas, el cálculo de los daños y perjuicios o los plazos de prescripción.

(11) Las leyes de los Estados miembros relativas a la responsabilidad de los productores por los daños causados por el carácter defectuoso de sus productos ya están armonizadas a escala de la Unión mediante la Directiva 85/374/CEE del Consejo (35) . Sin embargo, dichas leyes no afectan a las normas de los Estados miembros en materia de responsabilidad contractual o extracontractual sobre aspectos como la garantía, la culpa o la responsabilidad objetiva, basada en motivos distintos de los defectos del producto. Si bien, al mismo tiempo, la revisión de la Directiva 85/374/CEE del Consejo pretende aclarar y garantizar que el perjudicado pueda reclamar una indemnización por los daños causados por productos defectuosos basados en la IA, debe aclararse, por tanto, que las disposiciones de la presente Directiva no afectan a los derechos que el perjudicado pueda tener en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE. Además, en el ámbito del transporte, el Derecho de la Unión que regula la responsabilidad de los transportistas no debe verse afectado por la presente directiva.

(12) [La Ley de Servicios Digitales (LSD) (36)] armoniza plenamente las normas aplicables a los prestadores de servicios intermediarios en el mercado interior, cubriendo los riesgos sociales derivados de los servicios ofrecidos por dichos proveedores, incluido en lo que respecta a los sistemas de IA que utilizan. La presente Directiva no afecta a las disposiciones de la [Ley de Servicios Digitales (LSD)] que proporcionan un marco integral y plenamente armonizado respecto de las obligaciones de diligencia debida para la toma de decisiones algorítmica por parte de los prestadores de servicios de alojamiento de datos, incluida la exención de responsabilidad por la difusión de contenidos ilícitos cargados por los destinatarios de sus servicios cuando se cumplan las condiciones de dicho Reglamento.

(13) Salvo en lo que se refiere a las presunciones que establece, la presente Directiva no armoniza las legislaciones nacionales en lo relativo a la parte sobre la que recae la carga de la prueba o al grado de certeza necesario para que haya fuerza probatoria.

(14) La presente Directiva debe seguir un enfoque de armonización mínima, ya que así se permite a los demandantes en casos de daños causados por sistemas de IA invocar normas más favorables del Derecho nacional. Así pues, las legislaciones nacionales podrían, por ejemplo, mantener la inversión de la carga de la prueba en el contexto de regímenes nacionales de responsabilidad subjetiva (basada en la culpa) o de regímenes nacionales de responsabilidad sin culpa (conocida como «responsabilidad objetiva») —de los que ya existe una gran variedad en las legislaciones nacionales— que puedan resultar de aplicación a los daños causados por sistemas de IA.

(15) También debe garantizarse la coherencia con [la Ley de IA]. Procede, por tanto, que la presente Directiva utilice las mismas definiciones con respecto a los sistemas de IA, los proveedores y los usuarios. Además, la presente Directiva solo debe abarcar las demandas por daños y perjuicios que hayan sido causados por una información de salida —o por la no producción de una información de salida— imputable a un sistema de IA cuando medie culpa de una persona, por ejemplo, el proveedor o el usuario con arreglo a la [Ley de IA]. No es necesario abarcar las demandas de responsabilidad cuando los daños hayan sido causados por una evaluación humana seguida de una acción u omisión humana y el sistema de IA se haya limitado a proporcionar información o asesoramiento que fue tenido en cuenta por el agente humano de que se trate. En este último caso, es posible atribuir los daños causados a una acción u omisión humana, ya que la información de salida del sistema de IA no se interpone entre la acción u omisión humana y el daño, por lo que establecer la causalidad no es más difícil que en situaciones en las que no interviene un sistema de IA.

(16) El acceso a información sobre sistemas de IA de alto riesgo específicos de los que se sospecha que han causado daños y perjuicios es un factor importante a la hora de determinar si procede reclamar una indemnización y de fundamentar las demandas de indemnización. Además, en el caso de los sistemas de IA de alto riesgo, [la Ley de IA] establece requisitos específicos de documentación, información y registro, pero no otorga al perjudicado el derecho a acceder a dicha información. Procede, por tanto, establecer normas sobre la exhibición de los medios de prueba pertinentes por parte de quienes los tengan a su disposición a efectos de determinar la responsabilidad. Esto también debe ofrecer un incentivo adicional para cumplir los requisitos pertinentes establecidos en la [Ley de IA] para documentar o registrar la información pertinente.

(17) El gran número de personas que suele participar en el diseño, el desarrollo, la introducción generalizada y el funcionamiento de sistemas de IA de alto riesgo hace difícil que los perjudicados identifiquen a la persona potencialmente responsable de los daños causados y demuestren que se cumplen las condiciones para interponer una demanda por daños y perjuicios. Para que los perjudicados puedan determinar si una demanda por daños y perjuicios es fundada, conviene conceder a los demandantes potenciales el derecho a solicitar a un órgano jurisdiccional que ordene la exhibición de las pruebas pertinentes antes de presentar una demanda por daños y perjuicios. Dicha exhibición solo debe ordenarse cuando el demandante potencial presente hechos e información suficientes para acreditar la viabilidad de una demanda por daños y perjuicios y haya presentado previamente una solicitud al proveedor, a la persona sujeta a las obligaciones de un proveedor o al usuario para que exhiba dichas pruebas que obran en su poder sobre sistemas de IA de alto riesgo específicos de los que se sospeche que han causado daños y perjuicios, y que esta solicitud haya sido denegada. La orden de exhibición debe llevar a una reducción de los litigios innecesarios y evitar costes a los posibles litigantes causados por demandas sin fundamento o con pocas posibilidades de prosperar. La negativa del proveedor, de la persona sujeta a las obligaciones de un proveedor o del usuario previa a la solicitud de exhibición de pruebas al órgano jurisdiccional no debe dar lugar a la presunción de incumplimiento de las obligaciones de diligencia pertinentes por parte de la persona que deniegue dicha exhibición.

(18) La limitación de la exhibición de pruebas en lo que respecta a los sistemas de IA de alto riesgo es coherente con la [Ley de IA], que establece determinadas obligaciones específicas en materia de documentación, conservación de registros e información para los operadores que participan en el diseño, el desarrollo y la introducción de sistemas de IA de alto riesgo. Esta coherencia también garantiza la proporcionalidad necesaria al evitar que los operadores de sistemas de IA que planteen un riesgo menor o nulo tengan que documentar la información con un grado de detalle similar al exigido en el caso de los sistemas de IA de alto riesgo en virtud de la [Ley de IA].

(19) Los órganos jurisdiccionales nacionales deben poder ordenar, en el transcurso de un proceso civil, la exhibición o conservación de pruebas pertinentes relacionadas con los daños causados por sistemas de IA de alto riesgo a personas que ya estén obligadas a documentar o registrar información en virtud de la [Ley de IA], ya se trate de proveedores, de personas sujetas a las mismas obligaciones que los proveedores o de usuarios de un sistema de IA, y ya sean estos demandados o terceros con respecto a la demanda. Podrían darse situaciones en las que las pruebas pertinentes para el asunto obren en poder de entidades que no sean parte en la demanda por daños y perjuicios, pero que estén obligadas a documentar o registrar dichas pruebas de conformidad con la [Ley de IA]. Por lo tanto, es necesario fijar las condiciones en que se puede ordenar a tales terceros con respecto a la demanda que exhiban las pruebas pertinentes.

(20) Para mantener el equilibrio entre los intereses de las partes en la demanda por daños y perjuicios y los de los terceros afectados, los órganos jurisdiccionales deben ordenar la exhibición de pruebas únicamente cuando sea necesario y proporcionado para sustentar la demanda real o potencial por daños y perjuicios. A este respecto, la exhibición solo debe referirse a las pruebas que sean necesarias para adoptar una decisión sobre la correspondiente demanda por daños y perjuicios, por ejemplo, solo las partes de los registros o conjuntos de datos pertinentes necesarias para demostrar el incumplimiento de un requisito fijado por la [Ley de IA]. Para garantizar la proporcionalidad de tales medidas de exhibición o conservación, los órganos jurisdiccionales nacionales deben disponer de medios eficaces para salvaguardar los intereses legítimos de todas las partes implicadas, por ejemplo la protección de los secretos comerciales en el sentido de la Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo (37) y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional. Por lo que respecta a los secretos comerciales o a los presuntos secretos comerciales que el órgano jurisdiccional haya considerado como confidenciales en el sentido de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales deben estar facultados para adoptar medidas específicas que garanticen la confidencialidad de los secretos comerciales durante y después del proceso, al tiempo que se logra un equilibrio justo y proporcionado entre el interés del poseedor del secreto comercial en mantener el secreto y el interés de la persona perjudicada. Esto debe incluir medidas para restringir el acceso a los documentos que contengan secretos comerciales y el acceso a las audiencias o los documentos y sus transcripciones a un número limitado de personas. Al decidir sobre tales medidas, los órganos jurisdiccionales nacionales deben tener en cuenta la necesidad de garantizar el derecho a la tutela judicial efectiva y a un juez imparcial, los intereses legítimos de las partes y, en su caso, de terceros, así como el perjuicio que pudiera ocasionarse a cualquiera de las partes o, en su caso, a terceros, como consecuencia de que se acuerden o no dichas medidas. Por otra parte, a fin de garantizar una aplicación proporcionada de las medidas de exhibición dirigidas a terceros en las demandas por daños y perjuicios, los órganos jurisdiccionales nacionales deben ordenar la exhibición por parte de terceros únicamente si las pruebas no pueden obtenerse del demandado.

(21) Si bien los órganos jurisdiccionales nacionales disponen de medios para hacer ejecutar sus órdenes de exhibición a través de diversas medidas, tales medidas de ejecución podrían retrasar las demandas por daños y perjuicios y, por tanto, generar gastos adicionales para los litigantes. Para los perjudicados, tales retrasos y gastos adicionales pueden dificultar su acceso a la tutela judicial efectiva. Por lo tanto, cuando un demandado en una demanda de indemnización por daños y perjuicios no exhibe las pruebas a su disposición según lo ordenado por un órgano jurisdiccional, procede establecer una presunción de incumplimiento de las obligaciones de diligencia que dichas pruebas debían demostrar. Esta presunción refutable reducirá la duración de los litigios y redundará en una mayor eficiencia de los procedimientos judiciales. El demandado debe poder refutar esta presunción presentando pruebas en contrario.

(22) A fin de hacer frente a las dificultades para demostrar que un dato de entrada concreto del que es responsable la persona potencialmente responsable dio lugar a una información de salida específica de un sistema de IA que, a su vez, provocó el daño en cuestión, procede establecer, en determinadas condiciones, una presunción de causalidad. Si bien, en las demandas basadas en la culpa, el demandante normalmente tiene que probar el daño, la acción u omisión humana que determina la culpa del demandado y el vínculo de causalidad entre ambos, la presente Directiva no armoniza las condiciones en las que los órganos jurisdiccionales nacionales establecen la culpa. Siguen rigiéndose por el Derecho nacional aplicable y, cuando haya habido armonización, por el Derecho de la Unión aplicable. Del mismo modo, la presente Directiva no armoniza las condiciones relacionadas con los daños, por ejemplo, la cuestión de qué daños son indemnizables, que también están regulados por la legislación nacional y de la Unión aplicable. Para que se aplique la presunción de causalidad en virtud de la presente Directiva, la culpa del demandado debe establecerse como una acción u omisión humana que no se ajuste a un deber de diligencia derivado del Derecho de la Unión o nacional directamente destinado a proteger contra los daños que se hayan producido. Así pues, esta presunción puede aplicarse, por ejemplo, en demandas de indemnización por lesiones corporales cuando el órgano jurisdiccional establezca la culpa del demandado por incumplimiento de las instrucciones de uso destinadas a evitar daños a personas físicas. El incumplimiento de deberes de diligencia no destinados directamente a proteger contra los daños producidos no da lugar a la aplicación de la presunción; así, por ejemplo, el hecho de que un proveedor no presentase la documentación requerida ante las autoridades competentes no daría lugar a la aplicación de la presunción en las demandas de indemnización por lesiones corporales. También debe ser necesario establecer que puede considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa haya influido en la información de salida producida por el sistema de IA o en que el sistema de IA no haya producido una información de salida. Por último, debe exigirse al demandante que demuestre que la información de salida o la no producción de información de salida dio lugar al daño.

(23) Esta culpa puede establecerse en relación con el incumplimiento de las normas de la Unión que regulan específicamente los sistemas de IA de alto riesgo, como los requisitos introducidos para determinados sistemas de IA de alto riesgo por la [Ley de IA], los requisitos que pueden introducirse mediante la futura legislación sectorial para otros sistemas de IA de alto riesgo de conformidad con el [artículo 2, apartado 2, de la Ley de IA], o los deberes de diligencia vinculados a determinadas actividades y que son aplicables con independencia de que la IA se utilice o no para esa actividad. Al mismo tiempo, la presente Directiva ni crea ni armoniza los requisitos o la responsabilidad de las entidades cuya actividad está regulada por dichos actos jurídicos y, por tanto, no da lugar a nuevas demandas de responsabilidad. La prueba del incumplimiento de tales requisitos determinantes de la culpa se llevará a cabo de conformidad con las disposiciones de dichas normas aplicables del Derecho de la Unión, ya que la presente Directiva ni introduce nuevos requisitos ni afecta a los vigentes. Por ejemplo, la exención de responsabilidad de los prestadores de servicios intermediarios y las obligaciones de diligencia debida a las que están sujetos en virtud de la [Ley de Servicios Digitales] no se ven afectadas por la presente Directiva. Del mismo modo, el cumplimiento de los requisitos impuestos a las plataformas en línea para evitar la comunicación no autorizada al público de obras protegidas por derechos de autor debe establecerse en virtud de la Directiva (UE) 2019/790 sobre los derechos de autor y derechos afines en el mercado único digital y otra legislación pertinente de la Unión en materia de derechos de autor.

(24) En los ámbitos no armonizados por el Derecho de la Unión, sigue siendo de aplicación el Derecho nacional y la existencia de culpa se determina en virtud de la legislación nacional aplicable. Todos los regímenes nacionales de responsabilidad establecen obligaciones de diligencia y adoptan como norma de conducta diferentes expresiones del principio de que se debe actuar como una persona razonable, que también garantizan el funcionamiento seguro de los sistemas de IA con el fin de evitar el menoscabo de los intereses jurídicos protegidos. Estos deberes de diligencia podrían, por ejemplo, exigir a los usuarios de sistemas de IA que elijan para determinadas tareas un sistema de IA concreto con características determinadas o que excluyan a determinados segmentos de una población de la exposición a un sistema de IA concreto. La legislación nacional también puede introducir obligaciones específicas destinadas a prevenir los riesgos de determinadas actividades que sean de aplicación con independencia de que la IA se utilice o no para esa actividad, por ejemplo, normas de tráfico u obligaciones diseñadas específicamente para los sistemas de IA como, por ejemplo, requisitos nacionales adicionales para los usuarios de sistemas de IA de alto riesgo de conformidad con el artículo 29, apartado 2, de la [Ley de IA]. La presente Directiva no introduce tales requisitos ni afecta a las condiciones para determinar la existencia de culpa en caso de incumplimiento de dichos requisitos.

(25) Aun cuando se demuestre la existencia de una culpa consistente en el incumplimiento de un deber de diligencia destinado directamente a proteger contra los daños sufridos, no toda culpa debe dar lugar a la aplicación de la presunción refutable que la vincula a la información de salida de la IA. Tal presunción solo debe aplicarse cuando pueda considerarse razonablemente probable, en función de las circunstancias en las que se produjo el daño, que dicha culpa ha influido en la información de salida producida por el sistema de IA o en la no producción de la información de salida por parte del sistema de IA que haya dado lugar al daño. Por ejemplo, puede considerarse razonablemente probable que la culpa ha influido en la información de salida o en la no producción de una información de salida cuando dicha culpa consista en el incumplimiento de un deber de diligencia con respecto a la limitación del perímetro de funcionamiento del sistema de IA y los daños se hayan producido fuera del perímetro de funcionamiento. Por el contrario, no puede considerarse razonablemente probable que el incumplimiento de la obligación de presentar determinados documentos o de registrarse ante una autoridad determinada —aunque ello pueda estar previsto para esa actividad concreta o incluso ser expresamente aplicable al funcionamiento de un sistema de IA— ha influido en la información de salida producida por el sistema de IA o en la no producción de dicha información de salida por sistema de IA.

(26) La presente Directiva cubre la culpa constitutiva de incumplimiento de determinados requisitos enumerados en los capítulos 2 y 3 de la [Ley de IA] para los proveedores y usuarios de sistemas de IA de alto riesgo, cuyo incumplimiento puede dar lugar, en determinadas condiciones, a una presunción de causalidad. La Ley de IA prevé la plena armonización de los requisitos aplicables a los sistemas de IA, a menos que en ella se establezca expresamente lo contrario. Armoniza los requisitos específicos para los sistemas de IA de alto riesgo. Por lo tanto, a efectos de las demandas por daños y perjuicios en las que se aplica una presunción de causalidad con arreglo a la presente Directiva, la posible culpa de los proveedores o de las personas sujetas a las obligaciones de un proveedor en virtud de la [Ley de IA] solo se establece mediante el incumplimiento de dichos requisitos. Dado que, en la práctica, puede resultar difícil para el demandante demostrar dicho incumplimiento cuando el demandado es un proveedor del sistema de IA, y en plena coherencia con la lógica de la [Ley de IA], la presente Directiva también debe establecer que las medidas adoptadas por el proveedor en el marco del sistema de gestión de riesgos y los resultados del sistema de gestión de riesgos, es decir, la decisión de adoptar o no determinadas medidas de gestión de riesgos, deben tenerse en cuenta a la hora de determinar si el proveedor ha cumplido los requisitos pertinentes de la Ley de IA a que se refiere la presente Directiva. El sistema de gestión de riesgos adoptado por el proveedor de conformidad con la [Ley de IA] es un proceso iterativo continuo que se aplica a lo largo de todo el ciclo de vida del sistema de IA de alto riesgo mediante el cual el proveedor garantiza el cumplimiento de los requisitos obligatorios destinados a mitigar los riesgos y, por tanto, puede ser un elemento útil a efectos de la evaluación de dicho cumplimiento. La presente Directiva también abarca los casos de culpa de los usuarios cuando dicha culpa consista en el incumplimiento de determinadas exigencias específicas establecidas por la [Ley de IA]. Además, la culpa de los usuarios de sistemas de IA de alto riesgo puede determinarse a raíz del incumplimiento de otras obligaciones de diligencia establecidas en el Derecho de la Unión o nacional, a la luz del artículo 29, apartado 2, de la [Ley de IA].

(27) Si bien las características específicas de determinados sistemas de IA, como la autonomía y la opacidad, podrían dificultar excesivamente al demandante la satisfacción de la carga de la prueba, podrían darse situaciones en las que no se den tales dificultades por disponer el demandante de suficientes pruebas y conocimientos especializados para demostrar el nexo causal. Este podría ser el caso, por ejemplo, de los sistemas de IA de alto riesgo respecto de los cuales el demandante podría tener un acceso razonable a pruebas y conocimientos especializados suficientes mediante requisitos de documentación y registro de conformidad con la [Ley de IA]. En tales situaciones, el órgano jurisdiccional no debe aplicar la presunción.

(28) La presunción de causalidad también podría aplicarse a los sistemas de IA que no sean de alto riesgo, ya que podría haber dificultades de prueba excesivas para el demandante. Por ejemplo, tales dificultades podrían evaluarse a la luz de las características de determinados sistemas de IA, como la autonomía y la opacidad, que hacen muy difícil en la práctica la explicación del funcionamiento interno del sistema de IA, lo que afecta negativamente a la capacidad del demandante para demostrar el nexo causal entre la culpa del demandado y la información de salida de IA. Los órganos jurisdiccionales nacionales deben aplicar la presunción cuando el demandante se encuentre en una situación excesivamente difícil para demostrar la causalidad por verse en la obligación de explicar la manera en que el acto u omisión humano determinante de la culpa llevó al sistema de IA a producir la información de salida que dio lugar al daño o a no producir la información de salida cuya ausencia dio lugar al daño. Sin embargo, no debe exigirse al demandante que explique las características del sistema de IA de que se trate ni el modo en que estas características dificultan la determinación del nexo causal.

(29) La aplicación de la presunción de causalidad tiene por objeto garantizar al perjudicado un nivel de protección similar al existente en aquellas situaciones en las que no interviene la IA y en las que, por tanto, la causalidad puede ser más fácil de demostrar. No obstante, el aligeramiento de la carga de probar la causalidad no siempre es apropiado en virtud de la presente Directiva cuando el demandado no sea un usuario profesional, sino una persona que utiliza el sistema de IA para sus actividades privadas. En tales circunstancias, a fin de lograr un equilibrio entre los intereses de los perjudicados y los de los usuarios no profesionales, ha de tenerse en cuenta si dichos usuarios no profesionales pueden aumentar, mediante su comportamiento, el riesgo de que un sistema de IA cause daños. Si el proveedor de un sistema de IA ha cumplido todas sus obligaciones y, en consecuencia, se ha considerado que dicho sistema es suficientemente seguro para ser comercializado con vistas a un uso determinado por usuarios no profesionales y, a continuación, se utiliza con dicha finalidad, no debe aplicarse una presunción de causalidad por la mera puesta en funcionamiento de dicho sistema por parte de tales usuarios no profesionales. A los usuarios no profesionales que compren sistemas de IA y simplemente lo pongan en funcionamiento con arreglo a su finalidad, sin interferir sustancialmente en las condiciones de funcionamiento, no se les debe aplicar la presunción de causalidad establecida en la presente Directiva. No obstante, si un órgano jurisdiccional nacional determina que un usuario no profesional ha interferido sustancialmente en las condiciones de funcionamiento de un sistema de IA o que este tenía la obligación y estaba en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo hizo, entonces debe aplicarse la presunción de causalidad, siempre y cuando se cumplan todas las demás condiciones. Este podría ser el caso, por ejemplo, cuando el usuario no profesional no respeta las instrucciones de uso u otras obligaciones de diligencia aplicables a la hora de elegir el ámbito de operación o de fijar las condiciones de funcionamiento del sistema de IA. Esto se entiende sin perjuicio del hecho de que el proveedor debe determinar la finalidad prevista de los sistemas de IA, incluidos el contexto y las condiciones específicas de uso, y eliminar o minimizar los riesgos de dicho sistema según convenga en el momento del diseño y el desarrollo, teniendo en cuenta los conocimientos y la experiencia de los usuarios previstos.

(30) Dado que la presente Directiva introduce una presunción refutable (iuris tantum), el demandado debe tener la posibilidad de refutarla, en particular demostrando que su culpa no puede haber sido la causa del daño.

(31) Es necesario prever una revisión de la presente Directiva [cinco años] después de la finalización del período de transposición. En particular, mediante dicha revisión debe examinarse si es necesario adoptar normas de responsabilidad objetiva (sin culpa) para las demandas contra el operador —siempre que estas no estén ya cubiertas por otras normas de responsabilidad de la Unión, en particular la Directiva 85/374/CEE— combinadas con un seguro obligatorio para la explotación de determinados sistemas de IA, tal como ha sugerido el Parlamento Europeo (38) . De conformidad con el principio de proporcionalidad, procede evaluar dicha necesidad a la luz de la evolución tecnológica y normativa pertinente en los próximos años, teniendo en cuenta el efecto y la incidencia en la introducción generalizada y la adopción de los sistemas de IA, especialmente para las pymes. Dicha revisión debe tener en cuenta, entre otras cosas, los riesgos que conlleven daños a bienes jurídicos importantes como la vida, la salud y la propiedad de terceros ajenos a estos riesgos a través de la utilización de productos o servicios basados en la IA. Dicha revisión también debe analizar la eficacia de las medidas previstas en la presente Directiva para hacer frente a tales riesgos, así como el desarrollo de soluciones adecuadas por parte del mercado de seguros. Para garantizar la disponibilidad de la información necesaria para llevar a cabo dicha revisión, es menester reunir los datos y demás elementos de prueba necesarios sobre las cuestiones pertinentes.

(32) Habida cuenta de la necesidad de realizar adaptaciones en las normas nacionales de responsabilidad civil y procesales con el fin de fomentar la introducción generalizada de productos y servicios basados en la IA en condiciones beneficiosas para el mercado interior, de aceptación social y de confianza de los consumidores en la tecnología de la IA y en el sistema judicial, conviene fijar un plazo máximo de [dos años desde la entrada en vigor] de la presente Directiva para que los Estados miembros adopten las medidas de transposición necesarias.

(33) De conformidad con la Declaración política conjunta, de 28 de septiembre de 2011, de los Estados miembros y de la Comisión sobre los documentos explicativos (39) , en casos justificados, los Estados miembros se comprometen a adjuntar a la notificación de las medidas de transposición uno o varios documentos que expliquen la relación entre los componentes de una directiva y las partes correspondientes de los instrumentos nacionales de transposición. Por lo que respecta a la presente Directiva, el legislador considera que la transmisión de tales documentos está justificada.

HAN ADOPTADO LA PRESENTE DIRECTIVA:

Artículo 1. Objeto y ámbito de aplicación

1. La presente Directiva establece normas comunes sobre:

a) la exhibición de pruebas relativas a sistemas de inteligencia artificial (IA) de alto riesgo con el fin de permitir a los demandantes fundamentar sus demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) por daños y perjuicios;

b) la carga de la prueba en el caso de demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) interpuestas ante tribunales nacionales por daños y perjuicios causados por sistemas de IA.

2. La presente Directiva se aplica a las demandas de responsabilidad civil extracontractual subjetiva (basada en la culpa) en aquellos casos en que los daños y perjuicios causados por un sistema de IA se produzcan después de [el final del período de transposición].

La presente Directiva no es aplicable a la responsabilidad penal.

3. La presente Directiva no afectará a:

a) las normas del Derecho de la Unión que regulan las condiciones de responsabilidad en el ámbito del transporte;

b) los derechos que puedan asistir a un perjudicado en virtud de las normas nacionales de transposición de la Directiva 85/374/CEE;

c) las exenciones de responsabilidad y las obligaciones de diligencia debida establecidas en [la Ley de servicios digitales], y

d) las normas nacionales que determinen qué parte ha de soportar la carga de la prueba, qué grado de certeza se exige para que haya fuerza probatoria o cómo se define la culpa, con excepción de lo previsto en los artículos 3 y 4.

4. Los Estados miembros podrán adoptar o mantener normas nacionales más favorables para que los demandantes fundamenten sus demandas civiles de responsabilidad extracontractual por daños y perjuicios causados por sistemas de IA, siempre que dichas normas sean compatibles con el Derecho de la Unión.

Artículo 2. Definiciones

A los efectos de la presente Directiva, se entenderá por:

1) «sistema de IA»: un sistema de IA tal como se define en [el artículo 3, apartado 1, de la Ley de IA];

2)«sistema de IA de alto riesgo»: un sistema de IA de alto riesgo de los mencionados en [el artículo 6 de la Ley de IA];

3) «proveedor»: un proveedor tal como se define en [el artículo 3, apartado 2, de la Ley de IA];

4) «usuario»: un usuario tal como se define en [el artículo 3, apartado 4, de la Ley de IA];

5) «demanda por daños y perjuicios»: una demanda de responsabilidad civil extracontractual subjetiva (basada en la culpa) por la que se solicita una indemnización por los daños y perjuicios causados por una información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

6) «demandante»: persona que interpone una demanda por daños y perjuicios y que:

a) se ha visto perjudicada por la información de salida de un sistema de IA o por la no producción por parte de dicho sistema de una información de salida que debería haber producido;

b) ha sucedido a una persona perjudicada o se ha subrogado en su derecho en virtud de una ley o contrato; o

c) actúa en nombre de uno o varios perjudicados, de conformidad con el Derecho de la Unión o nacional;

7) «demandante potencial»: persona física o jurídica que está considerando la posibilidad de presentar una demanda por daños y perjuicios, pero que aún no lo ha hecho;

8) «demandado»: la persona contra la que se interpone una demanda por daños y perjuicios;

9) «deber de diligencia»: norma de conducta exigida establecida por el Derecho nacional o de la Unión con el fin de evitar daños a bienes jurídicos reconocidos a nivel nacional o de la Unión, incluidos la vida, la integridad física, la propiedad y la protección de los derechos fundamentales.

Artículo 3. Exhibición de pruebas y presunción refutable de incumplimiento

1. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales estén facultados, ya sea a petición de un demandante potencial que haya solicitado previamente a un proveedor, a una persona sujeta a las obligaciones de un proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], o a un usuario, que exhiba las pruebas pertinentes que obran en su poder sobre un determinado sistema de IA de alto riesgo del que se sospeche que ha causado daños, pero cuya solicitud haya sido denegada, o a petición de un demandante, para ordenar la exhibición de dichas pruebas a estas personas.

En apoyo de esta solicitud, el demandante potencial deberá presentar hechos y pruebas suficientes para sustentar la viabilidad de una demanda de indemnización por daños y perjuicios.

2. En el contexto de una demanda por daños y perjuicios, el órgano jurisdiccional nacional solo ordenará la exhibición de las pruebas por parte de una de las personas enumeradas en el apartado 1 cuando el demandante haya realizado todos los intentos proporcionados de obtener del demandado las pruebas pertinentes.

3. Los Estados miembros velarán por que los órganos jurisdiccionales nacionales, a solicitud de un demandante, estén facultados para ordenar medidas específicas con el fin de conservar las pruebas mencionadas en el apartado 1.

4. Los órganos jurisdiccionales nacionales limitarán la exhibición de las pruebas y las medidas para su conservación a lo necesario y proporcionado para sustentar una demanda potencial o una demanda por daños y perjuicios.

A la hora de determinar si una orden de exhibición o conservación de pruebas es proporcionada, los órganos jurisdiccionales nacionales tendrán en cuenta los intereses legítimos de todas las partes, incluidos los terceros afectados, en particular los relativos a la protección de secretos comerciales en el sentido del artículo 2, apartado 1, de la Directiva (UE) 2016/943 y de la información confidencial como, por ejemplo, la relacionada con la seguridad pública o nacional.

Los Estados miembros velarán por que, cuando se ordene la revelación de un secreto comercial o de un supuesto secreto comercial que el órgano jurisdiccional haya declarado confidencial en el sentido del artículo 9, apartado 1, de la Directiva (UE) 2016/943, los órganos jurisdiccionales nacionales estén facultados, previa solicitud debidamente motivada de una parte o por iniciativa propia, para adoptar las medidas específicas necesarias a fin de preservar la confidencialidad cuando dicha prueba se utilice o se mencione en procedimientos judiciales.

Los Estados miembros velarán también por que la persona que reciba la orden de exhibir o conservar las pruebas mencionadas en los apartados 1 o 2 disponga de remedios procesales adecuados en respuesta a dichas órdenes.

5. Cuando un demandado incumpla la orden de un órgano jurisdiccional nacional en una demanda por daños y perjuicios de exhibir o conservar las pruebas que obran en su poder con arreglo a los apartados 1 o 2, el órgano jurisdiccional nacional presumirá el incumplimiento por parte del demandado de un deber de diligencia pertinente, en particular en las circunstancias a que se refiere el artículo 4, apartados 2 o 3, que las pruebas solicitadas estaban destinadas a probar a efectos de la correspondiente demanda por daños y perjuicios.

Al demandado le asistirá el derecho de refutar esa presunción.

Artículo 4. Presunción refutable de relación de causalidad en caso de culpa

1. Sin perjuicio de los requisitos establecidos en el presente artículo, los órganos jurisdiccionales nacionales presumirán, a efectos de la aplicación de las normas de responsabilidad a demandas por daños y perjuicios, el nexo causal entre la culpa del demandado y los resultados producidos por el sistema de IA o la no producción de resultados por parte del sistema de IA, siempre y cuando se cumplan todas las condiciones siguientes:

a) que el demandante haya demostrado o el órgano jurisdiccional haya supuesto, de conformidad con el artículo 3, apartado 5, la culpa del demandado o de una persona de cuyo comportamiento sea responsable el demandado, consistente en el incumplimiento de un deber de diligencia establecido por el Derecho de la Unión o nacional destinado directamente a proteger frente a los daños que se hayan producido;

b) que pueda considerarse razonablemente probable, basándose en las circunstancias del caso, que la culpa ha influido en los resultados producidos por el sistema de IA o en la no producción de resultados por parte del sistema de IA;

c) que el demandante haya demostrado que la información de salida producida por el sistema de IA o la no producción de una información de salida por parte del sistema de IA causó los daños.

2. En caso de demandas por daños y perjuicios contra proveedores de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA] o contra personas sujetas a las obligaciones del proveedor con arreglo al [artículo 24 o al artículo 28, apartado 1, de la Ley de IA], la condición del apartado 1, letra a), solo se cumplirá cuando el demandante haya demostrado que el proveedor o, en su caso, la persona sujeta a las obligaciones del proveedor, ha incumplido cualquiera de los siguientes requisitos establecidos en dichos capítulos, teniendo en cuenta las medidas adoptadas y los resultados del sistema de gestión de riesgos con arreglo al [artículo 9 y el artículo 16, letra a), de la Ley de IA]:

a) el sistema de IA es un sistema que utiliza técnicas que implican el entrenamiento de modelos con datos y que no se ha desarrollado a partir de conjuntos de datos de entrenamiento, validación y prueba que cumplen los criterios de calidad expuestos en el [artículo 10, apartados 2 a 4, de la Ley de IA];

b) el sistema de IA no ha sido diseñado ni desarrollado de modo que cumpla los requisitos de transparencia establecidos en [el artículo 13 de la Ley de IA];

c) el sistema de IA no ha sido diseñado ni desarrollado de modo que permita una vigilancia efectiva por personas físicas durante el período de utilización del sistema de IA de conformidad con el [artículo 14 de la Ley de IA];

d) el sistema de IA no ha sido diseñado ni desarrollado de modo que, a la luz de su finalidad prevista, alcance un nivel adecuado de precisión, solidez y ciberseguridad de conformidad con [el artículo 15 y el artículo 16, letra a), de la Ley de IA]; o

e) no se han adoptado de forma inmediata las medidas correctoras necesarias para poner el sistema de IA en conformidad con las obligaciones establecidas en el [título III, capítulo 2, de la Ley de IA] o para retirar del mercado o recuperar el sistema, según proceda, de conformidad con el [artículo 16, letra g), y artículo 21 de la Ley de IA].

3. En caso de demandas por daños y perjuicios contra usuarios de sistemas de IA de alto riesgo sujetos a los requisitos establecidos en los capítulos 2 y 3 del título III de la [Ley de IA], la condición del apartado 1, letra a), se cumplirá cuando el demandante demuestre que el usuario:

a) no cumplió con sus obligaciones de utilizar o supervisar el sistema de IA de conformidad con las instrucciones de uso adjuntas o, en su caso, de suspender o interrumpir su uso con arreglo al [artículo 29 de la Ley de IA]; o

b) expuso al sistema de IA a datos de entrada bajo su control que no eran pertinentes habida cuenta de la finalidad prevista del sistema con arreglo al [artículo 29, apartado 3, de la Ley].

4. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA de alto riesgo, los órganos jurisdiccionales nacionales no aplicarán la presunción establecida en el apartado 1 cuando el demandado demuestre que el demandante puede acceder razonablemente a pruebas y conocimientos especializados suficientes para demostrar el nexo causal mencionado en el apartado 1.

5. En el caso de las demandas por daños y perjuicios relacionadas con sistemas de IA que no sean de alto riesgo, la presunción establecida en el apartado 1 solo se aplicará cuando el órgano jurisdiccional nacional considere excesivamente difícil para el demandante demostrar el nexo causal mencionado en el apartado 1.

6. En el caso de las demandas por daños y perjuicios contra un demandado que haya utilizado el sistema de IA en el transcurso de una actividad personal de carácter no profesional, la presunción establecida en el apartado 1 solo se aplicará cuando el demandado haya interferido sustancialmente en las condiciones de funcionamiento del sistema de IA o cuando el demandado tuviese la obligación y estuviese en condiciones de determinar las condiciones de funcionamiento del sistema de IA y no lo haya hecho.

7. Al demandado le asistirá el derecho de refutar la presunción establecida en el apartado 1.

Artículo 5. Evaluación y revisión específica

1. A más tardar el [FECHA cinco años después del final del período de transposición], la Comisión revisará la aplicación de la presente Directiva y presentará un informe al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, acompañado, en su caso, de una propuesta legislativa.

2. El informe examinará los efectos de los artículos 3 y 4 en la consecución de los objetivos perseguidos por la presente Directiva. En particular, deberá evaluar la idoneidad de las normas de responsabilidad objetiva (sin culpa) para las demandas contra los operadores de determinados sistemas de IA —siempre que estas no estén ya reguladas por otras normas de responsabilidad de la Unión— y la necesidad de aseguramiento, teniendo en cuenta al mismo tiempo el efecto y el impacto en la introducción general y la adopción de los sistemas de IA, especialmente para las pymes.

3. La Comisión establecerá un programa de seguimiento para la preparación del informe con arreglo a los apartados 1 y 2, en el que se establecerá cómo y con qué periodicidad se recopilarán los datos y demás elementos de prueba necesarios. El programa especificará las medidas que deban adoptar la Comisión y los Estados miembros para recopilar y analizar los datos y demás elementos de prueba. A efectos de dicho programa, los Estados miembros comunicarán a la Comisión los datos y elementos de prueba pertinentes, a más tardar el [31 de diciembre del segundo año completo siguiente al final del período de transposición] y al final de cada año posterior.

Artículo 6. Modificación de la Directiva (UE) 2020/1828

En el anexo I de la Directiva (UE) 2020/1828 (40), se añade el punto 67 siguiente:

«(67) Directiva (UE) …/… del Parlamento Europeo y del Consejo, de …, relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad en materia de IA) (DO L… de…, p. …).».

Artículo 7. Transposición

1. Los Estados miembros adoptarán las disposiciones legales, reglamentarias y administrativas necesarias para dar cumplimiento a la presente Directiva a más tardar el [dos años después de su entrada en vigor]. Comunicarán inmediatamente a la Comisión el texto de dichas disposiciones.

Cuando los Estados miembros adopten dichas disposiciones, estas incluirán una referencia a la presente Directiva o irán acompañadas de dicha referencia en su publicación oficial. Los Estados miembros establecerán las modalidades de la mencionada referencia.

2. Los Estados miembros comunicarán a la Comisión el texto de las principales disposiciones de Derecho interno que adopten en el ámbito regulado por la presente Directiva.

Artículo 8. Entrada en vigor

La presente Directiva entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Artículo 9. Destinatarios

Los destinatarios de la presente Directiva son los Estados miembros.

Hecho en Bruselas, el

Por el Parlamento Europeo, La Presidenta    Por el Consejo, El Presidente

——————————————-

(1)   European enterprise survey on the use of technologies based on AI (Encuesta empresarial europea sobre el uso de tecnologías basadas en la IA), Ipsos 2020, Final report, p. 58.

( https://op.europa.eu/en/publication-detail/-/publication/f089bbae-f0b0-11ea-991b-01aa75ed71a1 )

(2)    https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf

(3)   Libro Blanco sobre la inteligencia artificial — un enfoque europeo orientado a la excelencia y la confianza, 19.2.2020, [COM(2020) 65 final].

(4)   Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, 19.2.2020 [COM(2020) 64 final].

(5)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)].

(6)   Resolución del Parlamento Europeo, de 3 de mayo de 2022, sobre la inteligencia artificial en la era digital [2020/2266 (INI)].

(7)   Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) [COM(2021) 206 final].

(8)   Solo un reducido número de casos de uso de la IA están expresamente prohibidos por la Ley de IA.

(9)   Documento de trabajo de los servicios de la Comisión SWD(2021) 84 final, Evaluación de impacto que acompaña a la Ley de Inteligencia Artificial, p. 88.

(10)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos [COM(2021) 346 final].

(11)   Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios [COM(2021) 202 final].

(12)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(13)   Comunicación de la Comisión «Configurar el futuro digital de Europa» [COM(2020) 67 final].

(14)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a los requisitos horizontales de ciberseguridad para productos con elementos digitales) — COM(2022) 454 final]

(15)   Comunicación de la Comisión «Una Estrategia Europea de Datos» [COM(2020) 66 final].

(16)   Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones: El Pacto Verde Europeo [COM(2019) 640 final].

(17)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021 («Estudio económico»).

(18)   Estrategia Nacional de Inteligencia Artificial de la República Checa, 2019: https://www.mpo.cz/assets/en/guidepost/for-the-media/press-releases/2019/5/NAIS_eng_web.pdf ; AI Watch, «National strategies on Artificial Intelligence — A European perspective» (Estrategias nacionales para la inteligencia artificial: una perspectiva europea), edición de 2021, informe del JRC y la OCDE: https://op.europa.eu/es/publication-detail/-/publication/619fd0b5-d3ca-11eb-895a-01aa75ed71a1 , p. 41.

(19)   2025 Strategia per l’innovazione técnica e la digitalizzazione del Paese: https://assets.innovazione.gov.it/1610546390-midbook2025.pdf ;

(20)   Deloitte, Study to support the Commission’s IA on liability for artificial intelligence, 2021, p. 96.

(21)   Véase Polityka Rozwoju Sztucznej. Inteligencji w Polsce na lata 2019 – 2027 (Política para el desarrollo de la inteligencia artificial en Polonia, 2019-2027) ( www.gov.pl/attachment/0aa51cd5-b934-4bcb-8660-bfecb20ea2a9 ), 102.

(22)   AI Portugal 2030: https://www.incode2030.gov.pt/sites/default/files/julho_incode_brochura.pdf ; AI Watch, op. cit., p. 113.

(23)   Principalmente, responsabilidad objetiva, inversión de la carga de la prueba o atenuación de la carga de la prueba en forma de presunciones irrefutables o refutables (absolutas o relativas).

(24)   Este resumen puede encontrarse en < https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_es >

(25)   Liability for artificial intelligence and other emerging digital technologies (Responsabilidad en materia de inteligencia artificial y otras tecnologías digitales emergentes), noviembre de 2019, https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en 

(26)   Karner/Koch/Geistfeld, Comparative Law Study on Civil Liability for Artificial Intelligence (Estudio de Derecho comparado sobre responsabilidad civil por inteligencia artificial), 2021, https://op.europa.eu/en/publication-detail/-/publication/8a32ccc3-0f83-11ec-9151-01aa75ed71a1/language-en .

(27)   Kantar, Behavioural Study on the link between challenges of Artificial Intelligence for Member States’ civil liability rules and consumer attitudes towards AI-enabled products and services («Estudio de conducta sobre el vínculo entre los retos de la inteligencia artificial para las normas de los Estados miembros en materia de responsabilidad civil y las actitudes de los consumidores respecto a los productos y servicios en los que se emplea IA», documento en inglés), informe final de 2021.

(28)   Deloitte, Study to support the Commission’s Impact Assessment on liability for artificial intelligence, 2021.

(29)   DO C de , p. .

(30)   DO C de , p. .

(31)   [Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) – COM(2021) 206 final].

(32)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la seguridad general de los productos (COM[2021] 346 final)].

(33)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a las máquinas y sus partes y accesorios (COM[2021] 202 final)].

(34)   Reglamento Delegado (UE) 2022/30 de la Comisión que completa la Directiva 2014/53/UE del Parlamento Europeo y del Consejo en lo que respecta a la aplicación de los requisitos esenciales contemplados en el artículo 3, apartado 3, letras d), e) y f), de dicha Directiva (DO L 7 de 12.1.2022, p. 6).

(35)   Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

(36)   [Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a un mercado único de servicios digitales (Ley de servicios digitales) — COM(2020) 825 final]

(37)   Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo, de 8 de junio de 2016, relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas (DO L 157 de 15.6.2016, p. 1).

(38)   Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial [2020/2014(INL)] (DO C 404 de 6.10.2021, p. 107).

(39)   DO C 369 de 17.12.2011, p. 14.

(40)   Directiva (UE) 2020/1828 del Parlamento Europeo y del Consejo, de 25 de noviembre de 2020, relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores, y por la que se deroga la Directiva 2009/22/CE (DO L 409 de 4.12.2020, p. 1).